Data Science Projekte weichen in der Praxis in vielerlei Hinsicht von anderen IT-Projekten ab. Dies liegt vor allem darin begründet, dass sie häufig experimenteller Natur sind. Festgelegt wird beispielsweise, welche Daten betrachtet werden. Welche Art der Erkenntnisse daraus gewonnen werden, ergibt sich häufig erst im Lauf des Projekts. Der Unsicherheitsfaktor ist dementsprechend hoch. Weitere Quellen der Unsicherheit sind darüber hinaus Verfügbarkeit, Relevanz und Qualität der zu untersuchenden Daten. Als Konsequenz daraus ergeben sich zahlreiche Iterationen, die vorab nicht planbar sind. Klassische Vorgehensweisen wie der Wasserfall-Ansatz eignen sich aus diesem Grund nicht für Data Science Projekte.
Im Rahmen des Data Science Projektes bei der VWFS erwiesen sich neben dem iterativen Vorgehen die zielgerichtete Kommunikation, das Management der Erwartungen sowie das Verständnis für die fachlichen und datentechnischen Anforderungen als zentrale Faktoren von Scrum, die wesentlich zum betriebswirtschaftlichen Projekterfolg beitragen. Allerdings empfiehlt die mayato Expertin Caroline Kleist für Data Science Projekte einige Adaptionen: „Dazu zählen vor allem die Definitionen der Artefakte von Scrum und die Nutzung unterstützender Tools zur Schaffung eines sinnvollen Rahmens für Data Science Projekte.“
Die genaue Analyse erschien in einem eigenen Kapitel „Scrum in Data Science Projekten“ im kürzlich veröffentlichten Buch „Data Science“ von Carsten Felden, Michael Zimmer, Stephan Trahasch und Uwe Haneke (dpunkt, ISBN 978149207204).