Vom optimalen Einstieg bis zur richtigen Kommunikation – Die 12 Erfolgsfaktoren von Data Science

Künstliche Intelligenz, Neuronale Netze oder Maschinelles Lernen: Data Science kursiert derzeit unter vielen Begriffen. Ihnen gemeinsam ist die Extraktion von Wissen aus Daten – einem Thema, das Unternehmen aller Branchen, Universitäten und den gesellschaftlichen Diskurs zunehmend beschäftigt

Einige Unternehmen betreiben bereits heute erfolgreich Data Science, andere haben das Potenzial erkannt und suchen nach dem richtigen Einstieg. Wieder andere arbeiten an der Implementierung von analytischen Anwendungen in ihre IT-Landschaft. Die Anforderungen der Unternehmen sind dabei so heterogen wie Data Science selbst. Den einen Masterplan gibt es nicht. Einige grundlegende Erfolgsfaktoren lassen sich jedoch identifizieren.

Erfolgsfaktoren von DataScience
Erfolgsfaktoren von Data Science

Was sind die 12 Erfolgsfaktoren von Data Science?

  • Der Einstieg: Bottom-up statt Top-down
    In vielen Unternehmen ist die Einführung von Data Science ein Bottom-Up-Prozess: Berufseinsteiger und Praktikanten bringen die im Studium erlernten Fähigkeiten im Umgang mit Programmiersprachen wie R in die Unternehmen ein und erzielen dort Erfolge, die die etablierten Mitarbeiter überraschen. Auch die Geschäftsführung wird in vielen Fällen von den analytischen Möglichkeiten positiv überrascht sein. So kann ein Sog entstehen, der Energie freisetzt und Aufbruchsstimmung erzeugt.
  • Das Team: Interdisziplinär

Statistik, Informatik, Mathematik, Softwareentwicklung und Fachwissenschaften mit statistischem Schwerpunkt – Data Science ist ein weites Feld und steht für interdisziplinäre Fähigkeiten. Diese werden kombiniert mit einem detaillierten Verständnis über unternehmensspezifische Geschäftsprozesse und der ausgeprägten Kompetenz, komplexe Sachverhalte auch an Laien kommunizieren zu können.  Data Science ist daher vor allem eines: Die Leistung eines Teams mit unterschiedlichem fachlichen Hintergrund und unterschiedlichen Kompetenzen.

  • Die Weiterbildung: Lebenslanges Lernen am Limit

Die Entwicklung von Analysemethoden, Frameworks und Technologien ist rasant. Zur mathematisch-statistischen Komplexität, die neue Ansätze mit sich bringt, kommt die technische Herausforderung. Data Science bewegt sich häufig am Limit des technisch Machbaren. Massiv parallele Systeme oder die Verlagerung der Berechnung von der CPU auf die GPU erfordern tiefgehende architektonische Kenntnisse.

Data Science steht daher im besonderem Maße für lebenslanges Lernen. Um langfristig erfolgreich zu sein, brauchen Data Scientists den Freiraum, sich in neue Methoden und Verfahren einarbeiten zu können. Diese Freiheit muss sich auch im Projektmanagement abbilden. Wenn Data Scientists diese Freiheit durch Auslastung im Tagesgeschäft genommen wird, geht der Anschluss an State-of-the-art-Technologien nach und nach verloren.

  • Die Entwicklung: Vom Data-Hacker zum Software-Engineer

Data Scientists sind selten als Softwareentwickler ausgebildet. Meist haben sie ihre „Hacking-Skills“ nebenbei entwickelt. Je näher eine Analyse an die operativen Systeme rückt, desto wichtiger ist es, die strukturierte Vorgehensweise der Softwareentwicklung anzuwenden. Dazu zählen beispielsweise Code-Versionierung, Unit Testing, Performanceoptimierung oder standardisierte Dokumentationen.

  • Das Toolset: Im Kern Open Source

Die Wahl der richtigen Tools hängt sowohl vom jeweiligen Anwendungsfall, als auch von den Vorlieben des Teams ab. Allgemein lässt sich jedoch sagen, dass Data Science im Kern des eingesetzten Analysetoolsets auf Open Source setzt. Das hat mehrere Gründe. Da ist zum einen die Leistungsfähigkeit zu nennen: Die Data-Science-Programmiersprache R verfügt beispielsweise über mehr als 10.000 Analyse-Pakete. Der Zuwachs an Paketen verläuft seit Jahren exponentiell. Mit den Paketen lässt sich von der Röntgenbildanalyse bis zur Klassifikation von Soundfiles nahezu jede denkbare analytische Fragestellung bearbeiten. Die Pakete werden von einer weltweiten Community aus hochrangigen Fachwissenschaftlern und Softwareentwicklern erstellt. Auch große Konzerne beteiligen sich: IBM, Microsoft, Oracle, Google oder Tibco sind aktive Förderer der Sprache. Die Leistungsfähigkeit dieser Community ist mit nichts vergleichbar, was ein einzelnes Unternehmen auf die Beine stellen könnte.

Zum anderen können die Analysen durch Schnittstellen zu den Hochsprachen (Java, C, C++ etc.), zu Businessanwendungen (SAP, Salesforce, etc.) und zu Datenbanken aller großen Anbieter flexibel in bestehende Prozesse eingebettet werden.

  • Die Analysemethoden: Der große Methodenkoffer statt „One-Algho-fits-all“

Die Wahl der Analysemethode sollte sich immer am Problem orientieren. Das Zitat von Paul Watzlawick „Wer als Werkzeug nur einen Hammer hat, sieht in jedem Problem einen Nagel“ gilt auch für Data Science. Es ist daher wichtig einen großen Methodenkoffer verfügbar zu haben, aus dem sich das richtige Werkzeug entnehmen lässt. Auch wenn gelegentlich das Gegenteil behauptet wird: Eine einzelne Methode, die jedes Problem lösen kann, existiert nicht. Oft sind sogar Kombinationen verschiedener Methoden, beispielsweise in Form von Ensemble-Modellen oder mehrstufigen Analysen, erfolgreicher als einzelne Verfahren.

Bei der Wahl der Methoden sollte zudem die Zielgruppe der Analysen im Auge behalten werden. Wenn zum Beispiel die Vertriebsplanung durch Data Science unterstützt wird, muss innerhalb der Abteilung ein Mindestmaß an Akzeptanz hergestellt werden. Dies lässt sich am besten durch eine transparente und nachvollziehbare Vorgehensweise erzeugen, die sich bei einigen Analysemethoden leichter realisieren lässt als bei anderen.

  • Der Branchenbezug: Transfer statt Inseldenken

Data Science ist immer in einen Branchen- und Unternehmenskontext eingebunden. Dennoch sollte die Fokussierung auf die eigene Branche nicht zu stark sein. Denn ein weiteres Erfolgskonzept von Data Science lautet Branchentransfer. Der Blick über den Tellerrand hinaus lohnt sich – häufig lassen sich Methoden, die ursprünglich für andere Bereiche entwickelt wurden, auf die eigenen Anwendungsfälle übertragen.

  • Die Erwartungshaltung: Chancen erkennen, aber keine Wunder erwarten

Data Science bietet Unternehmen große Chancen Zusammenhänge zu erkennen und die Zukunft zu prognostizieren. Gleichzeitig ist es wichtig, die Grenzen des Möglichen anzuerkennen.

Datenqualität spielt in diesem Zusammenhang eine Rolle, ebenso wie die Einbettung. Viele Verfahren sind hypothesenfrei, d.h. es ist nicht notwendig im Vorhinein Vermutungen über Zusammenhänge zu formulieren. Das bedeutet allerdings nicht, dass man beliebige Daten out-of-the-box an einen Algorithmus übergeben kann, der daraufhin Fragen beantwortet, die noch gar nicht gestellt wurden. Der Grat zwischen Begeisterung für die Chancen und unrealistischen Erwartungen ist schmal.

  • Der Projektverlauf: Akzeptanz für eine Entdeckungsreise
    Data Science gleicht einer Entdeckungsreise. Die Schätze, die es dabei zu finden gilt, liegen jedoch nicht unbedingt dort, wo man sie im Vorfeld erwartet hat. Um das Potential von Data Science realisieren zu können, bedarf es daher seitens der Geschäftsführung bzw. der führenden Fachabteilung Akzeptanz und Offenheit gegenüber einem hochgradig agilen Vorgehen. Wenn dies nicht von vornherein gegeben ist, lässt sich auch dieser Aspekt am besten durch Transparenz und kontinuierliche Kommunikation herstellen.
  • Die Projektanlage: Think big – start small

Gerade für Unternehmen, die ihre ersten Gehversuche im Bereich Data Science machen, ist die Projektanlage elementar. Typischerweise verlaufen Data-Science-Projekte entlang dreier Reifegradstufen:

  1. Definition und Bewertung potentieller Use-Cases
  2. Umsetzung der erfolgversprechendsten Use-Cases als Proof-of-Concept
  3. Integration erfolgreicher Proof-of-Concept-Lösungen in den Produktivbetrieb

Dieses mehrstufige Vorgehen empfiehlt sich, um Potentiale und Probleme frühzeitig zu erkennen. Fail-Fast ist das Stichwort. Mit dieser Strategie lassen sich Fehlschläge vermeiden und Budgets und Ressourcen effektiv einsetzten.

Ein agiles Projektmanagement führt zu schnelleren Erfolgen und ermöglicht es Chancen und Risiken evidenzbasiert abzuwägen.

  • Die Fachabteilungen: Mitnehmen und einbinden
    Nicht selten herrscht in Fachabteilungen Skepsis gegenüber Data Science. Die inhaltlichen Experten befürchten durch Data Science, Machine Learning sowie künstliche Intelligenz Aufgaben und Wertschätzung zu verlieren und reagieren deshalb zurückhaltend bis ablehnend. Diese Zurückhaltung aufzulösen bzw. zu verhindern und Akzeptanz herzustellen, ist eine notwendige Bedingung für den Erfolg von Data-Science-Projekten. Dabei sind zwei Aspekte zentral: Erstens muss deutlich gemacht werden, dass der Fachbereich die führende Rolle behält. Es geht darum Assistenzsysteme zu entwickeln, die dabei helfen, bessere Entscheidungen zu treffen. Der Aufbau autonomer algorithmischer Systeme ist in den allermeisten Kontexten weder realistisch noch zielführend. Zweitens sollte der Fachbereich motiviert werden, Data Science mit inhaltlicher Expertenkompetenz zu unterstützten. Beide Seiten, Data Science und Fachbereiche, liefern den Erfolgsbeitrag für ein gemeinsames Ziel. Das volle Potential lässt sich nur abschöpfen, wenn alle an einem Strang ziehen.
  • Die Kommunikation: Verständliche Botschaften und Empathie statt Statistik-Kauderwelsch

Neben der fachlichen Aufgabe kommt den Data Scientists die Aufgabe zu, ein Verständnis für die Herausforderungen und Fragestellungen der Fachabteilungen zu entwickeln sowie komplexe statistische Verfahren verständlich zu erklären. Es gilt, statistische Fachtermini gegenüber den Fachabteilungen zu vermeiden. Besser ist es, das Vorgehen nachvollziehbar darzustellen und somit den Nutzen für alle Beteiligten aufzuzeigen.

Hier spielt die Kommunikationskultur im Unternehmen eine entscheidende Rolle. Wenn Mitarbeiter offen, kooperativ und teamorientiert arbeiten und Transparenz belohnt wird, profitieren letztlich alle Beteiligten.


Oliver Bracht - Beitrag vom 30.03.2017

Oliver Bracht ist Mitgründer und als Chief Data Scientist verantwortlich für das Projektgeschäft der Kasseler eoda GmbH. Er ist Statistik-Experte mit einer ausgeprägten Vorliebe für die Kommunikation über statistische Methoden und Ergebnisse. Er verfügt über jahrelange Erfahrung in der Analyse komplexer Zusammenhänge unter Verwendung anspruchsvoller Methodenwerkzeuge. Oliver Bracht hat sein Magister-Studium der Soziologie, Philosophie und allgemeinen Rhetorik mit einer Arbeit zur empirischen Sozialforschung abgeschlossen.

Abonnieren Sie unseren Datenanalyse-Blog