Daran kann’s liegen, wenn Data Science Projekte nicht erfolgreich sind

Lesezeit: ca. 3 min

Data Science ist eine der umfassendsten Disziplinen des 21. Jahrhunderts. Data Scientists beschäftigen sich mit verschiedensten Methoden und Tools, um aus Daten und deren Analysen mehr Wissen zu generieren. Gerade in Zeiten wie der heutigen, werden Daten und die Erkenntnisse, die wir aus ihnen ziehen können, immer wichtiger. Nahezu jeder Geschäftsprozess generiert und nutzt Daten – eigentlich sogar jeder, wenn man die Unterscheidung zwischen digital und analog außen vor lässt.

Oft denkt man: Der Use Case ist doch definiert, der erhoffte Business Value klar – aber trotzdem schaffen es nicht alle Data-Science-Projekte, den versprochenen Mehrwert zu schaffen. Woran das liegen kann, welche Faktoren es zu beachten gilt und wie, beispielweise ein Tool aufgestellt sein muss, um hier zu helfen, betrachten wir in dieser Reihe.

Auf's Team kommt's an

Kein Projekt kann nur mit einer einzigen Gruppe einen unternehmensweiten Erfolg mit sich bringen. Business Experten können weder Analyseskripte, Algorithmen noch eine Plattform entwickeln, die diese Skripte produktiv setzen. Softwareentwickler können zwar die Plattform entwickeln, aber haben keinen Einfluss auf die technische Infrastruktur. Data Engineers kennen sich mit den Anforderungen einer performanten Infrastruktur aus, müssen aber bei der Entwicklung auf die anderen zurückgreifen. Data Scientists entwickeln die Analysen, sind aber was den betriebswirtschaftlichen Kontext und die Infrastruktur angeht auf Input der anderen angewiesen und die Anwender müssen zuletzt die Suppe auslöffeln.

Ist der Use Case gefunden, MÜSSEN alle Beteiligten an einem Strang ziehen! Das beginnt bei der Konzeption, führt sich weiter in der Entwicklung und mündet in einem dauerhaften, evaluierten und produktiven Einsatz der Lösung. Eine Lösung ist der DataOps-Ansatz. Dabei wird das Grundprinzip des DevOps-Modells genutzt und um weitere Tools, Methoden sowie die oben genannten Akteure erweitert. Ziel ist die (Weiter)Entwicklung von Datenanalysen und ihren Ergebnissen dauerhaft und stetig zu optimieren und in gewinnversprechende Datenprodukte zu transformieren.

Kurz: Für erfolgreiche Projekte benötigt man das passende Know-How aus Business-Expertise, Data Science, Infrastruktur und all jenen, die unmittelbar mit der Lösung arbeiten werden. Braucht jede Organisation aus diesem Grund eine ganze Fußballmannschaft? Auch hier: Nein! Business-Kontext und Anwender hat jede Organisation im Haus. Kompetenzen in den Bereichen Data Science, Infrastruktur und das Implementieren einer passenden Plattform, kann durch einen starken Partner geschehen, der eng mit der Organisation und den Beteiligten zusammenarbeitet. So schafft man eine erhöhte Akzeptanz der Projekte und deren Ergebnisse.

Akzeptanz – der Nutzer muss in den Fokus

Bei digitalen Services passiert es oft, dass diese mit einer mangelnden Akzeptanz zu kämpfen haben. Keine Lösung ist vielversprechend, wenn die Anwender mehr Probleme als Nutzen haben. Dies kann an einer Überladung von Informationen, umständlichen Dashboards oder schlichtweg an einer unnötig komplizierten Menüführung liegen.

Dies gilt es zu vermeiden:

  • Umständliche Nutzung, die das Tagesgeschäft eher behindern – lässt sich mit übersichtlichen Dashboards / Ansichten beheben, die sich auch noch individualisieren lassen.
  • Schlechte Perfomance der Lösung – Niemand wartet gerne 7 Minuten darauf, dass ein Report erstellt wird.
  • Mangelnde Nachvollziehbarkeit der Ergebnisse – wie kommen sie zustande? Setzen Sie auf Transparenz statt auf Black-Box-Konzepte.
  • Fehlende oder unverständliche Darstellung der Ergebnisse – Niemand möchte Diagramme, die man nicht versteht.
  • Unnötiges Wechseln zwischen verschiedene Lösungen für verschiedene Use Cases – Eine Tabelle aus Lösung X ziehen und dann über Excel ein Diagramm erstellen? Nein danke! Die Arbeit muss ohne Medienbruch geschehen.

Die gute Nachricht: Der Markt hat reagiert und entsprechende Plattformen entwickelt. Eine Data-Science-Plattform, wie zum Beispiel YUNA, greifen genau diese Punkte auf. Dashboards lassen sich gezielt so einrichten, dass nur die gewünschten Informationen angezeigt und genutzt werden können. Die Ergebnisse lassen sich konfigurierbar filtern und jeder Datenpunkt eines Diagramms lässt sich, auf Wunsch bis zur eigentlichen Datenquelle zurückverfolgen. In einer robusten und perfomanten Umgebung lassen Analyseskripte unabhängig von Datenmenge und -abfragen ausführen. Auch muss nicht für jedes Projekt eine dedizierte Lösung erstellt werden. Verschiedenste Projekte lassen sich steuern und Teile wiederverwenden: Eine Analyse zur Entwicklung der Absatzzahlen, ein Condition-Monitoring-Portal oder gleich ein Predictive-Maintenance-System – in einer Plattform? Mit YUNA schon!

Was sich zeigt: Der menschliche Faktor hat eine immense Bedeutung beim erfolgreichen Einsatz von Data-Science-Projekten. In diesem Zusammenhang werfen wir im nächsten Beitrag einen Blick darauf, wie man Zielsetzung und Realität miteinander vereinbart und gehen sprichwörtlich auf die Basis ein – die Datenbasis.

 


Weitere, interessante Beiträge:

 

Newsletter abonnieren



Christian Schreiner - Beitrag vom 27.05.2020

Christian Schreiner ist im Bereich Marketing der eoda GmbH tätig. Hier betreut er die innovative Data Science Plattform YUNA rund um das Thema Marketing. Privat interessiert er sich für Suchmaschinen-Optimierung und Trends in der Online-Kommunikation.

Abonnieren Sie unseren Datenanalyse-Blog