9 Erfolgsfaktoren für belastbare Forecasts

„Prognosen sind schwierig, besonders wenn sie die Zukunft betreffen.“, so lautet eine bekannte Phrase. So schwierig zutreffende Forecasts sind, so wichtig sind sie auch für erfolgreiche operative Entscheidungen und die strategische Ausrichtung eines Unternehmens. Wie entwickelt sich der Absatz in einem bestimmten Zielmarkt? Wie viele Ersatzteile eines bestimmten Bauteils müssen bevorratet werden? Wie sieht der Ressourcenbedarf im nächsten Jahr aus? Wie entwickeln sich die Preise für benötigte Rohstoffe? Nahezu jeder Geschäftsbereich wird täglich mit dem Thema Forecasting konfrontiert – singulär oder kontinuierlich, nur den Bereich betreffend oder mit Auswirkungen für das gesamte Unternehmen.

Gerade die essenziellen Prognosen werden immer mehr durch den Einfluss von Big Data und künstlicher Intelligenz verändert.

Worauf kommt es beim Forecasting an? Wir stellen Ihnen die Erfolgsfaktoren für belastbare Forecasts vor.

Identifikation des richtigen Einsatzgebietes für einen Forecast

Konzeption, Datenmanagement, Modellentwicklung und – optimierung: Der Aufbau eines erfolgreichen Forecastings ist die Entscheidung für ein Projekt und damit verbundene Aufwände. Deshalb steht vor der eigentlichen Entwicklung des Forecasts die Identifikation des richtigen Einsatzgebiets. In welchem Einsatzszenario liefert ein Forecast den größten Business Value? Wo gibt es das größte Potenzial für Verbesserungen, weil sich die bestehenden Prognosen noch irgendwo zwischen Bauchgefühl und Excel-Schieberei abspielen? Welcher Bereich liefert ausreichend Daten, um eine analytische Machbarkeit zu erreichen? Antworten auf diese Fragen führen zum richtigen Einsatzgebiet und schaffen eine hohe Wahrscheinlichkeit, dass aus der Idee signifikante Verbesserungen entstehen.

Definition des richtigen Ziels / der richtigen Vorhersagegröße

Der Ausgangspunkt eines jeden Forecasts – die genaue Festlegung der Vorhersagegröße. Was soll mit dem Forecast erreicht werden? Welche Größe soll dafür prognostiziert werden? Damit am Ende eine möglichst belastbare und vor allem relevante Prognose herauskommt, gilt es hier präzise zu definieren, welche Vorhersagegröße angestrebt wird. So könnte sich zum Beispiel die Definition des Absatzes im Laufe des kaufmännischen Prozesses verändern. Wichtig ist, dass alle beteiligten Stakeholder das gleiche Verständnis haben und es nicht dazu kommt, dass der Vertrieb von einer bestimmten Größe ausgeht und das Controlling von einer anderen.

Definition des richtigen Prognosehorizonts

Wenn die Vorhersagegröße identifiziert wurde, gilt es zu bestimmen, wie weit voraus der Prognosehorizont liegt. Hier gibt es zwei Perspektiven zu beachten:

  • Die inhaltliche Perspektive: Für welchen zeitlichen Horizont macht eine Prognose überhaupt Sinn? Mit welchem Vorlauf muss eine Prognose vorliegen, damit sie im richtigen Zeitpunkt in die Planungen einfließen kann?
  • Die analytische Perspektive: Wie stark wirkt sich ein entfernterer Prognosezeitraum auf die Genauigkeit aus? Sind bereits heute alle wesentlichen Daten verfügbar, um weiter voraus prognostizieren zu können?

Definition und Verfügbarkeit der relevanten Einflussgrößen

Aus welchen Informationen soll sich der Forecast speisen? Welche Größen haben einen positiven Einfluss auf die Prognosegenauigkeit? Hier reicht die Spanne der Möglichkeiten von selbstverständlichen Größen wie historischen Umsatz- oder Absatzzahlen bis hin zu bislang vielleicht nicht berücksichtigten Größen wie Börsenkursen von Marktbegleitern oder Großkunden. Die Frage nach den relevanten Einflussgrößen ist dabei untrennbar mit der Folgefrage nach ihrer Verfügbarkeit verbunden. Wenn definierte Einflussgrößen grundsätzlich nicht vorhanden oder (aktuell) nicht verfügbar sind, kann das gravierende Auswirkungen auf die Prognosegüte haben.

Bei den Einflussgrößen besteht häufig der Trugschluss, dass die Einbindung möglichst vieler Datenquellen automatisch zu besseren Prognoseergebnissen führt. Wichtiger ist, die richtigen Einflussgrößen zu erkennen und für die Datenbasis zu erschließen und damit die Aussagekraft der Forecasts zu erhöhen.

Genaue Überprüfung der Datenbasis

Ausgehend von der Vorhersagegröße, dem Prognosehorizont und den Einflussgrößen gilt es die Datengrundlage im Detail zu sichten. Ist diese in der Menge ausreichend für das Training der zu entwickelnden Prognosemodelle? Unterliegt die Zeitreihe zum Beispiel Saisonalitäten, müssen auch genügend Daten vorliegen, um diese entsprechend abzubilden und die saisonalen Effekte in den Forecast überführen zu können. Identifizierte Defizite in der Datenbasis können zum Beispiel durch die Hinzunahme weiterer, auch externer, Datenquellen und einem entsprechenden Datenmanagement entgegengewirkt werden. Häufig werden in diesem Zuge auch Daten von Bedeutung, die ursprünglich gar nicht für eine Analyse oder zumindest nicht für diesen konkreten Anwendungsfall erhoben wurden. Auch kann die Einführung von Maßnahmen zur systematischeren Datenerfassung ein Ergebnis der Überprüfung der Datenbasis sein, um die Informationsgrundlage zu schaffen, die es für den anvisierten Forecast braucht.

Definition der richtigen Benchmark zur Prognose

Zur Bewertung der Prognosegüte können verschiedene KPIs herangezogen werden. Gängige Größen sind z.B. der MAPE (Mean absolute Percentage Error) oder der RMSE (Root Mean squared Error). Error steht dabei für die Abweichung zwischen tatsächlich gemessenem Wert und vorhergesagtem Wert. Je nach Sachverhalt bieten sich unterschiedliche KPIs an. Möchte man z.B. große Abweichungen minimieren bietet sich der RMSE an, da dieser durch die Quadrierung großer Abweichungen höher gewichtet.

Konsequentes Monitoring des Forecasts im Live-Betrieb

Für eine gleichbleibend hohe oder stetig steigende Prognosequalität gilt es, die Algorithmen kontinuierlich zu optimieren. Ein konsequentes Monitoring der Forecasts ist die Grundlage, um Schwächen, wie zum Beispiel Brüche in der Zeitreihe zu ermitteln und angehen zu können. Insbesondere bei volatilen Rahmenbedingungen ist die Arbeit an einem produktiv eingesetzten Prognosealgorithmus nie vollständig abgeschlossen.

Abbildung unterschiedlicher Szenarien im Forecast

Bestimmte Einflussgrößen können je nach Entwicklung massive Auswirkungen auf die Vorhersagegröße haben. Decken Forecasts unterschiedliche Szenarien ab, werden sie noch mehr zur Entscheidungshilfe, da sie Entscheidern flexibel Informationen für unterschiedliche Annahmen liefern können.

Einbeziehung von Expertenwissen

Auch beim Thema Forecasting gilt nicht KI ODER Expertenwissen, sondern für bestmögliche Prognosen KI UND Expertenwissen. Fachexperten können über Wissen verfügen, welches sich noch nicht in den Daten widerspiegelt. Das persönliche Gespräch mit einem wichtigen Kunden oder gesehene Meldungen über einflussnehmende Ereignisse in den Nachrichten sind hier nur zwei Beispiele. Fachexperten können Kontext liefern, die Prognoseergebnisse aus fachlicher Sicht bewerten und notwendige Optimierungen anstoßen.

YUNA delphi. Für bessere Forecasts.

Unsere Forecasting Software YUNA delphi verbindet genau deshalb Ihr vorhandenes Expertenwissen mit den Prognose-Algorithmen unserer erfahrenen Data Science Experten – für bessere Forecasts.

Erfahren Sie mehr zu YUNA delphi.

Screenshot und Logo von YUNA delphi

Case Study: KI für bessere Sales Forecasts

Erfahren Sie, wie wir für den Weltmarktführer SMA die Genauigkeit des Sales Forecast durch den Einsatz von künstlicher Intelligenz um bis zu 35% steigern konnten. 

Erfahren Sie mehr in unserer Case Study

Co-Autor

Martin Schneider

Als Senior Data Scientist bei eoda verfügt er über jahrelange Erfahrung in der Leitung und Umsetzung von Forecasting-Projekten für Unternehmen nahezu aller Branchen.

eoda Datenanalyse-Blog: Bleiben Sie auf dem Laufenden