Time Series Foundation Models

Mit Zero Shot zu (besseren) Zeitreihenprognosen

Zeitreihenprognosen gehören zu den zentralen Anwendungsfeldern von Data Science und KI – von der Absatzplanung über Energiebedarfsprognosen bis hin zu Predictive Maintenance. In der Praxis stehen Unternehmen jedoch häufig vor einer Herausforderung: Es fehlen ausreichende, qualitativ hochwertige historische Daten. Klassische Forecasting-Modelle geraten hier schnell an ihre Grenzen. Zero-Shot Time Series Forecasting mit Foundation Models bietet in solchen Fällen eine leistungsfähige Lösung.

Der Ansatz ist jedoch nicht nur für „Wenig-Daten“-Szenarien relevant: Time Series Foundation Models liefern allgemein gute Ergebnisse und können klassische Modelle sogar ohne Training ersetzen.

Was bedeutet „Zero-Shot Time Series Forecasting“?

Der Begriff „Zero-Shot“ beschreibt, vereinfacht gesagt, die Fähigkeit eines Modells, Aufgaben zu lösen, ohne speziell dafür trainiert worden zu sein.

Mit Blick auf Zeitreihenprognosen bedeutet dies: Ein Modell erstellt Vorhersagen für eine neue Zeitreihe, ohne zuvor auf genau dieser Zeitreihe trainiert worden zu sein.

In der Vergangenheit wurden Zeitreihen mithilfe von individuell trainierten Machine- oder Deep-Learning-Modellen erstellt. Diese benötigen umfangreiche Daten, etwa eine lückenlose und langfristige Historie von Sensordaten. Sie werden typischerweise auf jeden Use Case zugeschnitten, um verlässliche Ergebnisse zu liefern. Bei Zero-Shot-Prognosen hingegen kommt ein bereits vortrainiertes Time-Series-Foundation-Model zum Einsatz.

Was sind Time Series Foundation Models (TSFM)?

Time Series Foundation Models sind allgemeine, vortrainierte KI-Modelle. Sie wurden im Vorfeld auf sehr großen und vielfältigen Datensätzen (hier: Zeitreihen) trainiert und sind dadurch in der Lage, Muster gut zu erkennen und zukünftige Werte vorherzusagen.

Große Sprachmodelle (Large Language Models; kurz: LLMs) sind ebenfalls Foundation Models – für Text statt für Zeitreihen.

Genauso wie klassische Machine- oder Deep-Learning-Modelle werden Foundation Models mit großen Datenmengen trainiert. Bei klassischen Modellen basiert das Training jedoch auf einer spezifischen, für den Anwendungsfall ausgewählten Datengrundlage. Foundation Models hingegen werden auf einer allgemeinen Datengrundlage trainiert und liegen direkt einsetzbar vor. Für die Erstellung einer Prognose (Modellinferenz) benötigen beide Ansätze anschließend nur einen kurzen Ausschnitt der relevanten Zeitreihe, beispielsweise Daten eines Tages oder sogar nur weniger Stunden.

Bessere Prognosen mit Foundation Models

Die neuesten vortrainierten Foundation Models erzeugen in öffentlichen Benchmarks sehr gute Prognosen. In unseren eigenen Tests haben wir mit TSFMs deutlich bessere Resultate erzielen können als mit etablierten Methoden. Daraus schlussfolgern wir, dass die aktuelle Modellgeneration längst nicht mehr allein eine Notlösung bei fehlenden Trainingsdaten darstellt, sondern sich mittlerweile zur Standardlösung für Zeitreihenprobleme entwickelt hat.

Natürlich sollte die Prognosequalität stets evaluiert und – sofern möglich – mit speziell trainierten ML-/DL-Modellen verglichen werden. Bei geringem Budget oder weniger strengen Anforderungen an die Prognose ist der direkte Einsatz von Foundation Models aus unserer Sicht eine gute, praktikable Lösung.

Foundation Models können ohne größere Änderungen am Gesamtsystem eingesetzt werden. Sie funktionieren auch ohne zusätzliches Training („Drop-in Replacement“). Daher eignen sie sich, um bestehende Zeitreihen-Prognosen mit klassischen Modellen zu hinterfragen. So lässt sich prüfen, ob bessere oder genauere Ergebnisse möglich sind.

Aufgrund der hohen Veröffentlichungsdichte neuer Modelle und Ansätze sind zudem weitere Verbesserungen zu erwarten. Ein besonders spannender Ansatz, der derzeit noch nicht produktionsreif ist, sind agentische Ansätze, die Time-Series-Foundation-Models in einem sprachmodellgesteuerten Ensemble verbinden.

Vorteile von Foundation Models

Vorteile von Foundation Models

  1. Schneller produktiver Einsatz
    Foundation Models sind in der Regel direkt nutzbar („out of the box“):

    • Kein aufwendiges Training/Feintuning notwendig
    • Schnelle Integration in bestehende Systeme
    • Deutlich reduzierter Time-to-Value
  2. Reduzierter MLOps-Aufwand
    Der Verzicht auf individuelles Training bringt erhebliche operative Vorteile:

    • Reduzierte Anforderungen an Dateninfrastrukturen
    • Einfacherer Modellwechsel
    • Geringerer Wartungsaufwand

Fazit und Ausblick

Wir beobachten aktuell eine klare Entwicklung:
Foundation Models verändern, ähnlich wie LLMs, die Art und Weise, wie Zeitreihenprognosen erstellt werden – sowohl technisch als auch strategisch.

Bereits jetzt liefern Time Series Foundation Models wie TimesFM sowie die Chronos-Modellfamilie in vielen Fällen gute Ergebnisse im Vergleich zu klassischen Modellen. Dies führt nicht nur in der Data-Science-Community, sondern auch im Produktiveinsatz bei Unternehmen dazu, dass der Einsatz von Foundation Models immer mehr zur Norm wird.

Besonders spannend: Ähnlich wie beim Einsatz von Sprachmodellen und Zeitreihen schreitet die Entwicklung vortrainierter Modelle für tabellarische Aufgaben immer weiter voran.

Insgesamt zeigt die Entwicklung von Foundation Models einen Paradigmenwechsel. Sie führt weg von aufwendig trainierten Einzellösungen. Stattdessen entstehen flexibel einsetzbare Lösungen. Diese basieren auf vortrainierten Modellen und lassen sich schneller umsetzen. Zudem können sie einfacher optimiert werden, beispielsweise durch den Austausch von Foundation Models.

Weiterführende Inhalte

Machen Sie Ihre Daten zum Wettbewerbsvorteil:

Wir entwickeln Ihre KI-Lösungen. Jetzt Potenziale entdecken und ausschöpfen.

FAQ

Was ist Zero-Shot Time Series Forecasting?

Ein Ansatz, bei dem vortrainierte Modelle Prognosen erstellen, ohne auf spezifische Zeitreihen trainiert zu werden.

Wann sollte man Zero-Shot Forecasting einsetzen?
Ist Zero-Shot besser als klassische Modelle?
Welche Modelle sind für Zero-Shot-Forecasts geeignet?

Veröffentlicht: 4. Mai 2026

AutorIn

Matthias Henneke

Matthias Henneke ist Data Scientist und kam nach Stationen in Wirtschaft und Wissenschaft zu eoda. Seine Hauptaufgaben beinhalten unter anderem die Entwicklung von kundenspezifischen Machine Learning Lösungen im Industriekontext. Im Rahmen von Trainings gibt er gerne praxisorientierte Data Science Skills weiter.

Row edge-slant Shape Decorative svg added to top
Row edge-slant Shape Decorative svg added to bottom

Starten Sie jetzt durch:
Wir freuen uns auf den Austausch mit Ihnen. 







    Nach oben scrollen