It’s (almost) all about the Data: Stolpersteine von Predictive Maintenance

Höhere Maschinenverfügbarkeiten, geringere Wartungskosten und mehr Kundenbindung durch verbesserte Serviceangebote: Die Vorteile von Predictive Maintenance liegen auf der Hand. Die Verantwortlichen haben die Sinnhaftigkeit einer datenbasierten Wartung erkannt und erfolgreiche Beispiele aus der Praxis belegen den Nutzen der Instandhaltungsstrategie der Zukunft.

Der Anteil der Unternehmen, die bereits erfolgreiche Predictive-Maintenance-Initiativen vorweisen können, ist jedoch noch überschaubar. Die Gründe dafür liegen häufig in den Daten.

Stolperstein: Geringe Datenbasis

Eine datenbasierte Instandhaltungsstrategie braucht natürlich vor allem eins: Daten – eine Menge an Daten. Für viele steht an dieser Stelle bereits die erste Hürde auf dem Weg zur Smart Factory, denn es fehlt an den entsprechenden Sensordaten. Predictive Maintenance heißt auf Basis historischer Informationen über den Maschinenzustand Muster zu erkennen, die es ermöglichen, zukünftige Ausfälle zu prognostizieren. Damit dies verlässlich gelingt, sollte der „Datenspeicher“ gut gefüllt sein. Predictive Maintenance braucht also entweder einen gewissen zeitlichen Vorlauf oder eine bereits seit Jahren andauernde systematische Datenerfassung und entsprechende Sensoren.

Stolperstein: Fehlende Informationen

Entgegen gängiger Vermutungen angesichts der großen Popularität des Buzzwords „Big Data“ sind umfangreiche Datenbestände aber auch nicht zwingend die Garantie für erfolgreiche Analyseprojekte. In manchen Fällen ist die Datengrundlage groß, bei genauerer Betrachtung fällt aber auf, dass eben die entscheidende Variable fehlt. Ein Projektbeispiel aus der Praxis: Ein Autobauer wollte den Verschleiß seiner Bremsscheiben prognostizieren lassen. Zur Verfügung standen über zwei Terabyte Bewegungs- und Stammdaten. Auf Basis dieser Einflussfaktoren wurde ein Prognosemodell erstellt, welches bestimmen sollte, wann ein Bremsscheibenwechsel fällig wird. Die Modellierung war erfolgreich, aber nicht sehr belastbar. Es fehlten die historischen Informationen über die Dicke der Bremsscheiben zum Zeitpunkt ihres Wechsels. Dieser Wert wurde von den Kfz-Werkstätten bis dahin schlichtweg nicht erfasst.

Stolperstein: Datenaggregation

Der nächste Schritt ist die richtige Datenaggregation: Sensor eins erfasst den Maschinenzustand alle fünf Minuten, Sensor zwei erfasst Informationen einmal in der Stunde, Sensor drei agiert wiederum in einem anderen Rhythmus. Diese Messwerte richtig zu kombinieren und herauszufinden, mit welcher Taktung die Informationen im Optimalfall erhoben werden müssen, ist eine weitere Hürde. Denn was bringt die entsprechende Sensorik, wenn die entscheidende Phase vor einem Maschinenausfall häufig nicht erfasst wird, weil das Messintervall schlecht gewählt ist? Grundsätzlich gilt natürlich: Die Datenaggregation ist die Basis für die Verarbeitung.

Gleichzeitig kann aber gerade die Aggregation der Daten auf lange Sicht auch ein entscheidender Stolperstein werden. Nämlich dann, wenn Daten ohne genaues Analyseziel oder im Hinblick auf eine andere Fragestellung hin gebündelt wurden. In diesen Fällen besteht die Gefahr, dass entscheidende Maschineninformationen bei späteren Analysevorhaben fehlen. Unsere Empfehlung daher: Die Rohdaten sollten kontinuierlich gespeichert werden, um bei Bedarf eine neue, passendere Aggregation zu ermöglichen.

Ein Maschinensensor erfasst die Temperatur. Anhand der zuvor aggregierten Werte (blau), ist die sprunghafte und für die Maschine schädliche Temperaturveränderung nicht vorherzusehen. Anhand der Rohdaten (grün) kann der drohende Maschinenausfall dagegen prognostiziert werden.

Stolperstein: Plausibilität der Daten

Ebenfalls wichtig im Zuge der Datenaggregation und Grundlage für valide Ergebnisse, ist die Prüfung der Daten auf ihre Plausibilität. Ein bekanntes Beispiel ist hier die Erfassung der Betriebsstunden. Im Zuge der Umstellungen zwischen Sommer- und Winterzeit kommt es immer wieder zu Diskrepanzen zwischen reeller Zeit und den erfassten Betriebsstunden – Diskrepanzen, die die Ergebnisse entscheidend verzerren können.

Die Lösung: Data Science Know-how

Der Schlüssel zu einer belastbaren Datengrundlage und damit zu den Vorteilen von Predictive Maintenance liegt in der frühzeitigen Einbindung von Data Science bzw. Data Engineering Know-how. So besteht die Möglichkeit, im Rahmen erster Analysen ein präzises Bild von der Datenbasis zu erhalten, bestehende Defizite aufzudecken und diese gezielt anzugehen. Dadurch reduziert sich die Entwicklungszeit und den Unternehmen eröffnet sich das Potenzial von Data Science sowie die Vorteile einer datenbasierten, proaktiven Instandhaltung.

Ein Whitepaper und weitere Informationen zum Thema Predictive Maintenance?
Hier entlang.

Tobias Titze - Beitrag vom 24.05.2018

Tobias Titze betreut seit 2013 das Marketing der eoda GmbH. Seine tägliche Aufgabe ist der Brückenschlag zwischen einem komplexen Thema und den Anforderungen des Marktes. Er interessiert sich für Daten und Algorithmen und begeistert sich für die Vorteile, die sich für Unternehmen daraus ergeben.

Abonnieren Sie unseren Datenanalyse-Blog