Insbesondere in der Serienfertigung kommt die Produktion in einer Fertigungsstraße manchmal wegen kleiner Verschleißprobleme zum Erliegen. Der finanzielle Schaden ist oft immens. Deshalb lohnt sich bei der Herangehensweise an die neuen Möglichkeiten der vorausschauenden Wartung zunächst eine Analyse, wo teure Ausfälle besonders oft entstehen.
Predictive Maintenance wurde im Rahmen von Big Data Analytics, Industrie 4.0 und Smart Factory nicht von ungefähr als eines der ersten großen Anwendungsszenarien in der Produktion identifiziert. Dennoch kommt der eigentlich lohnende Ansatz in den Unternehmen nur langsam vom Fleck. "Häufig gibt es in der Praxis lediglich einen Proof of Concept. Nur wenige Unternehmen haben bisher produktive Lösungen für vorausschauende Wartung im Einsatz", stellt T-Systems-Datenspezialist Prof. Karlheinz Blank fest. Der KI-Experte lehrt unter anderem an der Hochschule Reutlingen.
Vorausschauende Wartung: Beispiel Industrieroboter
In ersten Praxisprojekten konnte durch gezielte Datenanalyse auf Basis von KI und Machine Learning sichergestellt werden, dass auftretende Anomalien rechtzeitig erkannt und Ausfälle so verhindert werden. "In einem Proof of Concept konnten wir auf der Basis der vorliegenden Echtdaten von Industrierobotern Ausfälle zwischen einem und bis zu sechs Tagen im Voraus prognostizieren. Wir haben über den Zeitraum von mehreren Monaten hinweg keine falsche Vorhersage gemacht und auch keinen Ausfall übersehen", berichtet Karlheinz Blank.
Dafür kam das selbstlernende Modell vom Partner IS Predict zum Einsatz. Die Lösung kann sich dem Experten zufolge auf Basis kontinuierlichen Lernens automatisch weiter optimieren. So ist eine immer präzisere Vorhersage von Störungen erreichbar. Wenn ein Ausfall schon so frühzeitig vorausgesagt wird, ergeben sich weitere Vorteile: Zum Beispiel können bei einem präventiven Serviceeinsatz auch weitere, ohnehin anstehende Wartungsarbeiten mit vorgenommen und so weitere Kosten eingespart werden.
Webinare zum Thema
Erfahren Sie mehr bei unseren Webinaren zu Next Generation Maintenance & Quality und Quality Assurance! Melden Sie sich am besten gleich an zu einem der Termine am 8. oder 26. November bzw. 10. Dezember.
Komplexe Definition der richtigen Parameter
Doch um solch überzeugende Analyse-Ergebnisse zu erzielen, müssen zunächst aus tausenden technischen Werten und Parametern diejenigen identifiziert werden, die auf einen Ausfall hindeuten. "Hinzu kommen Daten, die eine eher unterschwellige Bedeutung haben. Sie sind besonders wichtig, um Vorhersagen zu präzisieren und eine möglichst frühzeitige Aussage treffen zu können", erklärt Karlheinz Blank. Auch reicht es nicht, die einzelnen Sensordaten isoliert zu betrachten: Sie müssen in ihrer Beziehung zueinander analysiert, also korreliert werden.
In Praxisprojekten zeigt sich dem Experten zufolge häufig ein weit über das eigentliche Einsatzszenario hinausgehender Nutzen: So decken die Datenanalysen häufig Probleme und Fehlerursachen auf, die bisher noch gar nicht bekannt waren.
Der Erste Schritt hin zu Predictive Maintenance: Smart Monitoring
Der Begriff 'Predictive Maintenance' ist durch den Hype der vergangenen Monate und Jahre stark strapaziert worden, meint Andreas Neundorf, Principal Consultant bei T-Systems und Spezialist für 'Next Generation Maintenance & Quality'. Für das komplexe Thema seien dringend machbare, praxisbezogene Herangehensweisen gefragt. Nach dem klassischen Condition Monitoring sei 'Smart Monitoring' ein konsequenter, nächster Schritt in Richtung Optimierung der Instandhaltung.
"Dabei werden die Sensordaten auf Basis von künstlicher Intelligenz analysiert. Sobald es eine Abweichung vom Normalzustand gibt, wird automatisch ein Serviceticket erstellt, um die Unregelmäßigkeit zu überprüfen", erklärt Neundorf. Dafür seien – anders als bei Predictive Maintenance – keine historischen Daten über einen längeren Zeitraum hinweg notwendig. Zum Trainieren des Algorithmus reiche eine relativ kurze Zeit, während die Maschine oder Anlage fehlerfrei im Betrieb ist.
Video: Next Generation Maintenance & Quality – Schlüssel für ein vorausschauendes Unternehmen
Erst dann, wenn Ausfälle einige Zeit vor ihrem Eintreten konkret vorausgesagt werden sollen, werden für das Anlernen der KI-Modelle umfangreiche, historische Sensor- und Servicedaten benötigt. Dazu wird im Smart Monitoring eine Service-Dokumentation geführt, die genau beschreibt, welche Störung wann aufgetreten ist und wie sie behoben wurde. Schließlich werden dokumentierte Servicemaßnahmen und Störungen aus der Vergangenheit von einem Data Scientist mit dem Verlauf unterschiedlicher Sensordaten korreliert. Sobald ein ausreichendes Datenvolumen vorliegt, können Unternehmen so den nächsten Schritt in Richtung Prediction gehen.
"Die Investition in KI-gestützte Vorsagen von drohenden Störungen ist immer dann sinnvoll, wenn im Falle eines Ausfalls hohe Kosten entstehen."
Andreas Neundorf, Principal Consultant bei T-Systems und Spezialist für 'Next Generation Maintenance & Quality'
Ohne tiefes Prozessverständnis gibt es keine guten Vorhersagen
"Die Investition in KI-gestützte Vorsagen von drohenden Störungen ist immer dann sinnvoll, wenn im Falle eines Ausfalls hohe Kosten entstehen", konstatiert Andreas Neundorf. Die T-Systems-Spezialisten setzen darauf, zunächst in einer kurzen Scope-Phase erste Use Cases und Handlungsfelder (Pain Points) zu identifizieren und in einem Pilotprojekt (Proof of Concept) die KI-Modelle zu erstellen und verproben. Nach erfolgreichem Pilotprojekt kann in einer dritten Phase die Übertragung auf andere Bereiche des Maschinenparks erfolgen.
Zu den großen Herausforderungen für die KI-Experten zählt neben dem Aufbau eines tiefen Prozessverständnisses auch, die vorliegenden Service- und Sensordaten zu bereinigen. "Die Data Scientists müssen genau verstehen, welcher Natur ein Ausfall ist, um eine vernünftige Klassifikation zu erreichen", erläutert Karlheinz Blank. Auch gilt es, Störungen im Datenstrom – zum Beispiel durch das Schließen einer Metalltür im näheren Umkreis der Anlage – zu identifizieren, um fehlerhafte Interpretationen zu vermeiden.
"Zu den großen Herausforderungen für die KI-Experten zählt neben dem Aufbau eines tiefen Prozessverständnisses auch, die vorliegenden Service- und Sensordaten zu bereinigen."
Prof. Karlheinz Blank, T-Systems Datenspezialist
"Die Bereinigung der Daten muss sorgfältig in enger Absprache mit den Fachexperten des Kunden erfolgen. Es ist eine detektivische Herangehensweise nötig, weil mitunter auch äußere Faktoren, wie zum Beispiel Veränderungen der Temperatur, Luftfeuchtigkeit oder des Lichteinfalls für Störungen verantwortlich sein können. Diese Mühe machen sich viele nicht", erklärt Karlheinz Blank.
Grundsätzlich ist Predictive Maintenance ein universeller Ansatz. Die Vorgehensweise ist unabhängig von der Branche und eignet sich für Roboter ebenso wie für Windkraftanlagen, eine Eisenbahn oder eine Pumpe.
Webinare zum Thema
Erfahren Sie mehr bei unseren Webinaren zu Next Generation Maintenance & Quality und Quality Assurance! Melden Sie sich am besten gleich an zu einem der Termine am 8. oder 26. November bzw. 10. Dezember.