Die schnelle Bearbeitung von Support-Anfragen und technischer Probleme ist essenziell für eine hohe Kundenzufriedenheit. Techniken der künstlichen Intelligenz und des Machine Learning können hier wertvolle Hilfe leisten, den Bearbeitungsprozess mittels Automatisierung wirkungsvoll zu beschleunigen. Voraussetzung ist, dass die intelligenten Software-Hilfen im Vorfeld selbst "schlau" gemacht und mit einschlägigem Wissen trainiert werden.
In Instandhaltung und Störungsmanagement sind ungeachtet technischer und organisatorischer Fortschritte zuvorderst zwei Dinge entscheidend: Geschwindigkeit und Verlässlichkeit! Schließlich kostet jede Minute ungeplanten Stillstands Produktivität und jede zögerliche Problembearbeitung gefährdet die Zufriedenheit auf Kundenseite.
Die Serviceorientierung als prägendes Geschäftsprinzip moderner Industriekonzepte steigern die Erwartungen und Ansprüche zusätzlich. Technische Durchbrüche, speziell im Kontext der Digitalisierung drehen außerdem kräftig an der Komplexitätsschraube von Produktionslinie und Infrastruktur.
Technische Innovationen können die geforderten Eigenschaften wie Schnelligkeit und Zuverlässigkeit bei der Instandhaltung, beim Störungsmanagement und Kundenservice nicht nur neu definieren, sondern auch gleichermaßen voranbringen.
Im Besonderen versprechen Techniken der Künstlichen Intelligenz (KI) mit der Teildisziplin Machine Learning (ML) eine beeindruckende Leistungsoptimierung. Die Aktivierung von produktivitätssteigernden Maßnahmen wie Predictive Maintenance (vorausschauende Wartung) oder autonomes Support-Management scheinen danach – überspitzt formuliert – gerade einmal einen Klick entfernt.
Vor der Hilfe kommt das Lernen
Der Einsatz von KI- und ML-Techniken besitzt zweifellos das Potenzial, im betrieblichen Alltag wertvolle Hilfestellung zu leisten. Im Störungs- und Supportmanagement lassen sich beispielsweise mit KI-Unterstützung die eingehenden Meldungen (Tickets) am Service-Desk automatisiert klassifizieren und autonom einem verantwortlichen Service-Team zuordnen. Allerdings muss die Künstliche Intelligenz im Vorfeld erst einmal "lernen" und mit Wissen über das Aufgabenfeld "gefüttert" werden.
Die Grundlage hierfür bilden mathematische Verfahren zur datengestützten Modellbildung. Typischerweise kommen hierfür sogenannte Deep Learning-Techniken – in der Regel mehrschichtige neuronale Netze – zur Anwendung, die anhand historischer Datenmengen trainiert werden. Mittels Mustererkennung extrahieren Algorithmen das Wissen aus den Daten.
Die gängigen Methoden des maschinellen Lernens lassen sich größtenteils den Kategorien "überwachtes" und "unüberwachtes" Lernen zuordnen. Im Fall des überwachten Lernens – im Englischen als Supervised Learning bezeichnet – werden neben Eingabedaten gleichzeitig korrekte Ausgabedaten vorgegeben.
Aus diesen Paaren wird ein Modell erstellt, das Assoziationen herstellen kann und für unbekannte Eingabewerte passende Ausgabewerte definiert. Beim unüberwachten Lernen – also dem Unsupervised Learning – existieren dagegen lediglich Eingabewerte. Der Algorithmus extrahiert Wissen aus den Ähnlichkeiten der Inputmuster, in dem er statistische Verfahren wie Clustering oder ähnliche einsetzt.
Neben den kurz skizzierten Hauptsträngen für Lernansätze existieren auch diverse Mischformen, bei denen beispielsweise nur für einen Teil der Eingaben die zugehörigen Ausgaben (semi-supervided learning) bekannt sind oder die Leistung durch Belohnen (reinforcement learning) maximiert wird.
Welcher Lernalgorithmus nun tatsächlich als Trainingsprogramm eines Modells herangezogen wird, leitet sich gewöhnlich vom avisierten Einsatz ab. Im Allgemeinen eignet sich beispielsweise überwachtes Lernen primär für zuordnende, klassifizierende Aufgaben. Ein unüberwachtes Lernen wird vornehmlich im Falle von Segmentierung, Kategorisierung oder Empfehlungsausgabe bevorzugt. Und das bestärkende Lernen verbessert die Leistung von Navigationssystemen oder Robotik.
Intelligenz aus der Wolke
Um von den Leistungen der KI und ML zu profitieren, müssen Firmen weder einschlägige Expertise aufbauen noch großartig in IT-Ressourcen investieren. Zweckdienlicher ist es, KI/ML-Tools beziehungsweise -Funktionen als Cloud-Dienst zu beziehen, die dediziert die Aufgaben im Arbeitsalltag anpacken.
SAP stellt beispielsweise mit Service Ticket Intelligence (STI) eine Anwendung zum Aufbau eines selbstgesteuerten Kundenservices bereit, der ML-gestützt Backendprozesse in der zentralen Anlaufstelle für Service- und Supportanfragen automatisiert.
Die Service-Ticket-Intelligence-Anwendung unterstützt aktuell die Arbeit am Service-Desk mit den beiden Funktionen des Klassifizierens von Meldungen und die Angabe von Lösungsvorschlägen. Sobald ein Service-Ticket eintrifft, ordnet ein Algorithmus (Classification Engine) diesem automatisch eine Priorität und die passende Arbeitsgruppe zu.
Gleichzeitig wird der Dringlichkeitsgrad anhand der Eingabe der Kundenanfrage festgelegt. Der Supportmitarbeiter erkennt also sofort, welche Anfrage die höchste Bearbeitungspriorität besitzt. Parallel dazu analysiert ein zweiter Algorithmus (Recommendation Engine) den unstrukturierten Text eines eintreffenden Tickets und unterbreitet Empfehlungen für Lösungsansätze aus vergleichbaren, bereits behandelten Anfragen. Die Mitarbeiter am Service-Desk können sich folglich direkt mit der Beantwortung eines gemeldeten Problems befassen, ohne erst aufwendig Wissensdatenbanken manuell durchforsten zu müssen.
Wie präzise sind die Daten?
Vor dem konkreten Einsatz müssen natürlich zuerst die individuellen Modelle für das maschinelle Lernen erstellt werden. Im Falle der Classification Engine erfolgt die konkrete Modellerstellung in Form des überwachten Lernens. Die Recommendation Engine basiert auf unüberwachtem Lernen.
Die aus historischen Service-Tickets-Daten zusammengestellten Trainingsdatensätze werden hierzu über eine Standard-Schnittstelle an die STI-Anwendung in der SAP Service Cloud gesendet. Zu jedem Ergebnis der Klassifizierung und Empfehlung der trainierten Modelle gibt die STI gleichzeitig den Konfidenzwert an – also die Präzision bzw. Genauigkeit, mit der das Ergebnis zutrifft.
Der Trainingserfolg der STI-Modelle hängt wie im wirklichen Leben entscheidend von der Qualität, Zusammenstellung und dem Umfang der Daten ab. In anderen Worten: Die Datensätze sollten keine veralteten oder fehlerbehafteten Ticketinformationen enthalten. Auch sollten sie in ausreichender Anzahl möglichst ausgewogen alle Anfragenvorfälle beinhalten. Empfehlenswert ist weiterhin, in regelmäßigen Abständen neue Trainingsrunden zu Modelloptimierung durchzuführen.
Um die Arbeit der "Trainer" in den Unternehmen bequemer zu gestalten, hat BTC ergänzend zu den Schnittstellen der STI-Funktionen eine grafische Bedien- und Administrationsoberfläche für die STI-Funktionen implementiert. Neben der grundsätzlich einfacheren Bedienung beschleunigt diese gleichzeitig den Trainingsablauf, da beispielsweise Lerndatensätze en bloc übermittelt werden können und nicht mehr einzeln manuell hochgeladen werden müssen.
Die Übung macht den Meister
Die Ergebnisse der ersten Trainingsrunden mit der STI-Software, die BTC für die Ticket-Bearbeitung in ihrem Kerngeschäft IT-Betreuung und Managed Services in Angriff nahm, sind vielversprechend. Bei 20 unterschiedlichen Arbeitsgruppen und vier verschiedenen Prioritäten erreicht das trainierte Modell der Classification Engine beispielsweise Trefferquoten von rund 80 Prozent bei den Arbeitsgruppen und 90 Prozent bei der Priorität.
Wird bei den Arbeitsgruppen gleichzeitig die Höhe des Konfidenzwert mitbetrachtet – im Testfalle 95 Prozent – verdoppelt sich die Trefferquote. Die trainierte Recommendation Engine kommt im Vergleich in 85 Prozent der Fälle zu einem passenden Ergebnis, selbst wenn sie nur mit 80 Prozent des Textes der ursprünglichen Nachricht gefüttert wird.
Bei einem ersten Test mit circa 7.000 Trainingsdatensätzen, 30 unterschiedlichen Arbeitsgruppen und vier verschiedenen Prioritäten erreichte das trainierte Modell der Classification Engine Trefferquoten von rund 40 Prozent bei den Arbeitsgruppen und 90 Prozent bei der Priorität.
Wird bei den Arbeitsgruppen gleichzeitig die Höhe des Konfidenzwert mitbetrachtet – im Testfalle 95 Prozent – verdoppelt sich die Trefferquote (siehe Abbildung). Die trainierte Recommendation Engine kommt im Vergleich in 85 Prozent der Fälle zu einem passenden Ergebnis, selbst wenn sie nur mit 80 Prozent des Textes der ursprünglichen Nachricht gefüttert wird.
Das Modell zur Classification, das aktuell im Unternehmen verwendet wird, hat 24317 Datensätze. Es weist bei 20 verschiedenen Arbeitsgruppen eine Trefferquote von 80 Prozent und bei vier verschiedenen Prioritäten eine Trefferquote von 90 Prozent auf.
Enormes Potenzial vorhanden
Auch wenn KI bzw. ML im Allgemeinen und die STI im Speziellen noch am Anfang ihrer Entwicklung stehen, deuten die Testresultate das enorme Potenzial für eine beschleunigte Prozessdurchführung im Störfallmanagement an. Beispielsweise lassen sich ankommende Tickets bei einer hohen Konfidenz automatisch an die passende Arbeitsgruppe weiterleiten, während der Dispatcher im 1st-Level-Support die übrigen wie gewohnt manuell bearbeitet. Die Empfehlungen der Recommendation Engine helfen wiederum, die Erstlösungsquote seitens des 1st-Level zu erhöhen. Auch weisen die Vorschläge mitunter auf neue, eher ungewohnte Lösungsalternativen hin, die eine schnellere Wieder-Inbetriebnahme versprechen und früher eher unbeachtet blieben.
Immer informiert mit dem Newsletter der INSTANDHALTUNG
Ihnen hat gefallen, was Sie gerade gelesen haben? Dann abonnieren Sie unseren Newsletter!
So bleiben Sie zu allen Neuigkeiten und Trends aus der Instandhaltungs-Branche auf dem Laufenden. Profitieren Sie von den Vorteilen unserer unterschiedlichen Newsletter-Formate - kostenlos!