Körber Digital Connyun

Das Data Science Team von Körber Digital bespricht einen aktuellen Anwendungsfall von Maschinellem Lernen. - Bild: Körber Digital

„Ein künstliches System lernt aus Beispielen und kann diese nach Beendigung der Lernphase verallgemeinern“, so prägnant fasst Wikipedia die Prinzipien des Maschinellen Lernens zusammen.

Anschließend erkennt das angesprochene System bestimmte Muster in neuen Daten und leitet daraus konkrete Entscheidungen oder eine Diagnose ab – also genau das, was man allgemein mit der Einführung von Industrie-4.0.-Anwendungen verbindet.

Die Daten der Software „zeigen“

Allerdings basieren industrielle Produktionsprozesse auf besonders komplexen Abläufen, die sich gegenseitig beeinflussen. Letztlich fallen somit sehr viele Daten an. Wie kann vor diesem Hintergrund ein Modell für das Maschinelle Lernen entwickelt werden – also eine Art von Denk-Vorlage für den Computer?

Die Data-Science-Experten von Körber Digital erklären ihr Vorgehen mit einem prägnanten Anwendungsbeispiel: Für einen Hersteller von Melkrobotern haben sie einen Machine-Learning-Algorithmus entwickelt, mit dessen Hilfe die Gesundheit der gemolkenen Kühe anhand von gemessenen Milch-Daten bewertet wird. Zu Beginn der Entwicklung einer solchen Lösung „zeigen“ die Spezialisten verschiedene Beispieldaten der eingesetzten Lernsoftware. Im Beispielfall waren hier Informationen zum Melkvorgang und der Kuhgesundheit enthalten.

„Anschließend kommen verschiedene Algorithmen zum Einsatz. Wir probieren gewissermaßen aus, welches Lernverfahren geeignet ist“, sagt Sven Warnke, IoT Engineer Data Science, bei Körber Digital. Am Ende dieses Prozesses stehen wiederum „trainierte“ Modelle – das ist die Form, in der die Künstliche Intelligenz ihr erlerntes Wissen festhält. Diese Modelle werden evaluiert und dasjenige mit den besten Ergebnissen ausgewählt.

Im Zweifelsfall einen Schritt zurückgehen

Interessanterweise hat im Fall der Melkroboter-Daten zunächst kein einziges Machine-Learning-Modell funktioniert, wie Warnke beschreibt: „In so einem Fall ist die enge Zusammenarbeit mit dem Maschinenbauer wichtig. Wir präsentieren ihm die Ergebnisse und verweisen auf die Probleme. Gemeinsam entstehen dann neue Ansätze.“ Ein wichtiger Hebel ist dabei, die verwendeten Datenmodelle anhand der konkreten maschinellen Anwendung zu überprüfen und Besonderheiten aufzuspüren.

So kam heraus, dass die Messwerte des Melkroboters einer Reihe von Schwankungen unterliegen – hier spielt zum Beispiel eine Rolle, welches Futter die Kuh bekommen hat. Außerdem gibt es Parameter, die sich grundsätzlich von Tier zu Tier unterscheiden. „Diese Faktoren müssen mit eingerechnet werden, was wir zu Beginn noch nicht getan hatten. Konkret heißt das dann: einen Schritt zurückgehen, die Daten ein weiteres Mal aufbereiten und gegebenenfalls zusätzliche Daten hinzuziehen“, fasst Warnke zusammen.

Übrigens ist diese Form von „Trial-and-Error“ keineswegs ungewöhnlich für ein Data-Science-Projekt. Schließlich müssen auf der einen Seite die Informatiker ein praktisches Problemverständnis entwickeln und dieses mit den Daten abgleichen. Auf der anderen Seite kennen Anwender „ihre“ Prozesse viel genauer und vergessen (unabsichtlich), bestimmtes Kontextwissen weiterzugeben. Diese Lücken treten im Laufe der Arbeit dann aber zutage.

Gibt es so etwas wie einen einfachen Richtwert, der zu Beginn die Chancen eines Data-Science-Projektes bei einem neuen Kunden aufzeigt? „Interessant ist immer die Frage, wie viele Trainingsbeispiele in Datenform vorliegen. Wenn ein relativ einfaches Anwendungsbeispiel hunderte oder tausende Mal dokumentiert wurde, sind die Chancen für die Data Science sehr gut. Im umgekehrten Fall – komplizierte Anwendung, wenige Trainingsbeispiele und Daten – wird es hingegen schwierig“, sagt Warnke dazu.

Anschließend starten weitere Schritte des iterativen Data-Science-Prozesses – zunächst die Ergebnis-Kommunikation beim Kunden. Lesen Sie demnächst mehr dazu im vierten Teil dieser Data-Science-Artikelreihe.