Predictive Quality Schmuckbild

Predictive Quality ist eine KI-basierte Methode und kommt bei der Qualitätssicherung zum Einsatz. Wie das funktioniert, lesen Sie in diesem Artikel. - (Bild: Inform)

Der Einsatz von Künstlicher Intelligenz (KI) zur Optimierung von Fertigungsprozessen lohnt sich. Die dafür erforderlichen Investitionen in Messtechnik und Analysesysteme sowie die Kosten für ihre Einführung im Betrieb, amortisieren sich in deutlich weniger als drei Monaten. Zu diesem Ergebnis kommt das vom Bundeswirtschaftsministerium geförderte Forschungsprojekt „Future Data Assets“. Dabei untersuchten Wissenschaftler 338 Projekte aus der Kunststoff- und chemischen Industrie, der Zement- und Lebensmittelproduktion, von Raffinerien und Energieversorgern.

Die Unternehmensberatung Bearing Point hat in einer aktuellen Studie den Nutzen von KI auch für die Automobilindustrie untersucht. Dort erwarten drei von vier Befragten, unter anderem ihre Kosten im Bereich der Qualitätssicherung um bis zu 20 Prozent senken zu können, wenn sie ihre Fertigungsdaten von Algorithmen analysieren lassen, um Probleme frühzeitig zu erkennen.

Fehlerhafte Bauteile stören den Betrieb

Björn Heinen, Lead Data Scientist beim DataLab des Aachener Softwarehaus INFORM, kann das nachvollziehen. „Wenn Unternehmen Qualitätsmängel erst am Ende des Fertigungsprozesses entdecken, müssen sie fehlerhafte Teile meist in einem oder mehreren Arbeitsgängen aufwändig nachbearbeiten“, erklärt Heinen. Das bringe die gesamte Produktionsplanung aus dem Takt. Durchlaufzeiten für Aufträge verlängern sich. Kunden zugesagte Termine lassen sich nicht mehr halten.

Berechnungen des Fraunhofer-Instituts für Produktionstechnologie bestätigen das. Die Forscher dort haben berechnet, dass sich die Durchlaufzeit von Aufträgen bei der Bearbeitung zerspanend produzierter Bauteile durch Maßnahmen zur Qualitätssicherung um bis zu 20 Prozent verlängert. Die Herstellungskosten steigen um bis zu einem Viertel. „Durch Qualitätsprobleme sinkt die Produktivität des gesamten Betriebs“, fasst Heinen zusammen.

Mit IT-Lösungen für die vorausschauende Qualitätssicherung – auf englisch Predictive Quality – lässt sich das vermeiden. Der Begriff beschreibt mehrere KI-basierte Verfahren, die Ausschuss entweder automatisch aussortieren, nachdem er produziert wurde, oder schon während des Fertigungsprozesses erkennen, ob fehlerhafte Teile entstehen. „Bei der Ausschusserkennung, wie sie Großserienfertiger häufig einsetzen, prüft die KI beispielsweise mit Bilderkennungsverfahren, ob einzelne gefertigte Teile charakteristische Merkmale eines Fehlers aufweisen und sich dadurch von den tausenden mangelfrei gefertigten übrigen Schrauben oder Zündkerzen unterscheiden“, erklärt Daten-Spezialist Heinen.

Björn Heinen ist Lead Data Scientist beim Softwarehaus INFORM.
Björn Heinen ist Lead Data Scientist beim Softwarehaus INFORM. Sie möchten mehr zu dem Thema Predictive Quality erfahren? Dann vernetzen, Sie sich mit Björn Heinen bei Linkedin (einfach auf das Bild klicken). - (Bild: INFORM)

Prozessdaten zeigen Qualitätsprobleme frühzeitig an

Bei der Ausschussvorhersage dagegen, verarbeitet KI auf einer Plattform Daten, die in Maschinen oder Anlagen verbaute Sensoren während des Fertigungsprozesses erheben und über das Internet der Dinge übermitteln. Das können - um beim Beispiel der Zerspanung zu bleiben - die Abdrängung des Bauteils oder des Werkzeugs, dessen Rotationsgeschwindigkeit, sein Drehmoment und Anpressdruck, oder der Verschleißzustand sowie Vibrationen sein. Mit Hilfe derartiger Informationen erkennen Algorithmen, ob der Fertigungsprozess optimal abläuft, oder einzelne Parameter darauf hinweisen, dass die gerade produzierte Charge den Qualitätsanforderungen nicht entsprechen wird.

Da Predictive-Quality-Systeme für die Ausschussvorhersage Maschinenführer informieren, sobald sie Anomalien registrieren, die auf Qualitätsprobleme hindeuten, können die Werker noch während der laufenden Produktion korrigierend eingreifen. Oft geht die Ausschussvorhersage daher mit vorausschauender Wartung Hand in Hand.

Künstliche Intelligenz ist der bessere Problemlöser

„Die Root Cause Analysis wiederum kommt zum Einsatz, wenn nicht erkennbar ist, an welcher Stelle und weshalb im Fertigungsprozess Qualitätsprobleme entstehen“, ergänzt Data Scientist Björn Heinen vom INFORM DataLab. „Dabei analysieren wir Daten mit speziellen Verfahren so, dass Zusammenhänge deutlich werden und die Ursache für das Problem erkennbar wird.“ Künstliche Intelligenz könne bei dieser Fehlersuche erheblich größere Datenmengen verarbeiten als der Mensch und Auslöser von Problemen daher viel feiner erkennen.

Die Root Cause Analysis geht in zwei Schritten vor. Zunächst analysiert die KI die Prozessinformationen, die darüber Auskunft geben, welcher Arbeitsgang mit welchem Material auf welcher Maschine durchgeführt wird. Sind auf diesem Weg einzelne Probleme verursachende Ressourcen identifiziert, sind die Maschinendaten an der Reihe. Hierzu haben Unternehmen idealerweise bereits ein Condition Monitoring ihrer Maschinen und Anlagen installiert. Denn ohne von Sensoren erhobene Prozessdaten funktioniert weder die Root Cause Analysis noch die KI-basierte Ausschussvorhersage.

Daten müssen sich eindeutig zuordnen lassen

Für die Root Cause Analysis brauchen Datenwissenschaftler wie Björn Heinen vom INFORM DataLab jedoch auch Informationen, aus denen sie rekonstruieren können, welche Teile unter welchen Bedingungen in der Vergangenheit fehlerfrei und welche mangelhaft produziert wurden. Nur mit dieser Datenhistorie kann KI die unterschiedlichen auf einzelne Arbeitsschritte einwirkenden Prozesseigenschaften mit dem jeweils erzielten Produktionsergebnis abgleichen und so die Ursache für Qualitätsprobleme ermitteln.

Unverzichtbar ist dabei, dass sich die Daten zum Herstellungsprozess den produzierten Bauteilen eindeutig zuordnen lassen. Das erreichen Unternehmen beispielsweise, indem sie die Montagestationen und Maschinen, an denen sie Prozessdaten erheben mit RFID-Scannern ausstatten, die an den dort produzierten Teilen sowie den dazu genutzten Werkzeugen angebrachte Barcodes einlesen.

Ohne Ingenieur- und Erfahrungswissen funktioniert Predictive Quality nicht

Anders gehen Predictive-Quality-Experten bei der Ausschusserkennung vor. Da erstellen sie bereits im vorhinein ein Modell, das definiert, welche Merkmale ein fehlerfreies Produkt nach welchem Produktionsschritt haben muss, beziehungsweise nicht haben darf, um mangelfrei zu sein. Dieses Regelwerk gleichen Algorithmen mit den von den Sensoren in Maschinen und Anlagen während der Produktion übermittelten Daten ab.

Sowohl bei der Erstellung dieses Modells wie bei der Root Cause Analysis reichen Sensordaten allein allerdings nicht. „Die Modelle, mit denen wir arbeiten, müssen auch das Ingenieur- und Erfahrungswissen derer abbilden, die Tag für Tag in der Produktion des jeweiligen Unternehmens stehen“, erklärt Björn Heinen. Nur sie wüssten, welche physikalische Beschaffenheit ihr Produkt im fehlerfreien Zustand haben und wie Prozesse ablaufen müssen, damit dieses ohne Mängel entsteht. „Diesen Input kann selbst der beste Softwaredienstleister nicht liefern“, so Heinen.

Gute Datenwissenschaftler recherchieren und schließen Informationslücken

Aber er kann ihn sich durch Gespräche mit den Experten im Unternehmen aktiv einholen. Manchmal reicht dazu schon ein einziger Anruf, wie INFORM-Data-Scientist Björn Heinen berichtet.

„Für einen Industriepark sollten wir bei einem Anomalieerkennungsprojekt einen Algorithmus formulieren, mit dem sich feststellen lässt, ob die an die Kanalisation des Gewerbegebietes angeschlossenen Unternehmen dort Substanzen in unerlaubter Menge einleiten“, erzählt Heinen. „Unabhängig davon zeigten schon die uns vorliegenden Daten zu der über die Zeit in die Kläranlage des Industrieparks eingespeiste Abwassermenge keine graduellen Anstiege und Rückgänge an, sondern einen merkwürdigen, stufenartigen Verlauf.“ Mal sei sehr viel eingeleitet worden, dann wieder fast gar nichts.

Klarheit verschaffte dem Datenwissenschaftler ein Anruf beim Betreiber des Industrieparks. Dieser erklärte ihm, dass viele Unternehmen ihre Abwässer nicht direkt in den Kanal, sondern zunächst in Tanks pumpen. Die wurden immer erst dann abgelassen, wenn sie voll waren, erfuhr Heinen. Diese Information konnte er in einem Algorithmus abbilden.

Gute Dienstleister hören ihren Kunden zu

„Ohne neugierig auf die spezifische technische Situation in einem Unternehmen zu sein, kommt ein Softwaredienstleister nicht an alle Daten, die er braucht, um seine Kunden unterstützen zu können“, erklärt Heinen. Wenn er sich aber die Mühe macht und nachfragt, die Informationen, die er bekommt, mit seiner mathematischen und KI-Kompetenz bei der Lösung der gegebenen Probleme umsetzt und seine Predictive-Quality-Tool immer wieder an die Anforderungen des jeweiligen Betriebs anpasst, lohnt sich der Aufwand dafür schon nach sehr kurzer Zeit.

Weitere Informationen sowie ein Infopaper zum Thema finden Sie unter: https://www.inform-datalab.de/predictive-quality/

Wissen, was die Industrie bewegt!

Newsletter-Produktion

Alles zu Industrie 4.0, Smart Manufacturing und die ganze Welt der Technik.

Newsletter gratis bestellen!

Sie möchten gerne weiterlesen?

Dieser Beitrag wird präsentiert von: