Edge Computing Symbolbild

Edge Computing wird gerade auch für Mittelständler zu einem immer wichtigeren Thema. (Bild: stock.adobe.com - photon_photo)

Trotz der Sorge vor Einstiegshürden ist die Motivation in vielen Unternehmen hoch – schließlich kann die digitale Automatisierung für mehr Effizienz und weniger Downtimes in der Produktion sorgen und beim Kostensparen helfen: Zum Beispiel durch weniger Ausschuss, weniger Nacharbeiten oder Rückverfolgungsaktionen. Typische Einsatzgebiete sind die automatisierte Qualitätskontrolle mit Computer Vision und Predictive Maintenance.

Zugleich erwarten die Endkunden immer mehr datenbasierte Services – die Entscheidung für ein Produkt hängt schon jetzt zunehmend daran, wie gut und sicher sich eine Maschine oder Anlage in bestehende digitale Infrastrukturen einbinden lässt. Auch die Maschinenbetreiber selbst denken stärker darüber nach, welchen monetarisierbaren Zusatznutzen auf Basis von Daten sie ihren Kunden anbieten können.

Nicht ohne Zielformulierung losgehen

Wichtig ist schon beim Einstieg ins Thema, dass Unternehmen sich bereits vorab gut überlegen, was ihr Ziel in der digitalen Automatisierung ist und was sie konkret damit erreichen möchten – beispielsweise die Überwachung des gesamten Produktionsprozesses, mehr Nachhaltigkeit durch niedrigeren Stromverbrauch oder eine transparente Supply Chain. Fast alle Ansätze rund um Industrie 4.0 und IIoT basieren auf der Analyse sehr großer Datenvolumen aus Maschinen, Geräten und Sensorik.

Dafür sind einerseits eine gute Vernetzung und Konnektivität nötig, andererseits Edge-Technologien, um die Daten vor Ort vorzuverarbeiten. Alle Daten in die Cloud zu laden, würde einerseits die Netze überfordern und die Cloud-Kosten explodieren lassen, andererseits wäre das Thema Security schwerer in den Griff zu bekommen. Die Lösung sind deshalb Technologien, die Daten direkt am Edge erfassen, aggregieren, komprimieren und auf Basis von Machine-Learning-Algorithmen analysieren. Nur die relevanten Schlüsseldaten und Learnings werden anschließend in die Cloud und andere Systeme weitergereicht. Die Kontrolle über die Daten bleibt dabei im Unternehmen und aus Sicherheitsgründen zudem innerhalb der Produktionsumgebung.

Open Source und günstige Hardware helfen beim Einstieg

Die Einstiegshürden sind durch die neuen Technologien erheblich gesunken. Wo noch vor wenigen Jahren sechsstellige Beträge für kamerabasierte Qualitätsabsicherung nötig waren, sorgen günstigere Hardware und Open Source Software für ein völlig anderes Kostenniveau. Oft reichen jetzt schon ein Gateway, eine gut auflösende Kamera mit LAN-Verbindung und gute Beleuchtung.

Aus Sicht von Intel sind Open-Source-Tools in diesem Umfeld State of the Art: Den eigenen Open CI Stack hat man deshalb zum OpenVino Toolkit weiterentwickelt. Dabei sorgen vortrainierte Modelle, die mit Lerndaten an den individuellen Einsatz angepasst werden, für eine schnelle Umsetzung. Die Anwendungsszenarien für Computer Vision sind besonders vielfältig: Ob bei der Fehlererkennung beim Bau von Kabelbäumen, der korrekten Anordnung von Bauteilen oder selbst der Sortierung. Weil im Bilderkennungsumfeld oft nur eine zusätzliche Lösung parallel zur Produktionsstraße notwendig ist, fällt der Einstieg hier besonders leicht.

Vorhandenes Know-how in die Algorithmen bekommen

In nahezu allen Szenarien, in denen ein Problem bekannt ist, erweist sich KI-Technologie als unschlagbar darin, Zusammenhänge zu erkennen. Ein Beispiel: Beim Magnesium-Druckguss in der Autoindustrie benötigten Mitarbeitende bisher eine gewisse Zeitspanne, um die Qualität eines Druckgussteils zu bewerten. Heute wird das Teil für nur kurze Zeit vor der Kamera gedreht, die Erkennungsquote ist sogar höher als beim Menschen.

Viele lohnende Anwendungsszenarien basieren allerdings auf Sensorik, die auf dem Shopfloor unterschiedlichste Parameter misst, von Temperatur über Stromversorgung bis hin zu Vibration oder Feuchtigkeit. Der Retrofit von Legacy Hardware, unterschiedliche Protokolle und ein Verständnis für das Zusammenspiel der unterschiedlichen Faktoren gestalten sich oft komplexer. Hier ist neben der technologischen Integration insbesondere das ganz spezifische Prozesswissen der erfahrenen Experten und Expertinnen im Produktionsumfeld wesentlich, das in intelligente Algorithmen einfließen muss.

IT und OT müssen eng verzahnt arbeiten

Die Zusammenarbeit zwischen IT und OT (Operation Technology) ist einer der wichtigsten Erfolgsfaktoren in Projekten, die am Edge ansetzen. Ohne gemeinsamen Arbeitskreis im Vorfeld, in dem übergreifende Ziele besprochen, alle Infrastrukturgesichtspunkte und die jeweilige Expertise mit eingebracht werden, wird es schwierig. Deshalb ist es weder hilfreich, wenn über den CIO oder das Innovation Office die Idee mehrheitlich aus der IT getrieben wird – noch, wenn nur die OT mit der Konzeptentwicklung beauftragt wird. Oft scheitern Security und Cloud-Anbindung dann an den Einwänden der IT-Experten. Nur eine enge, frühzeitige Zusammenarbeit kann diese ansonsten vorprogrammierten Konflikte verhindern.

Doch auch auf der technologischen Seite ist die richtige Strategie entscheidend. Edge-Technologien sollten nicht nur besonders leistungsfähig sein, um bei hohen Datenvolumen eine Echtzeit-Verarbeitung zu gewährleisten. Auch Sicherheit spielt eine wesentliche Rolle: Am besten eignen sich Security-Konzepte, die schon im Chip verankert sind, alle Bewegungen zwischen Edge und Cloud absichern und die Konnektivitäts-Protokolle in der Industrie unterstützen. Nur so lässt sich auch das Risiko von Manipulation durch Hacks weitgehend ausschließen.

Transformation zur Datenkultur

Der Fokus auf die Daten erfordert letztlich auch einen kulturellen Wandel. Es gilt, Data Thinking in die Prozesse zu integrieren und  an allen Stellen im Unternehmen den Mehrwert der Datenerhebung zu verstehen. Dafür ist neben einer neuen Datenkultur auch eine neue Produktionskultur nötig: Die Mitarbeitenden brauchen ein Verständnis dafür, dass aus der Maschine nicht mehr nur zum Beispiel Karosserieteile oder Stanzwerkzeuge herauskommen, sondern auch Daten.

Diese werden durch die Vernetzung der gesamten Anlagen und Produktionsprozesse exponentiell wichtiger. Schulungen sollten sich deshalb nicht mehr nur um den optimalen Betrieb drehen, sondern darum, wie sich eine Maschine so nutzen lässt, dass sie die besten Daten produziert. Auch hier gilt es, den traditionellen Clash of Cultures zwischen IT und OT zu vermeiden. Nur wenn beide Bereiche am gleichen Strang ziehen, gibt es gute Ergebnisse.

Sie möchten gerne weiterlesen?

Dieser Beitrag wird präsentiert von: