Edge-Computing.

Edge-Computing hat für die digitale Transformation in den nächsten zwei bis fünf Jahren hohe Priorität. (Bild: ra2 studio - stock.adobe.com)

Die IDC-Studie „Cloud-Architekturen und Cloud-Infrastrukturen in Deutschland 2021“ zeigt, dass der Stellenwert von Edge-Computing künftig weiter steigt. Für 62 Prozent der 200 befragten Unternehmen in Deutschland hat Edge-Computing für die digitale Transformation in den nächsten zwei bis fünf Jahren Priorität oder sogar hohe Priorität. 28 Prozent der Unternehmen planen bis 2023, Edge-Computing- oder Micro-Data-Center zu nutzen, ebenfalls 28 Prozent wollen auf die Nutzung von Container-Data-Technologie setzen. Im Fokus stehen für die Befragten dabei Echtzeitprozesse, geringe Latenzzeiten, Prozessautomatisierung auf Basis einer nahtlosen Datenbereitstellung und -verarbeitung.

Mitten in einer großen Veränderung

Eine Umwälzung hin zu einer dezentralisierten Edge-Computing-Welt zeichnet sich schon jetzt ab. Die Zeiten von unternehmenseigenen Rechenzentren könnten sich mehr und mehr dem Ende zuneigen. Dazu trägt nicht nur die Cloud bei. Die neue Devise lautet nicht mehr, die Daten zum Ort ihrer Verarbeitung zu bringen, sondern die Verarbeitung (Compute) zu den Daten. Das zeigt sich heute schon in Branchen wie der chemischen Industrie, wo große Unternehmen mehrere Petabyte an Daten pro Tag produzieren. Die Cloud oder On-Premises-Rechenzentren eignen sich dafür nicht – es wird Infrastruktur am Edge benötigt.

Künftig werden deshalb Ansätze wie Federated Learning, also das Nutzen von KI ohne eine Zentralisierung der Daten, immer mehr an Bedeutung gewinnen. Auch aus Security-Aspekten heraus ist es sinnvoll, wenn Daten nicht aus dem Netzwerk herausgezogen werden müssen. In einem sicheren Bereich in der Cloud können intelligente Algorithmen distribuiert und eine gemeinsame Sicht auf die Daten ermöglicht werden – beispielsweise um die Performance einzelner Prozesse über viele verschiedene Werke hinweg zu vergleichen.

Skalieren als Herausforderung

Gerade im Bereich Machine Learning und KI sind viele Unternehmen bisher nur mit einzelnen Leuchtturmprojekten eingestiegen. Doch nur selten schaffen es die neuen Technologien in einen breiten Einsatz. Die Skalierung erweist sich oft als problematisch, obwohl in aller Regel viele Bereiche von KI profitieren können. Um über Einzelprojekte hinauszugelangen, ist eine sinnvolle Strategie notwendig.

Ganz wichtig dabei: Die Edge-Konzepte sollten gemeinsam von IT- und OT-Teams (Operation Technology) geplant sein und an konkreten Problemlösungen anknüpfen. Dazu gehören beispielsweise die Reduktion von Downtimes, höhere Zufriedenheit bei Kunden und Mitarbeitenden, neue Wertschöpfungspotenziale oder mehr Effizienz. Wie auch bei anderen Digitalisierungsprojekten müssen die Menschen mit auf den Weg genommen und in die Gestaltung eingebunden werden, damit es nicht zu Ablehnung und dem Scheitern der Projekte kommt.

Weitere Ausbaustufen von Beginn an mitdenken

Schon im Proof of Concept sollten OT und IT eng zusammenarbeiten und die Frage nach einer Skalierung von Anfang an im Kopf haben. Das bedeutet auch, bei Leuchtturmprojekten nicht immer den Weg des geringsten Widerstands zu gehen oder auf kleinteilige Lösungen zu setzen, die erst einmal günstiger erscheinen. Auch sehr ungewöhnliche Use Cases zu replizieren, ist schwierig. In der Praxis zeigt sich, dass allein OT-getriebene Projekte teilweise zu schwer zu managenden Ergebnissen führen, die sich etwa Security-Updates nur mit viel Aufwand einspielen lassen.

Eine fundierte Edge-Technologie ist der zentrale Schlüssel für das Gelingen einer Skalierung. Das Augenmerk sollte deshalb auf einer durchgängigen Plattform liegen, mit der sich unterschiedliche Use Cases abbilden lassen. So setzt Audi beispielsweise auf eine Intel-Edge-Plattform, die als Blaupause für diverse Projekte rund um die Qualitätskontrolle auf Basis von Computer Vision dient. Skalierungsfähigkeit bedeutet aber nicht nur den Einsatz in unterschiedlichen Use Cases, sondern auch die Erweiterung innerhalb eines Einsatzgebiets. Die eingesetzte Edge-Lösung sollte also immer in der Lage sein, beispielsweise statt zehn Compute-Nodes auch hundert zu verbinden.

Auf einen breit aufgestellten Partner mit vielen, gut integrierten Lösungen zu setzen, kann sich dabei deutlich mehr lohnen, als für jeden Anwendungsfall eigene Hardware auszuwählen: In gestückelten Landschaften werden durchgängige Konzepte deutlich schwerer umsetzbar.

Hürden lassen sich auch von Mittelständlern überwinden

Dafür, Projekt nach Projekt vorzugehen, fehlt vielen Unternehmen – bei allem Interesse an den Effizienzpotenzialen der digitalisierten Automatisierung – der Atem. Ein übergreifendes Konzept ist daher deutlich sinnvoller, erfordert aber auch vorab eine intensive Auseinandersetzung mit den Mehrwerten in den Daten. Hier liegt nach wie vor ein Flaschenhals im Fachkräftemangel, der rund um Data Science besonders stark zu spüren ist.

Allerdings steht hier mittlerweile eine ganze Reihe an Startups im Industrieumfeld bereit, die datenwissenschaftliches Know-how als Commodity verfügbar und damit KI-Technologie leichter zugänglich machen. Sie helfen beispielsweise den OT-Experten aus kleinen und mittelständischen Unternehmen dabei, zum Beispiel das Labeln und Sortieren der Daten zu erledigen oder Algorithmen zu schreiben, die Datenmüll aussortieren.

Für die Umsetzung der Projekte eignen sich Methodiken wie Scrum und DevOps, die bisher vor allem im IT-Umfeld zum Einsatz kommen und sich dort nachhaltig bewährt haben. Davon profitiert auch die Zusammenarbeit zwischen IT und OT. Aus ersten Projekten kann durch offene und lehrreiche Retrospektiven viel gelernt werden und die oft sehr unterschiedlichen Perspektiven von Fachabteilungen, Produktion und IT abgeglichen werden.

IIoT-Connectivity als Basis

Auch die Konnektivität muss stimmen. Die Überlegung, wie sich die Sensorik mit der Compute-Power verbinden lässt, ist eine der wichtigsten Fragen bei der Datenanalyse. Im Produktionsumfeld sind weiterhin sehr heterogene Landschaften im Einsatz, manche Maschinen oder Anlagen sind bereits fünfzig und mehr Jahre alt. Traditionelles Wifi erweist sich in vielen Umgebungen als zu empfindlich: Wenn viele Maschinen elektrostatische Impulse aussenden, wird das drahtlose Netz sehr beinflussbar. Je mehr Genauigkeit und absolute Verlässlichkeit gefragt sind, desto öfter werden Sensoren fest verdrahtet. Immer mehr Unternehmen sehen sich deshalb Campusnetzwerke auf Basis von 5G an, die eine niedrige Latenz und hohe Bandbreite für Echtzeitanwendungen mitbringen, um die Sensorik kabellos einzubinden.

Doch es gibt mittlerweile gute Alternativen: Intel setzt auf Gigabit Ethernet, FireWire und Wi-Fi 6 als Technologien, die viele Brücken schlagen können, während die meisten Marktteilnehmer noch auf 5G warten.

Kostenlose Registrierung

Bleiben Sie stets zu allen wichtigen Themen und Trends informiert.
Das Passwort muss mindestens acht Zeichen lang sein.
*

Ich habe die AGB, die Hinweise zum Widerrufsrecht und zum Datenschutz gelesen und akzeptiere diese.

*) Pflichtfeld

Sie sind bereits registriert?

Dieser Beitrag wird präsentiert von: