Bildverarbeitung,industrielle,embedded,vision,industrie 4.0, iot,internet of things

Embedded Vision, also eingebettete Bildverarbeitung - soll Maschinen im Sinne von Industrie 4.0 eigenständig machen. - Bild: Pixabay

Am Anfang steht der Chip. Für ein Embedded System muss dieser bestimmte Fähigkeiten mitbringen. Je nach gewünschter Stückzahl und späterem Aufgabengebiet entscheidet sich der Entwickler des Embedded Systems beispielsweise für einen Mikrocontroller, einen FPGA oder ASIC.

Diese Chips oder ‚Logik-Gatter-Anordnungen‘ sind entweder speziell auf einen bestimmten Anwendungsfall zugeschnitten oder können vom Embedded-Entwickler frei programmiert werden. Überflüssige Prozesse, wie sie normalerweise auf der CPU eines PCs laufen, wurden weggelassen, da sie zuviel Rechenleistung binden, einen geringeren Datendurchsatz haben oder einfach zuviel Energie verbrauchen.

Laut Chiphersteller Xilinx – Erfinder der FPGAs (Field Programmable Gate Array) – sind diese Bausteine für Industrie 4.0 besonders geeignet, da sie veränderbar sind. Entwickler von Automatisierungsanwendungen können mit ihnen die Prototypingphase beschleunigen, Tests und nachträgliche Verbesserungen durchführen.

Xilinx, Aron Behmann
Aron Behmann, Leiter strategisches Marketing, Embedded Vision, Xilinx. - Bild: Xilinx

Sie bieten ein Plus an Entwicklungstempo und Flexibilität, das Marketingleiter Aron Behman in der klassischen Produktentwicklung vermisst: „Die traditionellen Ansätze der Technologie-Entwicklung sind heute antiquiert, da ein großer Entwicklungszyklus vor der Produkteinführung stattfinden muss. Derselbe Zyklus muss durchlaufen werden, um neue Eigenschaften und Fähigkeiten einzuführen. Dies bedingt eine unerwünschte Latenz und kann Monate, wenn nicht Jahre, in Anspruch nehmen.“

Der Embedded-Chip wird in ein Embedded-System integriert und wertet dort zum Beispiel die Daten einer Kamera aus – damit wird er zum Embedded Vision System.

In Industrie 4.0-Umgebungen werden voraussichtlich einmal viele Embedded Vision Systeme eingesetzt werden.

Darum betrachten die Bildverarbeiter Industrie 4.0 als ein extrem lukratives Geschäftsfeld. „Durch die hohen Anforderungen an sensorische Systeme stellt die digitale Fabrik eine große Chance für diese Technologie dar, sich in der Produktion als Schlüsseltechnologie weiter zu etablieren,“ sagt zum Beispiel Peter Stiefenhöfer, Leiter Marketing & Öffentlichkeitsarbeit, Stemmer Imaging.

"Wenn man Maschinen befähigt, nicht nur zu sehen, sondern auch autonom zu erkennen und zu agieren, dann wird dies exponentielle Zuwächse der Produktivität hervorbringen. Darum gilt Embedded Vision als ein Eckpfeiler des technologischen Fortschritts, der zur nächsten industriellen Revolution führen wird. Xilinx ermöglich den Anbietern von Industrie 4.0-Lösungen die Entwicklung von Systemen, die die cyber-physikalische Lücke überbrücken."

Aron Behmann, Xilinx

Doch nicht nur Bilddaten, auch andere Informationen wie Drücke, Distanzen, Temperatur, Vibration und vieles mehr, müssen erfasst, ausgewertet und miteinander in Zusammenhang gebracht werden.  „Die wichtigste Anforderung an ein Bildverarbeitungssystem in einer Industrie 4.0-Umgebung ist die Sensor-Fusion. Das heißt, die Fähigkeit zur Integration von mehreren Bildverarbeitungs-Pipelines zu kompakten Embedded Vision Systemen wird zu einer kritischen Forderung“, stellt Behmann fest.

Basler, Thomas Rademacher
Dr. Thomas Rademacher, Produktmanager, Basler. - Bild: Basler

Schließlich müssen unterschiedliche Datenformate aus unterschiedlichen Hardwarequellen zusammengebracht werden. „Um Bildverarbeitung in Industrie 4.0 zu integrieren, müssen die Systeme in der Lage sein, relevante Daten zu filtern und mehrere Sensoren miteinander zu kombinieren – nicht nur Bildsensoren“, bestätigt Dr. Thomas Rademacher, Product Market Manager bei Basler, einem Kamerahersteller, der sogenannte Boardlevel-Kameras für ‚kostenoptimierte‘ Embedded Anwendungen im Portfolio hat.

Hat das System erst einmal alle Daten gesammelt, geht es noch einen Schritt weiter: „Die Maschine sollte relevante Gegebenheiten auch autonom erkennen und entsprechend agieren. Erst dann wird dies exponentielle Zuwächse der Produktivität hervorbringen“, meint Behmann. Weitere Rahmenbedingungen, denen das Design eines Embedded Systems unterliegt, entspringen ihrem Einsatzort: „Da Vision Systeme als ‚intelligente Sensoren‘ an immer mehr Stellen zum Einsatz kommen, müssen sie flexibel sein. Sie sollten außerdem klein sein und hohen Erschütterungs- und Temperaturanforderungen entsprechen“, so Rademacher. Schließ­lich landet so manch ein Embedded System im Inneren einer Maschine. Dort ist es eng, laut und heiß.

»Um Bildverarbeitung in Industrie 4.0 zu integrieren, fehlt häufig noch die Bereitschaft, neue Wege zu gehen und kreative Lösungen zu nutzen.«

Dr. Thomas Rademacher, Produktmanager, Basler

Ist das Embedded System erst einmal fertig entwickelt, freut sich der Anwender, denn es ist zumeist kostengünstiger als ein System, das aus Kamera und Rechner besteht. „Neben dem Kostenvorteil erweitert ein Embedded System auch die technischen Möglichkeiten des Anwenders“, ergänzt Rademacher. Da das Embedded System nicht auf dem mit vielen weiteren Aufgaben belasteten Hauptrechner laufe, sondern als einzelnes Modul, sei es außerdem unabhängiger und sicherer.

Doch ein Embedded Vision-System zu entwickeln, das all diesen Wünschen gerecht wird, ist nicht einfach. Ein Knackpunkt ist die Software. Sie muss extrem leistungsstark sein, um Daten intelligent zu filtern und mehrere Sensoren zu kombinieren. In Industrie 4.0-Szenarien muss sie außerdem die Fähigkeiten zum Machine Learning und neuronalem Vernetzen mitbringen. Das bedeutet aber mehr Rechenpower auf der Platine.

Ohne den hochspezialisierten Experten wird der Umgang mit diesem System unmöglich. So erfordert es Pioniergeist, sich an eine neuronal vernetzte Produktion mit selbstlernenden Multisensorsystemen heranzuwagen. „Die Bereitschaft, neue Wege zu gehen und kreative Lösungen zu nutzen, sollte man mitbringen“, so Rademacher. Wer dies tut, gewinnt, meint zumindest Behmann: „Embedded Vision Systeme mit Integration von Deep-Learning-Techniken werden, wenn sie in Echtzeit arbeiten, in der Lage sein, die Umwelt mit größerer Autonomie zu erfassen, und mit entsprechenden Aktionen die erheblichen Produktionszuwächse stützen, die Industrie 4.0 verspricht.“