Cognex

Intelligente Bildverarbeitung, wie sie Cognex anbietet, lässt sich skalierbar an die jeweilige Anwendung anpassen. Auch unerfahrene Anwender können eine zuverlässige Inspektionsleistung in nahezu jeder Produktionsumgebung erzielen. - Bild: Cognex

Der Begriff ‚smart‘ wird derzeit gern und häufig verwendet. In der Bildverarbeitung gibt es seit einiger Zeit smarte Kameras, Smart Vision, smarte Algorithmen und vieles mehr. Was genau sich hinter diesen Schlagworten verbirgt, kann der Wissenschaftler Klaus Spinnler vom Fraunhofer IIS erklären. Spinnler beschäftigt sich seit den 1980ern mit Bildverarbeitungstechnologien, er hat schon einige Entwicklungsschübe erlebt, zunächst stellt er klar: „Der Begriff ‚smart‘ ist schwammig und uneinheitlich definiert und wird für vieles verwendet, was ein bisschen besser funktioniert als vorher.“ Eine allgemeingültige Definition gebe es nicht.

Die Mehrheit verstehe wohl folgendes darunter: „Systeme, in die fortschrittliche Algorithmen integriert wurden. Damit kann sowohl die Kamera selbst gemeint sein, als auch ‚smartes‘ Wissen auf dem PC, wie zum Beispiel neuronale Netze oder andere lernfähige Software.“ Es handelt sich also nicht um eine gänzlich neue Technologie. „Eine Kamera bestand schon immer aus Gehäuse, Sensorelement und Elektronik. Physikalisch eher schlechte Signalqualität musste auch bisher mithilfe der Elektronik oder der Software aufbereitet werden“, so der Bildverarbeitungsexperte. Neu ist, dass über die Signalverbesserung hinaus zusätzliche Funktionen in die Systeme eingebracht werden. Das sind insbesondere Verarbeitungsfunktionen, Selbsttests, weitergehende Auswertungen oder die Kompensation von Umwelteinflüssen. „Das würde ich unter ‚smart‘ subsumieren“, sagt Spinnler und verweist auf die Definition Wikipedias.

Bisher war Bildverarbeitung kompliziert und aufwendig

Maßgeblich verantwortlich für das Plus an Intelligenz ist leistungsfähige und kostengünstige Rechenpower.„Die Rechenleistung kleiner GPU-Rechnerboxen, wie es sie im Gaming gibt, ist riesig“, schwärmt Professor Uwe Hampel vom Helmholtz-Zentrum Dresden-Rossendorf (HZDR). Rechenaufgaben, wie sie für die Bildverarbeitung benötigt werden, lassen sich mit diesen Grafikprozessoren zügig abarbeiten. GPUs mit 1000en von Prozessorkernen rechnen parallel, nicht seriell. „Bis zu 1000 Bilder pro Sekunde können so erzeugt und analysiert werden“, so Hampel. Er ist der Projektkoordinator des europäischen Verbundprojekts TOMOCON. Dort arbeiten Doktoranden und Industriepartner an neuen bildgebenden Sensoren für die Steuerung und Regelung verfahrenstechnischer Prozesse.

Geht es um Bilddaten, wird es schnell kompliziert. „Fertigungsverantwortliche verzichten, wenn möglich, auf Bildverarbeitungssysteme,da ihnendiese zu kompliziert und aufwendig sind. Lösungen, basierend auf einfacheren Sensoren, sind in der Produktion deutlich stärker vertreten“, sagt Hampel. Fällt ein optisches Prüfsystem in einer Linie aus, dauert es in der Regel wesentlich länger und verursacht höhere Kosten, es wieder zum Laufen zu bringen. Lichtveränderungen und Verschattungen verkomplizieren den Einsatz.Doch das ändert sich aufgrund der smarten Technologien – womöglich mit dramatischen Folgen: „Die bildgebende Technologien könnten in vielen Bereichen andere Sensoren verdrängen“, meint Professor Hampel.

Smarte Bildverarbeitung kann sich selbst korrigieren und handeln: „Der große Benefit für den Anwender ist, dass er sich weniger Gedanken machen und geringeren Aufwand betreiben muss, um das System in Betrieb zu halten“, meint der Fraunhofer-Experte. Er verdeutlicht dies anhand eines Beispiels: „Ein smartes Bildverarbeitungssystem an der Linie merkt von selbst, wenn die Prüfteile nicht mehr in gleichbleibender Qualität beleuchtet werden, weil etwa eine Lampe degradiert. Das System kann in diesen Fall sich selbst vor jedem Prüfzyklus testen und gegebenenfalls eine Warnmeldung oder gleich einen Reparaturauftrag absetzen.“

Echtzeit-3D-Abbild eröffnet neue Möglichkeiten

Hampel kann sich noch weitreichendere Veränderungen vorstellen. Um in undurchsichtige Objekte wie etwa Metallschmelzen, hineinschauen zu können, braucht es tomographische Sensoren. Würden man mit solchen Sensoren eine Art Echtzeit-3D-Abbild aller Produktionsvorgänge erzeugen, könne man irgendwann auch eine Chemieanlage autonom fahren – so wie ein autonomes Fahrzeug auf der Straße. Laut Hampel wäre es damit möglich, auch Prozesse, in denen zum Beispiel komplexe Strömungsvorgänge eine Rolle spielen, in Sekundenschnelle zu regeln. Noch geht das nicht.

Menschliche Operatoren müssen bis auf Weiteres die Daten so aufbereitet bekommen, dass sie aus ihnen Entscheidungen ableiten können, insbesondere wenn es sich um sicherheitskritische Anlagen handelt. Geht es um die Produktion von Stückgut, könnten sich autonome Systeme schneller verbreiten. „In der Industrie wird es zu einem Paradigmenwechsel kommen“, ist sich Hampel sicher. Revolutionäre Veränderungen erwartet Spinnler hingegen nicht: „Seit 25 Jahren kommen immer wieder neue Funktionen der KI zur Anwendungsreife, andere hingegen bleiben nicht praktikabel.“ So würden beispielsweise neuronale Netze heute für die Gesichtserkennung im Consumerumfeld genutzt werden, neuronale Netze in produzierenden Betrieben hingegen kaum.

Klare Kostengrenzen für Machine Vision in der Industrie

„Die Digitalisierung der Welt hilft Google. Mit ihr stehen heute Lernstichproben in riesigem Umfang zur Verfügung“, sagt Spinnler. Lernstichproben benötigt man, um ein lernfähiges System zu trainieren – umso mehr, umso besser. Im Gegensatz zu Google kann die Industrie allerdings nicht auf kostenlose Lernstichproben in größerer Menge zugreifen. „Millionen fehlerhafter Teile in verschiedener Ausprägung stehen in der Produktion nicht zur Verfügung. So große Stichproben aus dem in der Industrie üblichen geringen Ausschuss zu sammeln, wäre sehr, sehr mühsam. Hier muss man anders vorgehen. Dies ist derzeit ein Forschungsthema am Fraunhofer IIS“, so Spinnler. Das ist ein gewichtiger Einwand gegenüber neuronalen Netzen.

An eine andere Grenze stößt man aber auch in Bezug auf den nötigen Rechenaufwand. KI bei Google beschäftigt riesige Rechnerfarmen. Das wäre für produzierende Betriebe ein unverhältnismäßig hoher Aufwand. Für Machine Vision in der Industrie gibt es klare Kostengrenzen. Nur wenn eine Prüfanlage wirtschaftlich darstellbar ist, kauft sie der Kunde. „Teure Rechenzentren für prozessbegleitende Berechnungen würden in den meisten Fällen sicherlich die Grenzen sprengen“, sagt der Fraunhofer-Experte. Deswegen würden in der Industrie vorwiegend sogenannte ‚konventionelle Klassifikatoren‘ für die Mustererkennung genutzt. Grundlage dafür ist die mathematische Statistik. Auch sie sind trainierbar. „Es gibt eine große Bandbreite an Ansätzen, mehr Intelligenz in die Anwendung zu bringen“, so Spinnler.

Was seiner Meinung nach die Industrie eher bewegt, sei eine starke preisliche Konsolidierung: „Die Bildverarbeitungssysteme und Prüfanlagen müssen immer billiger werden. Was drinsteckt, ist dem Kunden weitgehend egal. Er erwartet mehr Leistung für weniger Geld. Außerdem suchen Kunden heute immer mehr nach Lösungen für extrem komplizierte Anwendungen.“ Blicke ins Innere eines Bauteils, Prüfaufgaben für Mehrkamerasysteme oder schwierige Oberflächen. Das Fraunhofer IIS in Erlangen entwickelt Prüfsysteme unterschiedlicher Integrationsgrade: inline, at line und offline. „Unsere Inline-Prüfsysteme sind in der Regel strengen Taktanforderungen unterworfen“, so Spinnler. Als Prüftechnologien setzt das Fraunhofer IIS Radioskopie oder Computertomografie sowie optische Methoden ein.

So kann die Industrie von der Medizin lernen

Computertomografie ist ein spannender Ansatz, den auch Hampel verfolgt. Ihm sind jedoch die herkömmlichen Tomografie-Geräte zu groß, das Verfahren zu teuer und mit einem Bild pro Sekunde zu langsam. Hampel berichtet, dass tomografische Sensoren bislang vor allem in der Medizin genutzt würden. In der Industrie gebe es zwar hin und wieder Tomografen, diese würden in der zerstörungsfreien Prüfung eingesetzt und seien für Regelungsaufgaben, wie er sie sich vorstellt, zu langsam.

„In unserem Doktorandennetzwerk TOMOCON nutzen wir tomografische Sensoren nach dem Vorbild kleiner, smarter Sensoren, um in Echtzeit Steuerungs- und Regelungsaufgaben in der Produktion zu übernehmen“, erläutert Hampel. Der kostengünstige Sensor erhebt die Daten, smarte Rechnerarchitekturen übernehmen die Bildrekonstruktion und Auswertung. Mit den modernen GPUs könnten auch komplexe Rechenoperationen schnell durchgeführt werden. „Nachdem die Bildverarbeitungsprogramme aus den Bildrekonstruktionen die für Regelungsaufgaben wichtigen Merkmale extrahiert haben, können Prozesse in Echtzeit gesteuert werden“, freut sich Hampel.