KI,AI,Künstliche Intelligenz,Software,Computer,Maschine,Produktion,Infineon

Smarte Produktion: In Villach optimieren Forscher von Infineon, Siemens und mehreren Universitäten gemeinsam Produktionsabläufe mit künstlicher Intelligenz. - Bild: Infineon Technologies Austria AG

Die hilfsbereiten Assistentinnen Cortana, Siri und Alexa sind nicht nur sogenannten Digital Natives geläufig. Wissensfragen beantwortet derlei Software sie jedem PC- und Smartphone-Nutzer inzwischen nahezu fehlerfrei. Was die freundlichen Damen und die Künstliche Intelligenz (KI) allerdings im industriellen Alltag leisten können, wird kontrovers beurteilt. Die Aufmerksamkeit auf das Thema KI ist jedenfalls sehr hoch.

Der Wissenschaftler Dr. Gunar Ernis spricht von einem regelrechten ‚KI-Hype‘, der im Produktionsumfeld ausgebrochen sei. Er ist am Fraunhofer IAIS als Data Scientist tätig. In der Automobilindustrie etwa betreibt fast jeder Hersteller ein oder mehrere Künstliche-Intelligenz-Projekte, doch auch andere forschen und testen. „KI-Themen erleben gerade eine Renaissance“, beobachtet auch Prof. Detlef Zühlke, der im Deutschen Forschungszentrum für Künstliche Intelligenz (DFKI), dem größten KI-Forschungsinstitut weltweit, leitend tätig ist.

Als akademisches Fachgebiet existiert das Thema Künstliche Intelligenz bereits seit Mitte der 1950er Jahre. Da viele KI-Technologien extrem leistungsfähige Computer benötigen, dauerte es jedoch Jahrzehnte, bis erste Anwendungen ihren Weg in die Welt der kommerziellen Nutzung und somit in die Maschine fanden. Das hat sich geändert. „Heute können für Deep Learning mehrdimensionale neuronale Netze, die in die Tiefe gehen, aufgesetzt werden – und das ist von der Rechenleistung extrem aufwendig“, sagt Prof. Zühlke.

Die Umsätze mit ‚Smart Machines‘ wachsen um fast 15 Prozent jährlich. Laut der US-amerikanischen Marktexperten von BBC Research umfasst der Gesamtmarkt für Computer, Roboter oder Maschinen mit Intelligenz derzeit rund 7,4 Milliarden US-Dollar und werde bis 2021 auf 15,0 Milliarden US-Dollar anwachsen.

Siemens ist eines der Unternehmen, das vom KI-Hype erfasst wurde. „Siemens ist im Einsatz innovativer Technologien schon immer Vorreiter gewesen“, sagt Dr. Bernhard Quendt, CTO Siemens Digital Factory Division. Das Potenzial der Technologien für künstliche Intelligenz in der Maschine schätzt Quendt pragmatisch ein: „Hinter dem Begriff KI verbirgt sich ein sehr breites Feld. Auf rein wissenschaftlicher Ebene hören sich viele Dinge immer großartig an, doch wenn sie dann mit den Bedingungen der Realität konfrontiert werden, folgt häufig die Ernüchterung. Künstliche Intelligenz birgt eine ganze Reihe von Vorteilen, aber auch Risiken“, so Quendt.

Geht es zum Beispiel um das Thema Einsatz von Deep Learning-Systemen in der Welt komplexer Produktionsanlagen und im Zusammenspiel mit zum Beispiel einem Roboter oder einer Maschine, zeigen sich schnell Grenzen der Technik.

Dr. Bernhard Quendt, CTO, Digital Factory Division, Siemens:

"Im Moment stelle ich fest, dass sich die Spreu vom Weizen zu trennen beginnt. KI wird allmählich ‚Ingenieur-tauglich‘ und wandert aus der Wissenschaft in Produktionsbetriebe. Mit unseren Softwaretools und Dienstleistungen treten wir an, die Vorzüge von KI für unsere Kunden nutzbar zu machen."

Das vollständige Interview mit Dr. Quendt finden Sie hier.

„Deep Learning gibt es bereits länger für kleinere Datenmengen, doch die größeren neuronalen Netze brauchen mehr Daten. Die Anzahl der Parameter für diese Vorhersagemodelle sind extrem hoch“, sagt Ernis und nennt eine Faustregel, die besagt, dass für jeden Parameter, den man in dem Modell anpassen kann, 10 Datenpunkte benötigt werden. „In einem tieferen neuronalen Netz gibt es ungefähr 100 000 anpassbare Parameter, also 1 Million Datenpunkte, und die sind nicht aus jeder Anlage extrahierbar“, so Ernis.

Außerdem beruht die Technik Deep Learning auf dem Prinzip des Lernens der Intelligenz durch Fehler. „Einer Produktionsanlage, die selbstständig lernen und sich verbessern soll, müsste gestattet werden, Fehler zu machen. Und das heißt gegebenenfalls auch Ausschuss zu produzieren, denn Fehlentscheidungen gehören zu einem Lernprozess dazu. Das können wir uns in einer realen Produktion aber meistens nicht leisten“, betont Prof. Zühlke.

Dr. Gunar Ernis, Fraunhofer IAIS:

"Meiner Beobachtung nach sind einige große Firmen über die Experimentierphase hinaus und tätigen bereits erste Probeläufe. Dabei geht es häufig um Condition Monitoring und Predictive Maintenance, um die Vorhersage von Qualität am Ende der Produktion."

Der Siemens-Mann Quendt identifiziert ein ähnliches Problem, das die Künstliche Intelligenz bewältigen muss: „Ein ‚Lernen durch Fehler‘ ist in der Industrie natürlich heikel bis indiskutabel und es müssen andere Herangehensweisen gewählt werden.“ Und die gebe es, so Quendt.

Wenn das benötigte künstliche Neuronale Netz beispielsweise nicht ganz so weit in die Tiefe gehen muss, sieht das schon ganz anders aus. „Einfacher ist es, Künstliche Intelligenz in eingeschränkteren Einsatzfällen einzusetzen, wie etwa der Mustererkennung. Die Systeme können in kurzer Zeit anhand einer größeren Anzahl von Bildern aus einer Datenbank lernen und danach in den produktiven Einsatz gehen. An der Stelle macht KI durchaus Sinn“, so Zühlke.

Prof. Detlef Zühlke, DFKI:

„Ich habe noch keine Beispiele für KI in dieser Form in realen Produktionsumgebungen gesehen. Häufig wird ein Parallelsystem gebaut, um zu analysieren, wie es sich benimmt. Noch sehen die Endkunden und die Betreiber nicht, was sie davon haben
könnten. Denn die Fragestellungen, um die es geht, sind sehr abstrakt. Deswegen tun sich die Firmen schwer damit.“

Das vollständige Interview mit Prof. Zühlke finden Sie hier.

Ernis sieht den größten Benefit der KI-Modelle darin, dass die Technik der Maschine tatsächlich recht sichere Vorhersagen liefern können – sobald die Intelligenz-Software trainiert worden ist. „Sie können den Nutzer unterstützen, Entscheidungen zu treffen. Sie können Vorhersagen über die Wahrscheinlichkeit von Defekten oder Mängeln treffen. Anlagen können sich damit selber überwachen“, schwärmt er.

Doch auch hier gilt wiederum, dass die Systeme und Computer erst einmal parallel zum Realbetrieb trainiert werden müssen, oder aber, dass ihre Vorhersagen und Vorschläge über längere Zeit hinweg mit menschlicher Intelligenz verifiziert werden müssen. So kann das System nicht für unmittelbare Eingriffe in den Produktionsprozess genutzt werden können.

Doch wozu dann der Aufwand? „Noch sehen die Endkunden und die Betreiber nicht, was sie davon haben könnten“, verifiziert der Maschinenbauer und Informatiker Zühlke das Problem. Das läge wohl auch daran, dass die Fragestellungen, um die es gehe, vielen zu abstrakt seien.

„Wir reden über Wissen, das in klare analytische mathematische Regeln übersetzt werden muss“, so der DFKI-Experte. Um etwa Fertigungsaufträge besser einzutakten, müssten Kriterien für Optimierungsalgorithmen definiert und programmiert werden. Doch welches sind geeignete Messparameter für den Computer, um das zu messen? „Auf die Schnelle ideale Messwerte festzulegen, kann nicht gelingen, das dauert in industriellen Umgebungen noch ein paar Jahre“, meint daher Zühlke.

Ernis hingegen sieht die Künstliche Intelligenz in einigen Gebieten schon auf einem guten Weg in der Welt der Industrie: „Meiner Beobachtung nach sind einige große Unternehmen über die Experimentierphase hinaus und tätigen bereits erste Probeläufe. Dabei geht es häufig um Condition Monitoring und Predictive Maintenance“, so der Fraunhofer-Experte.