Kuka hat generative KI rasch zur Verfügung gestellt.

Kuka hat generative KI rasch zur Verfügung gestellt. (Bild: Kuka)

In Bereichen wie der Robotik entfaltet das Thema generative KI mit Large Language Models sogar Disruptionspotenzial. Das hat man bei Kuka rasch erkannt und bereits frühzeitig begonnen, die Technologie zur Verfügung zu stellen, mit klaren Regeln und Schulungskonzepten.

Alle im Unternehmen müssen sich der Vorteile, aber auch der Risiken von LLM bewusst sein, ist man sich beim Roboterhersteller sicher. Alle Mitarbeitenden haben standardmäßig die Möglichkeit, mit dem in M365 integrierten Microsoft Copilot zu arbeiten, in der Software-Entwicklung kommt der GitHub-Copilot zum Einsatz. „Wir steuern das Thema aktiv und treiben es kontinuierlich voran. Große Sprachmodelle verändern grundlegend, wie zukünftig ein Roboter in Betrieb genommen und wie er für Aufgaben trainiert wird.

Speziell für uns als Maschinenbauer hat die Technologie das Potential, eine neue Wachstumsphase in der Industrie einzuläuten“, sagt Christian Schwaiger, Technology Strategy Lead bei Kuka.

Christian Schwaiger, Technology Strategy Lead bei Kuka.
Christian Schwaiger, Technology Strategy Lead bei Kuka. (Bild: Kuka)

Bei Kuka kommen LLM zum einen in internen Prozessen zum Einsatz, zum anderen auch in Produkten und Lösungen. „Wir setzen etwa im Customer Service auf Gen AI und Large Language Models, typische Anwendungsfälle liegen beim Beheben von Störungen. Aber auch für die Programmierung von Robotern kommen LLM unterstützend zum Einsatz, indem Kunden in natürlicher Sprache beschreiben können, was der Roboter tun soll. Das LLM erstellt daraus dann, basierend auf den Daten der Kuka Robot Language Programmcodes“, berichtet Schwaiger. Anschließend können die Anweisungen in der Simulation getestet werden.

Eigene GPTs werden zu Wissenssystemen

Doch auch der interne Nutzen steht im Fokus: „Damit Wissen noch leichter zugänglich wird, haben wir zum Beispiel auch einen Kuka-GPT entwickelt, auf den die Mitarbeitenden zugreifen können – praktisch unser eigenes Chat-GPT, das mit unseren Daten und unserem Wissen trainiert wurde“, erklärt der Technologieexperte. Die Informationen, die im Intranet vielfältig und an verschiedenen Stellen zu finden sind waren, gibt es damit gesammelt und schnell auf Knopfdruck.

Alle LLM-basierten Anwendungsszenarien zahlen auf die Produktivität ein, so Schwaiger: „Bei der persönlichen Produktivität spielt Gen AI eine ganz immense Rolle. Das ist ein Schwerpunkt, den wir in der KI-Strategie setzen: Jedem Mitarbeitenden in seiner täglichen Arbeit die Aufgaben abzunehmen, die nicht wertschöpfend sind“. Ein Beispiel: Zwar wird die Produkt-Software auch weiterhin von Menschen entwickelt, doch beim Schreiben von Code und der Fehlersuche habe sich durch die KI Unterstützung eigenen Benchmarking-Tests zufolge im Schnitt ein Zeiteinsparungspotenzial von 15 bis 25 Prozent ergeben. Das sei angesichts des IT-Fachkräftemangels ein wichtiger Aspekt.

Auch in der Wertschöpfung der Kunden zahle sich die höhere Produktivität aus: Wenn ein Roboter als Teil einer Anlage schneller in Betrieb genommen werden könne, gelinge es auch schneller, mit der Fertigung des Produkts anzufangen.

Auch für die Programmierung von Robotern kommen LLM unterstützend zum Einsatz.
Auch für die Programmierung von Robotern kommen LLM unterstützend zum Einsatz. (Bild: Kuka)

Nächster Technologiesprung: Agentensysteme

Mittlerweile hat die KI-Entwicklung mit der „Agentifizierung“ eine neue Stufe erreicht. Während es zuvor darum ging, dass eine Person Unterstützung von einem KI-Assistenten erhält, stehen nun vernetzte KI-Agenten im Vordergrund. „Solche Konzepte ermöglichen uns, mehrere AI-Agenten miteinander zu verbinden und so komplexere Aufgabenstellungen zu automatisieren und zu lösen“, sagt Christian Schwaiger.

Dafür gibt es bereits ein Praxisbeispiel: Um einen Roboter in der Simulation zu programmieren, gilt es zunächst, die 3D-Szene zu erstellen, den Roboter darin zu platzieren, und diesen anschließend für die auszuführende Tätigkeit zu programmieren. Dazu könnte gehören, dass der Roboter ein bestimmtes Teil vom Förderband greift und in eine Box ablegt. „Diese Aufgaben lassen sich in einem Prompt beschreiben, der dann wieder in einzelne Aufgaben zerlegt wird. Sie werden von verschiedenen Agenten erledigt, die Hand in Hand arbeiten“, erläutert der Experte. Derzeit befindet man sich zudem in der internen Testphase für einen Chatbot, der auf den eigenen Service-Daten arbeitet. Er steht bereits global für alle Service-Kräfte zur Verfügung.

Um einen Roboter in der Simulation zu programmieren, gilt es zunächst, die 3D-Szene zu erstellen.
Um einen Roboter in der Simulation zu programmieren, gilt es zunächst, die 3D-Szene zu erstellen. (Bild: Kuka)

KI-Halluzinationen im industriellen Gebrauch ausschließen

„Wir müssen sicherstellen, dass die Lösung immer zuverlässige Antworten gibt. Wir sind aber zuversichtlich, dass man zu validen Ergebnissen kommt. Eine wichtige Voraussetzung besteht darin, das LLM mitunseren eigenen, qualitativ hochwertigen Datenquellen zu ‚grounden‘, um den technischen Fachbegriff zu verwenden“, konstatiert Schwaiger. Eine Kombination aus verschiedenen Schutzmaßnahmen sei nötig, um den für LLM typischen Nebeneffekt der „Halluzinationen“, also falschen Ergebnisse, zu minimierenund die nötige Robustheit für kritische Geschäftsprozesse zu gewährleisten. So wird etwa über sogenannte Input- und Output-Filter sichergestellt, dass nur zulässige Anfragen stattfinden dürfen. Perspektivisch könnte die KI auch extern als Mehrwertdienst angeboten werden, damit Kunden mit deren Hilfe ein Problem direkt allein lösen können.

Von der „Conversational AI“ verspricht sich der Automatisierungskonzern darüber hinaus das Erschließen neuer Märkte. Zusammen mit KI-basierter Computer Vision können immer flexiblere Roboter oder Cobots sozusagen „sehen“ und „sprechen“ – und damit auch leichter in semistrukturierten oder dynamischeren Umgebungen zum Einsatz kommen. Dazu können beispielsweise Szenarien in Drogerie- und Supermärkten zum Auffüllen der Regale oder in Handwerksbetrieben gehören. Die niedrigeren Einstiegshürden vereinfachen jedoch auch die Nutzung in kleinen und mittelständischen Fertigungsunternehmen.

Künstliche Intelligenz auf dem Maschinenbau-Gipfel 2025

Künstliche Intelligenz wird auch eines der Themen auf dem Maschinenbau-Gipfel sein. Seien Sie dabei, wenn die führenden Köpfe des europäischen Maschinenbaus Projekte und Best Practices für den Maschinenbau diskutieren!

 

Reinhard Bohne, Head of Digital Solutions bei der Gebr. Heller Maschinenfabrik.
Reinhard Bohne, Head of Digital Solutions bei der Gebr. Heller Maschinenfabrik. (Bild: Heller)

Heller will seine CNC-Werkzeugmaschinen zum Sprechen bringen

Beim CNC-Werkzeugmaschinenhersteller Heller beschäftigt man sich seit Jahren intensiv mit Large Language Modellen – aktuell werden AI-Chatbots für den Produktionseinsatz entwickelt. Auf der AMB 2024 präsentierte Heller mit einem Minimum Viable Product erstmalig praxisnahe Anwendungsbeispiele für die Werkzeugmaschine. Zudem nutzt man intern bereits Large Language Models auf Basis von ChatGPT im Office-Bereich, etwa mit Microsoft Copilot. In der Softwareentwicklung kommt der Copilot für GitHub zum Einsatz.

„Der Schwerpunkt liegt aktuell auf der Integration von Large-Language-Modellen in unsere Produkte: Wir wollen die Maschine mittels Chat zum Sprechen bringen und damit zum Beispiel die Produktionsdaten-Analyse auf ein neues Level heben“, sagt Reinhard Bohne, Head of Digital Solutions bei der Gebr. Heller Maschinenfabrik.

Dafür nutzt der Nürtinger Maschinenbauer eine eigene Plattform und integriert die LLM-Funktionalität in seine bereits vorhandenen Systeme. „Derzeit setzen wir auf ChatGPT 4o, wir wollen uns allerdings die Nutzung weiterer Sprachmodelle offenhalten“, erklärt Bohne. Er sieht eine hohe Relevanz, mit Blick auf die Endkunden eine Offenheit für regional unterschiedlich präferierte LLM in die Strategie einzubeziehen. Darauf müsse man vorbereitet sein, denn schließlich stehe man noch am Anfang der KI-Reise, so Bohne.

Die LLM-gestützte Analyse von Produktionsdaten schafft Transparenz und fördert eine effiziente Optimierung in der zerspanenden Fertigung.
Die LLM-gestützte Analyse von Produktionsdaten schafft Transparenz und fördert eine effiziente Optimierung in der zerspanenden Fertigung. (Bild: Heller)

Deutlich schnellerer Zugang zu Dokumentation und Daten

Man will die Werkzeugmaschinen vor allem deshalb zum Sprechen bringen, um ihre Bedienung zu erleichtern und den Maschinenbediener bestmöglich zu unterstützen. Auf den Maschinen sind etwa spezifische, mehrere tausend Seiten starke Kundendokumentationen enthalten: Eine echte Erleichterung, die gesuchte Information auf Nachfrage hin einfach automatisiert angezeigt zu bekommen. Das Dokumentenwissen wird aber noch mit weiteren Daten angereichert, etwa um welchen Teil einer Maschine es geht und welche Funktionalität physisch tatsächlich vorhanden ist – nicht sämtliche in der Anleitung beschriebenen Features. Damit erhöhe sich die Antwortqualität stark, berichtet Reinhard Bohne.

Perspektivisch sollen Kunden alle Fragen zum Maschinenstatus und zu weiteren Live- und Maschinendaten per Chatbot stellen können. Dafür will man die Chatbot-Funktionalität neben der Maschinensteuerung auch in die Cloud-basierte Dashboard-Lösung „Heller Services Interface“ zur Visualisierung (historischer) Maschinendaten integrieren. Das Planungstool für die Instandhaltung und Produktionsplanung zeigt etwa den Zustand der Maschine, beispielsweise von Spindeln und Achsen, sowie Energieverbräuche an. Auf der EMO 2025 in Hannover wird Heller sein erstes Chatbot Produkt für den Einsatz im Produktionsumfeld präsentieren.

maschinenbau-Gipfel Salon
(Bild: mi-connect)

Kommen Sie zum Maschinenbau-Gipfel Salon!

Der Maschinenbau-Gipfel ist richtungsweisend und impulsgebend für die gesamte Branche. Damit Sie nicht ein ganzes Jahr auf spannende Diskussionen verzichten müssen, laden wir Sie zu unserem Networking-Format "Maschinenbau-Gipfel Salon" mit anschließendem Catering ein – live vor Ort oder digital.

 

Der nächste Maschinenbau-Gipfel Salon findet am 26. Mai 2025 in Graben-Neudorf (Bruchsal) bei SEW-Eurodrive und via Livestream statt.

 

Das Thema: "Innovation im Fokus: Virtuelle Zwillinge, Kreislaufwirtschaft und die Rolle der KI"

 

Sichern Sie sich jetzt Ihr kostenloses Ticket!

Matthias Wimmer, bei Heller verantwortlich für HMI-Themen.
Matthias Wimmer, bei Heller verantwortlich für HMI-Themen. (Bild: Heller)

Sekunden statt Tage: Problemlösung per Chatbot

Hier soll durch Fragestellungen (Prompts) des Produktionspersonals vor Ort in natürlicher Sprache die Analyse und Optimierung von Produktionsprozessen noch weiter automatisiert und vor allem vereinfacht werden. „Wir gehen davon aus, dass man auf einem LLM-basierten Chatbot sehr viel schneller zum Ziel kommt, Probleme und deren Lösungen also schneller identifizieren kann. Derzeit wird mit klassischen Dashboards gearbeitet und es gibt bei der Lösungsfindung für Planer und Instandhalter noch viele manuelle Schritte“, erklärt Matthias Wimmer, bei Heller verantwortlich für HMI-Themen.

Auf manuellem Weg seien in Verbindung mit Domänenwissen oft Stunden bis Tage erforderlich, um zum Ergebnis zu kommen. Der Werkzeugmaschinenbauer hat sich daher ein ehrgeiziges Ziel gesetzt: „Wenn es uns gelingt, das Domänenwissen in die Modellumgebung zu integrieren, braucht es nur wenige Sekunden bis Minuten, um im Chat zu einem Ergebnis zu kommen, das mit ausreichender Qualität erste Analyse- bzw. Optimierungsansätze visualisiert“, konstatiert Bohne. Mit der höheren Geschwindigkeit lasse sich ein echter Mehrwert für die Kunden generieren.

Heller-CEO Thorsten Schmidt über KI für Werkzeugmaschinen und Industriepartnerschaften

Gute Daten sind entscheidend für LLM

Basis für das LLM sind die vielfältigen Daten, die bereits von Heller erhoben werden. Um Datenschutz und -sicherheit zu gewährleisten, arbeitet man mit einer Enterprise Edition und die Lösung befindet sich auf europäischen Servern, auf denen bereits heute schon die Daten in der Cloud liegen. Auch bei Heller geht man davon aus, dass sich das „Halluzinieren“ von Chatbots durch spezifizierte Agenten-Anweisungen vermeiden lassen – und indem die KI mit qualitativ hochwertigen, themenbezogenen Daten gefüttert wird. „Da wir uns in unserer eigenen Umgebung bewegen, haben wir die Hoheit zu steuern, welche Gewichtungen wir jeweils zulassen möchten.

Damit wird auch die nötige Verlässlichkeit für den industriellen Einsatz erreicht“, so Wimmer. In Kürze will man mit ausgewählten Kunden in die Pilotierung gehen. „Für uns ist es ein ganz wichtiger Input, dass wir so lernen, welche Fragestellungen in der Realität gestellt werden und entsprechend nachjustieren – denn wir können nur bedingt antizipieren, wie die Kunden in ihrer Produktion arbeiten“, berichtet Wimmer.

„Es ist im Grunde ein Paradigmenwechsel: Während vorher in den Analysemöglichkeiten die Frage eher vorgegeben war und übliche Lösungswege genutzt wurden, sind jetzt auch unbekannte Fragen und Lösungsideen möglich. Das Large Language Modell arbeitet nicht nur klassisch mit Dokumenten, sondern mit Produktionsdaten aus der Datenbank. Der Chatbot gibt Bilder, Charts oder auch Tabellen zur Visualisierung aus“, fasst Reinhard Bohne den neuen Ansatz zusammen. Letztlich können die Kunden sich damit künftig auch ganz einfach personalisierte Dashboards bauen.

Sie möchten gerne weiterlesen?