Wie das Nvidia Omniverse KI-Fabriken Realität macht
Wie beschleunigt das Nvidia Omniverse KI-Fabriken? Das digitale Ökosystem verändert Planung, Produktion und Robotik in Rekordzeit. Ein Interview mit Timo Kistner, EMEA Industry Business Lead – Manufacturing & Industrial.
Das Nvidia Omniverse transformiert Fabriken in lernende, optimierte KI-Systeme. (Symbolbild)DIgilife - stock.adobe.com)
Anzeige
Timo Kistner auf der Industrial Metaverse Conference
Timo Kistner ist auf die Förderung des
Geschäftswachstums von Nvidia im Fertigungs- und Industriesektor spezialisiert. Mit einem Fokus auf Bereiche wie Halbleiter, Elektronik, Maschinenbau,
Luft- und Raumfahrt, Chemie sowie Transport und Logistik pflegt er strategische Partnerschaften und baut vertrauensvolle Beziehungen zu wichtigen Kunden
auf.
Seine Rolle umfasst nicht nur die Betreuung strategischer
Kundenbeziehungen von Nvidia, sondern auch die Pflege eines Partner-Ökosystems
und die Unterstützung bei wichtigen Technologie- und Geschäftstrends innerhalb
der Branche.
Auf der Industrial Metaverse Conference am 10. und 11. Februar wird Timo Kistner über das Thema "Agentic, Physics und Physical AI im Industrieumfeld" sprechen. Weitere Informationen und Tickets gibt es hier!
Nvidia bezeichnet Omniverse als „Betriebssystem“ für physische KI und KI-Fabriken. Warum ist das so und welche konkreten geschäftlichen Vorteile können Hersteller innerhalb von drei bis fünf Jahren erwarten, wenn sie dieses Ökosystem heute einführen?
Timo Kistner: Nvidia Omniverse lässt sich am
besten als eine Sammlung offener Bibliotheken verstehen, mit denen Entwickler
OpenUSD-basierte Anwendungen und Workflows erstellen. Dieser Unterschied ist
entscheidend: Anstatt Hersteller auf ein einziges neues Tool festzulegen,
ermöglicht Omniverse ihnen, ihre bestehenden 3D-Tools sowie Daten aus CAD-,
PLM-, Simulations- und Automatisierungssystemen in einer einheitlichen,
physikalisch genauen Pipeline zu verbinden. In dieser Umgebung können
Engineering, Betrieb und Lieferanten gemeinsam entwerfen, simulieren und
optimieren, bevor physische Hardware eingesetzt wird.
Anzeige
Durch die zunächst virtuelle
Validierung von Automatisierungs-, Robotik- und KI-Workflows in dieser
digitalen Fabrik können Hersteller die meisten Probleme bereits in der
Simulation erkennen und beheben und anschließend mit einem hohen Maß an
Sicherheit in der physischen Fabrik ausrollen. Dieser Ansatz führt zu messbaren
Vorteilen: kürzere Inbetriebnahmezeiten, weniger Änderungszyklen, eine
schnellere Einführung neuer Produkte sowie eine höhere
Gesamtanlageneffektivität (OEE), ermöglicht durch KI-basierte Optimierung von
Durchsatz, Energieverbrauch und Wartungsstrategien.
Kommen Sie zur Industrial Metaverse Conference!
Die Industrial Metaverse Conference erkundet die neuesten Entwicklungen und Innovationen an der Schnittstelle von Industrie und virtuellen Welten.
Die Konferenz bringt führende Experten, Technologen und Geschäftsstrategen zusammen, um Einblicke in die Verwendung von Metaverse-Technologien in der Fertigung, Automatisierung und digitalen Transformation zu teilen.
Die nächste Konferenz ist am 10. und 11. Februar 2026 in München.
Anstatt sich auf kostspielige Versuche und Irrtümer in der Fertigung zu verlassen, können Unternehmen mit Omniverse-Bibliotheken entwickelte Anwendungen nutzen, um „Was-wäre-wenn“-Szenarien auf dem digitalen Zwilling durchzuspielen, die Kapazität zu erhöhen und die Kosten pro Einheit zu senken – ohne zusätzliche Investitionen in Gebäude oder Anlagen.
Anzeige
Das „Drei-Computer“-Modell von Nvidia – DGX
für das Training, OVX und Omniverse für die Simulation und Jetson/AGX für den
Edge-Einsatz – deckt den gesamten Lebenszyklus der physikalischen KI ab. Was
sind die bewährtesten Vorgehensweisen, um das volle Potenzial auszuschöpfen,
und welche Schritte sind für ein erfolgreiches Projekt erforderlich?
Der erste Computer – DGX-Systeme für das
Training und Post-Training großer Modelle.
Der zweite Computer – RTX PRO-Server für
die Durchführung großskaliger Simulationen, die Generierung synthetischer Daten
und Anwendungen für digitale Zwillinge.
Der dritte Computer – Jetson- oder
IGX/AGX-Systeme für die Onboard-Berechnung in Maschinen und Robotern mit
geringer Latenz und hohem Durchsatz.
Zusammen bilden sie eine
Architektur, in der Daten von der Cloud bis zum Edge fließen, Modelle zentral
trainiert und validiert werden und optimierte Verhaltensweisen wieder in die
physische Welt zurückgeführt werden. Die drei Phasen physischer KI-Projekte –
Training, Simulation und Bereitstellung am Edge – funktionieren am besten, wenn
sie als ein kontinuierlicher Kreislauf und nicht als voneinander getrennte
Maßnahmen betrachtet werden.
In der Trainingsphase nutzen Teams
große Mengen an Realweltdaten, wie Kamera-Streams, Sensorprotokolle und
Fehlerfälle, um KI-Modellen beizubringen, wie sie in komplexen Umgebungen
sehen, verstehen und handeln können. So lernen beispielsweise Lagerroboter,
Paletten zuverlässiger zu erkennen, oder Lieferroboter, besser einzuschätzen,
wann es sicher ist, eine Straße zu überqueren.
Anzeige
In der Simulationsphase werden
diese Modelle in physikalisch genauen digitalen Zwillingen realer Umgebungen –
etwa Fabriken, Krankenhäusern oder Stadtvierteln – getestet und verfeinert.
Dort können Tausende von „Was-wäre-wenn“-Szenarien sicher durchgespielt werden,
wie Notstopps in einem überfüllten Gang oder starker Regen auf einer Baustelle.
Nur Modelle, die unter einer Vielzahl von Bedingungen zuverlässig
funktionieren, werden für die nächste Phase freigegeben.
In der Einsatzphase am Edge werden
diese bewährten Modelle auf Roboter und Maschinen im Feld ausgerollt, wo sie
neben einer einfachen, äußerst zuverlässigen Sicherheitslogik laufen. Dadurch
bleiben grundlegende Schutzfunktionen wie die Kollisionsvermeidung auch dann
vorhersehbar, wenn die übergeordnete Intelligenz aktualisiert wird.
Durch die kontinuierliche Erfassung
neuer Daten aus den eingesetzten Systemen, deren Rückführung in die
Trainingsumgebung, die erneute Durchführung anspruchsvoller Simulationen sowie
die sorgfältige Aktualisierung der auf den Maschinen laufenden Software können
Unternehmen Genauigkeit, Sicherheit und Autonomie kontrolliert und wiederholbar
stetig verbessern.
Welche wesentlichen Daten-, Konnektivitäts-
und Workflow-Grundlagen müssen Fabriken bereits etabliert haben, um mit
Omniverse Blueprints und Integrationen in den nächsten 12 bis 24 Monaten
wirklich von physikalisch genauen digitalen Zwillingen zu profitieren?
Anzeige
Kistner: Blueprints kombinieren die
Bibliotheken, Modelle und Frameworks von Nvidia zu Referenz-Workflows.
Entwickler können entweder den gesamten Workflow oder ausgewählte Teile davon
für ihre eigene Pipeline übernehmen. Unsere Blueprints unterstützen Entwickler
dabei, digitale Zwillinge zu erstellen, synthetische Daten zu generieren oder
Robotersysteme zu validieren.
Produktionsstätten benötigen
zunächst zuverlässige, gut strukturierte Daten aus Maschinen,
Produktionssystemen und Energiemessgeräten, damit der digitale Zwilling in
Echtzeit abbilden kann, was tatsächlich passiert, und „Was-wäre-wenn“-Szenarien
simulieren kann. Omniverse-Bibliotheken helfen Entwicklern dabei, Maschinen-,
Qualitäts- und Wartungsdaten in einer einheitlichen Sicht und in großem Maßstab
zusammenzuführen. So können Teams bereits vor Eingriffen in die reale Fertigung
analysieren, wie sich Änderungen der Liniengeschwindigkeit auf Ausschuss und
Stillstandszeiten auswirken würden.
Aktuelle 3D- oder CAD-Modelle von
Gebäuden, Fertigungslinien und zentralen Maschinen müssen verfügbar sein und
während des gesamten Projektverlaufs – von der Planung bis zum Betrieb –
gepflegt werden. Fabriklayouts, Anlagenmodelle und Automatisierungsassets
werden in einen gemeinsamen OpenUSD-Arbeitsraum integriert, sodass Teams neue
Layouts, Kühlkonzepte oder Kamerapositionen virtuell testen können, bevor
Budgets freigegeben werden.
Anzeige
Schließlich entfaltet der digitale
Zwilling seinen größten Nutzen als gemeinsame Arbeitsumgebung, in der
Betriebs-, Engineering-, IT- und Sicherheitsteams zusammenkommen, um Ideen zu
prüfen und Entscheidungen zu treffen. In Beispielen aus KI-Fabriken und
industriellen digitalen Zwillingen untersuchen Teams gemeinsam, wie sich die
Einführung einer neuen Fertigungslinie oder die Anpassung eines Prozesses auf
Durchsatz, Energieverbrauch und Arbeitssicherheit auswirken würde – alles in
einer konsolidierten Ansicht. Dies ermöglicht schnellere und fundiertere
Entscheidungen.
Plattformen
wie Nvidia Cosmos und Isaac Lab schließen nun den Kreis von der Generierung
synthetischer Daten bis zum Einsatz in der realen Welt. Wie verläuft dieser
End-to-End-Prozess konkret in der Praxis bei Robotikaufgaben wie Palettierung
oder Inspektion – von der Datenerfassung bis zur Einführung?
Kistner: Nvidia Cosmos, unsere World-Foundation-Model-Plattform, und Nvidia Isaac, eine offene
Entwicklungsplattform für Robotik, die mit Isaac Lab eine Umgebung für
Reinforcement Learning und das Training von Steuerungsstrategien in
fotorealistischen und physikalisch genauen Simulationen umfasst, ergänzen sich
ideal.
Anzeige
Entwickler
können mit Cosmos-Modellen synthetische Daten erzeugen, die für das
Post-Training von Roboter-Policy-Modellen benötigt werden. Gleichzeitig können
sie Robotern in Isaac Lab neue Fähigkeiten wie Palettieren oder die Navigation
in komplexen Fabrikumgebungen beibringen – und das zunächst vollständig
virtuell. Gemeinsam ermöglichen diese Plattformen es Robotern und autonomen
Maschinen, sowohl aus realen Fabrikdaten als auch aus synthetisch generierten
Szenarien zu lernen, bevor sie auf dem Shopfloor eingesetzt werden.
In der
Praxis beginnt der geschlossene Kreislauf für Aufgaben wie Palettieren,
Maschinenbeschickung oder Inspektion mit der Erfassung von Daten –
beispielsweise über Kameras oder Lidar-Sensoren, mithilfe von Nvidia Jetson
oder vergleichbaren Edge-AI-Systemen zur Echtzeitwahrnehmung. Diese Daten
dienen dazu, einen digitalen Zwilling aufzubauen oder zu verfeinern und in
Isaac Lab vielfältige synthetische Szenen zu erzeugen.
Dort werden Steuerungsstrategien
über zahlreiche Varianten von Produkten, Lichtverhältnissen und Randfällen
hinweg trainiert und intensiv getestet. Die validierten Modelle werden
anschließend über die Edge-Plattform zurück auf die Roboter ausgerollt, im
laufenden Betrieb überwacht und regelmäßig neu trainiert, wenn sich Layouts
oder Betriebsbedingungen ändern.
Welche
konkreten Trends und Hürden sehen Sie bis 2026 für deutsche Hersteller –
insbesondere den Mittelstand – bei der Einführung von physikalischer KI und
Digital-Twin-Technologien? Wie entscheidend wird das lokale Ökosystem aus
Industriepartnern, Zulieferern, Universitäten und politischen
Entscheidungsträgern in Deutschland sein, um Pilotprojekte in skalierte
KI-Fabriken umzusetzen?
Kistner: Physische
KI bezeichnet künstliche Intelligenz, die in der physischen Welt wahrnimmt,
schlussfolgert und handelt und Anwendungen wie industrielle Robotik, autonome
Maschinen und intelligente Fabriken ermöglicht. In Deutschland trifft dies auf
eine lange Tradition von Industrie 4.0, in der cyber-physische Systeme,
Vernetzung und Automatisierung bereits zentrale Bestandteile der
Fertigungsbasis sind.
Mit Blick
auf 2026 stehen viele deutsche Hersteller – insbesondere
Mittelstandslieferanten – vor einer doppelten Herausforderung: Sie müssen
KI-gesteuerte Automatisierung, digitale Zwillinge und souveräne
KI-Infrastrukturen skalieren, um global wettbewerbsfähig zu bleiben. Gleichzeitig
müssen der Fachkräftemangel, komplexe Integration in bestehende Anlagen
(Brownfield) sowie anspruchsvolle Sicherheits- und regulatorische Anforderungen
bewältigt werden. Dies treibt Unternehmen in Richtung „Simulation-First-Ansätze“
und KI-Fabriken, in denen Produktdesign, Fabrikplanung und Betrieb zunehmend
durch Modelle gesteuert werden, statt auf Versuch und Irrtum auf dem Shopfloor
zu setzen.
Das lokale
Ökosystem wird dabei zu einem strategischen Vorteil. OEMs, ISVs wie Siemens,
Engineering-Experten wie EDAG und EXP, deutsche Automobil- und
Mobilitätsunternehmen, darunter BMW, Mercedes-Benz und Schaeffler, sowie
Robotikfirmen wie Agile Robots, Kuka, idealworks, Neura und Wandelbots arbeiten
bereits mit Nvidia Open-Technologien, um digitale Zwillinge, KI-fähige Roboter
und domänenspezifische Anwendungen zu entwickeln, die auf die deutschen
Fertigungsstandards zugeschnitten sind. Universitäten und angewandte
Forschungseinrichtungen liefern Fachwissen und Talente, während politische
Entscheidungsträger Rahmenbedingungen zu KI-Sicherheit, Datenschutz und
Souveränität schaffen, die der Industrie klare regulatorische Grundlagen geben.
Ein
zentraler Baustein dieses Ökosystems ist die Industrial AI Cloud von Nvidia und
der Deutschen Telekom – eine souveräne, in Deutschland ansässige „KI-Fabrik“,
die speziell für industrielle Workloads konzipiert wurde. Sie ist in deutschen
Rechenzentren angesiedelt und soll auf rund 10.000 Nvidia-GPUs skalieren,
darunter DGX B200-Systeme und RTX PRO-Server. Hersteller können damit CUDA-X,
RTX, Omniverse-Bibliotheken und Partneranwendungen von Unternehmen wie Siemens,
Ansys, Cadence und SAP auf souveräner Infrastruktur ausführen.
Der frühe Zugang
ist für 2026 geplant. Für deutsche Unternehmen, insbesondere den Mittelstand,
bedeutet dies, dass sie KI-Modelle, digitale Zwillinge und Robotik-Anwendungen
in der Nähe ihrer Daten trainieren, testen und einsetzen können – unter
Einhaltung europäischer Vorschriften und ohne eigene Hyperscale-Infrastruktur
aufzubauen. So werden isolierte Pilotprojekte zu skalierbaren KI-Fabriken „Made
in Germany, for Germany and Europe“
Quelle: Nvidia
FAQ: Physische KI, Digitale Zwillinge und Nvidia Omniverse
1. Warum wird Nvidia Omniverse als „Betriebssystem“ für physische KI und KI-Fabriken bezeichnet?
Nvidia Omniverse ist keine einzelne Software, sondern eine Sammlung offener Bibliotheken, mit denen OpenUSD-basierte Anwendungen und Workflows aufgebaut werden können. Dadurch lassen sich bestehende 3D-Tools sowie Daten aus CAD-, PLM-, Simulations- und Automatisierungssystemen in einer physikalisch genauen, gemeinsamen Pipeline verbinden. Engineering, Betrieb und Lieferanten können so virtuell zusammenarbeiten, entwerfen und optimieren, bevor physische Hardware eingesetzt wird.
2. Welche messbaren geschäftlichen Vorteile bietet Omniverse für Hersteller in den nächsten drei bis fünf Jahren?
Durch die virtuelle Validierung von Automatisierungs-, Robotik- und KI-Workflows lassen sich Probleme frühzeitig in der Simulation erkennen und beheben. Das führt zu kürzeren Inbetriebnahmezeiten, weniger Änderungszyklen, einer schnelleren Produkteinführung und einer höheren Gesamtanlageneffektivität. Zusätzlich können Hersteller mithilfe digitaler Zwillinge „Was-wäre-wenn“-Szenarien durchspielen, Kapazitäten erhöhen und Kosten pro Einheit senken – ohne zusätzliche Investitionen in Gebäude oder Anlagen.
3. Wie funktioniert das „Drei-Computer“-Modell von Nvidia im Lebenszyklus physischer KI?
Das Modell umfasst DGX-Systeme für das Training großer Modelle, RTX-basierte Server für Simulation, synthetische Daten und digitale Zwillinge sowie Jetson- oder IGX/AGX-Systeme für den Edge-Einsatz in Maschinen und Robotern. Diese drei Phasen – Training, Simulation und Einsatz – bilden einen kontinuierlichen Kreislauf, in dem Daten aus der realen Welt zurück ins Training fließen, Modelle in Simulationen validiert und anschließend sicher in der physischen Umgebung eingesetzt werden.
4. Welche Voraussetzungen müssen Fabriken erfüllen, um von digitalen Zwillingen mit Omniverse zu profitieren?
Erforderlich sind zuverlässige und gut strukturierte Daten aus Maschinen, Produktionssystemen und Energiemessungen sowie aktuelle 3D- und CAD-Modelle von Gebäuden, Anlagen und Fertigungslinien. Diese Daten werden in einem gemeinsamen OpenUSD-Arbeitsraum zusammengeführt. Der größte Nutzen entsteht, wenn der digitale Zwilling als gemeinsame Arbeitsumgebung für Engineering, Betrieb, IT und Sicherheit genutzt wird, um fundierte Entscheidungen virtuell abzusichern.
5. Welche Trends und Hürden sehen sich deutsche Hersteller bis 2026 gegenüber?
Deutsche Hersteller stehen vor der Aufgabe, KI-gesteuerte Automatisierung, digitale Zwillinge und souveräne KI-Infrastrukturen zu skalieren, während Fachkräftemangel, Brownfield-Integration sowie Sicherheits- und Regulierungsanforderungen bewältigt werden müssen. Das lokale Ökosystem aus Industriepartnern, Forschungseinrichtungen und politischen Akteuren wird dabei zum strategischen Vorteil. Ein zentrales Element ist die Industrial AI Cloud von Nvidia und der Deutschen Telekom, die ab 2026 eine skalierbare, souveräne KI-Infrastruktur für industrielle Anwendungen in Deutschland bereitstellen soll.