Industrial Metaverse

Wie das Nvidia Omniverse KI-Fabriken Realität macht

Wie beschleunigt das Nvidia Omniverse KI-Fabriken? Das digitale Ökosystem verändert Planung, Produktion und Robotik in Rekordzeit. Ein Interview mit Timo Kistner, EMEA Industry Business Lead – Manufacturing & Industrial.

Veröffentlicht
Das Nvidia Omniverse transformiert Fabriken in lernende, optimierte KI-Systeme.
Das Nvidia Omniverse transformiert Fabriken in lernende, optimierte KI-Systeme. (Symbolbild)

Timo Kistner auf der Industrial Metaverse Conference

Dr. Timo Kistner, Emea Industry Business Lead – Manufacturing & Industrial, Nvidia.

Timo Kistner ist auf die Förderung des Geschäftswachstums von Nvidia im Fertigungs- und Industriesektor spezialisiert. Mit einem Fokus auf Bereiche wie Halbleiter, Elektronik, Maschinenbau, Luft- und Raumfahrt, Chemie sowie Transport und Logistik pflegt er strategische Partnerschaften und baut vertrauensvolle Beziehungen zu wichtigen Kunden auf. 

Seine Rolle umfasst nicht nur die Betreuung strategischer Kundenbeziehungen von Nvidia, sondern auch die Pflege eines Partner-Ökosystems und die Unterstützung bei wichtigen Technologie- und Geschäftstrends innerhalb der Branche.

Auf der Industrial Metaverse Conference am 10. und 11. Februar wird Timo Kistner über das Thema "Agentic, Physics und Physical AI im Industrieumfeld" sprechen. Weitere Informationen und Tickets gibt es hier!

Nvidia bezeichnet Omniverse als „Betriebssystem“ für physische KI und KI-Fabriken. Warum ist das so und welche konkreten geschäftlichen Vorteile können Hersteller innerhalb von drei bis fünf Jahren erwarten, wenn sie dieses Ökosystem heute einführen?

Timo Kistner: Nvidia Omniverse lässt sich am besten als eine Sammlung offener Bibliotheken verstehen, mit denen Entwickler OpenUSD-basierte Anwendungen und Workflows erstellen. Dieser Unterschied ist entscheidend: Anstatt Hersteller auf ein einziges neues Tool festzulegen, ermöglicht Omniverse ihnen, ihre bestehenden 3D-Tools sowie Daten aus CAD-, PLM-, Simulations- und Automatisierungssystemen in einer einheitlichen, physikalisch genauen Pipeline zu verbinden. In dieser Umgebung können Engineering, Betrieb und Lieferanten gemeinsam entwerfen, simulieren und optimieren, bevor physische Hardware eingesetzt wird.

Durch die zunächst virtuelle Validierung von Automatisierungs-, Robotik- und KI-Workflows in dieser digitalen Fabrik können Hersteller die meisten Probleme bereits in der Simulation erkennen und beheben und anschließend mit einem hohen Maß an Sicherheit in der physischen Fabrik ausrollen. Dieser Ansatz führt zu messbaren Vorteilen: kürzere Inbetriebnahmezeiten, weniger Änderungszyklen, eine schnellere Einführung neuer Produkte sowie eine höhere Gesamtanlageneffektivität (OEE), ermöglicht durch KI-basierte Optimierung von Durchsatz, Energieverbrauch und Wartungsstrategien. 

Kommen Sie zur Industrial Metaverse Conference!

Die Industrial Metaverse Conference erkundet die neuesten Entwicklungen und Innovationen an der Schnittstelle von Industrie und virtuellen Welten. 

Die Konferenz bringt führende Experten, Technologen und Geschäftsstrategen zusammen, um Einblicke in die Verwendung von Metaverse-Technologien in der Fertigung, Automatisierung und digitalen Transformation zu teilen.

Die nächste Konferenz ist am 10. und 11. Februar 2026 in München.

Weitere Informationen und Tickets gibt es hier: Zur Industrial Metaverse Conference.

Anstatt sich auf kostspielige Versuche und Irrtümer in der Fertigung zu verlassen, können Unternehmen mit Omniverse-Bibliotheken entwickelte Anwendungen nutzen, um „Was-wäre-wenn“-Szenarien auf dem digitalen Zwilling durchzuspielen, die Kapazität zu erhöhen und die Kosten pro Einheit zu senken – ohne zusätzliche Investitionen in Gebäude oder Anlagen.

Das „Drei-Computer“-Modell von Nvidia – DGX für das Training, OVX und Omniverse für die Simulation und Jetson/AGX für den Edge-Einsatz – deckt den gesamten Lebenszyklus der physikalischen KI ab. Was sind die bewährtesten Vorgehensweisen, um das volle Potenzial auszuschöpfen, und welche Schritte sind für ein erfolgreiches Projekt erforderlich?

Kistner: Das „Drei-Computer“-Modell beschreibt, wie Nvidia-Plattformen dem physikalischen KI-Lebenszyklus zugeordnet sind:

  • Der erste Computer – DGX-Systeme für das Training und Post-Training großer Modelle.
  • Der zweite Computer – RTX PRO-Server für die Durchführung großskaliger Simulationen, die Generierung synthetischer Daten und Anwendungen für digitale Zwillinge.
  • Der dritte Computer – Jetson- oder IGX/AGX-Systeme für die Onboard-Berechnung in Maschinen und Robotern mit geringer Latenz und hohem Durchsatz.
  • Zusammen bilden sie eine Architektur, in der Daten von der Cloud bis zum Edge fließen, Modelle zentral trainiert und validiert werden und optimierte Verhaltensweisen wieder in die physische Welt zurückgeführt werden. Die drei Phasen physischer KI-Projekte – Training, Simulation und Bereitstellung am Edge – funktionieren am besten, wenn sie als ein kontinuierlicher Kreislauf und nicht als voneinander getrennte Maßnahmen betrachtet werden.

In der Trainingsphase nutzen Teams große Mengen an Realweltdaten, wie Kamera-Streams, Sensorprotokolle und Fehlerfälle, um KI-Modellen beizubringen, wie sie in komplexen Umgebungen sehen, verstehen und handeln können. So lernen beispielsweise Lagerroboter, Paletten zuverlässiger zu erkennen, oder Lieferroboter, besser einzuschätzen, wann es sicher ist, eine Straße zu überqueren.

In der Simulationsphase werden diese Modelle in physikalisch genauen digitalen Zwillingen realer Umgebungen – etwa Fabriken, Krankenhäusern oder Stadtvierteln – getestet und verfeinert. Dort können Tausende von „Was-wäre-wenn“-Szenarien sicher durchgespielt werden, wie Notstopps in einem überfüllten Gang oder starker Regen auf einer Baustelle. Nur Modelle, die unter einer Vielzahl von Bedingungen zuverlässig funktionieren, werden für die nächste Phase freigegeben.

In der Einsatzphase am Edge werden diese bewährten Modelle auf Roboter und Maschinen im Feld ausgerollt, wo sie neben einer einfachen, äußerst zuverlässigen Sicherheitslogik laufen. Dadurch bleiben grundlegende Schutzfunktionen wie die Kollisionsvermeidung auch dann vorhersehbar, wenn die übergeordnete Intelligenz aktualisiert wird.

Durch die kontinuierliche Erfassung neuer Daten aus den eingesetzten Systemen, deren Rückführung in die Trainingsumgebung, die erneute Durchführung anspruchsvoller Simulationen sowie die sorgfältige Aktualisierung der auf den Maschinen laufenden Software können Unternehmen Genauigkeit, Sicherheit und Autonomie kontrolliert und wiederholbar stetig verbessern.

Welche wesentlichen Daten-, Konnektivitäts- und Workflow-Grundlagen müssen Fabriken bereits etabliert haben, um mit Omniverse Blueprints und Integrationen in den nächsten 12 bis 24 Monaten wirklich von physikalisch genauen digitalen Zwillingen zu profitieren?

Kistner: Blueprints kombinieren die Bibliotheken, Modelle und Frameworks von Nvidia zu Referenz-Workflows. Entwickler können entweder den gesamten Workflow oder ausgewählte Teile davon für ihre eigene Pipeline übernehmen. Unsere Blueprints unterstützen Entwickler dabei, digitale Zwillinge zu erstellen, synthetische Daten zu generieren oder Robotersysteme zu validieren.

Produktionsstätten benötigen zunächst zuverlässige, gut strukturierte Daten aus Maschinen, Produktionssystemen und Energiemessgeräten, damit der digitale Zwilling in Echtzeit abbilden kann, was tatsächlich passiert, und „Was-wäre-wenn“-Szenarien simulieren kann. Omniverse-Bibliotheken helfen Entwicklern dabei, Maschinen-, Qualitäts- und Wartungsdaten in einer einheitlichen Sicht und in großem Maßstab zusammenzuführen. So können Teams bereits vor Eingriffen in die reale Fertigung analysieren, wie sich Änderungen der Liniengeschwindigkeit auf Ausschuss und Stillstandszeiten auswirken würden.

Aktuelle 3D- oder CAD-Modelle von Gebäuden, Fertigungslinien und zentralen Maschinen müssen verfügbar sein und während des gesamten Projektverlaufs – von der Planung bis zum Betrieb – gepflegt werden. Fabriklayouts, Anlagenmodelle und Automatisierungsassets werden in einen gemeinsamen OpenUSD-Arbeitsraum integriert, sodass Teams neue Layouts, Kühlkonzepte oder Kamerapositionen virtuell testen können, bevor Budgets freigegeben werden.

 Schließlich entfaltet der digitale Zwilling seinen größten Nutzen als gemeinsame Arbeitsumgebung, in der Betriebs-, Engineering-, IT- und Sicherheitsteams zusammenkommen, um Ideen zu prüfen und Entscheidungen zu treffen. In Beispielen aus KI-Fabriken und industriellen digitalen Zwillingen untersuchen Teams gemeinsam, wie sich die Einführung einer neuen Fertigungslinie oder die Anpassung eines Prozesses auf Durchsatz, Energieverbrauch und Arbeitssicherheit auswirken würde – alles in einer konsolidierten Ansicht. Dies ermöglicht schnellere und fundiertere Entscheidungen.

Plattformen wie Nvidia Cosmos und Isaac Lab schließen nun den Kreis von der Generierung synthetischer Daten bis zum Einsatz in der realen Welt. Wie verläuft dieser End-to-End-Prozess konkret in der Praxis bei Robotikaufgaben wie Palettierung oder Inspektion – von der Datenerfassung bis zur Einführung?

Kistner: Nvidia Cosmos, unsere World-Foundation-Model-Plattform, und Nvidia Isaac, eine offene Entwicklungsplattform für Robotik, die mit Isaac Lab eine Umgebung für Reinforcement Learning und das Training von Steuerungsstrategien in fotorealistischen und physikalisch genauen Simulationen umfasst, ergänzen sich ideal.

Entwickler können mit Cosmos-Modellen synthetische Daten erzeugen, die für das Post-Training von Roboter-Policy-Modellen benötigt werden. Gleichzeitig können sie Robotern in Isaac Lab neue Fähigkeiten wie Palettieren oder die Navigation in komplexen Fabrikumgebungen beibringen – und das zunächst vollständig virtuell. Gemeinsam ermöglichen diese Plattformen es Robotern und autonomen Maschinen, sowohl aus realen Fabrikdaten als auch aus synthetisch generierten Szenarien zu lernen, bevor sie auf dem Shopfloor eingesetzt werden.

In der Praxis beginnt der geschlossene Kreislauf für Aufgaben wie Palettieren, Maschinenbeschickung oder Inspektion mit der Erfassung von Daten – beispielsweise über Kameras oder Lidar-Sensoren, mithilfe von Nvidia Jetson oder vergleichbaren Edge-AI-Systemen zur Echtzeitwahrnehmung. Diese Daten dienen dazu, einen digitalen Zwilling aufzubauen oder zu verfeinern und in Isaac Lab vielfältige synthetische Szenen zu erzeugen. 

Dort werden Steuerungsstrategien über zahlreiche Varianten von Produkten, Lichtverhältnissen und Randfällen hinweg trainiert und intensiv getestet. Die validierten Modelle werden anschließend über die Edge-Plattform zurück auf die Roboter ausgerollt, im laufenden Betrieb überwacht und regelmäßig neu trainiert, wenn sich Layouts oder Betriebsbedingungen ändern.

Welche konkreten Trends und Hürden sehen Sie bis 2026 für deutsche Hersteller – insbesondere den Mittelstand – bei der Einführung von physikalischer KI und Digital-Twin-Technologien? Wie entscheidend wird das lokale Ökosystem aus Industriepartnern, Zulieferern, Universitäten und politischen Entscheidungsträgern in Deutschland sein, um Pilotprojekte in skalierte KI-Fabriken umzusetzen?

Kistner: Physische KI bezeichnet künstliche Intelligenz, die in der physischen Welt wahrnimmt, schlussfolgert und handelt und Anwendungen wie industrielle Robotik, autonome Maschinen und intelligente Fabriken ermöglicht. In Deutschland trifft dies auf eine lange Tradition von Industrie 4.0, in der cyber-physische Systeme, Vernetzung und Automatisierung bereits zentrale Bestandteile der Fertigungsbasis sind.

Mit Blick auf 2026 stehen viele deutsche Hersteller – insbesondere Mittelstandslieferanten – vor einer doppelten Herausforderung: Sie müssen KI-gesteuerte Automatisierung, digitale Zwillinge und souveräne KI-Infrastrukturen skalieren, um global wettbewerbsfähig zu bleiben. Gleichzeitig müssen der Fachkräftemangel, komplexe Integration in bestehende Anlagen (Brownfield) sowie anspruchsvolle Sicherheits- und regulatorische Anforderungen bewältigt werden. Dies treibt Unternehmen in Richtung „Simulation-First-Ansätze“ und KI-Fabriken, in denen Produktdesign, Fabrikplanung und Betrieb zunehmend durch Modelle gesteuert werden, statt auf Versuch und Irrtum auf dem Shopfloor zu setzen.

Das lokale Ökosystem wird dabei zu einem strategischen Vorteil. OEMs, ISVs wie Siemens, Engineering-Experten wie EDAG und EXP, deutsche Automobil- und Mobilitätsunternehmen, darunter BMW, Mercedes-Benz und Schaeffler, sowie Robotikfirmen wie Agile Robots, Kuka, idealworks, Neura und Wandelbots arbeiten bereits mit Nvidia Open-Technologien, um digitale Zwillinge, KI-fähige Roboter und domänenspezifische Anwendungen zu entwickeln, die auf die deutschen Fertigungsstandards zugeschnitten sind. Universitäten und angewandte Forschungseinrichtungen liefern Fachwissen und Talente, während politische Entscheidungsträger Rahmenbedingungen zu KI-Sicherheit, Datenschutz und Souveränität schaffen, die der Industrie klare regulatorische Grundlagen geben.

Ein zentraler Baustein dieses Ökosystems ist die Industrial AI Cloud von Nvidia und der Deutschen Telekom – eine souveräne, in Deutschland ansässige „KI-Fabrik“, die speziell für industrielle Workloads konzipiert wurde. Sie ist in deutschen Rechenzentren angesiedelt und soll auf rund 10.000 Nvidia-GPUs skalieren, darunter DGX B200-Systeme und RTX PRO-Server. Hersteller können damit CUDA-X, RTX, Omniverse-Bibliotheken und Partneranwendungen von Unternehmen wie Siemens, Ansys, Cadence und SAP auf souveräner Infrastruktur ausführen. 

Der frühe Zugang ist für 2026 geplant. Für deutsche Unternehmen, insbesondere den Mittelstand, bedeutet dies, dass sie KI-Modelle, digitale Zwillinge und Robotik-Anwendungen in der Nähe ihrer Daten trainieren, testen und einsetzen können – unter Einhaltung europäischer Vorschriften und ohne eigene Hyperscale-Infrastruktur aufzubauen. So werden isolierte Pilotprojekte zu skalierbaren KI-Fabriken „Made in Germany, for Germany and Europe“

Quelle: Nvidia

FAQ: Physische KI, Digitale Zwillinge und Nvidia Omniverse

1. Warum wird Nvidia Omniverse als „Betriebssystem“ für physische KI und KI-Fabriken bezeichnet?

Nvidia Omniverse ist keine einzelne Software, sondern eine Sammlung offener Bibliotheken, mit denen OpenUSD-basierte Anwendungen und Workflows aufgebaut werden können. Dadurch lassen sich bestehende 3D-Tools sowie Daten aus CAD-, PLM-, Simulations- und Automatisierungssystemen in einer physikalisch genauen, gemeinsamen Pipeline verbinden. Engineering, Betrieb und Lieferanten können so virtuell zusammenarbeiten, entwerfen und optimieren, bevor physische Hardware eingesetzt wird.

2. Welche messbaren geschäftlichen Vorteile bietet Omniverse für Hersteller in den nächsten drei bis fünf Jahren?

Durch die virtuelle Validierung von Automatisierungs-, Robotik- und KI-Workflows lassen sich Probleme frühzeitig in der Simulation erkennen und beheben. Das führt zu kürzeren Inbetriebnahmezeiten, weniger Änderungszyklen, einer schnelleren Produkteinführung und einer höheren Gesamtanlageneffektivität. Zusätzlich können Hersteller mithilfe digitaler Zwillinge „Was-wäre-wenn“-Szenarien durchspielen, Kapazitäten erhöhen und Kosten pro Einheit senken – ohne zusätzliche Investitionen in Gebäude oder Anlagen.

3. Wie funktioniert das „Drei-Computer“-Modell von Nvidia im Lebenszyklus physischer KI?

Das Modell umfasst DGX-Systeme für das Training großer Modelle, RTX-basierte Server für Simulation, synthetische Daten und digitale Zwillinge sowie Jetson- oder IGX/AGX-Systeme für den Edge-Einsatz in Maschinen und Robotern. Diese drei Phasen – Training, Simulation und Einsatz – bilden einen kontinuierlichen Kreislauf, in dem Daten aus der realen Welt zurück ins Training fließen, Modelle in Simulationen validiert und anschließend sicher in der physischen Umgebung eingesetzt werden.

4. Welche Voraussetzungen müssen Fabriken erfüllen, um von digitalen Zwillingen mit Omniverse zu profitieren?

Erforderlich sind zuverlässige und gut strukturierte Daten aus Maschinen, Produktionssystemen und Energiemessungen sowie aktuelle 3D- und CAD-Modelle von Gebäuden, Anlagen und Fertigungslinien. Diese Daten werden in einem gemeinsamen OpenUSD-Arbeitsraum zusammengeführt. Der größte Nutzen entsteht, wenn der digitale Zwilling als gemeinsame Arbeitsumgebung für Engineering, Betrieb, IT und Sicherheit genutzt wird, um fundierte Entscheidungen virtuell abzusichern.

5. Welche Trends und Hürden sehen sich deutsche Hersteller bis 2026 gegenüber?

Deutsche Hersteller stehen vor der Aufgabe, KI-gesteuerte Automatisierung, digitale Zwillinge und souveräne KI-Infrastrukturen zu skalieren, während Fachkräftemangel, Brownfield-Integration sowie Sicherheits- und Regulierungsanforderungen bewältigt werden müssen. Das lokale Ökosystem aus Industriepartnern, Forschungseinrichtungen und politischen Akteuren wird dabei zum strategischen Vorteil. Ein zentrales Element ist die Industrial AI Cloud von Nvidia und der Deutschen Telekom, die ab 2026 eine skalierbare, souveräne KI-Infrastruktur für industrielle Anwendungen in Deutschland bereitstellen soll.