KI-gestützte Produktionsumgebungen und sichere Mensch-Maschine-Interaktion stehen im Zentrum der aktuellen Debatte um einheitliche Regeln für Hochrisiko-Anwendungen in Europa.Symbolbild - KI-generiert
Anzeige
Summary: Der TÜV-Verband hat zum Start der Hannover Messe 2026 in Berlin eine rasche Umsetzung des AI Acts gefordert. Hintergrund ist die Debatte um einen möglichen Sektor-Exit für Hochrisiko-Produkte, der nach Einschätzung des Verbands zu einem Regulierungsvakuum und zersplitterten Vorgaben führen würde. Betroffen wären unter anderem Maschinen, Medizinprodukte und weitere KI-Anwendungen mit hohen Sicherheitsanforderungen.
Warum der AI Act für die Industrie wichtig ist
Der TÜV-Verband fordert eine zügige Umsetzung des EU AI Acts nach dem Vorschlag der EU-Kommission. Ziel ist ein europaweit einheitlicher Rechtsrahmen für industrielle KI-Anwendungen, wie aus der Mitteilung hervorgeht.
Anzeige
Zum Start der Hannover Messe 2026 sagt Dr. Joachim Bühler, Geschäftsführer des TÜV-Verbands: „Künstliche Intelligenz macht gerade den Sprung in die physische Welt von Maschinen, Robotik und Geräten“. KI ermögliche „immer flexiblere Roboter, die mit Menschen Hand in Hand arbeiten, automatisierte Qualitätskontrollen oder Simulationen mit digitalen Zwillingen.“
Die Grundlage dafür seien die umfangreichen Datenbestände in der deutschen Fertigungsindustrie. Bühler betont: „Deutsche Unternehmen haben die Chance, diesen Datenschatz zu heben und ihre Produktion auf das nächste Level zu heben. Das Ziel sind eine effizientere Fertigung und bessere Produkte.“
Nach Angaben des TÜV-Verbands braucht der Einsatz von KI in der Industrie neben technischen und digitalen Kompetenzen auch verlässliche rechtliche Rahmenbedingungen, um Risiken bewerten und eindämmen zu können.
Dr. Joachim Bühler, Geschäftsführer des TÜV-Verbands.TÜV-Verband
Bühler verweist auf konkrete Gefahren: „Von physischen KI-Systemen gehen spezifische Gefahren aus, zum Beispiel, wenn Mensch und Maschine miteinander interagieren oder autonome Systeme Fehlentscheidungen treffen.“ Der europäische AI Act sehe deshalb bestimmte Sicherheitsanforderungen für Hochrisiko-KI-Systeme vor.
„Dieser risikobasierte Ansatz soll für verschiedene Produktgruppen wie Maschinen, Medizinprodukte oder auch Spielzeug gelten“, betont Bühler. Auf dieser Grundlage würden zudem Industriestandards entwickelt, etwa zur Qualität der Trainingsdaten, zum Schutz vor systematischen Verzerrungen und zur Cybersicherheit von KI-Systemen. Bühler sagt: „Diese industriellen KI-Standards werden in Europa für den Weltmarkt entwickelt.“
Anzeige
Streit um den Anwendungsbereich des AI Acts
Aktuell wird darüber diskutiert, den bereits beschlossenen AI Act im Rahmen des „Digital Omnibus“ wieder aufzuschnüren und zentrale Regelungen aus dem Gesetzespaket herauszulösen. Der TÜV-Verband hält längere Umsetzungsfristen und Entlastungen für den Mittelstand zwar für sinnvoll, warnt aber davor, Hochrisiko-Produkte aus dem direkten Anwendungsbereich des AI Acts zu streichen.
Zu den KI-Produkten mit hohem Risiko zählen laut AI Act unter anderem Maschinen, Medizinprodukte, KI-Steuerungen für Aufzüge, Seilbahnen oder auch Spielzeuge. Diese Produktgruppen sollen nach dem Willen der Befürworter eines solchen Sektor-Exits stattdessen über spezifische Einzelgesetze geregelt werden.
Der Verband argumentiert, dass es technologisch keinen Unterschied mache, ob ein Computer Vision KI-System in einem Medizingerät oder in einer Fertigungsmaschine eingesetzt werde. Da technische Basis und KI-spezifische Risiken identisch seien, müssten dafür auch dieselben Regeln gelten.
Anzeige
Was ein Sektor-Exit auslösen würde
„Mit einem Sektor-Exit würde der ursprüngliche Ansatz des AI Acts ausgehebelt, einheitliche Regeln für viele Produktgruppen zu schaffen. Die Festlegung von Sicherheitsanforderungen für risikoreiche KI-Anwendungen würde auf unbestimmte Zeit verschoben“, sagt Bühler. „Es droht ein jahrelanges Regulierungsvakuum und anschließend ein Flickenteppich unterschiedlicher Einzelregelungen.“
Zugleich müsse das im AI Act politisch verankert Schutzniveau für KI-Systeme vollständig erhalten bleiben. Bühler warnt: „Eine Absenkung oder Aufweichung zentraler Sicherheitsanforderungen würde Vertrauen in KI untergraben und den europäischen Binnenmarkt schwächen.“
Anzeige
Aus Sicht des TÜV-Verbands würde eine sektorale Regulierung den Rechtsrahmen nicht vereinfachen, sondern weiter zersplittern. KI-Anforderungen müssten dann in zahlreiche Einzelregelwerke integriert werden, mit unterschiedlichen Standards, Verfahren und Fristen. Gleichzeitig entwickle sich KI schneller, als sektorale Regulierung angepasst werden könne.
Wie der TÜV-Verband die Folgen für Unternehmen bewertet
„Das wäre kein Bürokratieabbau, sondern der Einstieg in einen regulatorischen Flickenteppich – mit mehr Aufwand, mehr Unsicherheit und höheren Belastungen für Unternehmen“, warnt Bühler.
Anzeige
Darüber hinaus sieht der Verband die Entwicklung einheitlicher Sicherheitsstandards für KI in Gefahr. Nach seiner Einschätzung könnten beteiligte Unternehmen ihre Experten aus den zuständigen Gremien abziehen. Bühler sagt: „Europa würde die Chance verspielen, weltweit eine Führungsrolle bei der Entwicklung von KI-Standards zu übernehmen.“
In den Trilog-Verhandlungen seien nun EU-Kommission, Mitgliedstaaten und EU-Parlament gefordert, den horizontalen Ansatz des AI Acts zu sichern und klare Regeln für Hochrisiko-KI zu erhalten, wie der Verband erklärt.
Mit Material des TÜV-Verbands
FAQ AI Act
• Warum fordert der TÜV-Verband eine schnelle Umsetzung des AI Acts? – Der Verband will einen einheitlichen europäischen Rechtsrahmen für industrielle KI-Anwendungen sichern.
• Welche Hochrisiko-Produkte betrifft der AI Act laut TÜV-Verband? – Genannt werden unter anderem Maschinen, Medizinprodukte, KI-Steuerungen für Aufzüge, Seilbahnen und Spielzeuge.
• Was kritisiert der TÜV-Verband an einem Sektor-Exit beim AI Act? – Er warnt vor einem Regulierungsvakuum und einem Flickenteppich unterschiedlicher Einzelregelungen.
• Welche Folgen hätte eine Aufweichung des AI Acts aus Sicht des TÜV-Verbands? – Das Vertrauen in KI könnte sinken und der europäische Binnenmarkt geschwächt werden.
• Warum ist der AI Act für industrielle KI-Standards relevant? – Nach Darstellung des Verbands entstehen auf dieser Basis einheitliche Sicherheitsstandards für den europäischen und internationalen Markt.