AI Act verpflichtet zu KI-Schulung
Regeln im AI Act zum Umgang mit KI helfen bei Unsicherheit
KI ist komplex, ihre Anwendung birgt Risiken. Daher sind KI-Schulungen ab August 2025 in der EU für Unternehmen verbindlich und sollen die Mitarbeiter zu einem sicheren und qualifizierten Umgang mit Künstlicher Intelligenz im Arbeitsalltag befähigen.
Alois Krtil, CTO Pinktum (links) und Joachim Pawlik, CEO Pinktum (rechts): Engagement für verantwortungsvolle KI-Nutzung
(Bild: Cécile Ash)
Ab dem 1. August 2025 wird eine Schulungspflicht für den Einsatz von Künstlicher Intelligenz in Unternehmen, insbesondere in sensiblen Einsatzbereichen, verbindlich. Die EU-Verordnung über Künstliche Intelligenz (AI Act) verpflichtet Unternehmen dazu, Mitarbeitende im sicheren und verantwortungsvollen Umgang mit bestimmten KI-Systemen zu qualifizieren – und das dokumentiert und nachweisbar. Aktuelle Umfragen belegen jedoch, dass sich die Beschäftigten in Deutschland unzureichend auf den Einsatz von KI vorbereitet fühlen.
„Viele Unternehmen unterschätzen, dass bereits der Einsatz alltäglicher Tools wie Copilot oder ChatGPT Team in bestimm-ten Kontexten eine Schulungspflicht auslösen kann. Die Bandbreite an Anwendungen wächst täglich – entsprechend müssen auch die Schulungsmaßnahmen mitwachsen. Wer wartet, riskiert Compliance-Verstöße, “ sagt dazu Alois Krtil.
„Wir haben ein Schulungsdefizit im Umgang mit KI, das sich durch den wachsenden Einsatz von GP AI verschärft.“ General Purpose AI wie Copilot oder ChatGPT, die nicht auf spezifische Anwendungsbereiche beschränkt sind, unterstützen Beschäftigte immer stärker in der täglichen Arbeit und ihre Einsatzfelder sind nicht immer einfach in „sensibel“ und „unsensibel“ abgrenzbar. Beispielsweise können Halluzinationen in Arbeitsprozesse einfließen, wenn die Beschäftigten im Einsatz und der Risiko-einschätzung nicht geschult sind. Außerdem würden mangels Schulung die Potenziale durch KI nicht ausreichend ausgeschöpft, so Krtil.
Was sind KI-Halluzinationen?
Eine KI-Halluzination beschreibt eine Situation, in der ein künstliches Intelligenzmodell, oft ein großes Sprachmodell (LLM), falsche oder nicht existente Informationen generiert, die jedoch plausibel klingen. Es ist, als ob das Modell "erfindet", um eine Antwort zu geben, obwohl es keine verlässlichen Informationen dazu hat.
„Künstliche Intelligenz greift zunehmend in alltägliche Entscheidungen im Arbeitsleben ein – umso wichtiger ist es, dass Menschen die Systeme verstehen, kontrollieren und kritisch hinterfragen können. Insofern geht es hier um Rechtssicherheit und um gelebte Verantwortung. Der Mensch muss aufgeklärter Entscheider bleiben.“
Joachim Pawlik, CEO Pinktum
Skalierbare Lösung mit Zertifikat
In der E-Learning Benchmarking Studie, die Pinktum Ende 2024 mit dem eLearning Journal veröffentlicht hat, benennen Entscheider „Datenschutz & Sicherheitsbedenken“ und „Unzureichendes internes Know-how“ als größte Herausforderungen von Unter-nehmen beim Einsatz von KI-Tools in der betrieblichen Bildung.
Pinktum bietet Unternehmen, ihren Führungskräften und Mitarbeitenden spezifische E-Trainings an, die diese mit einem Zertifikat abschließen, das Inhalte und Zeitpunkt verlässlich dokumentiert.
Quelle: Pink University, München bearbeitet von Susanne Rick