Schulungspflicht zur KI-Verordnung?
Gibt es eine Schulungspflicht aufgrund der KI-Verordnung? Die EU-Verordnung über Künstliche Intelligenz (EU AI Act) löst bei vielen Entscheidungsträger:innen ähnliche Gefühle aus wie einst die Datenschutzgrundverordnung. Viel Text, unklare Konsequenzen, und die Frage: Betrifft uns das überhaupt?
Die kurze Antwort: Ja, es betrifft Sie – aber wahrscheinlich nicht so, wie Sie befürchten. Für die meisten kleinen und mittelständischen Unternehmen und Behörden geht es nicht um komplexe KI-Systeme in „Hochrisikobereichen“, sondern zunächst um eine Pflicht, die seit Februar 2025 gilt: Mitarbeitende müssen nachweisbar KI-Kompetenz aufgebaut haben. Was das bedeutet, was Hochrisiko-KI ist und woran Sie erkennen, ob Ihr Unternehmen bzw. Ihre Behörde mehr tun muss, lesen Sie hier.
Was ist der EU AI Act – und seit wann gilt er?
Der EU AI Act (Verordnung (EU) 2024/1689) wird häufig auch als „KI-Verordnung“ bezeichnet. Sie ist die weltweit erste umfassende gesetzliche Regulierung von Künstlicher Intelligenz. Der EU AI Act trat am 1. August 2024 in Kraft. Die Verordnung gilt unmittelbar in allen EU-Mitgliedstaaten, ohne nationalen Umsetzungsakt.
Der Gesetzgeber hat dabei einen risikobasierten Ansatz gewählt: Je größer das potenzielle Schadenspotenzial eines KI-Systems, desto strenger die Anforderungen.
Diese Pflichten sind bereits in Kraft getreten:
- seit 2. Februar 2025: Verbote bestimmter KI-Praktiken & Nachweis der KI-Kompetenz
- seit 2. August 2025: Transparenzpflichten für Anbieter von KI-Modellen
Weitere Pflichten erfordern rasches Handeln für Betreiber von Hochrisiko-KI:
- ab 2. August 2026: Vollständige Anwendung der Pflichten für sog. Hochrisiko-KI-Systeme (Details dazu weiter unten)
- ab Dezember 2027: Auch Hochrisiko-KI-Systeme, die als Sicherheitsbauteil in regulierten Produkten verbaut sind
Für die meisten KMU und Behörden ist aktuell besonders die Pflicht zum Kompetenzaufbau nach Artikel 4 besonders relevant. Darüber hinaus ist eine Bestandsaufnahme genutzter IT-Systeme hinsichtlich KI-Komponenten dringend zu empfehlen, um sog. „Hochsicherheits-KI“ zu erkennen.
Details zur Schulungspflicht der KI-Verordnung (Artikel 4)
Artikel 4 des EU AI Act verpflichtet Unternehmen und Organisationen, die KI einsetzen, sicherzustellen, dass ihre Mitarbeitenden über ausreichende KI-Kompetenz – sogenannte AI Literacy – verfügen. Daraus ergibt sich direkt die entscheidende Praxisfrage: Besteht eine Schulungspflicht zur KI-Verordnung?
Die Verordnung gibt dabei kein starres Schulungsformat vor. Entscheidend ist der Kontext: Wer nur gelegentlich KI-Texthilfen nutzt, braucht weniger tiefes Wissen als jemand, der mit einem KI-System Personalentscheidungen vorbereitet. Schulungen müssen nicht nur durchgeführt, sondern auch nachvollziehbar dokumentiert werden.
Das bedeutet konkret: Wer KI-Tools im Arbeitsalltag nutzt – z.B. ChatGPT für Textentwürfe, Copilot in Microsoft 365 oder ein KI-gestütztes Bewerbermanagementsystem – ist als Betreiber im Sinne des AI Act eingestuft. Und als Betreiber müssen Sie sicherstellen, dass Ihre Mitarbeitenden wissen, was sie tun. Transparenz ist hier das A und O.
Übrigens: Auch das Beitragsbild dieses Artikels ist KI-generiert. Gemäß den Transparenzregeln der neuen Verordnung machen wir dies hiermit kenntlich und vermitteln genau solche Details auch in unseren Schulungen.
Was eine KI-Kompetenzschulung mindestens enthalten sollte:
- Grundverständnis: Wie funktioniert KI, was kann sie – und was nicht?
- Rechtliches: Datenschutz beim KI-Einsatz, Transparenzpflichten
- Ethik und Risiken: Wann sind KI-Outputs kritisch zu hinterfragen?
- Praxisbezug: Welche KI-Tools nutzen wir, und was ist dabei zu beachten?
Wichtig: Um die Schulungspflicht zur KI-Verordnung zu erfüllen, ist kein explizites Zertifikat vorgeschrieben. Eine strukturierte interne oder externe Schulung mit Teilnahmenachweis reicht aus.
Diese Pflicht gilt auch für Führungskräfte und Unternehmer. Sie müssen insbesondere auch die potenziellen Risiken im Unternehmen verstehen und relevante KI-Komponenten erkennen. Daher ein kurzer Überblick zum Thema Hochrisiko-KI:
Was ist Hochrisiko-KI – und betrifft das mein Unternehmen?
Hier wird es für viele konkreter als erwartet. Der AI Act definiert in Anhang III eine Liste von Bereichen, in denen KI-Systeme automatisch als hochriskant gelten. Das gilt immer dann, wenn sie Entscheidungen wesentlich beeinflussen, die Grundrechte oder die Sicherheit von Menschen betreffen.
Hochrisiko-KI-Bereiche im Überblick (Auswahl aus Anhang III):
- Personalwesen: KI-gestützte Bewerberauswahl, Leistungsbewertung, Kündigungsentscheidungen
- Bildung: KI zur Bewertung von Prüfungsleistungen oder zur Steuerung von Bildungszugängen
- Öffentliche Leistungen: Systeme, die Behörden bei der Entscheidung über Sozialleistungen, Gesundheitsdienste oder öffentliche Förderungen unterstützen
- Biometrie: Emotionserkennung, biometrische Kategorisierung
- Kritische Infrastruktur: KI als Sicherheitskomponente in Strom-, Wasser- oder Verkehrsinfrastruktur
Für Behörden in der Region Berlin-Brandenburg ist besonders relevant: Jedes KI-System, das im Namen einer Behörde eingesetzt wird und darüber entscheidet, ob Personen Anspruch auf öffentliche Leistungen haben, gilt als Hochrisiko-KI. Das betrifft auch vorbereitende Bewertungen oder Empfehlungen, nicht nur automatisierte Endbescheide.
Für KMU ist der häufigste Berührungspunkt mit Hochrisiko-KI der HR-Bereich: Bewerber-Screening-Tools, die KI einsetzen, fallen dann unter die strengen Anforderungen, wenn sie die Personalentscheidung wesentlich beeinflussen.
Was gilt für Betreiber von Hochrisiko-KI?
Als Betreiber (also als Unternehmen oder Behörde, die ein hochriskantes KI-System einsetzt) gelten ab August 2026 unter anderem folgende Pflichten:
- Menschliche Aufsicht sicherstellen
- Betroffene Personen informieren
- Ergebnisse des Systems überprüfen und nicht blind übernehmen
- Vorfälle dokumentieren und ggf. melden
Bei Verstößen drohen Bußgelder von bis zu 35 Millionen Euro oder 7 % des weltweiten Jahresumsatzes – je nachdem, welcher Betrag höher ist. Auch ohne direkte Bußgelder für Artikel 4-Verstöße besteht erhebliches zivilrechtliches Haftungsrisiko für die Geschäftsführung.
Was KMU und Behörden jetzt konkret tun sollten
Wer jetzt strukturiert vorgeht, ist gut aufgestellt, auch wenn sich die Rechtslage zu Hochrisiko-KI bis 2026 noch weiter konkretisieren wird.
Schritt 1: KI-Einsatz inventarisieren. Welche Software nutzen Sie? Sind dort (ggf. auch unwissentlich) KI-Funktionen hinzugekommen? Betrachten Sie sowohl die offiziellen Softwarelösungen als auch die „inoffiziellen“, also Systeme, die die Mitarbeitenden ggf. mit privaten Accounts nutzen. Das schließt ausdrücklich auch Standardsoftware ein, die KI-Funktionen enthält (z. B. Microsoft Copilot, KI in CRM-Systemen, automatisierte Analyse-Tools). Die Bundesnetzagentur bietet mit dem „Interaktiven Compliance Kompass“ ein kostenloses Tool an, mit dem Sie prüfen können, in welche Risikoklasse ein KI-System fällt.
Schritt 2: Risikoklasse bestimmen. Fällt ein System unter Anhang III? Beeinflusst es wesentlich Entscheidungen über Personen? Wenn ja: Hochrisiko-KI – mit erweiterten Pflichten ab 2026.
Schritt 3: KI-Kompetenzschulung organisieren und dokumentieren. Diese Pflicht gilt bereits. Stellen Sie die Schulung Ihrer Mitarbeitenden sicher, die auf ihre tatsächlich genutzten Systeme zugeschnitten ist. Das ist der Kern der Anforderung aus Artikel 4.
Schritt 4: Interne KI-Richtlinie entwickeln. Regeln Sie, wer welche KI-Tools zu welchem Zweck nutzen darf, wie mit KI-Ergebnissen umzugehen ist und was datenschutzrechtlich zu beachten ist. Eine Richtlinie allein ersetzt keine Schulung, beides zusammen schafft Klarheit und Rechtssicherheit.
Häufige Fragen
Gilt der EU AI Act auch für kleine Unternehmen mit weniger als 50 Mitarbeitenden?
Ja. Der EU AI Act macht keine Ausnahme für Unternehmensgröße oder Branche. Wer KI-Tools einsetzt – auch ChatGPT oder Microsoft Copilot – ist als Betreiber eingestuft und muss seit Februar 2025 sicherstellen, dass Mitarbeitende die nötige KI-Kompetenz nachweislich besitzen. Der Umfang der Schulung darf sich am tatsächlichen KI-Einsatz orientieren.
Was passiert, wenn wir die Schulungspflicht nach Artikel 4 nicht erfüllen?
Artikel 4 enthält keine direkten EU-Bußgelder. Es besteht jedoch ein erhebliches zivilrechtliches Risiko: Schadensersatzforderungen, Reputationsverlust und im Ernstfall persönliche Haftung der Geschäftsführung. Außerdem kann fehlende KI-Kompetenz erschwerend wirken, wenn es zu Verstößen gegen andere Teile des AI Acts kommt.
Wie erkenne ich, ob das KI-System, das wir einsetzen, als Hochrisiko-KI gilt?
Entscheidend ist der Verwendungszweck: Wird das System eingesetzt, um Entscheidungen über Personen wesentlich zu beeinflussen, z.B. in der Personalauswahl, bei Sozialleistungen oder im Bildungsbereich? Dann ist es wahrscheinlich Hochrisiko-KI gemäß Anhang III. Der kostenlose Compliance Kompass der Bundesnetzagentur hilft bei der konkreten Einordnung.
Müssen Behörden in der öffentlichen Verwaltung besondere Pflichten beachten?
Ja. Behörden, die KI-Systeme einsetzen, die über den Zugang zu öffentlichen Leistungen oder Diensten entscheiden, fallen automatisch unter die Hochrisiko-Kategorie. Das gilt auch für unterstützende oder vorbereitende KI-Bewertungen, nicht nur für vollautomatische Bescheide. Die Schulungspflicht nach Artikel 4 gilt selbstverständlich ebenfalls.
Was müssen wir bei der Nutzung von ChatGPT oder Microsoft Copilot beachten?
Diese Tools gelten als KI-Systeme mit allgemeinem Verwendungszweck. Als Betreiber müssen Sie sicherstellen, dass Mitarbeitende geschult sind, Datenschutzregeln einhalten und keine personenbezogenen Daten ungeschützt in externe Systeme eingeben. Eine interne KI-Nutzungsrichtlinie ist dringend empfohlen.
Quellen
- Europäische Union (2024): Verordnung (EU) 2024/1689 des Europäischen Parlaments und des Rates über künstliche Intelligenz (EU AI Act). Amtsblatt der EU, 12. Juli 2024. Artikel 4: KI-Kompetenz (artificialintelligenceact.eu)
- Bundesnetzagentur (2025): Hochrisiko-KI-Systeme – Überblick und Compliance Kompass. bundesnetzagentur.de
- AI Act Service Desk der EU-Kommission (2024): Anhang III – Hochrisiko-KI-Systeme gemäß Artikel 6 Absatz 2. ai-act-service-desk.ec.europa.eu
Sie sind unsicher, welche Ihrer KI-Tools eine Schulung erfordern, oder suchen eine kompakte KI-Kompetenzschulung für Ihr Team? Tietoa GmbH unterstützt KMU und Behörden in Berlin & Brandenburg bei der Planung und Umsetzung von passenden Qualifizierungsmaßnahmen.