Bevorstehende Verpflichtungen des EU AI-Gesetzes: Obligatorische Schulungen und Verbotene Praktiken
Ab dem 2. Februar 2025 müssen Anbieter und Anwender von KI-Systemen sicherstellen, dass ihre Mitarbeiter über ein ausreichendes Maß an KI-Kompetenz verfügen und verbotene KI-Praktiken vermeiden.
Das EU AI-Gesetz trat am 1. August 2024 in Kraft, und die ersten Verpflichtungen unter dem Gesetz werden ab dem 2. Februar 2025 wirksam. Anbieter und Anwender von KI-Systemen müssen sicherstellen, dass ihre Mitarbeiter und Auftragnehmer, die KI nutzen, über ein angemessenes Maß an KI-Kompetenz verfügen, beispielsweise durch die Implementierung von Schulungen.
KI-Kompetenz
Das Artikel 4 des AI-Gesetzes legt eine allgemeine Anforderung an die KI-Kompetenz fest: „Anbieter und Anwender von KI-Systemen müssen Maßnahmen ergreifen, um sicherzustellen, dass die Mitarbeiter und andere Personen, die mit dem Betrieb und der Nutzung von KI-Systemen beauftragt sind, ein ausreichendes Maß an KI-Kompetenz besitzen.“
Unternehmen haben daher erheblichen Spielraum bei der Ausgestaltung der Inhalte und Formate ihrer KI-Schulungen, um diese Verpflichtung bis zum 2. Februar zu erfüllen. Während es herausfordernd sein wird, gegen Vorwürfe der Nichteinhaltung zu argumentieren, wenn Unternehmen keine Formen der KI-Schulung oder Lernressourcen implementieren, wird die Verteidigung gegen Regulierungsbehörden oder Zivilkläger, die behaupten, die bereitgestellte KI-Schulung sei unzureichend, deutlich einfacher sein. Grundlegende Schulungen sind in diesem Kontext auf jeden Fall besser als nichts.
Folgen der Nichteinhaltung der Verpflichtungen zur obligatorischen KI-Kompetenz
Es gelten keine direkten Geldstrafen oder anderen Sanktionen für Verstöße gegen die Anforderungen zur KI-Kompetenz gemäß Artikel 4 des AI-Gesetzes. Ab dem 2. August 2026, wenn die Sanktionen des AI-Gesetzes in Kraft treten, können Anbieter und Anwender von KI-Systemen zivilrechtlich haftbar gemacht werden, insbesondere wenn die Nutzung von KI-Systemen durch unzureichend geschultes Personal Schäden für Verbraucher, Geschäftspartner oder andere Dritte verursacht.
Was können Unternehmen jetzt tun?
Ein nützlicher erster Schritt ist die Analyse, welche Schulungen oder anderen Ressourcen zur Erreichung der KI-Kompetenz das Unternehmen in der Vergangenheit bereitgestellt hat – und diese Maßnahmen zu dokumentieren, um die Einhaltung nachzuweisen und sich gegen zukünftige Anfragen von Regulierungsbehörden oder Ansprüche Dritter zu verteidigen.
Wenn eine Analyse entweder nicht durchführbar ist oder Lücken in der KI-Schulung aufzeigt, können Unternehmen schnell Maßnahmen zur KI-Kompetenz implementieren, um bestehende Lücken effizient und effektiv zu schließen, bevor der 2. Februar 2025 eintritt.
Praktische Lösungen zur Risikominderung
- Bewertung der Schulungsbedarfe: Aktuelle Schulungsprogramme analysieren, um Lücken in der KI-Kompetenz zu identifizieren.
- Dokumentation bestehender Maßnahmen: Aufzeichnungen aller Schulungsinitiativen führen, um die Einhaltung nachzuweisen.
- Gestaltung eines schichtweisen Ansatzes: Nicht alle Geschäftsbereiche oder Mitarbeiter benötigen das gleiche Maß an KI-Kompetenz. Grundlegende Schulungen für alle Mitarbeiter anbieten und spezifische Schulungen nach Bedarf schrittweise implementieren.
- Beratung durch juristische Berater: Unterstützung bei der Implementierung von KI-Kompetenzworkshops oder Online-Kursen, die auf die Bedürfnisse der verschiedenen Teams zugeschnitten sind.
Verbotene KI-Praktiken
Welche KI-Praktiken verbietet das AI-Gesetz?
Artikel 5 des AI-Gesetzes listet eine Reihe verbotener KI-Praktiken und Anwendungsfälle auf. Diese verbotenen Praktiken sind relativ allgemein beschrieben, was Raum für Interpretationen lässt und eine nuancierte Analyse erfordert, um ihre Anwendung in der Praxis zu bestimmen.
Zu den verbotenen Praktiken gehören:
- Manipulative KI-Systeme: KI-Systeme, die subliminale Techniken verwenden, um das Verhalten erheblich zu ändern, was potenziell physische oder psychologische Schäden verursachen kann.
- Ausbeuterische KI-Systeme: KI-Systeme, die die Verwundbarkeit bestimmter Gruppen, wie Kinder oder Menschen mit Behinderungen, ausnutzen, um das Verhalten auf schädliche Weise erheblich zu ändern.
- Emotionale Analyse am Arbeitsplatz: KI-Systeme, die emotionale Analysen oder biometrische Kategorisierungen von Mitarbeitern durchführen, was zu Datenschutzverletzungen und diskriminierenden Praktiken führen kann.
- Soziale Bewertung zu unfairen kommerziellen Zwecken: KI-Systeme, die soziale Bewertungen vornehmen, die Einzelpersonen basierend auf ihrem sozialen Verhalten oder persönlichen Eigenschaften bewerten oder klassifizieren.
Folgen der Nichteinhaltung der Verbote des Artikels 5 des AI-Gesetzes
Artikel 99 des AI-Gesetzes sieht strenge Sanktionen für die Durchführung verbotener KI-Praktiken vor, einschließlich Geldstrafen von bis zu 35 Millionen Euro oder 7 % des Umsatzes des Vorjahres pro Verstoß. Die Sanktionen des AI-Gesetzes treten am 2. August 2026 in Kraft.
Was können Unternehmen jetzt tun?
Unternehmen können verschiedene praktische Maßnahmen ergreifen, um die Risiken zu mindern, die mit KI-Praktiken verbunden sind, die durch Artikel 5 des AI-Gesetzes verboten sind. Während der gewöhnliche Geschäftsbetrieb für viele Unternehmen ein geringes Risiko darstellt, können potenzielle Probleme eher aus der mehrdeutigen Beschreibung dieser verbotenen Aktivitäten im AI-Gesetz resultieren.
Daher sollten Unternehmen im Rahmen der Schaffung robuster Compliance-Strukturen gemäß dem AI-Gesetz die KI-Systeme identifizieren, bewerten und dokumentieren, die sie in ihren Geschäftsprozessen verwenden. Insbesondere sollten sie Systeme analysieren, die potenziell in die Kategorien verbotener KI-Praktiken fallen.
Praktische Lösungen zur Risikominderung
- Identifizierung und Bewertung von KI-Systemen: Überprüfung von KI-Systemen, um sicherzustellen, dass sie nicht unter die verbotenen Kategorien fallen.
- Dokumentation der Compliance-Bemühungen: Dokumentation der Gründe, warum bestimmte KI-Nutzungen nicht gegen die Verbote gemäß Artikel 5 verstoßen.
- Weitere mögliche Ziele: Analyse von KI-Systemen auf potenzielle Hochrisikopraktiken und Sicherstellung der Einhaltung von Transparenzpflichten.