EU AI Gesetz: Schulungspflichten und Verbotene Praktiken

Bevorstehende Verpflichtungen des EU AI-Gesetzes: Obligatorische Schulungen und Verbotene Praktiken

Ab dem 2. Februar 2025 müssen Anbieter und Anwender von KI-Systemen sicherstellen, dass ihre Mitarbeiter über ein ausreichendes Maß an KI-Kompetenz verfügen und verbotene KI-Praktiken vermeiden.

Das EU AI-Gesetz trat am 1. August 2024 in Kraft, und die ersten Verpflichtungen unter dem Gesetz werden ab dem 2. Februar 2025 wirksam. Anbieter und Anwender von KI-Systemen müssen sicherstellen, dass ihre Mitarbeiter und Auftragnehmer, die KI nutzen, über ein angemessenes Maß an KI-Kompetenz verfügen, beispielsweise durch die Implementierung von Schulungen.

KI-Kompetenz

Das Artikel 4 des AI-Gesetzes legt eine allgemeine Anforderung an die KI-Kompetenz fest: „Anbieter und Anwender von KI-Systemen müssen Maßnahmen ergreifen, um sicherzustellen, dass die Mitarbeiter und andere Personen, die mit dem Betrieb und der Nutzung von KI-Systemen beauftragt sind, ein ausreichendes Maß an KI-Kompetenz besitzen.“

Unternehmen haben daher erheblichen Spielraum bei der Ausgestaltung der Inhalte und Formate ihrer KI-Schulungen, um diese Verpflichtung bis zum 2. Februar zu erfüllen. Während es herausfordernd sein wird, gegen Vorwürfe der Nichteinhaltung zu argumentieren, wenn Unternehmen keine Formen der KI-Schulung oder Lernressourcen implementieren, wird die Verteidigung gegen Regulierungsbehörden oder Zivilkläger, die behaupten, die bereitgestellte KI-Schulung sei unzureichend, deutlich einfacher sein. Grundlegende Schulungen sind in diesem Kontext auf jeden Fall besser als nichts.

Folgen der Nichteinhaltung der Verpflichtungen zur obligatorischen KI-Kompetenz

Es gelten keine direkten Geldstrafen oder anderen Sanktionen für Verstöße gegen die Anforderungen zur KI-Kompetenz gemäß Artikel 4 des AI-Gesetzes. Ab dem 2. August 2026, wenn die Sanktionen des AI-Gesetzes in Kraft treten, können Anbieter und Anwender von KI-Systemen zivilrechtlich haftbar gemacht werden, insbesondere wenn die Nutzung von KI-Systemen durch unzureichend geschultes Personal Schäden für Verbraucher, Geschäftspartner oder andere Dritte verursacht.

Was können Unternehmen jetzt tun?

Ein nützlicher erster Schritt ist die Analyse, welche Schulungen oder anderen Ressourcen zur Erreichung der KI-Kompetenz das Unternehmen in der Vergangenheit bereitgestellt hat – und diese Maßnahmen zu dokumentieren, um die Einhaltung nachzuweisen und sich gegen zukünftige Anfragen von Regulierungsbehörden oder Ansprüche Dritter zu verteidigen.

Wenn eine Analyse entweder nicht durchführbar ist oder Lücken in der KI-Schulung aufzeigt, können Unternehmen schnell Maßnahmen zur KI-Kompetenz implementieren, um bestehende Lücken effizient und effektiv zu schließen, bevor der 2. Februar 2025 eintritt.

Praktische Lösungen zur Risikominderung

  • Bewertung der Schulungsbedarfe: Aktuelle Schulungsprogramme analysieren, um Lücken in der KI-Kompetenz zu identifizieren.
  • Dokumentation bestehender Maßnahmen: Aufzeichnungen aller Schulungsinitiativen führen, um die Einhaltung nachzuweisen.
  • Gestaltung eines schichtweisen Ansatzes: Nicht alle Geschäftsbereiche oder Mitarbeiter benötigen das gleiche Maß an KI-Kompetenz. Grundlegende Schulungen für alle Mitarbeiter anbieten und spezifische Schulungen nach Bedarf schrittweise implementieren.
  • Beratung durch juristische Berater: Unterstützung bei der Implementierung von KI-Kompetenzworkshops oder Online-Kursen, die auf die Bedürfnisse der verschiedenen Teams zugeschnitten sind.

Verbotene KI-Praktiken

Welche KI-Praktiken verbietet das AI-Gesetz?

Artikel 5 des AI-Gesetzes listet eine Reihe verbotener KI-Praktiken und Anwendungsfälle auf. Diese verbotenen Praktiken sind relativ allgemein beschrieben, was Raum für Interpretationen lässt und eine nuancierte Analyse erfordert, um ihre Anwendung in der Praxis zu bestimmen.

Zu den verbotenen Praktiken gehören:

  • Manipulative KI-Systeme: KI-Systeme, die subliminale Techniken verwenden, um das Verhalten erheblich zu ändern, was potenziell physische oder psychologische Schäden verursachen kann.
  • Ausbeuterische KI-Systeme: KI-Systeme, die die Verwundbarkeit bestimmter Gruppen, wie Kinder oder Menschen mit Behinderungen, ausnutzen, um das Verhalten auf schädliche Weise erheblich zu ändern.
  • Emotionale Analyse am Arbeitsplatz: KI-Systeme, die emotionale Analysen oder biometrische Kategorisierungen von Mitarbeitern durchführen, was zu Datenschutzverletzungen und diskriminierenden Praktiken führen kann.
  • Soziale Bewertung zu unfairen kommerziellen Zwecken: KI-Systeme, die soziale Bewertungen vornehmen, die Einzelpersonen basierend auf ihrem sozialen Verhalten oder persönlichen Eigenschaften bewerten oder klassifizieren.

Folgen der Nichteinhaltung der Verbote des Artikels 5 des AI-Gesetzes

Artikel 99 des AI-Gesetzes sieht strenge Sanktionen für die Durchführung verbotener KI-Praktiken vor, einschließlich Geldstrafen von bis zu 35 Millionen Euro oder 7 % des Umsatzes des Vorjahres pro Verstoß. Die Sanktionen des AI-Gesetzes treten am 2. August 2026 in Kraft.

Was können Unternehmen jetzt tun?

Unternehmen können verschiedene praktische Maßnahmen ergreifen, um die Risiken zu mindern, die mit KI-Praktiken verbunden sind, die durch Artikel 5 des AI-Gesetzes verboten sind. Während der gewöhnliche Geschäftsbetrieb für viele Unternehmen ein geringes Risiko darstellt, können potenzielle Probleme eher aus der mehrdeutigen Beschreibung dieser verbotenen Aktivitäten im AI-Gesetz resultieren.

Daher sollten Unternehmen im Rahmen der Schaffung robuster Compliance-Strukturen gemäß dem AI-Gesetz die KI-Systeme identifizieren, bewerten und dokumentieren, die sie in ihren Geschäftsprozessen verwenden. Insbesondere sollten sie Systeme analysieren, die potenziell in die Kategorien verbotener KI-Praktiken fallen.

Praktische Lösungen zur Risikominderung

  • Identifizierung und Bewertung von KI-Systemen: Überprüfung von KI-Systemen, um sicherzustellen, dass sie nicht unter die verbotenen Kategorien fallen.
  • Dokumentation der Compliance-Bemühungen: Dokumentation der Gründe, warum bestimmte KI-Nutzungen nicht gegen die Verbote gemäß Artikel 5 verstoßen.
  • Weitere mögliche Ziele: Analyse von KI-Systemen auf potenzielle Hochrisikopraktiken und Sicherstellung der Einhaltung von Transparenzpflichten.

More Insights

Verantwortungsvolle KI: Ein unverzichtbares Gebot für Unternehmen

Unternehmen sind sich der Notwendigkeit von verantwortungsvollem KI-Betrieb bewusst, behandeln ihn jedoch oft als nachträglichen Gedanken oder separates Projekt. Verantwortliche KI ist eine vordere...

Neues KI-Governance-Modell gegen Schatten-KI

Künstliche Intelligenz (KI) verbreitet sich schnell in den Arbeitsplatz und verändert, wie alltägliche Aufgaben erledigt werden. Unternehmen müssen ihre Ansätze zur KI-Politik überdenken, um mit der...

EU plant Aufschub für AI-Gesetzgebung

Die EU plant, die Anforderungen für risikobehaftete KI-Systeme im KI-Gesetz bis Ende 2027 zu verschieben, um Unternehmen mehr Zeit zu geben, sich anzupassen. Kritiker befürchten, dass diese...

Weißes Haus lehnt GAIN AI-Gesetz ab: Nvidia im Fokus

Das Weiße Haus hat sich gegen den GAIN AI Act ausgesprochen, während es um die Exportbeschränkungen für Nvidia-AI-Chips nach China geht. Die Diskussion spiegelt die politischen Spannungen wider, die...

Ethische KI als Beschleuniger für Innovation

Unternehmen stehen heute unter Druck, mit künstlicher Intelligenz zu innovieren, oft jedoch ohne die notwendigen Sicherheitsvorkehrungen. Indem sie Datenschutz und Ethik in den Entwicklungsprozess...

KI im Recruiting: Verborgene Risiken für Arbeitgeber

Künstliche Intelligenz verändert die Art und Weise, wie Arbeitgeber Talente rekrutieren und bewerten. Während diese Tools Effizienz und Kosteneinsparungen versprechen, bringen sie auch erhebliche...

KI im australischen Kabinett: Chancen und Sicherheitsbedenken

Die australische Regierung könnte in Betracht ziehen, KI-Programme zur Erstellung sensibler Kabinettsanträge zu nutzen, trotz Bedenken hinsichtlich Sicherheitsrisiken und Datenverletzungen...