Richtlinien der Europäischen Kommission zu Verbotenen KI-Praktiken gemäß dem EU-Gesetz über Künstliche Intelligenz
Im Februar 2025 veröffentlichte die Europäische Kommission zwei Richtlinien, um wesentliche Aspekte des EU-Gesetzes über Künstliche Intelligenz („AI Act“) zu klären: Richtlinien zur Definition eines KI-Systems und Richtlinien zu verbotenen KI-Praktiken. Diese Richtlinien sollen als Leitfaden für die Verpflichtungen des AI Act dienen, die am 2. Februar 2025 in Kraft traten. Dazu gehören Abschnitte zur Definition, zur KI-Kompetenz und zu Verboten bestimmter KI-Praktiken.
Hauptinhalte der Richtlinien
Die Richtlinien umfassen über 100 Seiten detaillierte Anweisungen zur Interpretation und Anwendung der acht verbotenen KI-Praktiken, die in Artikel 5 des AI Act aufgeführt sind. Artikel 5 identifiziert Praktiken, die in Bezug auf KI-Systeme verboten sind. Die Richtlinien behandeln auch die Beziehung zwischen hochriskanten KI-Systemen (die unter das Gesetz fallen) und verbotenen Praktiken.
Schlüsselthemen aus den Richtlinien
- Personalisierte Werbung: Artikel 5(1)(a) verbietet die Verwendung von KI-Systemen, die subliminale Techniken oder absichtlich manipulative Techniken einsetzen, um das Verhalten von Personen zu verzerren. Die Richtlinien stellen klar, dass die Personalisierung von Werbung basierend auf Benutzerpräferenzen nicht inhärent manipulativ ist, solange keine subliminalen oder täuschenden Techniken angewendet werden.
- Gesetzliche Überzeugung: Artikel 5(1)(b) untersagt die Ausnutzung von Schwächen von Personen oder Gruppen. Die Richtlinien erklären, dass eine Verzerrung über die „gesetzliche Überzeugung“ hinausgehen muss, um als verbotene KI-Praxis zu gelten.
- Schwäche und Sucht: Die Ausnutzung von Schwächen, basierend auf Faktoren wie Alter oder Behinderung, ist in Artikel 5(1)(b) ausdrücklich verboten. Beispiele umfassen KI-Systeme, die süchtig machende Verstärkungstechniken verwenden, um übermäßiges Spielen zu fördern.
- Profiling und soziale Bewertung: Artikel 5(1)(c) verbietet die Verwendung von KI-Systemen zur Bewertung von Personen basierend auf ihrem sozialen Verhalten oder vorhergesagten persönlichen Eigenschaften. Ein Beispiel für eine unzulässige soziale Bewertung wäre, wenn eine Versicherungsgesellschaft finanzielle Informationen nutzt, um die Berechtigung für Lebensversicherungen zu bestimmen.
- Prädiktive Polizeiarbeit: Artikel 5(1)(d) verbietet die Verwendung von KI-Systemen zur Vorhersage von Verbrechen basierend auf Profiling. Dies gilt sowohl für Strafverfolgungsbehörden als auch für private Akteure, die im Auftrag der Strafverfolgung handeln.
- Gesichtserkennung: Artikel 5(1)(e) verbietet die Erstellung von Gesichtserkennungsdatenbanken durch das ungezielte Scraping von Bildern. Diese Vorschrift gilt nicht für Datenbanken, die nicht zur Identifizierung von Personen verwendet werden.
- Emotionserkennung am Arbeitsplatz: Artikel 5(1)(f) verbietet die Verwendung von KI-Systemen zur Inferierung von Emotionen von Personen im Arbeitsumfeld, mit bestimmten Ausnahmen.
Interpretation des AI Act
Die Richtlinien geben auch Hinweise zur Auslegung des Geltungsbereichs des AI Act und seiner Ausnahmen. Die Definitionen von „Platzierung auf dem Markt“, „Inbetriebnahme“ und „Nutzung“ werden detailliert erläutert, um sicherzustellen, dass die Praktiken klar verstanden werden.
Die Richtlinien betonen, dass der AI Act nicht für Forschungs- und Entwicklungsaktivitäten gilt, bevor KI-Systeme auf den Markt kommen. Dies gibt Entwicklern die Freiheit, neue Funktionen zu testen, auch wenn diese potenziell manipulativ sein könnten.
Insgesamt verdeutlichen die Richtlinien, dass die in Artikel 5 festgelegten Verbote sowohl für allgemein verwendbare KI-Systeme als auch für Systeme mit spezifischen Zwecken gelten. Anbieter von KI-Systemen haben die Verantwortung, sicherzustellen, dass ihre Produkte nicht in einer Weise verwendet werden, die gegen die Vorgaben des AI Act verstößt.