Richtlinien der Europäischen Kommission zu verbotenen KI-Praktiken

Richtlinien der Europäischen Kommission zu Verbotenen KI-Praktiken gemäß dem EU-Gesetz über Künstliche Intelligenz

Im Februar 2025 veröffentlichte die Europäische Kommission zwei Richtlinien, um wesentliche Aspekte des EU-Gesetzes über Künstliche Intelligenz („AI Act“) zu klären: Richtlinien zur Definition eines KI-Systems und Richtlinien zu verbotenen KI-Praktiken. Diese Richtlinien sollen als Leitfaden für die Verpflichtungen des AI Act dienen, die am 2. Februar 2025 in Kraft traten. Dazu gehören Abschnitte zur Definition, zur KI-Kompetenz und zu Verboten bestimmter KI-Praktiken.

Hauptinhalte der Richtlinien

Die Richtlinien umfassen über 100 Seiten detaillierte Anweisungen zur Interpretation und Anwendung der acht verbotenen KI-Praktiken, die in Artikel 5 des AI Act aufgeführt sind. Artikel 5 identifiziert Praktiken, die in Bezug auf KI-Systeme verboten sind. Die Richtlinien behandeln auch die Beziehung zwischen hochriskanten KI-Systemen (die unter das Gesetz fallen) und verbotenen Praktiken.

Schlüsselthemen aus den Richtlinien

  • Personalisierte Werbung: Artikel 5(1)(a) verbietet die Verwendung von KI-Systemen, die subliminale Techniken oder absichtlich manipulative Techniken einsetzen, um das Verhalten von Personen zu verzerren. Die Richtlinien stellen klar, dass die Personalisierung von Werbung basierend auf Benutzerpräferenzen nicht inhärent manipulativ ist, solange keine subliminalen oder täuschenden Techniken angewendet werden.
  • Gesetzliche Überzeugung: Artikel 5(1)(b) untersagt die Ausnutzung von Schwächen von Personen oder Gruppen. Die Richtlinien erklären, dass eine Verzerrung über die „gesetzliche Überzeugung“ hinausgehen muss, um als verbotene KI-Praxis zu gelten.
  • Schwäche und Sucht: Die Ausnutzung von Schwächen, basierend auf Faktoren wie Alter oder Behinderung, ist in Artikel 5(1)(b) ausdrücklich verboten. Beispiele umfassen KI-Systeme, die süchtig machende Verstärkungstechniken verwenden, um übermäßiges Spielen zu fördern.
  • Profiling und soziale Bewertung: Artikel 5(1)(c) verbietet die Verwendung von KI-Systemen zur Bewertung von Personen basierend auf ihrem sozialen Verhalten oder vorhergesagten persönlichen Eigenschaften. Ein Beispiel für eine unzulässige soziale Bewertung wäre, wenn eine Versicherungsgesellschaft finanzielle Informationen nutzt, um die Berechtigung für Lebensversicherungen zu bestimmen.
  • Prädiktive Polizeiarbeit: Artikel 5(1)(d) verbietet die Verwendung von KI-Systemen zur Vorhersage von Verbrechen basierend auf Profiling. Dies gilt sowohl für Strafverfolgungsbehörden als auch für private Akteure, die im Auftrag der Strafverfolgung handeln.
  • Gesichtserkennung: Artikel 5(1)(e) verbietet die Erstellung von Gesichtserkennungsdatenbanken durch das ungezielte Scraping von Bildern. Diese Vorschrift gilt nicht für Datenbanken, die nicht zur Identifizierung von Personen verwendet werden.
  • Emotionserkennung am Arbeitsplatz: Artikel 5(1)(f) verbietet die Verwendung von KI-Systemen zur Inferierung von Emotionen von Personen im Arbeitsumfeld, mit bestimmten Ausnahmen.

Interpretation des AI Act

Die Richtlinien geben auch Hinweise zur Auslegung des Geltungsbereichs des AI Act und seiner Ausnahmen. Die Definitionen von „Platzierung auf dem Markt“, „Inbetriebnahme“ und „Nutzung“ werden detailliert erläutert, um sicherzustellen, dass die Praktiken klar verstanden werden.

Die Richtlinien betonen, dass der AI Act nicht für Forschungs- und Entwicklungsaktivitäten gilt, bevor KI-Systeme auf den Markt kommen. Dies gibt Entwicklern die Freiheit, neue Funktionen zu testen, auch wenn diese potenziell manipulativ sein könnten.

Insgesamt verdeutlichen die Richtlinien, dass die in Artikel 5 festgelegten Verbote sowohl für allgemein verwendbare KI-Systeme als auch für Systeme mit spezifischen Zwecken gelten. Anbieter von KI-Systemen haben die Verantwortung, sicherzustellen, dass ihre Produkte nicht in einer Weise verwendet werden, die gegen die Vorgaben des AI Act verstößt.

More Insights

Daten und Governance im EU AI Act: Ein Überblick

Der Vorschlag für das Gesetz über Künstliche Intelligenz der Europäischen Union (EU AI Act) zielt darauf ab, einen Rahmen zur Regulierung von KI zu schaffen, insbesondere für „hochriskante“ Systeme...

GPAI-Verhaltenskodex: Ein neuer Schritt zur KI-Sicherheit

Die Europäische Kommission hat einen freiwilligen Code of Practice veröffentlicht, um der Industrie zu helfen, die Verpflichtungen des AI Act in Bezug auf Sicherheit, Transparenz und Urheberrecht für...

EU führt KI-Compliance-Regeln für Hochrisiko- und Grundlagenmodelle ein

Die Europäische Kommission hat Leitlinien veröffentlicht, um Unternehmen bei der Einhaltung des EU-Gesetzes über künstliche Intelligenz zu helfen, das am 2. August in Kraft tritt. Unternehmen müssen...

Systemische Risiken von KI-Modellen: Compliance mit den EU-Vorgaben

AI-Modelle, die systemische Risiken aufweisen, erhalten Hinweise zur Einhaltung der EU-AI-Regeln. Diese Empfehlungen zielen darauf ab, die Sicherheit und Transparenz von KI-Anwendungen zu...

KI-Agenten: Neue Sicherheitsherausforderungen für Unternehmen

Die Verbreitung von KI in Unternehmensanwendungen führt zu einem neuen, komplexen Netzwerkverkehr: autonome KI-Agenten, die ausgehende API-Aufrufe tätigen. Diese "agentischen" Anfragen stellen eine...

Generative KI im Unternehmen: 11 Schritte zur effektiven Prüfung

Mit der zunehmenden Integration von generativen KI-Tools in den täglichen Betrieb, insbesondere im Bereich HR, wird die Durchführung von KI-Audits immer wichtiger, um rechtliche, betriebliche und...

Zukunftssichere Karriere durch KI-Compliance-Zertifizierung

Die AI Compliance-Zertifizierung bereitet Fachleute darauf vor, sich an die sich ändernden gesetzlichen Anforderungen anzupassen und macht sie unverzichtbar in einer zunehmend regulierten Umgebung...

Bundesstaaten treiben KI-Regulierung voran, während der Kongress stockt

In diesem Monat hat der US-Senat eine umstrittene Bestimmung in Präsident Trumps umfassendem Steuer- und Ausgabenpaket abgelehnt, die es Staaten und Kommunen in den nächsten zehn Jahren untersagt...