Richtlinien der Europäischen Kommission zu Verbotenen KI-Praktiken

Leitlinien der Europäischen Kommission zu Verbotenen KI-Praktiken gemäß dem EU-Gesetz über Künstliche Intelligenz

Im Februar 2025 veröffentlichte die Europäische Kommission zwei Sets von Leitlinien, um zentrale Aspekte des EU-Gesetzes über Künstliche Intelligenz („AI Act“) zu klären: Leitlinien zur Definition eines KI-Systems und Leitlinien zu verbotenen KI-Praktiken. Diese Leitlinien sollen Orientierung zu den Verpflichtungen des AI Act bieten, die am 2. Februar 2025 in Kraft traten. Dazu gehören der Abschnitt über Definitionen, Verpflichtungen zur KI-Kompetenz und das Verbot bestimmter KI-Praktiken.

Schlüsselüberblick der Leitlinien

Die Leitlinien sind über 100 Seiten lang und bieten detaillierte Anweisungen zur Interpretation und Anwendung der acht im Artikel 5 des AI Act aufgeführten verbotenen KI-Praktiken. Artikel 5 identifiziert Praktiken, die im Zusammenhang mit KI-Systemen verboten sind.

Einige der wichtigsten Punkte aus den Leitlinien sind:

  • Personalisierte Werbung: Artikel 5(1)(a) verbietet die „Markteinführung, Inbetriebnahme oder Nutzung eines KI-Systems, das subliminale Techniken jenseits des Bewusstseins einer Person oder absichtlich manipulative oder täuschende Techniken einsetzt“. Die Leitlinien stellen klar, dass die Verwendung von KI zur Personalisierung von Werbung auf der Grundlage von Benutzerpräferenzen „nicht von Natur aus manipulative“ ist, solange sie keine subliminalen oder täuschenden Techniken einsetzt.
  • Gesetzliche Überzeugung: Artikel 5(1)(b) verbietet die „Markteinführung, Inbetriebnahme oder Nutzung eines KI-Systems, das die Schwächen einer natürlichen Person oder einer bestimmten Gruppe ausnutzt“. Die Leitlinien erklären, dass eine Verzerrung über die „gesetzliche Überzeugung“ hinausgehen muss, um als verbotene KI-Praxis zu gelten.
  • Schwäche und Sucht, Betrug und ausbeuterische Zielgruppenansprache: Artikel 5(1)(b) verbietet speziell die Ausbeutung der Schwäche einer Person oder Gruppe basierend auf „Alter, Behinderung oder einer bestimmten sozioökonomischen Situation“. Die Leitlinien geben Beispiele für solche Ausbeutung an, wie KI-Systeme, die „personalisierte und unvorhersehbare Belohnungen schaffen, um übermäßiges Spielen und zwanghafte Nutzung zu fördern“.
  • Profilierung und soziale Bewertung: Artikel 5(1)(c) verbietet die „Markteinführung, Inbetriebnahme oder Nutzung von KI-Systemen zur Bewertung oder Klassifizierung von natürlichen Personen oder Gruppen über einen bestimmten Zeitraum hinweg“. Die Leitlinien erklären, dass bestimmte Arten der Profilierung durch KI-Systeme möglicherweise unter Artikel 5(1)(c) fallen.
  • Prädiktive Polizeiarbeit und private Akteure: Artikel 5(1)(d) verbietet die „Markteinführung, Inbetriebnahme oder Nutzung eines KI-Systems zur Risikobewertung natürlicher Personen, um das Risiko zu bewerten oder vorherzusagen, dass eine natürliche Person eine Straftat begeht“. Die Leitlinien stellen klar, dass dieses Verbot auch für private Akteure gilt, die im Auftrag der Strafverfolgung handeln.
  • Gesichtserkennung und KI-Modelltraining: Artikel 5(1)(e) verbietet die „Markteinführung, Inbetriebnahme oder Nutzung von KI-Systemen, die Gesichtserkennungsdatenbanken durch das ungefilterte Scraping von Gesichtsbildern aus dem Internet oder CCTV-Footage erstellen oder erweitern“. Diese Regelung schließt Datenbanken aus, die „nicht zur Identifizierung von Personen“ verwendet werden.
  • Emotionserkennung am Arbeitsplatz: Artikel 5(1)(f) verbietet die „Markteinführung, Inbetriebnahme oder Nutzung von KI-Systemen zur Ableitung von Emotionen einer natürlichen Person in den Bereichen Arbeitsplatz und Bildungseinrichtungen“. Die Leitlinien erklären, dass dieses Verbot für die Ableitung der Emotionen von Arbeitnehmern gilt, nicht jedoch für die von Kunden.

Interpretation des Anwendungsbereichs des AI Act

Zusätzlich zu den detaillierten Anweisungen zu den verbotenen KI-Praktiken berücksichtigen die Leitlinien auch, wie der Anwendungsbereich des AI Act und seine Ausnahmen interpretiert werden sollten:

  • Definition von „Markteinführung“, „Inbetriebnahme“ und „Nutzung“: Die Leitlinien stellen klar, dass die verbotenen Praktiken die „Markteinführung, Inbetriebnahme oder Nutzung“ eines KI-Systems verbieten. „Markteinführung“ bedeutet, dass ein System „unabhängig von den Mitteln der Bereitstellung“ verfügbar gemacht wird.
  • Forschung und Entwicklung (F&E) Ausnahmen: Artikel 2(8) des AI Act besagt, dass das Gesetz nicht für „Forschungs-, Test- oder Entwicklungsaktivitäten“ bezüglich KI-Systemen oder KI-Modellen gilt, bevor diese auf den Markt gebracht werden. Die Leitlinien erklären, dass KI-Entwickler die Freiheit haben, neue Funktionen zu testen.
  • Anwendung auf generische KI-Systeme: Die Leitlinien verdeutlichen, dass die Artikel 5 Verbote sowohl für generische KI-Systeme als auch für KI-Systeme mit einem bestimmten Zweck gelten.

Die Covington-Gruppe überwacht weiterhin die regulatorischen Entwicklungen im Bereich KI und berät weltweit führende Technologieunternehmen bei ihren herausforderndsten regulatorischen und Compliance-Fragen in der EU und anderen wichtigen Märkten.

More Insights

Verantwortungsvolle KI: Ein unverzichtbares Gebot für Unternehmen

Unternehmen sind sich der Notwendigkeit von verantwortungsvollem KI-Betrieb bewusst, behandeln ihn jedoch oft als nachträglichen Gedanken oder separates Projekt. Verantwortliche KI ist eine vordere...

Neues KI-Governance-Modell gegen Schatten-KI

Künstliche Intelligenz (KI) verbreitet sich schnell in den Arbeitsplatz und verändert, wie alltägliche Aufgaben erledigt werden. Unternehmen müssen ihre Ansätze zur KI-Politik überdenken, um mit der...

EU plant Aufschub für AI-Gesetzgebung

Die EU plant, die Anforderungen für risikobehaftete KI-Systeme im KI-Gesetz bis Ende 2027 zu verschieben, um Unternehmen mehr Zeit zu geben, sich anzupassen. Kritiker befürchten, dass diese...

Weißes Haus lehnt GAIN AI-Gesetz ab: Nvidia im Fokus

Das Weiße Haus hat sich gegen den GAIN AI Act ausgesprochen, während es um die Exportbeschränkungen für Nvidia-AI-Chips nach China geht. Die Diskussion spiegelt die politischen Spannungen wider, die...

Ethische KI als Beschleuniger für Innovation

Unternehmen stehen heute unter Druck, mit künstlicher Intelligenz zu innovieren, oft jedoch ohne die notwendigen Sicherheitsvorkehrungen. Indem sie Datenschutz und Ethik in den Entwicklungsprozess...

KI im Recruiting: Verborgene Risiken für Arbeitgeber

Künstliche Intelligenz verändert die Art und Weise, wie Arbeitgeber Talente rekrutieren und bewerten. Während diese Tools Effizienz und Kosteneinsparungen versprechen, bringen sie auch erhebliche...

KI im australischen Kabinett: Chancen und Sicherheitsbedenken

Die australische Regierung könnte in Betracht ziehen, KI-Programme zur Erstellung sensibler Kabinettsanträge zu nutzen, trotz Bedenken hinsichtlich Sicherheitsrisiken und Datenverletzungen...