Richtlinien der Europäischen Kommission zu Verbotenen KI-Praktiken

Leitlinien der Europäischen Kommission zu Verbotenen KI-Praktiken gemäß dem EU-Gesetz über Künstliche Intelligenz

Im Februar 2025 veröffentlichte die Europäische Kommission zwei Sets von Leitlinien, um zentrale Aspekte des EU-Gesetzes über Künstliche Intelligenz („AI Act“) zu klären: Leitlinien zur Definition eines KI-Systems und Leitlinien zu verbotenen KI-Praktiken. Diese Leitlinien sollen Orientierung zu den Verpflichtungen des AI Act bieten, die am 2. Februar 2025 in Kraft traten. Dazu gehören der Abschnitt über Definitionen, Verpflichtungen zur KI-Kompetenz und das Verbot bestimmter KI-Praktiken.

Schlüsselüberblick der Leitlinien

Die Leitlinien sind über 100 Seiten lang und bieten detaillierte Anweisungen zur Interpretation und Anwendung der acht im Artikel 5 des AI Act aufgeführten verbotenen KI-Praktiken. Artikel 5 identifiziert Praktiken, die im Zusammenhang mit KI-Systemen verboten sind.

Einige der wichtigsten Punkte aus den Leitlinien sind:

  • Personalisierte Werbung: Artikel 5(1)(a) verbietet die „Markteinführung, Inbetriebnahme oder Nutzung eines KI-Systems, das subliminale Techniken jenseits des Bewusstseins einer Person oder absichtlich manipulative oder täuschende Techniken einsetzt“. Die Leitlinien stellen klar, dass die Verwendung von KI zur Personalisierung von Werbung auf der Grundlage von Benutzerpräferenzen „nicht von Natur aus manipulative“ ist, solange sie keine subliminalen oder täuschenden Techniken einsetzt.
  • Gesetzliche Überzeugung: Artikel 5(1)(b) verbietet die „Markteinführung, Inbetriebnahme oder Nutzung eines KI-Systems, das die Schwächen einer natürlichen Person oder einer bestimmten Gruppe ausnutzt“. Die Leitlinien erklären, dass eine Verzerrung über die „gesetzliche Überzeugung“ hinausgehen muss, um als verbotene KI-Praxis zu gelten.
  • Schwäche und Sucht, Betrug und ausbeuterische Zielgruppenansprache: Artikel 5(1)(b) verbietet speziell die Ausbeutung der Schwäche einer Person oder Gruppe basierend auf „Alter, Behinderung oder einer bestimmten sozioökonomischen Situation“. Die Leitlinien geben Beispiele für solche Ausbeutung an, wie KI-Systeme, die „personalisierte und unvorhersehbare Belohnungen schaffen, um übermäßiges Spielen und zwanghafte Nutzung zu fördern“.
  • Profilierung und soziale Bewertung: Artikel 5(1)(c) verbietet die „Markteinführung, Inbetriebnahme oder Nutzung von KI-Systemen zur Bewertung oder Klassifizierung von natürlichen Personen oder Gruppen über einen bestimmten Zeitraum hinweg“. Die Leitlinien erklären, dass bestimmte Arten der Profilierung durch KI-Systeme möglicherweise unter Artikel 5(1)(c) fallen.
  • Prädiktive Polizeiarbeit und private Akteure: Artikel 5(1)(d) verbietet die „Markteinführung, Inbetriebnahme oder Nutzung eines KI-Systems zur Risikobewertung natürlicher Personen, um das Risiko zu bewerten oder vorherzusagen, dass eine natürliche Person eine Straftat begeht“. Die Leitlinien stellen klar, dass dieses Verbot auch für private Akteure gilt, die im Auftrag der Strafverfolgung handeln.
  • Gesichtserkennung und KI-Modelltraining: Artikel 5(1)(e) verbietet die „Markteinführung, Inbetriebnahme oder Nutzung von KI-Systemen, die Gesichtserkennungsdatenbanken durch das ungefilterte Scraping von Gesichtsbildern aus dem Internet oder CCTV-Footage erstellen oder erweitern“. Diese Regelung schließt Datenbanken aus, die „nicht zur Identifizierung von Personen“ verwendet werden.
  • Emotionserkennung am Arbeitsplatz: Artikel 5(1)(f) verbietet die „Markteinführung, Inbetriebnahme oder Nutzung von KI-Systemen zur Ableitung von Emotionen einer natürlichen Person in den Bereichen Arbeitsplatz und Bildungseinrichtungen“. Die Leitlinien erklären, dass dieses Verbot für die Ableitung der Emotionen von Arbeitnehmern gilt, nicht jedoch für die von Kunden.

Interpretation des Anwendungsbereichs des AI Act

Zusätzlich zu den detaillierten Anweisungen zu den verbotenen KI-Praktiken berücksichtigen die Leitlinien auch, wie der Anwendungsbereich des AI Act und seine Ausnahmen interpretiert werden sollten:

  • Definition von „Markteinführung“, „Inbetriebnahme“ und „Nutzung“: Die Leitlinien stellen klar, dass die verbotenen Praktiken die „Markteinführung, Inbetriebnahme oder Nutzung“ eines KI-Systems verbieten. „Markteinführung“ bedeutet, dass ein System „unabhängig von den Mitteln der Bereitstellung“ verfügbar gemacht wird.
  • Forschung und Entwicklung (F&E) Ausnahmen: Artikel 2(8) des AI Act besagt, dass das Gesetz nicht für „Forschungs-, Test- oder Entwicklungsaktivitäten“ bezüglich KI-Systemen oder KI-Modellen gilt, bevor diese auf den Markt gebracht werden. Die Leitlinien erklären, dass KI-Entwickler die Freiheit haben, neue Funktionen zu testen.
  • Anwendung auf generische KI-Systeme: Die Leitlinien verdeutlichen, dass die Artikel 5 Verbote sowohl für generische KI-Systeme als auch für KI-Systeme mit einem bestimmten Zweck gelten.

Die Covington-Gruppe überwacht weiterhin die regulatorischen Entwicklungen im Bereich KI und berät weltweit führende Technologieunternehmen bei ihren herausforderndsten regulatorischen und Compliance-Fragen in der EU und anderen wichtigen Märkten.

More Insights

EU AI-Gesetz und Australiens Sicherheitsrahmen: Ein globaler Überblick

Laut dem DJ Piper Technology’s Legal Edge-Blog müssen globale Unternehmen, die künstliche Intelligenz einsetzen, die internationalen KI-Vorschriften verstehen. Die Europäische Union und Australien...

Quebecs KI-Politik für Hochschulen und Cégeps

Die Regierung von Quebec hat eine neue KI-Richtlinie für Universitäten und CÉGEPs veröffentlicht, um die Nutzung von generativer KI im Hochschulbereich zu regeln. Die Richtlinien betonen die...

Deutschland setzt AI Act um: Neue Regelungen für KI-Compliance

Die bestehenden Regulierungsbehörden werden die Verantwortung für die Überwachung der Einhaltung des EU-AI-Gesetzes durch deutsche Unternehmen übernehmen, wobei der Bundesnetzagentur (BNetzA) eine...

Weltführer und KI-Pioniere fordern verbindliche globale AI-Schutzmaßnahmen bis 2026

Weltführer und KI-Pioniere fordern die UN auf, bis 2026 verbindliche globale Sicherheitsvorkehrungen für KI zu schaffen. Diese Initiative zielt darauf ab, die Risiken und Herausforderungen, die mit...

Künstliche Intelligenz im Zeitalter des Zero Trust: Governance neu denken

Im Jahr 2025 sehen wir, wie KI von einem bloßen Schlagwort zu einer praktischen Anwendung in verschiedenen Bereichen wird. Effektive Governance in einer Zero-Trust-Wirtschaft ist entscheidend, um...

Neue AI-Strategie: Technisches Sekretariat statt Regulator

Der bevorstehende Governance-Rahmen für künstliche Intelligenz könnte ein "technisches Sekretariat" umfassen, das die KI-Politik zwischen den Regierungsbehörden koordiniert. Dies stellt einen Wechsel...

KI-Sicherheit als Motor für Innovation in Schwellenländern

Die Diskussion über KI-Sicherheit und -Schutz wird oft als Hindernis für Innovationen wahrgenommen, insbesondere in Ländern der Global Majority. Die bevorstehende AI Impact Summit in Indien im Februar...

AI-Governance in ASEAN: Auf dem Weg zu einem einheitlichen Ansatz?

Wenn es um KI geht, legisliert Europa, während Amerika auf marktorientierte Innovation setzt und China zentral steuert. ASEAN hingegen setzt auf einen konsensorientierten Ansatz, der eine freiwillige...