Richtlinien der Europäischen Kommission zu Verbotenen KI-Praktiken

Leitlinien der Europäischen Kommission zu Verbotenen KI-Praktiken gemäß dem EU-Gesetz über Künstliche Intelligenz

Im Februar 2025 veröffentlichte die Europäische Kommission zwei Sets von Leitlinien, um zentrale Aspekte des EU-Gesetzes über Künstliche Intelligenz („AI Act“) zu klären: Leitlinien zur Definition eines KI-Systems und Leitlinien zu verbotenen KI-Praktiken. Diese Leitlinien sollen Orientierung zu den Verpflichtungen des AI Act bieten, die am 2. Februar 2025 in Kraft traten. Dazu gehören der Abschnitt über Definitionen, Verpflichtungen zur KI-Kompetenz und das Verbot bestimmter KI-Praktiken.

Schlüsselüberblick der Leitlinien

Die Leitlinien sind über 100 Seiten lang und bieten detaillierte Anweisungen zur Interpretation und Anwendung der acht im Artikel 5 des AI Act aufgeführten verbotenen KI-Praktiken. Artikel 5 identifiziert Praktiken, die im Zusammenhang mit KI-Systemen verboten sind.

Einige der wichtigsten Punkte aus den Leitlinien sind:

  • Personalisierte Werbung: Artikel 5(1)(a) verbietet die „Markteinführung, Inbetriebnahme oder Nutzung eines KI-Systems, das subliminale Techniken jenseits des Bewusstseins einer Person oder absichtlich manipulative oder täuschende Techniken einsetzt“. Die Leitlinien stellen klar, dass die Verwendung von KI zur Personalisierung von Werbung auf der Grundlage von Benutzerpräferenzen „nicht von Natur aus manipulative“ ist, solange sie keine subliminalen oder täuschenden Techniken einsetzt.
  • Gesetzliche Überzeugung: Artikel 5(1)(b) verbietet die „Markteinführung, Inbetriebnahme oder Nutzung eines KI-Systems, das die Schwächen einer natürlichen Person oder einer bestimmten Gruppe ausnutzt“. Die Leitlinien erklären, dass eine Verzerrung über die „gesetzliche Überzeugung“ hinausgehen muss, um als verbotene KI-Praxis zu gelten.
  • Schwäche und Sucht, Betrug und ausbeuterische Zielgruppenansprache: Artikel 5(1)(b) verbietet speziell die Ausbeutung der Schwäche einer Person oder Gruppe basierend auf „Alter, Behinderung oder einer bestimmten sozioökonomischen Situation“. Die Leitlinien geben Beispiele für solche Ausbeutung an, wie KI-Systeme, die „personalisierte und unvorhersehbare Belohnungen schaffen, um übermäßiges Spielen und zwanghafte Nutzung zu fördern“.
  • Profilierung und soziale Bewertung: Artikel 5(1)(c) verbietet die „Markteinführung, Inbetriebnahme oder Nutzung von KI-Systemen zur Bewertung oder Klassifizierung von natürlichen Personen oder Gruppen über einen bestimmten Zeitraum hinweg“. Die Leitlinien erklären, dass bestimmte Arten der Profilierung durch KI-Systeme möglicherweise unter Artikel 5(1)(c) fallen.
  • Prädiktive Polizeiarbeit und private Akteure: Artikel 5(1)(d) verbietet die „Markteinführung, Inbetriebnahme oder Nutzung eines KI-Systems zur Risikobewertung natürlicher Personen, um das Risiko zu bewerten oder vorherzusagen, dass eine natürliche Person eine Straftat begeht“. Die Leitlinien stellen klar, dass dieses Verbot auch für private Akteure gilt, die im Auftrag der Strafverfolgung handeln.
  • Gesichtserkennung und KI-Modelltraining: Artikel 5(1)(e) verbietet die „Markteinführung, Inbetriebnahme oder Nutzung von KI-Systemen, die Gesichtserkennungsdatenbanken durch das ungefilterte Scraping von Gesichtsbildern aus dem Internet oder CCTV-Footage erstellen oder erweitern“. Diese Regelung schließt Datenbanken aus, die „nicht zur Identifizierung von Personen“ verwendet werden.
  • Emotionserkennung am Arbeitsplatz: Artikel 5(1)(f) verbietet die „Markteinführung, Inbetriebnahme oder Nutzung von KI-Systemen zur Ableitung von Emotionen einer natürlichen Person in den Bereichen Arbeitsplatz und Bildungseinrichtungen“. Die Leitlinien erklären, dass dieses Verbot für die Ableitung der Emotionen von Arbeitnehmern gilt, nicht jedoch für die von Kunden.

Interpretation des Anwendungsbereichs des AI Act

Zusätzlich zu den detaillierten Anweisungen zu den verbotenen KI-Praktiken berücksichtigen die Leitlinien auch, wie der Anwendungsbereich des AI Act und seine Ausnahmen interpretiert werden sollten:

  • Definition von „Markteinführung“, „Inbetriebnahme“ und „Nutzung“: Die Leitlinien stellen klar, dass die verbotenen Praktiken die „Markteinführung, Inbetriebnahme oder Nutzung“ eines KI-Systems verbieten. „Markteinführung“ bedeutet, dass ein System „unabhängig von den Mitteln der Bereitstellung“ verfügbar gemacht wird.
  • Forschung und Entwicklung (F&E) Ausnahmen: Artikel 2(8) des AI Act besagt, dass das Gesetz nicht für „Forschungs-, Test- oder Entwicklungsaktivitäten“ bezüglich KI-Systemen oder KI-Modellen gilt, bevor diese auf den Markt gebracht werden. Die Leitlinien erklären, dass KI-Entwickler die Freiheit haben, neue Funktionen zu testen.
  • Anwendung auf generische KI-Systeme: Die Leitlinien verdeutlichen, dass die Artikel 5 Verbote sowohl für generische KI-Systeme als auch für KI-Systeme mit einem bestimmten Zweck gelten.

Die Covington-Gruppe überwacht weiterhin die regulatorischen Entwicklungen im Bereich KI und berät weltweit führende Technologieunternehmen bei ihren herausforderndsten regulatorischen und Compliance-Fragen in der EU und anderen wichtigen Märkten.

More Insights

Verantwortungsvolles KI-Management für nachhaltigen Erfolg

Ohne verantwortungsvolle KI wird selbst leistungsstarke KI stagnieren. Unternehmen müssen eine solide Grundlage schaffen, um sicherzustellen, dass KI-Systeme zuverlässig und nachhaltig funktionieren...

Kanada als Vorreiter der internationalen KI-Governance beim G7-Gipfel

Der kanadische Premierminister Mark Carney hat deutlich gemacht, dass künstliche Intelligenz (KI) in den kommenden Jahren eine Priorität für das Land sein wird. Im Rahmen des G7-Gipfels wird Kanada...

Die Auswirkungen des EU KI-Gesetzes auf den Datenschutz

Im späten Jahr 2023 verabschiedete die Europäische Union ihr Gesetz über Künstliche Intelligenz, das erste umfassende Gesetz zur Regelung der Nutzung von KI durch Unternehmen. Der EU AI Act soll...

Kasachstans wegweisendes KI-Gesetz: Ein menschenzentrierter Ansatz

Kasachstans neuer Entwurf für das "Gesetz über Künstliche Intelligenz" signalisiert den Willen, KI mit einem menschenzentrierten Ansatz zu regulieren. Das Gesetz soll die Nutzung von KI in...

KI-Ingenieure vs. Verantwortungsvolle KI-Ingenieure: Intelligenter bauen oder sicherer gestalten

Künstliche Intelligenz hat in den letzten Jahren enorme Fortschritte gemacht, was AI-Ingenieure an die Spitze der Innovation stellt. Gleichzeitig bringt diese Macht Verantwortung mit sich, da Fragen...

Verantwortungsbewusste KI: Eine neue Notwendigkeit

Dr. Anna Zeiter betont, dass verantwortungsvolle KI nicht nur ein Schlagwort ist, sondern eine grundlegende Notwendigkeit. Sie hebt hervor, dass Vertrauen und Verantwortlichkeit entscheidend sind, um...

KI-Integration in Unternehmen: Compliance im Fokus

Künstliche Intelligenz soll Unternehmen schneller, intelligenter und wettbewerbsfähiger machen, aber die meisten Projekte scheitern. Der Cloud Security Alliance (CSA) zufolge liegt das Problem darin...

Erhalt von generativen KI-Inhalten: Rechtliche und organisatorische Herausforderungen

Generative KI-Tools, die Texte und Medien basierend auf den Daten erstellen, mit denen sie trainiert wurden, werfen rechtliche Bedenken hinsichtlich Datenschutz, Datensicherheit und Privilegien auf...

Verantwortungsvolles KI-Management: Prinzipien und Vorteile

Künstliche Intelligenz verändert, wie wir leben und arbeiten, weshalb es wichtig ist, sie auf die richtige Weise zu nutzen. Verantwortliche KI bedeutet, KI zu schaffen und zu verwenden, die fair...