Richtlinien der Europäischen Kommission zu Verbotenen KI-Praktiken

Leitlinien der Europäischen Kommission zu Verbotenen KI-Praktiken gemäß dem EU-Gesetz über Künstliche Intelligenz

Im Februar 2025 veröffentlichte die Europäische Kommission zwei Sets von Leitlinien, um zentrale Aspekte des EU-Gesetzes über Künstliche Intelligenz („AI Act“) zu klären: Leitlinien zur Definition eines KI-Systems und Leitlinien zu verbotenen KI-Praktiken. Diese Leitlinien sollen Orientierung zu den Verpflichtungen des AI Act bieten, die am 2. Februar 2025 in Kraft traten. Dazu gehören der Abschnitt über Definitionen, Verpflichtungen zur KI-Kompetenz und das Verbot bestimmter KI-Praktiken.

Schlüsselüberblick der Leitlinien

Die Leitlinien sind über 100 Seiten lang und bieten detaillierte Anweisungen zur Interpretation und Anwendung der acht im Artikel 5 des AI Act aufgeführten verbotenen KI-Praktiken. Artikel 5 identifiziert Praktiken, die im Zusammenhang mit KI-Systemen verboten sind.

Einige der wichtigsten Punkte aus den Leitlinien sind:

  • Personalisierte Werbung: Artikel 5(1)(a) verbietet die „Markteinführung, Inbetriebnahme oder Nutzung eines KI-Systems, das subliminale Techniken jenseits des Bewusstseins einer Person oder absichtlich manipulative oder täuschende Techniken einsetzt“. Die Leitlinien stellen klar, dass die Verwendung von KI zur Personalisierung von Werbung auf der Grundlage von Benutzerpräferenzen „nicht von Natur aus manipulative“ ist, solange sie keine subliminalen oder täuschenden Techniken einsetzt.
  • Gesetzliche Überzeugung: Artikel 5(1)(b) verbietet die „Markteinführung, Inbetriebnahme oder Nutzung eines KI-Systems, das die Schwächen einer natürlichen Person oder einer bestimmten Gruppe ausnutzt“. Die Leitlinien erklären, dass eine Verzerrung über die „gesetzliche Überzeugung“ hinausgehen muss, um als verbotene KI-Praxis zu gelten.
  • Schwäche und Sucht, Betrug und ausbeuterische Zielgruppenansprache: Artikel 5(1)(b) verbietet speziell die Ausbeutung der Schwäche einer Person oder Gruppe basierend auf „Alter, Behinderung oder einer bestimmten sozioökonomischen Situation“. Die Leitlinien geben Beispiele für solche Ausbeutung an, wie KI-Systeme, die „personalisierte und unvorhersehbare Belohnungen schaffen, um übermäßiges Spielen und zwanghafte Nutzung zu fördern“.
  • Profilierung und soziale Bewertung: Artikel 5(1)(c) verbietet die „Markteinführung, Inbetriebnahme oder Nutzung von KI-Systemen zur Bewertung oder Klassifizierung von natürlichen Personen oder Gruppen über einen bestimmten Zeitraum hinweg“. Die Leitlinien erklären, dass bestimmte Arten der Profilierung durch KI-Systeme möglicherweise unter Artikel 5(1)(c) fallen.
  • Prädiktive Polizeiarbeit und private Akteure: Artikel 5(1)(d) verbietet die „Markteinführung, Inbetriebnahme oder Nutzung eines KI-Systems zur Risikobewertung natürlicher Personen, um das Risiko zu bewerten oder vorherzusagen, dass eine natürliche Person eine Straftat begeht“. Die Leitlinien stellen klar, dass dieses Verbot auch für private Akteure gilt, die im Auftrag der Strafverfolgung handeln.
  • Gesichtserkennung und KI-Modelltraining: Artikel 5(1)(e) verbietet die „Markteinführung, Inbetriebnahme oder Nutzung von KI-Systemen, die Gesichtserkennungsdatenbanken durch das ungefilterte Scraping von Gesichtsbildern aus dem Internet oder CCTV-Footage erstellen oder erweitern“. Diese Regelung schließt Datenbanken aus, die „nicht zur Identifizierung von Personen“ verwendet werden.
  • Emotionserkennung am Arbeitsplatz: Artikel 5(1)(f) verbietet die „Markteinführung, Inbetriebnahme oder Nutzung von KI-Systemen zur Ableitung von Emotionen einer natürlichen Person in den Bereichen Arbeitsplatz und Bildungseinrichtungen“. Die Leitlinien erklären, dass dieses Verbot für die Ableitung der Emotionen von Arbeitnehmern gilt, nicht jedoch für die von Kunden.

Interpretation des Anwendungsbereichs des AI Act

Zusätzlich zu den detaillierten Anweisungen zu den verbotenen KI-Praktiken berücksichtigen die Leitlinien auch, wie der Anwendungsbereich des AI Act und seine Ausnahmen interpretiert werden sollten:

  • Definition von „Markteinführung“, „Inbetriebnahme“ und „Nutzung“: Die Leitlinien stellen klar, dass die verbotenen Praktiken die „Markteinführung, Inbetriebnahme oder Nutzung“ eines KI-Systems verbieten. „Markteinführung“ bedeutet, dass ein System „unabhängig von den Mitteln der Bereitstellung“ verfügbar gemacht wird.
  • Forschung und Entwicklung (F&E) Ausnahmen: Artikel 2(8) des AI Act besagt, dass das Gesetz nicht für „Forschungs-, Test- oder Entwicklungsaktivitäten“ bezüglich KI-Systemen oder KI-Modellen gilt, bevor diese auf den Markt gebracht werden. Die Leitlinien erklären, dass KI-Entwickler die Freiheit haben, neue Funktionen zu testen.
  • Anwendung auf generische KI-Systeme: Die Leitlinien verdeutlichen, dass die Artikel 5 Verbote sowohl für generische KI-Systeme als auch für KI-Systeme mit einem bestimmten Zweck gelten.

Die Covington-Gruppe überwacht weiterhin die regulatorischen Entwicklungen im Bereich KI und berät weltweit führende Technologieunternehmen bei ihren herausforderndsten regulatorischen und Compliance-Fragen in der EU und anderen wichtigen Märkten.

More Insights

Risiken der KI: Was Unternehmen ignorieren sollten

Im Jahr 2024 stellte der Softwareanbieter Sage seinen generativen KI-Assistenten ein, nachdem Benutzer berichtet hatten, dass sensible Finanzdaten zwischen Konten geleakt wurden. Unternehmen stehen...

Die Notwendigkeit für KI-Sicherheit: Chancen und Herausforderungen

Die Revolution der künstlichen Intelligenz ist keine ferne Verheißung mehr – sie ist hier und verändert Branchen, Volkswirtschaften und das tägliche Leben. Um die Macht der KI verantwortungsvoll zu...

Künstliche Intelligenz im Polizeiwesen: Chancen und Herausforderungen

Gesetzesvollzugsbehörden nutzen zunehmend künstliche Intelligenz (KI), um ihre Abläufe zu verbessern, insbesondere durch erweiterte Möglichkeiten für prädiktive Polizeiarbeit. Der globale Markt für...

Kenias Führungsrolle bei UN-Vereinbarung zur KI-Governance

Kenia hat einen bedeutenden diplomatischen Erfolg erzielt, nachdem alle 193 Mitgliedstaaten der Vereinten Nationen einstimmig beschlossen haben, zwei wegweisende Institutionen zur Regulierung der...

Stakeholder-Forderung nach einem Rahmen für die KI-Governance

Die Stakeholder forderten die Entwicklung eines Governance-Rahmens für Künstliche Intelligenz (KI), um sicherzustellen, dass diese verantwortungsvoll eingesetzt wird. Diese Aufforderung wurde auf der...

Wichtige Richtlinien für die KI-Einführung im Gesundheitswesen

Die AMA hat Leitlinien für die Einführung und Governance von Künstlicher Intelligenz (KI) in Gesundheitssystemen veröffentlicht, die für CMOs und andere Führungskräfte im Gesundheitswesen wichtig...

UN richtet internationales Gremium zur KI-Governance ein

Die Generalversammlung der Vereinten Nationen hat eine Resolution verabschiedet, die die Modalitäten zur Einrichtung eines unabhängigen internationalen wissenschaftlichen Panels für Künstliche...

Neue Cyberbedrohungen: Von Datenvergiftung zu KI-Agenten

Künstliche Intelligenz (KI)-Tools verbreiten sich rasant in verschiedenen Branchen, was neue Möglichkeiten zur Effizienzsteigerung bietet, aber auch das Risiko von Cyberangriffen erhöht. Während KI...