Richtlinien der EU-Kommission zu verbotenen KI-Praktiken

EU-Kommission veröffentlicht Richtlinien zu verbotenen KI-Praktiken gemäß dem KI-Gesetz

Am 28. April 2025 veröffentlichte die EU-Kommission ihre ersten Entwurf-Richtlinien zur praktischen Auswirkung des KI-Gesetzes (Verordnung (EU) 2024/1689). Diese Richtlinien zielen darauf ab, Unternehmen zu unterstützen und für Klarheit bezüglich der verbotenen KI-Praktiken zu sorgen.

Hintergrund

Am 2. Februar 2025 traten die allgemeinen Bestimmungen (Artikel 1 bis 4 des KI-Gesetzes) sowie die Regeln zu verbotenen Praktiken in Kraft. Artikel 5 des KI-Gesetzes verbietet Praktiken wie:

  • Manipulative oder täuschende KI-Techniken
  • Ungesteuertes Scraping von Gesichtsdaten
  • Ausbeuterische Systeme, die sich gegen verletzbare Gruppen richten
  • Bestimmte Formen der biometrischen Kategorisierung und Emotionserkennung in sensiblen Kontexten

Zusätzlich müssen Unternehmen gemäß Artikel 4 des KI-Gesetzes eine KI-Kompetenz in ihrer Belegschaft implementieren.

Richtlinien zu verbotenen KI-Praktiken

Die Kommission hat ein umfassendes Dokument veröffentlicht, das 135 Seiten umfasst und die als inakzeptabel geltenden KI-Praktiken auflistet. Die Ziele sind:

  • Interpretation der Verbote im Einklang mit den Zielen des KI-Gesetzes
  • Umfang des KI-Gesetzes, einschließlich der Ausnahmen für Open Source
  • Materialer Umfang von Artikel 5, der Praktiken im Zusammenhang mit dem „Inverkehrbringen“, „Inbetriebnahme“ und „Nutzung“ von KI-Systemen abdeckt
  • Personeller Umfang von Artikel 5, einschließlich der Definitionen von „Anbietern“ und „Einsatzern“

Verbotene KI-Praktiken

Die folgenden Praktiken sind gemäß Artikel 5(1) des KI-Gesetzes verboten:

  1. Schädliche Manipulation und Täuschung: KI-Systeme, die subliminale oder manipulative Techniken verwenden, um Verhalten zu verzerren und erheblichen Schaden zu verursachen.
  2. Schädliche Ausbeutung von Verwundbarkeiten: KI-Systeme, die Alters-, Behinderungs- oder sozialwirtschaftliche Verwundbarkeiten ausnutzen, um Verhalten zu verzerren.
  3. Soziale Bewertung: KI-Systeme, die Individuen oder Gruppen basierend auf sozialen Verhaltensweisen bewerten, was zu nachteiliger Behandlung führt.
  4. Risikobewertung von Straftaten: KI-Systeme, die das Risiko von Straftaten basierend auf Profiling vorhersagen.
  5. Ungesteuertes Scraping zur Entwicklung von Gesichtserkennungsdatenbanken: KI-Systeme, die Gesichtsbilder ohne gezielte Abfrage sammeln.
  6. Emotionserkennung: KI-Systeme, die Emotionen am Arbeitsplatz oder in Bildungseinrichtungen erkennen, es sei denn, es dient medizinischen oder sicherheitsrelevanten Zwecken.
  7. Biometrische Kategorisierung: KI-Systeme, die Individuen basierend auf biometrischen Daten kategorisieren.
  8. Fernbiometrische Identifikation: KI-Systeme zur Echtzeit-Identifikation in der Öffentlichkeit für Strafverfolgungszwecke.

Ausnahmen vom Anwendungsbereich des KI-Gesetzes

Artikel 2 des KI-Gesetzes enthält mehrere allgemeine Ausnahmen. Beispielsweise gilt das Gesetz nicht für KI-Systeme, die unter freien und Open-Source-Lizenzen veröffentlicht werden, es sei denn, sie werden als Hochrisiko-KI-Systeme vermarktet.

Materialer und personeller Umfang

Der materialer Umfang umfasst Praktiken im Zusammenhang mit dem „Inverkehrbringen“, „Inbetriebnahme“ oder der „Nutzung“ eines KI-Systems. Anbieter sind Unternehmen oder Einzelpersonen, die KI-Systeme entwickeln und in der EU vermarkten.

Einsatzern sind Entitäten, die KI-Systeme unter ihrer Autorität verwenden. Sie sind für die ordnungsgemäße Nutzung verantwortlich, auch wenn Dritte, wie Auftragnehmer, das System im Auftrag des Einsatzers betreiben.

Fazit

Unternehmen sollten sorgfältig prüfen, ob ihre spezifischen KI-Anwendungen gemäß Artikel 5 des KI-Gesetzes als verboten gelten. Anbieter und Einsatzern haben unterschiedliche Verantwortlichkeiten, die proportional zu den jeweiligen Verbotsregelungen interpretiert werden sollten.

More Insights

Vertrauen und Risiko im Zeitalter der KI

Für Vermarkter verspricht KI einen Sprung in der Produktivität – aber nur, wenn sie durch eine klare Strategie und menschliche Aufsicht geleitet wird. Die Frage ist nicht, ob man KI nutzen sollte...

Cloud Governance für die KI-Zukunft

In der heutigen Zeit, in der KI-Innovationen sprießen, wird oft übersehen, dass veraltete Cloud-Governance-Modelle ein kritisches Risiko darstellen. Diese Modelle sind nicht für die Geschwindigkeit...

Leitfaden zur verantwortungsvollen KI-Governance für Unternehmensvorstände

Mit der zunehmenden Bedeutung von Künstlicher Intelligenz (KI) in modernen Unternehmen hat die Confederation of Indian Industry (CII) am Sonntag ein neues Handbuch veröffentlicht, um...

KI-gestützte DevSecOps: Automatisierung, Risiken und Compliance im Zero-Trust-Umfeld

Die rasante Einführung von KI-gestützter Automatisierung im DevSecOps kann sowohl Chancen als auch Herausforderungen mit sich bringen. Während KI die Effizienz steigert, birgt sie auch das Risiko...

Ein Zentrum für KI, Recht und Regulierung in Indien

In einer wegweisenden Entwicklung haben Cyril Amarchand Mangaldas, Cyril Shroff und die O.P. Jindal Global University die Gründung des Cyril Shroff Centre for AI, Law & Regulation am Jindal Global Law...

Darwin präsentiert kostenlosen Policy-Wizard zur Vereinfachung der KI-Governance für Behörden

Darwin hat den AI Policy Wizard eingeführt, ein kostenloses und interaktives Tool, das lokalen Regierungen und öffentlichen Einrichtungen hilft, praktische, konforme und maßgeschneiderte...

Vertrauen in KI durch verantwortungsvolle Governance stärken

Unklare Bedrohungen und unvorhersehbares Verhalten erschweren das globale Vertrauen in KI. Der Aufbau eines gemeinsamen Verständnisses durch anpassbare Governance hilft, konsistente Erwartungen für...

Kultur als Schlüssel zu vertrauenswürdiger KI

In diesem Bericht wird die Bedeutung einer inklusiven KI-Governance hervorgehoben, um sicherzustellen, dass auch übersehene Stimmen im Globalen Süden an der Diskussion und Entscheidungsfindung über...

Die EU AI-Verordnung und die Einhaltung des Urheberrechts

Ein zentrales Problem beim Training generativer KI-Modelle ist die Einhaltung der Urheberrechtsgesetze. Das EU-AI-Gesetz verstärkt die Notwendigkeit der Urheberrechtskonformität, insbesondere in Bezug...