Richtlinien der EU-Kommission zu verbotenen KI-Praktiken

EU-Kommission veröffentlicht Richtlinien zu verbotenen KI-Praktiken gemäß dem KI-Gesetz

Am 28. April 2025 veröffentlichte die EU-Kommission ihre ersten Entwurf-Richtlinien zur praktischen Auswirkung des KI-Gesetzes (Verordnung (EU) 2024/1689). Diese Richtlinien zielen darauf ab, Unternehmen zu unterstützen und für Klarheit bezüglich der verbotenen KI-Praktiken zu sorgen.

Hintergrund

Am 2. Februar 2025 traten die allgemeinen Bestimmungen (Artikel 1 bis 4 des KI-Gesetzes) sowie die Regeln zu verbotenen Praktiken in Kraft. Artikel 5 des KI-Gesetzes verbietet Praktiken wie:

  • Manipulative oder täuschende KI-Techniken
  • Ungesteuertes Scraping von Gesichtsdaten
  • Ausbeuterische Systeme, die sich gegen verletzbare Gruppen richten
  • Bestimmte Formen der biometrischen Kategorisierung und Emotionserkennung in sensiblen Kontexten

Zusätzlich müssen Unternehmen gemäß Artikel 4 des KI-Gesetzes eine KI-Kompetenz in ihrer Belegschaft implementieren.

Richtlinien zu verbotenen KI-Praktiken

Die Kommission hat ein umfassendes Dokument veröffentlicht, das 135 Seiten umfasst und die als inakzeptabel geltenden KI-Praktiken auflistet. Die Ziele sind:

  • Interpretation der Verbote im Einklang mit den Zielen des KI-Gesetzes
  • Umfang des KI-Gesetzes, einschließlich der Ausnahmen für Open Source
  • Materialer Umfang von Artikel 5, der Praktiken im Zusammenhang mit dem „Inverkehrbringen“, „Inbetriebnahme“ und „Nutzung“ von KI-Systemen abdeckt
  • Personeller Umfang von Artikel 5, einschließlich der Definitionen von „Anbietern“ und „Einsatzern“

Verbotene KI-Praktiken

Die folgenden Praktiken sind gemäß Artikel 5(1) des KI-Gesetzes verboten:

  1. Schädliche Manipulation und Täuschung: KI-Systeme, die subliminale oder manipulative Techniken verwenden, um Verhalten zu verzerren und erheblichen Schaden zu verursachen.
  2. Schädliche Ausbeutung von Verwundbarkeiten: KI-Systeme, die Alters-, Behinderungs- oder sozialwirtschaftliche Verwundbarkeiten ausnutzen, um Verhalten zu verzerren.
  3. Soziale Bewertung: KI-Systeme, die Individuen oder Gruppen basierend auf sozialen Verhaltensweisen bewerten, was zu nachteiliger Behandlung führt.
  4. Risikobewertung von Straftaten: KI-Systeme, die das Risiko von Straftaten basierend auf Profiling vorhersagen.
  5. Ungesteuertes Scraping zur Entwicklung von Gesichtserkennungsdatenbanken: KI-Systeme, die Gesichtsbilder ohne gezielte Abfrage sammeln.
  6. Emotionserkennung: KI-Systeme, die Emotionen am Arbeitsplatz oder in Bildungseinrichtungen erkennen, es sei denn, es dient medizinischen oder sicherheitsrelevanten Zwecken.
  7. Biometrische Kategorisierung: KI-Systeme, die Individuen basierend auf biometrischen Daten kategorisieren.
  8. Fernbiometrische Identifikation: KI-Systeme zur Echtzeit-Identifikation in der Öffentlichkeit für Strafverfolgungszwecke.

Ausnahmen vom Anwendungsbereich des KI-Gesetzes

Artikel 2 des KI-Gesetzes enthält mehrere allgemeine Ausnahmen. Beispielsweise gilt das Gesetz nicht für KI-Systeme, die unter freien und Open-Source-Lizenzen veröffentlicht werden, es sei denn, sie werden als Hochrisiko-KI-Systeme vermarktet.

Materialer und personeller Umfang

Der materialer Umfang umfasst Praktiken im Zusammenhang mit dem „Inverkehrbringen“, „Inbetriebnahme“ oder der „Nutzung“ eines KI-Systems. Anbieter sind Unternehmen oder Einzelpersonen, die KI-Systeme entwickeln und in der EU vermarkten.

Einsatzern sind Entitäten, die KI-Systeme unter ihrer Autorität verwenden. Sie sind für die ordnungsgemäße Nutzung verantwortlich, auch wenn Dritte, wie Auftragnehmer, das System im Auftrag des Einsatzers betreiben.

Fazit

Unternehmen sollten sorgfältig prüfen, ob ihre spezifischen KI-Anwendungen gemäß Artikel 5 des KI-Gesetzes als verboten gelten. Anbieter und Einsatzern haben unterschiedliche Verantwortlichkeiten, die proportional zu den jeweiligen Verbotsregelungen interpretiert werden sollten.

More Insights

KI-Annahme erfordert verstärkte Zusammenarbeit zwischen Datenschutz- und IT-Führungskräften

Die Einführung von KI erfordert eine engere Zusammenarbeit zwischen Datenschutz- und IT-Experten, um die Risiken einer breiteren KI-Adoption zu minimieren. Diese Partnerschaft ist entscheidend, um die...

DeepSeek: KI im Dienst der sozialen Governance

DeepSeek, ein neuestes großes Sprachmodell in China, wird von der Regierung als Werkzeug zur Förderung der sozialen Governance eingesetzt. Es wird erwartet, dass KI eine wichtige Rolle bei der...

Richtlinien der EU-Kommission zu verbotenen KI-Praktiken

Die Europäische Kommission hat kürzlich ihre ersten Entwurf-Richtlinien zu den unzulässigen Praktiken von Künstlicher Intelligenz (KI) veröffentlicht. Diese Richtlinien zielen darauf ab, Unternehmen...

Nordkarolina ernennt I-Sah Hsieh zum ersten Leiter für KI-Governance und -Politik

North Carolinas Ministerium für Informationstechnologie (NCDIT) hat I-Sah Hsieh als ersten Leiter für KI-Governance und -Politik ernannt. Hsieh wird sich darauf konzentrieren, North Carolina in der...

KI-Risiko-Management: Strategien für eine verantwortungsvolle Umsetzung

Künstliche Intelligenz hat sich schnell von einem Trendthema zu einem kritischen Faktor in jeder wichtigen Branche entwickelt. Dr. Enzo Tolentino betont, dass verantwortungsvolle KI nicht nur darum...

Die unsichtbare Bedrohung durch KI: Gefahren geheimer Einsätze

Der Bericht warnt, dass unregulierte interne KI-Implementierungen katastrophale Risiken mit sich bringen könnten, da Unternehmen ihre fortschrittlichsten KI-Systeme ohne ausreichende Aufsicht...

Weltweite Experten erarbeiten KI-Governance auf dem Shanghai Forum 2025

Experten aus der ganzen Welt diskutierten über die Herausforderungen der Governance, die sich aus dem rasanten Fortschritt der künstlichen Intelligenz ergeben. Sie erkundeten Wege, um die Barrieren...

Daten- und KI-Governance für Malaysias Zukunft

Künstliche Intelligenz (KI) revolutioniert Branchen weltweit, und Malaysia ist da keine Ausnahme. Um die Chancen der KI zu nutzen, müssen Organisationen in Malaysia die Daten- und KI-Governance...

Universitäten als Wegbereiter für die Zukunft der KI

Künstliche Intelligenz ist zur neuen geopolitischen Trennlinie geworden, und Universitäten stehen nun im Mittelpunkt. Sie müssen sich an die fragmentierte Politik der KI anpassen, um ihre Missionen zu...