Richtlinien der EU-Kommission zu Verbotenen KI-Praktiken

EU-Kommission veröffentlicht Richtlinien zu verbotenen KI-Praktiken gemäß dem EU-KI-Gesetz

Am 4. Februar 2025 hat die Europäische Kommission (EK) Entwurf Richtlinien veröffentlicht, die die KI-Praktiken klären, die gemäß dem Europäischen Union (EU) Künstliche Intelligenz (KI) Gesetz verboten sind. Obwohl nicht bindend, bieten die Richtlinien wertvolle Klarstellungen und praktische Beispiele, um Unternehmen bei der Einhaltung ihrer Verpflichtungen nach dem KI-Gesetz zu helfen. Die EK hat die Entwurf-Richtlinien genehmigt, muss sie jedoch noch formell annehmen, was in naher Zukunft erwartet wird.

Hintergrund

Mit Inkrafttreten der Bestimmungen des KI-Gesetzes zu verbotenen KI-Praktiken am 2. Februar 2025 traten auch andere Bestimmungen zur KI-Kompetenz in Kraft. Artikel 5 des KI-Gesetzes verbietet bestimmte KI-Praktiken, die als inakzeptable Risiken gelten, wie KI-Systeme, die Individuen manipulieren oder ausnutzen, soziale Bewertungen vornehmen oder die Emotionen von Personen am Arbeitsplatz oder im Bildungsbereich erfassen. Das Verbot gilt sowohl für Unternehmen, die solche KI-Systeme anbieten, als auch für diejenigen, die sie nutzen. Die Richtlinien bieten konkrete Beispiele für Praktiken, die als verboten eingestuft werden, sowie solche, die nicht unter das Verbot fallen.

Das KI-Gesetz kann auch auf Unternehmen außerhalb der EU Anwendung finden, wenn sie ein KI-System oder ein Allzweck-KI (GPAI)-Modell auf dem EU-Markt anbieten oder wenn die von dem KI-System generierten Ausgaben in der EU verwendet werden.

Verbotene KI-Praktiken

Nachfolgend finden Sie eine Übersicht der Hauptverbote gemäß dem KI-Gesetz, wie sie in den Richtlinien interpretiert werden:

  1. Soziale Bewertung. Das KI-Gesetz verbietet das Angebot oder die Nutzung von KI-Systemen, die das soziale Verhalten von Individuen bewerten, um deren Behandlung in einem nicht verwandten Kontext zu bestimmen. Beispielsweise könnten KI-Systeme, die den Preis einer Versicherungsprämie empfehlen oder die Kreditwürdigkeit von Personen bewerten, als soziale Bewertung eingestuft werden, wenn die Bewertung auf nicht verwandten persönlichen Merkmalen basiert. Individuelle Bewertungen durch Nutzer fallen nicht unter das Verbot.
  2. Manipulation und Ausnutzung. Das KI-Gesetz verbietet das Angebot oder die Nutzung von KI-Systemen, die subliminale Techniken verwenden oder individuelle Verwundbarkeiten ausnutzen, um ihr Verhalten zu beeinflussen und Schaden zu verursachen. Dies schließt z.B. den Einsatz von KI in Spielen ein, um übermäßiges Spielen und zwanghafte Nutzung zu fördern.
  3. Gesichtserkennung und biometrische Identifizierung. Das KI-Gesetz untersagt die Praxis, Gesichtserkennungsdatenbanken durch ungezieltes Scraping von Bildern aus dem Internet oder von CCTV-Aufnahmen aufzubauen. Das Verbot gilt nicht für das Scraping von Daten, die keine Gesichtsbilder sind.
  4. Emotionserkennung am Arbeitsplatz und in Bildungseinrichtungen. Die Nutzung von KI zur Erkennung von Emotionen in Arbeits- und Bildungseinrichtungen ist im Allgemeinen verboten. Beispiele sind Callcenter, die Webcams und Spracherkennung nutzen, um die Emotionen von Mitarbeitern zu verfolgen.
  5. Biometrische Kategorisierung. Die Kategorisierung von Individuen anhand sensibler Merkmale wie Rasse oder sexuelle Orientierung durch biometrische Daten ist verboten. Das Verbot erstreckt sich jedoch nicht auf technische Kategorisierungen, die für einen kommerziellen Dienst notwendig sind, wie z.B. das Nutzen von Gesichtsfilttern.

Verantwortlichkeiten der KI-Anbieter

Die Richtlinien legen fest, dass Anbieter von KI-Systemen (d.h. diejenigen, die KI-Systeme entwickeln oder entwickeln lassen und in der EU verfügbar machen) dafür verantwortlich sind, kein System zu veröffentlichen, das „vernünftigerweise wahrscheinlich“ für einen verbotenen Zweck verwendet wird, sowie dafür, Sicherheitsvorkehrungen zu treffen, um eine vorhersehbare missbräuchliche Nutzung zu verhindern. Die EK erwartet, dass Anbieter die Nutzung ihrer KI-Systeme für verbotene Praktiken in ihren Nutzungsbedingungen klar ausschließen.

Nächste Schritte

Unternehmen, die gegen die verbotenen KI-Praktiken verstoßen, können mit erheblichen Geldstrafen rechnen, die bis zu 35 Millionen EUR oder sieben Prozent ihres globalen Jahresumsatzes betragen können, je nachdem, welcher Betrag höher ist. Die ersten Durchsetzungsmaßnahmen werden voraussichtlich in der zweiten Hälfte des Jahres 2025 beginnen, während die EU-Länder ihre Durchsetzungsregime finalisieren.

More Insights

EU AI-Gesetz und Australiens Sicherheitsrahmen: Ein globaler Überblick

Laut dem DJ Piper Technology’s Legal Edge-Blog müssen globale Unternehmen, die künstliche Intelligenz einsetzen, die internationalen KI-Vorschriften verstehen. Die Europäische Union und Australien...

Quebecs KI-Politik für Hochschulen und Cégeps

Die Regierung von Quebec hat eine neue KI-Richtlinie für Universitäten und CÉGEPs veröffentlicht, um die Nutzung von generativer KI im Hochschulbereich zu regeln. Die Richtlinien betonen die...

Deutschland setzt AI Act um: Neue Regelungen für KI-Compliance

Die bestehenden Regulierungsbehörden werden die Verantwortung für die Überwachung der Einhaltung des EU-AI-Gesetzes durch deutsche Unternehmen übernehmen, wobei der Bundesnetzagentur (BNetzA) eine...

Weltführer und KI-Pioniere fordern verbindliche globale AI-Schutzmaßnahmen bis 2026

Weltführer und KI-Pioniere fordern die UN auf, bis 2026 verbindliche globale Sicherheitsvorkehrungen für KI zu schaffen. Diese Initiative zielt darauf ab, die Risiken und Herausforderungen, die mit...

Künstliche Intelligenz im Zeitalter des Zero Trust: Governance neu denken

Im Jahr 2025 sehen wir, wie KI von einem bloßen Schlagwort zu einer praktischen Anwendung in verschiedenen Bereichen wird. Effektive Governance in einer Zero-Trust-Wirtschaft ist entscheidend, um...

Neue AI-Strategie: Technisches Sekretariat statt Regulator

Der bevorstehende Governance-Rahmen für künstliche Intelligenz könnte ein "technisches Sekretariat" umfassen, das die KI-Politik zwischen den Regierungsbehörden koordiniert. Dies stellt einen Wechsel...

KI-Sicherheit als Motor für Innovation in Schwellenländern

Die Diskussion über KI-Sicherheit und -Schutz wird oft als Hindernis für Innovationen wahrgenommen, insbesondere in Ländern der Global Majority. Die bevorstehende AI Impact Summit in Indien im Februar...

AI-Governance in ASEAN: Auf dem Weg zu einem einheitlichen Ansatz?

Wenn es um KI geht, legisliert Europa, während Amerika auf marktorientierte Innovation setzt und China zentral steuert. ASEAN hingegen setzt auf einen konsensorientierten Ansatz, der eine freiwillige...