Richtlinien der EU-Kommission zu Verbotenen KI-Praktiken

EU-Kommission veröffentlicht Richtlinien zu verbotenen KI-Praktiken gemäß dem EU-KI-Gesetz

Am 4. Februar 2025 veröffentlichte die Europäische Kommission (EK) Entwurfrichtlinien, die die unter dem EU-KI-Gesetz verbotenen KI-Praktiken klären. Obwohl die Richtlinien nicht verbindlich sind, bieten sie wertvolle Klarstellungen und praktische Beispiele, um Unternehmen bei der Einhaltung ihrer Verpflichtungen unter dem KI-Gesetz zu helfen. Die EK hat die Entwurfrichtlinien genehmigt, jedoch steht die formale Annahme noch aus, die in naher Zukunft erwartet wird.

Hintergrund

Am 2. Februar 2025 traten die Bestimmungen des KI-Gesetzes über verbotene KI-Praktiken in Kraft, zusammen mit anderen Bestimmungen zur KI-Kompetenz. Artikel 5 des KI-Gesetzes verbietet bestimmte KI-Praktiken, die als inakzeptable Risiken gelten, wie z.B. KI-Systeme, die Individuen manipulieren oder ausnutzen, soziale Bewertungen vornehmen oder die Emotionen von Individuen am Arbeitsplatz oder in der Bildung ableiten. Das Verbot gilt sowohl für Unternehmen, die solche KI-Systeme anbieten, als auch für diejenigen, die sie nutzen.

Verbotene KI-Praktiken

Im Folgenden finden Sie einen Überblick über die wichtigsten Verbote gemäß dem KI-Gesetz, wie sie in den Richtlinien interpretiert werden:

  1. Soziale Bewertungen: Das KI-Gesetz verbietet die Nutzung von KI-Systemen, die das soziale Verhalten von Individuen bewerten, um deren Behandlung in einem nicht verwandten Kontext zu bestimmen. Beispielsweise könnten KI-Systeme, die den Preis einer Versicherungspolice empfehlen oder die Kreditwürdigkeit von Personen bewerten, als soziale Bewertung gelten, wenn die Bewertung auf nicht verwandten persönlichen Merkmalen basiert.
  2. Manipulation und Ausnutzung: Das KI-Gesetz verbietet die Nutzung von KI-Systemen, die subliminale Techniken verwenden oder individuelle Schwächen ausnutzen, um das Verhalten zu beeinflussen und Schaden zu verursachen. Dies schließt beispielsweise den Einsatz von KI in Spielen ein, um exzessives Spielen bei Kindern auszunutzen.
  3. Gesichtserkennung und biometrische Identifikation: Das KI-Gesetz verbietet den Aufbau von Gesichtserkennungsdatenbanken durch ungezieltes Scraping von Bildern aus dem Internet oder CCTV-Aufnahmen. Die Richtlinien stellen klar, dass das Verbot nicht für das Scraping von Daten gilt, die nicht Gesichtsbilder sind.
  4. Emotionserkennung in Arbeitsplätzen und Bildungseinrichtungen: Die Nutzung von KI zur Erkennung von Emotionen in Arbeitsplätzen und Bildungseinrichtungen ist im Allgemeinen verboten. Dies schließt die Verwendung von KI-Systemen zur Verfolgung der Emotionen von Mitarbeitern in Call-Centern ein.
  5. Biometrische Kategorisierung: Die Kategorisierung von Individuen basierend auf sensiblen Attributen wie Rasse oder sexueller Orientierung mithilfe biometrischer Daten ist verboten. Beispielsweise ist es untersagt, KI-Systeme zu verwenden, die Menschen basierend auf solchen Attributen kategorisieren, um politische Botschaften zu senden.

Verantwortlichkeiten für KI-Anbieter

Die Richtlinien legen fest, dass Anbieter von KI-Systemen verantwortlich sind, kein System freizugeben, das „vernünftigerweise wahrscheinlich“ für einen verbotenen Zweck verwendet werden könnte, und dass sie Maßnahmen ergreifen müssen, um eine vorhersehbare missbräuchliche Nutzung zu verhindern. Die EK erwartet von Anbietern, dass sie die Nutzung ihrer KI-Systeme für verbotene Praktiken in ihren Bedingungen klar ausschließen.

Folgen und nächste Schritte

Unternehmen, die gegen die verbotenen KI-Praktiken verstoßen, müssen mit erheblichen Geldstrafen rechnen, die bis zu 35 Millionen EUR oder sieben Prozent ihres globalen Jahresumsatzes betragen können, je nachdem, welcher Betrag höher ist. Die ersten Durchsetzungsmaßnahmen werden in der zweiten Hälfte des Jahres 2025 erwartet, wenn die EU-Länder ihre Durchsetzungsregime finalisieren.

Unternehmen, die KI in der EU anbieten oder nutzen, sollten ihre KI-Systeme und -Bedingungen im Lichte dieser Richtlinien überprüfen und etwaige Compliance-Lücken im ersten Halbjahr 2025 schließen.

More Insights

Verantwortungsvolle KI: Ein unverzichtbares Gebot für Unternehmen

Unternehmen sind sich der Notwendigkeit von verantwortungsvollem KI-Betrieb bewusst, behandeln ihn jedoch oft als nachträglichen Gedanken oder separates Projekt. Verantwortliche KI ist eine vordere...

Neues KI-Governance-Modell gegen Schatten-KI

Künstliche Intelligenz (KI) verbreitet sich schnell in den Arbeitsplatz und verändert, wie alltägliche Aufgaben erledigt werden. Unternehmen müssen ihre Ansätze zur KI-Politik überdenken, um mit der...

EU plant Aufschub für AI-Gesetzgebung

Die EU plant, die Anforderungen für risikobehaftete KI-Systeme im KI-Gesetz bis Ende 2027 zu verschieben, um Unternehmen mehr Zeit zu geben, sich anzupassen. Kritiker befürchten, dass diese...

Weißes Haus lehnt GAIN AI-Gesetz ab: Nvidia im Fokus

Das Weiße Haus hat sich gegen den GAIN AI Act ausgesprochen, während es um die Exportbeschränkungen für Nvidia-AI-Chips nach China geht. Die Diskussion spiegelt die politischen Spannungen wider, die...

Ethische KI als Beschleuniger für Innovation

Unternehmen stehen heute unter Druck, mit künstlicher Intelligenz zu innovieren, oft jedoch ohne die notwendigen Sicherheitsvorkehrungen. Indem sie Datenschutz und Ethik in den Entwicklungsprozess...

KI im Recruiting: Verborgene Risiken für Arbeitgeber

Künstliche Intelligenz verändert die Art und Weise, wie Arbeitgeber Talente rekrutieren und bewerten. Während diese Tools Effizienz und Kosteneinsparungen versprechen, bringen sie auch erhebliche...

KI im australischen Kabinett: Chancen und Sicherheitsbedenken

Die australische Regierung könnte in Betracht ziehen, KI-Programme zur Erstellung sensibler Kabinettsanträge zu nutzen, trotz Bedenken hinsichtlich Sicherheitsrisiken und Datenverletzungen...