Richtlinien der EU-Kommission zu verbotenen KI-Praktiken im AI Act

Die EU-Kommission Richtlinien zu verbotenen KI-Praktiken unter dem KI-Gesetz – Teil Eins

Am 4. Februar 2025 hat die Europäische Kommission (EK) Richtlinien zu verbotenen künstlichen Intelligenz (KI) Praktiken veröffentlicht, die durch das EU KI-Gesetz festgelegt wurden.

Hintergrund

Die derzeit nicht bindenden Richtlinien bieten Klarheit über verbotene KI-Praktiken, die ein Risiko für die Werte und grundlegenden Rechte der Europäischen Union darstellen, wie z.B. die Gewährleistung der öffentlichen Sicherheit, das Recht auf Privatsphäre und das Recht auf Nichtdiskriminierung. Der Zweck dieser zweiteiligen Briefing-Serie ist es, Datenschutzprofis und andere Betreiber von KI-Systemen dabei zu unterstützen, die Auswirkungen der Richtlinien zu verstehen. Teil eins betrachtet die ersten vier Anwendungsfälle gemäß Artikel 5(1)(a) bis 5(1)(d).

Übergangszeit – Durchsetzung

Die Bestimmungen zu verbotenen KI-Systemen traten am 2. Februar 2025 in Kraft, mit Strafen, die ab dem 2. August 2025 anwendbar sind. Dies lässt eine sechsmonatige Übergangszeit für die Durchsetzung.

Verbotene KI-Praktiken

Artikel 5 des KI-Gesetzes enthält die Liste der KI-Anwendungsfälle, die ausdrücklich verboten sind. Die Tabellen in den Richtlinien stellen die Anwendungsfälle, den Hintergrund und die Gründe für das Verbot dar und heben zulässige Ausnahmen sowie Beispiele für Anwendungsfälle hervor, die nicht in den Anwendungsbereich fallen.

Manipulation und Täuschung Artikel 5(1)(a)

Artikel 5(1)(a) enthält ein Verbot für KI, die subliminale Techniken oder manipulative Strategien verwendet, um das Verhalten von Personen erheblich zu verzerren. Dies kann die Entscheidungsfähigkeit der Betroffenen in einer Weise verändern, die wahrscheinlich erheblichen Schaden verursacht.

Beispiele für subliminale Techniken sind visuelle subliminale Nachrichten, auditive subliminale Nachrichten, eingebettete Bilder und temporale Manipulation.

Schädliche Ausbeutung von Verwundbarkeiten Artikel 5(1)(b)

Artikel 5(1)(b) verbietet den Einsatz von KI zur Ausbeutung von Verwundbarkeiten, die mit Alter, Behinderung oder sozioökonomischen Bedingungen verbunden sind. Das Ziel oder die Wirkung muss darin bestehen, das Verhalten einer Person oder Gruppe erheblich zu verzerren und damit Schaden zu verursachen.

Beispiele für verwundbare Gruppen sind Kinder, die durch KI-gesteuertes Spielzeug zu riskantem Verhalten ermutigt werden.

Soziale Bewertung Artikel 5(1)(c)

Artikel 5(1)(c) verbietet den Einsatz von KI, um Personen basierend auf ihrem sozialen Verhalten oder persönlichen Eigenschaften zu kategorisieren, wenn dies zu ungerechtfertigter oder nachteiliger Behandlung führt.

Die soziale Bewertung muss zu einer nachteiligen Behandlung führen, die nicht gerechtfertigt oder unverhältnismäßig ist.

Vorhersage von Straftaten Artikel 5(1)(d)

Artikel 5(1)(d) verbietet KI-Systeme, die die Wahrscheinlichkeit des Begehens von Straftaten ausschließlich auf Basis automatisierter Profile oder persönlicher Eigenschaften bewerten.

Die Richtlinien betonen, dass das Verbot nicht die Risikoabschätzung und Verbrechensvorhersage insgesamt verbietet, sondern sich spezifisch auf Systeme konzentriert, die ausschließlich auf Profiling basieren.

Zusammenfassung der Implementierungszeitlinie des KI-Gesetzes

  • Bis August 2025: Verpflichtungen für Anbieter von allgemeinen KI-Modellen treten in Kraft.
  • Bis August 2026: Beginn der Compliance-Verpflichtungen für hochriskante KI-Systeme.
  • Bis August 2027: Compliance-Verpflichtungen für hochriskante KI-Systeme, die unter Artikel 6(1) fallen, treten in Kraft.

More Insights

KI-Ingenieure vs. Verantwortungsvolle KI-Ingenieure: Intelligenter bauen oder sicherer gestalten

Künstliche Intelligenz hat in den letzten Jahren enorme Fortschritte gemacht, was AI-Ingenieure an die Spitze der Innovation stellt. Gleichzeitig bringt diese Macht Verantwortung mit sich, da Fragen...

Verantwortungsbewusste KI: Eine neue Notwendigkeit

Dr. Anna Zeiter betont, dass verantwortungsvolle KI nicht nur ein Schlagwort ist, sondern eine grundlegende Notwendigkeit. Sie hebt hervor, dass Vertrauen und Verantwortlichkeit entscheidend sind, um...

KI-Integration in Unternehmen: Compliance im Fokus

Künstliche Intelligenz soll Unternehmen schneller, intelligenter und wettbewerbsfähiger machen, aber die meisten Projekte scheitern. Der Cloud Security Alliance (CSA) zufolge liegt das Problem darin...

Erhalt von generativen KI-Inhalten: Rechtliche und organisatorische Herausforderungen

Generative KI-Tools, die Texte und Medien basierend auf den Daten erstellen, mit denen sie trainiert wurden, werfen rechtliche Bedenken hinsichtlich Datenschutz, Datensicherheit und Privilegien auf...

Verantwortungsvolles KI-Management: Prinzipien und Vorteile

Künstliche Intelligenz verändert, wie wir leben und arbeiten, weshalb es wichtig ist, sie auf die richtige Weise zu nutzen. Verantwortliche KI bedeutet, KI zu schaffen und zu verwenden, die fair...

Vertrauenswürdige KI: Erfolgsfaktor für Unternehmen im Zeitalter der Innovation

In den letzten zwanzig Jahren hat sich die Abhängigkeit von künstlicher Intelligenz (KI) zur Entscheidungsfindung in Unternehmen stark entwickelt. Um in diesem neuen Modell effektiv zu arbeiten...

KI-Regulierung in Spanien: Fortschritte und Herausforderungen

Spanien ist Vorreiter in der KI-Governance mit dem ersten KI-Regulator Europas (AESIA) und einem bereits aktiven regulatorischen Sandbox. Zudem wird ein nationaler KI-Gesetzentwurf vorbereitet, der...

Globale Regulierung von KI: Ein Überblick über Israel

Künstliche Intelligenz (KI) hat in den letzten Jahren enorme Fortschritte gemacht und ist zunehmend in das öffentliche Bewusstsein gerückt. Regierungen und Aufsichtsbehörden weltweit müssen schnell...

KI im Glücksspiel: Chancen und Herausforderungen der Regulierung

Der Einsatz von Künstlicher Intelligenz (KI) im Glücksspielsektor bringt sowohl Chancen als auch Risiken mit sich, da die regulatorischen Anforderungen steigen und die Haftungsrisiken zunehmen...