Menschenrechte im EU KI-Gesetz: Gefahr durch unzureichenden Kodex

Menschliche Rechte sind universell, nicht optional: Der EU AI Act und der fehlerhafte Verhaltenskodex

Der EU AI Act, der am 1. August 2024 in Kraft trat, initiierte einen ko-regulatorischen Prozess mit einer Arbeitsgruppe von fast 1.000 Interessengruppen aus AI-Unternehmen, Akademia und Organisationen der Zivilgesellschaft. Diese Arbeitsgruppe befindet sich nun in den letzten Phasen der Ausarbeitung des Allgemeinen Verhaltenskodex für Künstliche Intelligenz, der als detailliertes Handbuch dient, wie AI-Entwickler die wichtigsten Bestimmungen des AI Acts einhalten können, die Regeln für Modelle festlegen.

Entwickler, die dem Handbuch folgen, genießen eine „Vermutung der Konformität“ mit dem Gesetz, obwohl sie auch wählen können, auf ihre eigene Weise konform zu sein.

Die Bedenken

Die Mitglieder der Arbeitsgruppe äußern gravierende Bedenken, dass der vorläufige Entwurf des Verhaltenskodex die Menschenrechte nicht ausreichend schützt. Dieser Entwurf stützt sich auf fehlerhafte Logik, die die Möglichkeiten zur Minderung von Menschenrechtsrisiken durch AI-Modelle erheblich einschränkt.

Der AI Act und folglich der Kodex unterscheiden zwischen „Allgemein anwendbaren AI-Modellen“ und „Allgemein anwendbaren AI-Modellen mit systemischen Risiken„. Modelle, die in die letztere Kategorie fallen — basierend auf einem von dem AI Act festgelegten Trainingsrechenleistungsgrad oder einer Einstufung durch die Kommission — unterliegen zusätzlichen Verpflichtungen, einschließlich der Durchführung von Risikobewertungen und der Minderung identifizierter Risiken.

Änderungen und Risiken

Der Kodex enthielt ursprünglich einen zweistufigen Ansatz, der zwischen Risikokategorien unterschied. Im aktuellen Entwurf wurde die zweite Risikokategorie jedoch von „zusätzlich“ auf „optional“ geändert. Die Teilnehmer einer Workshop-Diskussion beschrieben die Notwendigkeit, Anforderungen an AI-Unternehmen zu verringern, um sicherzustellen, dass Europa nicht hinter AI-Innovationen zurückbleibt.

Die Liste der optionalen Risiken ist erschreckend umfassend:

  • Risiken für die öffentliche Gesundheit, Sicherheit oder öffentliche Ordnung.
  • Risiken für grundlegende Rechte, wie das Risiko für die Meinungsfreiheit und Privatsphäre.
  • Risiken für die Gesellschaft, wie das Risiko für die Umwelt und demokratische Prozesse.

Besonders bemerkenswert ist, dass Diskriminierung von der Liste der verpflichtenden Risiken auf die optionale Liste verschoben wurde. Der aktuelle Entwurf sieht nur vier Risiken vor, die einer verpflichtenden Bewertung unterliegen.

Internationale Ansätze

Es ist wichtig zu vermerken, dass der aktuelle Ansatz des Kodex nicht nur den AI Act falsch interpretiert, sondern auch bestehenden internationalen Bemühungen und Rahmenwerken zur AI-Sicherheit widerspricht. Der Hiroshima-Kodex für fortschrittliche AI-Systeme erfordert ausdrücklich, dass Anbieter Risiken für die Privatsphäre sowie schädliche Vorurteile und Diskriminierungsrisiken bewerten und mindern.

Fazit

Der aktuelle Entwurf des Verhaltenskodex stellt einen Rückschritt dar, da er einen schwachen und selektiven Ansatz zum Schutz der Menschenrechte verfolgt. Die Verfasser des Verhaltenskodex sollten entschlossene Maßnahmen ergreifen, um sicherzustellen, dass Entwickler von allgemein anwendbaren AI-Modellen die Risiken für die Menschenrechte, die ihre Modelle darstellen, berücksichtigen.

More Insights

AI-Rüstungswettlauf und die Auswirkungen von Tarifen auf den EU-AI-Gesetz

Tarife können sowohl als Hindernis als auch als potenzieller Katalysator für den Fortschritt von KI und Automatisierung wirken. In Kombination mit dem EU-KI-Gesetz ergeben sich komplexe...

Europäische Kommission: Aktionsplan für KI-Souveränität

Die Europäische Kommission hat ihren AI Continent Action Plan veröffentlicht, der darauf abzielt, Europa als globalen Führer im Bereich der künstlichen Intelligenz zu etablieren. Der Plan umfasst eine...

Die AI-Herausforderung: Singapur zwischen Innovation und Regulierung

Singapur steht vor der Herausforderung, ein Gleichgewicht zwischen Innovation und Regulierung im Bereich der Künstlichen Intelligenz (KI) zu finden. Angesichts von Bedenken hinsichtlich Datenschutz...

Verantwortliche KI im Finanzsektor

Lexy Kassan diskutiert die entscheidenden Aspekte von verantwortungsbewusstem KI-Einsatz, insbesondere im Hinblick auf regulatorische Aktualisierungen wie den EU AI Act und dessen Auswirkungen auf die...

Menschzentrierte KI: Wegbereiter für ethische und verantwortungsvolle KI-Agenten

In der sich ständig weiterentwickelnden Landschaft der künstlichen Intelligenz gewinnt das Gespräch über human-zentrierte KI (HCAI) an erheblicher Bedeutung. Diese Paradigmenwechsel ist nicht nur eine...

Der EU AI Act: Grundlagen der Regulierung von Künstlicher Intelligenz

Der EU AI Act markiert den Beginn einer neuen Ära der Regulierung von künstlicher Intelligenz in Europa. Er schafft ein einheitliches rechtliches Regime für alle EU-Mitgliedstaaten und zielt darauf...

EU-Kommission präsentiert Aktionsplan für KI-Entwicklung

Am 9. April 2025 verabschiedete die Europäische Kommission eine Mitteilung über den sogenannten AI Continent Action Plan – ihre Strategie zur Gestaltung der nächsten Phase der KI-Entwicklung in...

Aktualisierte KI-Modellvertragsklauseln der EU veröffentlicht

Die Gemeinschaft der Praxis der EU für öffentliche Beschaffung von KI hat am 5. März 2025 eine aktualisierte Version ihrer nicht verbindlichen EU AI-Modellvertragsklauseln veröffentlicht. Diese...

EU AI Gesetz: Emotionale Erkennungssysteme am Arbeitsplatz unter der Lupe

Emotionserkennungs-KI bezieht sich auf KI, die biometrische Daten wie Gesichtsausdrücke und Stimme verwendet, um Emotionen zu identifizieren und zu analysieren. Der EU AI Act verbietet die Verwendung...