Big Tech schwächt den KI-Verhaltenskodex der EU

Big Tech hat den AI-Verhaltenskodex abgeschwächt: Bericht

Ein Bericht von Corporate Europe Observatory (CEO) und LobbyControl legt nahe, dass große Technologieunternehmen Druck auf die Europäische Kommission ausgeübt haben, um den Verhaltenskodex für Allgemeine Künstliche Intelligenz (AI) abzuschwächen. Dieser Kodex sollte den Anbietern von AI-Modellen helfen, die Anforderungen des EU-AI-Gesetzes zu erfüllen.

Einfluss von Tech-Unternehmen

Laut der Untersuchung hatten Tech-Unternehmen “strukturelle Vorteile” im Entwurfsprozess des Kodex und schwächten die Regeln für fortgeschrittene AI. Die von der Kommission ernannten 13 Experten begannen im letzten September mit dem Entwurf des Kodex und ermöglichten rund 1.000 Teilnehmern, ihr Feedback in Plenarsitzungen und Workshops einzubringen.

Die Forschung von CEO und LobbyControl zeigt, dass Technologieunternehmen mehr Zugang zum Entwurfsprozess hatten als andere Interessengruppen. Modellanbieter – Unternehmen, die die großen AI-Modelle entwickeln, die der Kodex regulieren soll – wurden zu speziellen Workshops mit den Vorsitzenden der Arbeitsgruppe eingeladen. Diese Workshops umfassten 15 US-amerikanische Technologieunternehmen, darunter Google, Microsoft, Meta, Amazon und OpenAI.

Begrenzter Zugang für andere Interessengruppen

Andere Stakeholder, wie z.B. Organisationen der Zivilgesellschaft, Verleger und kleine und mittlere Unternehmen (KMU), hatten nur begrenzten Zugang. Ihre Teilnahme an den Workshops beschränkte sich meistens auf emoji-basierte Upvotes von Fragen und Kommentaren über die Online-Plattform SLIDO.

Der Entwurfsprozess wurde von verschiedenen Interessengruppen, insbesondere von Rechtsinhabern und Verlegern, kritisiert, die befürchten, dass die Regeln mit dem Urheberrecht in Konflikt geraten könnten.

Verzögerung in der Veröffentlichung

Ein Sprecher der Kommission bestätigte, dass sie kürzlich ein Schreiben von der US-Regierung erhalten hatte, in dem gegen den Kodex Stellung genommen wurde. Die Verwaltung unter der Führung des republikanischen Präsidenten Donald Trump hat die digitalen Regeln der EU kritisiert und behauptet, sie würden Innovationen behindern.

Der Sprecher der Kommission erklärte, dass die “Obsession der EU-Kommission mit ‘Vereinfachung’ und ‘Wettbewerbsfähigkeit’ die Tür für aggressives Lobbying durch Big Tech öffnet. Der Verhaltenskodex ist nur eines der ersten Opfer dieses einseitigen Fokus auf Deregulierung,” sagte der CEO-Forscher Bram Vranken.

Reaktion der Kommission

Thomas Regnier, ein Sprecher der Kommission, sagte gegenüber Euronews, dass “niemand während des gesamten Prozesses ‘strukturell bevorzugt’ wurde” und dass alle Teilnehmer “die gleiche Gelegenheit hatten, sich über die gleichen Kanäle in den Prozess einzubringen.”

Die endgültige Version des Kodex sollte Anfang Mai veröffentlicht werden, steht jedoch möglicherweise vor einer Verzögerung. Die Kommission kommentierte am Montag nicht, ob die Frist vom 2. Mai eingehalten werden kann. Es wird jedoch erwartet, dass sowohl die Richtlinien für allgemeine Künstliche Intelligenz als auch der endgültige Kodex im Mai oder Juni 2025 veröffentlicht werden.

In einer E-Mail an die Stakeholder, die von Euronews eingesehen wurde, sagte das AI-Büro der Kommission, dass der endgültige Text “vor August 2025” veröffentlicht werden soll, wenn die Regeln für GP AI-Tools in Kraft treten. Die EU-Exekutive kann entscheiden, den Kodex durch einen Durchführungsakt zu formalisieren, der 2027 vollständig anwendbar sein wird.

More Insights

Risiken der KI im Compliance-Bereich

Das schnelle Wachstum der künstlichen Intelligenz (KI), insbesondere der generativen KI (GenAI) und Chatbots, bietet Unternehmen zahlreiche Möglichkeiten zur Verbesserung ihrer Arbeitsweise...

AI-Kompetenz: Anforderungen und Umsetzung im Unternehmen

Die Verpflichtung zur KI-Kompetenz gilt seit dem 2. Februar 2025 für alle, die mit KI-Systemen in Verbindung stehen. Die Kommission erwartet von den Anbietern und Anwendern von KI-Systemen, dass sie...

Ethische Herausforderungen der KI: Strategien für verantwortungsvolles Handeln

Künstliche Intelligenz (KI) durchdringt zunehmend kritische Entscheidungsprozesse in verschiedenen Branchen, weshalb robuste ethische Governance-Rahmenwerke von entscheidender Bedeutung sind. Die...

Rechtliche Personhood für KI: Eine dringende Debatte

Künstliche Intelligenz ist nicht mehr auf dem Weg, sie ist bereits etabliert. Angesichts der schnellen Integration von KI müssen wir die dringende Frage stellen: Soll KI irgendeine Form von...

Datenherkunft als Schlüssel zur KI-Governance für CISOs

Künstliche Intelligenz hat schleichend in zentrale Funktionen des Unternehmens Einzug gehalten, und viele dieser Funktionen basieren auf großen Sprachmodellen (LLMs). Die Annahme der Sicherheit der...

Ausgewogene KI-Regulierung für die Philippinen

Eine Abgeordnete auf den Philippinen fordert einen vorsichtigen und konsulativen Ansatz zur Regulierung von Künstlicher Intelligenz (KI), um sicherzustellen, dass die Richtlinien eine ethische...

Chinas Weg zur offenen KI-Governance

Chinas schnelle Fortschritte im Bereich der künstlichen Intelligenz (KI) werden zunehmend durch eine starke Betonung der Open-Source-Zusammenarbeit vorangetrieben. Dies ermöglicht es Unternehmen...

Neun Schritte zur effektiven KI-Governance

Die AI-Governance ist entscheidend, um die Integrität, Verantwortlichkeit und Sicherheit der Datenökosysteme zu gewährleisten, die KI-Modelle antreiben. Ohne starke Kontrollen können KI-Systeme...