Lobbyisten setzen alles daran, AI-Verhaltenskodex zu verhindern

Letzte Anstrengungen der Lobbyisten zur Verzögerung des KI-Verhaltenskodex

Lobbyisten unternehmen einen letzten verzweifelten Versuch, die Regeln für Allgemeine Zweck-KI (GPAI) zu verzögern, vor der erwarteten Veröffentlichung des mit Spannung erwarteten freiwilligen Verhaltenskodex durch die Europäische Kommission in den kommenden Tagen.

Hintergrund des Verhaltenskodex

Der Verhaltenskodex, der für multipurpose KI-Modelle gilt, die Technologien wie OpenAI’s ChatGPT zugrunde liegen, war Gegenstand erheblicher Spannungen mit fast 1.000 Lobbyisten und Experten, die am Entwurfsprozess zusammen mit unabhängigen Vorsitzenden teilgenommen haben.

Vorschläge zur Verzögerung der Umsetzung des KI-Gesetzes

Parallel dazu haben die Industrie und die polnische Präsidentschaft des Rates vorgeschlagen, dass die Kommission „die Uhr anhält“ für die Umsetzung des KI-Gesetzes, da mehrere Richtlinien und Standards noch ausstehen.

Anfang Juni erklärte die Technikkommissarin Henna Virkkunen dem Rat, dass das Verschieben einiger Teile des Gesetzes „nicht ausgeschlossen“ werden sollte, wenn die Umsetzungstools nicht bereit sind. Der Verhaltenskodex soll den KI-Entwicklern helfen, die Regeln des Gesetzes für GPAIs einzuhalten, die voraussichtlich ab dem 2. August gelten.

Lobbyisten appellieren an die EU-Regierungen

Obwohl die Kommission nicht offiziell ausgeschlossen hat, einige Fristen des KI-Gesetzes hinauszuschieben, hat sie angedeutet, dass die Regeln für GPAIs im August tatsächlich gelten werden.

Dies hat Big Tech Lobby CCIA Europa nicht davon abgehalten, einen letzten Appell an die EU-Regierungschefs zu richten – die sich letzte Woche beim Europäischen Rat trafen – um die GPAI-Regeln zu verzögern. Mit dem Verhaltenskodex, der nur Wochen vor Inkrafttreten immer noch nicht bereit ist, riskiert die EU, „die Innovation insgesamt zu stoppen“, sagte Daniel Friedlaender, Leiter des Büros von CCIA Europa, in einer Erklärung.

Aufruf zum Widerstand gegen Druck

Doch auch Akademiker und die Zivilgesellschaft haben letzte Woche einen eigenen offenen Brief veröffentlicht, in dem sie das KI-Gesetz verteidigen und die Kommission auffordern, „Druck zu widerstehen“, um die Regeln zu untergraben. „Systemische Risiken durch GPAI-Modelle nehmen weiterhin zu“, warnte der Brief und verwies auf gefährliche „Fähigkeiten im Zusammenhang mit cyber-, biologischen, radiologischen und nuklearen Bedrohungen.“

Mitglieder des Parlaments sind ebenfalls für die Umsetzung des Gesetzes, wie geplant, und fordern schnelles Handeln.

„Ein erheblicher Aufwand ist jetzt erforderlich, um den Verhaltenskodex und die erforderlichen Standards für die Konformitätsbewertung so schnell wie möglich abzuschließen. Es darf keine weiteren Verzögerungen geben“, sagte MEP Michael McNamara, Mitvorsitzender der Arbeitsgruppe des Parlaments zum KI-Gesetz, gegenüber Euractiv.

„Ein Versagen, den Verhaltenskodex und die Governance-Regeln für GPAI-Modelle wie geplant in Kraft zu setzen, würde zu einem erheblichen Verlust an Glaubwürdigkeit für die EU führen, der weit über das KI-Gesetz hinausgeht“, warnte er.

MEP Sergey Lagodinsky, der zu den Verhandlungsführern des KI-Gesetzes gehörte, sagte ebenfalls gegenüber Euractiv, dass „robuste Mechanismen“ erforderlich sind, um sicherzustellen, dass das Gesetz „effektiv umgesetzt und durchgesetzt“ wird.

More Insights

EU AI-Gesetz und Australiens Sicherheitsrahmen: Ein globaler Überblick

Laut dem DJ Piper Technology’s Legal Edge-Blog müssen globale Unternehmen, die künstliche Intelligenz einsetzen, die internationalen KI-Vorschriften verstehen. Die Europäische Union und Australien...

Quebecs KI-Politik für Hochschulen und Cégeps

Die Regierung von Quebec hat eine neue KI-Richtlinie für Universitäten und CÉGEPs veröffentlicht, um die Nutzung von generativer KI im Hochschulbereich zu regeln. Die Richtlinien betonen die...

Deutschland setzt AI Act um: Neue Regelungen für KI-Compliance

Die bestehenden Regulierungsbehörden werden die Verantwortung für die Überwachung der Einhaltung des EU-AI-Gesetzes durch deutsche Unternehmen übernehmen, wobei der Bundesnetzagentur (BNetzA) eine...

Weltführer und KI-Pioniere fordern verbindliche globale AI-Schutzmaßnahmen bis 2026

Weltführer und KI-Pioniere fordern die UN auf, bis 2026 verbindliche globale Sicherheitsvorkehrungen für KI zu schaffen. Diese Initiative zielt darauf ab, die Risiken und Herausforderungen, die mit...

Künstliche Intelligenz im Zeitalter des Zero Trust: Governance neu denken

Im Jahr 2025 sehen wir, wie KI von einem bloßen Schlagwort zu einer praktischen Anwendung in verschiedenen Bereichen wird. Effektive Governance in einer Zero-Trust-Wirtschaft ist entscheidend, um...

Neue AI-Strategie: Technisches Sekretariat statt Regulator

Der bevorstehende Governance-Rahmen für künstliche Intelligenz könnte ein "technisches Sekretariat" umfassen, das die KI-Politik zwischen den Regierungsbehörden koordiniert. Dies stellt einen Wechsel...

KI-Sicherheit als Motor für Innovation in Schwellenländern

Die Diskussion über KI-Sicherheit und -Schutz wird oft als Hindernis für Innovationen wahrgenommen, insbesondere in Ländern der Global Majority. Die bevorstehende AI Impact Summit in Indien im Februar...

AI-Governance in ASEAN: Auf dem Weg zu einem einheitlichen Ansatz?

Wenn es um KI geht, legisliert Europa, während Amerika auf marktorientierte Innovation setzt und China zentral steuert. ASEAN hingegen setzt auf einen konsensorientierten Ansatz, der eine freiwillige...