Technologie-Riesen wehren sich gegen den EU AI Act

Technologie-Giganten wehren sich zu einem entscheidenden Zeitpunkt für den EU AI Act

Der EU AI Act gilt als das umfassendste Regelwerk für künstliche Intelligenz weltweit. Doch es handelt sich um eine Sammlung allgemeiner Prinzipien, die ohne detaillierte Umsetzungsrichtlinien bleibt.

Die eigentliche Arbeit beginnt mit dem Code of Practice für allgemeine KI-Modelle, der die Compliance-Anforderungen für KI-Unternehmen detailliert beschreibt.

Viele außerhalb Europas haben aufgehört, dem EU AI Act Beachtung zu schenken, da sie ihn für einen beschlossenen Fall halten. Diese Annahme könnte sich als schwerwiegender Fehler herausstellen, da der wahre Kampf gegenwärtig stattfindet.

Code of Practice und seine Bedeutung

Der Code of Practice wird drei Entwürfe durchlaufen, bevor er Ende April finalisiert wird. Diese freiwilligen Anforderungen treten im August in Kraft.

Allerdings war der dritte Entwurf ursprünglich für den 17. Februar angekündigt, wurde jedoch verzögert, und es gibt Hinweise darauf, dass er erst in einem Monat veröffentlicht wird.

Risto Uuk, Leiter der EU-Politik und Forschung am Future of Life Institute, erklärte, dass die Verzögerung des Entwurfs auf Druck aus der Technologiebranche zurückzuführen sei. Besonders knifflig sind die Regeln für KI-Modelle, die ein systemisches Risiko darstellen, und die auf 10 bis 15 der größten Modelle von Unternehmen wie OpenAI, Google, Meta und Anthropic zutreffen.

Widerstand der Technologieunternehmen

Große Technologieunternehmen stellen sich mutig gegen die EU-Vorschriften und glauben, dass sie die Unterstützung der Trump-Administration haben werden. Meta hat Lobbyisten in der EU entsandt, um den AI Act zu entschärfen.

Berichten zufolge hat Meta sich geweigert, den Code of Practice zu unterzeichnen, während Google erklärt hat, dass dieser eine „Richtung ist, die in die falsche Richtung führt“, zu einer Zeit, in der Europa wettbewerbsfähiger werden möchte.

Einige Streitpunkte betreffen die Nutzung von urheberrechtlich geschütztem Material für das Training von Modellen sowie die Notwendigkeit einer unabhängigen Drittpartei zur Risikobewertung ihrer Modelle.

Die Unternehmen haben sich beschwert, dass der Code über die Anforderungen des EU AI Act hinausgeht. Uuk stellte jedoch fest, dass viele dieser Praktiken bereits in Zusammenarbeit mit dem UK AI Safety Institute und anderen durchgeführt werden.

Folgen des AI-Pause-Briefes

Das Future of Life Institute ist bekannt für den im März 2023 verbreiteten offenen Brief, der eine sechsmonatige Moratorium auf fortgeschrittene KI-Modelle forderte, bis Sicherheitsprotokolle entwickelt sind. Zu den Unterzeichnern zählen Elon Musk und Steve Wozniak.

Hat der Brief gewirkt? Uuk erklärte, dass es keine Pause in der KI-Entwicklung gab und der schnelle Fortschritt der KI-Technologien unvermindert weitergeht.

Obwohl die Technologieunternehmen weiterhin entwickeln, hat die regulatorische Aktion weltweit an Schwung gewonnen. Der EU AI Act wurde als das erste umfassende KI-Regelwerk der Welt im März 2024 verabschiedet.

Globale Entwicklungen und Ausblick

Südkorea hat im Dezember das Basic AI Act verabschiedet, das dem Rahmen der EU ähnelt. China führt KI-Governance-Richtlinien ein, während Brasilien an einem eigenen AI Act arbeitet.

Die USA bleiben fragmentiert, da die Bundesstaaten eigene Gesetze einführen.

Die Bedenken über eine mögliche Schwächung der Sicherheitsbestimmungen durch den Widerstand der Technologieunternehmen nehmen zu. Es bleibt abzuwarten, wie die neue Europäische Kommission unter dem Druck der Industrie reagieren wird.

More Insights

EU AI-Gesetz und Australiens Sicherheitsrahmen: Ein globaler Überblick

Laut dem DJ Piper Technology’s Legal Edge-Blog müssen globale Unternehmen, die künstliche Intelligenz einsetzen, die internationalen KI-Vorschriften verstehen. Die Europäische Union und Australien...

Quebecs KI-Politik für Hochschulen und Cégeps

Die Regierung von Quebec hat eine neue KI-Richtlinie für Universitäten und CÉGEPs veröffentlicht, um die Nutzung von generativer KI im Hochschulbereich zu regeln. Die Richtlinien betonen die...

Deutschland setzt AI Act um: Neue Regelungen für KI-Compliance

Die bestehenden Regulierungsbehörden werden die Verantwortung für die Überwachung der Einhaltung des EU-AI-Gesetzes durch deutsche Unternehmen übernehmen, wobei der Bundesnetzagentur (BNetzA) eine...

Weltführer und KI-Pioniere fordern verbindliche globale AI-Schutzmaßnahmen bis 2026

Weltführer und KI-Pioniere fordern die UN auf, bis 2026 verbindliche globale Sicherheitsvorkehrungen für KI zu schaffen. Diese Initiative zielt darauf ab, die Risiken und Herausforderungen, die mit...

Künstliche Intelligenz im Zeitalter des Zero Trust: Governance neu denken

Im Jahr 2025 sehen wir, wie KI von einem bloßen Schlagwort zu einer praktischen Anwendung in verschiedenen Bereichen wird. Effektive Governance in einer Zero-Trust-Wirtschaft ist entscheidend, um...

Neue AI-Strategie: Technisches Sekretariat statt Regulator

Der bevorstehende Governance-Rahmen für künstliche Intelligenz könnte ein "technisches Sekretariat" umfassen, das die KI-Politik zwischen den Regierungsbehörden koordiniert. Dies stellt einen Wechsel...

KI-Sicherheit als Motor für Innovation in Schwellenländern

Die Diskussion über KI-Sicherheit und -Schutz wird oft als Hindernis für Innovationen wahrgenommen, insbesondere in Ländern der Global Majority. Die bevorstehende AI Impact Summit in Indien im Februar...

AI-Governance in ASEAN: Auf dem Weg zu einem einheitlichen Ansatz?

Wenn es um KI geht, legisliert Europa, während Amerika auf marktorientierte Innovation setzt und China zentral steuert. ASEAN hingegen setzt auf einen konsensorientierten Ansatz, der eine freiwillige...