Technologie-Riesen wehren sich gegen den EU AI Act

Technologie-Giganten wehren sich zu einem entscheidenden Zeitpunkt für den EU AI Act

Der EU AI Act gilt als das umfassendste Regelwerk für künstliche Intelligenz weltweit. Doch es handelt sich um eine Sammlung allgemeiner Prinzipien, die ohne detaillierte Umsetzungsrichtlinien bleibt.

Die eigentliche Arbeit beginnt mit dem Code of Practice für allgemeine KI-Modelle, der die Compliance-Anforderungen für KI-Unternehmen detailliert beschreibt.

Viele außerhalb Europas haben aufgehört, dem EU AI Act Beachtung zu schenken, da sie ihn für einen beschlossenen Fall halten. Diese Annahme könnte sich als schwerwiegender Fehler herausstellen, da der wahre Kampf gegenwärtig stattfindet.

Code of Practice und seine Bedeutung

Der Code of Practice wird drei Entwürfe durchlaufen, bevor er Ende April finalisiert wird. Diese freiwilligen Anforderungen treten im August in Kraft.

Allerdings war der dritte Entwurf ursprünglich für den 17. Februar angekündigt, wurde jedoch verzögert, und es gibt Hinweise darauf, dass er erst in einem Monat veröffentlicht wird.

Risto Uuk, Leiter der EU-Politik und Forschung am Future of Life Institute, erklärte, dass die Verzögerung des Entwurfs auf Druck aus der Technologiebranche zurückzuführen sei. Besonders knifflig sind die Regeln für KI-Modelle, die ein systemisches Risiko darstellen, und die auf 10 bis 15 der größten Modelle von Unternehmen wie OpenAI, Google, Meta und Anthropic zutreffen.

Widerstand der Technologieunternehmen

Große Technologieunternehmen stellen sich mutig gegen die EU-Vorschriften und glauben, dass sie die Unterstützung der Trump-Administration haben werden. Meta hat Lobbyisten in der EU entsandt, um den AI Act zu entschärfen.

Berichten zufolge hat Meta sich geweigert, den Code of Practice zu unterzeichnen, während Google erklärt hat, dass dieser eine „Richtung ist, die in die falsche Richtung führt“, zu einer Zeit, in der Europa wettbewerbsfähiger werden möchte.

Einige Streitpunkte betreffen die Nutzung von urheberrechtlich geschütztem Material für das Training von Modellen sowie die Notwendigkeit einer unabhängigen Drittpartei zur Risikobewertung ihrer Modelle.

Die Unternehmen haben sich beschwert, dass der Code über die Anforderungen des EU AI Act hinausgeht. Uuk stellte jedoch fest, dass viele dieser Praktiken bereits in Zusammenarbeit mit dem UK AI Safety Institute und anderen durchgeführt werden.

Folgen des AI-Pause-Briefes

Das Future of Life Institute ist bekannt für den im März 2023 verbreiteten offenen Brief, der eine sechsmonatige Moratorium auf fortgeschrittene KI-Modelle forderte, bis Sicherheitsprotokolle entwickelt sind. Zu den Unterzeichnern zählen Elon Musk und Steve Wozniak.

Hat der Brief gewirkt? Uuk erklärte, dass es keine Pause in der KI-Entwicklung gab und der schnelle Fortschritt der KI-Technologien unvermindert weitergeht.

Obwohl die Technologieunternehmen weiterhin entwickeln, hat die regulatorische Aktion weltweit an Schwung gewonnen. Der EU AI Act wurde als das erste umfassende KI-Regelwerk der Welt im März 2024 verabschiedet.

Globale Entwicklungen und Ausblick

Südkorea hat im Dezember das Basic AI Act verabschiedet, das dem Rahmen der EU ähnelt. China führt KI-Governance-Richtlinien ein, während Brasilien an einem eigenen AI Act arbeitet.

Die USA bleiben fragmentiert, da die Bundesstaaten eigene Gesetze einführen.

Die Bedenken über eine mögliche Schwächung der Sicherheitsbestimmungen durch den Widerstand der Technologieunternehmen nehmen zu. Es bleibt abzuwarten, wie die neue Europäische Kommission unter dem Druck der Industrie reagieren wird.

More Insights

USA bricht mit UN über globale KI-Regulierung

Die US-Beamten lehnten einen Vorschlag zur Schaffung eines globalen KI-Governance-Rahmens bei der dieswöchigen Generalversammlung der Vereinten Nationen ab, obwohl der Plan von vielen Ländern...

Agentic AI: Risiken und Governance für Unternehmen

In der schnelllebigen Welt der künstlichen Intelligenz wenden sich Unternehmen zunehmend agentischen KI-Systemen zu, die Entscheidungen treffen und Aufgaben autonom ausführen können. Diese...

Die wachsende Rolle von KI als Meinungswächter und die alarmierenden versteckten Vorurteile

Die wachsende Rolle von KI als Meinungsgatekeeper wirft Bedenken hinsichtlich versteckter Vorurteile auf. Eine neue Studie warnt davor, dass subtile Vorurteile in KI-Systemen den öffentlichen Diskurs...

Regulierungsdruck auf KI: Eine neue Ära der Verantwortung

Die aufkommende Welt der Künstlichen Intelligenz (KI) befindet sich an einem kritischen Punkt, da eine Welle von Regulierungsmaßnahmen und rechtlichen Präzedenzfällen einen globalen Wandel hin zu mehr...

Die Auswahl der richtigen KI-Governance-Tools

Mit der beschleunigten Einführung von generativer KI steigen auch die Risiken. Um diese Herausforderungen zu bewältigen, haben wir mit Tokio Marine Holdings und Tokio Marine & Nichido Systems...

UN fördert globale Standards für sichere KI

Die Vereinten Nationen setzen sich dafür ein, einen globalen Konsens über „sichere, geschützte und vertrauenswürdige“ KI zu schaffen, indem sie Richtlinien und technische Standards fördern. Ein neuer...

Die Algorithmenregierung: Wie Datenwissenschaftler die Politik gestalten

In einer fesselnden Diskussion in Singapur sprachen Thomas Roehm von SAS und Frankie Phua von der United Overseas Bank über die Herausforderungen der KI-Regulierung. Ihr Gespräch beleuchtete das...

Vorbereitung von KMUs auf die KI-Regulierungen der EU

Klein- und Mittelunternehmen (KMU) stehen vor erheblichen Herausforderungen durch die KI-Verordnung der EU, insbesondere im Hinblick auf die Einhaltung strenger Vorschriften und potenziell hohe...