Technologie-Giganten wehren sich zu einem entscheidenden Zeitpunkt für den EU AI Act
Der EU AI Act gilt als das umfassendste Regelwerk für künstliche Intelligenz weltweit. Doch es handelt sich um eine Sammlung allgemeiner Prinzipien, die ohne detaillierte Umsetzungsrichtlinien bleibt.
Die eigentliche Arbeit beginnt mit dem Code of Practice für allgemeine KI-Modelle, der die Compliance-Anforderungen für KI-Unternehmen detailliert beschreibt.
Viele außerhalb Europas haben aufgehört, dem EU AI Act Beachtung zu schenken, da sie ihn für einen beschlossenen Fall halten. Diese Annahme könnte sich als schwerwiegender Fehler herausstellen, da der wahre Kampf gegenwärtig stattfindet.
Code of Practice und seine Bedeutung
Der Code of Practice wird drei Entwürfe durchlaufen, bevor er Ende April finalisiert wird. Diese freiwilligen Anforderungen treten im August in Kraft.
Allerdings war der dritte Entwurf ursprünglich für den 17. Februar angekündigt, wurde jedoch verzögert, und es gibt Hinweise darauf, dass er erst in einem Monat veröffentlicht wird.
Risto Uuk, Leiter der EU-Politik und Forschung am Future of Life Institute, erklärte, dass die Verzögerung des Entwurfs auf Druck aus der Technologiebranche zurückzuführen sei. Besonders knifflig sind die Regeln für KI-Modelle, die ein systemisches Risiko darstellen, und die auf 10 bis 15 der größten Modelle von Unternehmen wie OpenAI, Google, Meta und Anthropic zutreffen.
Widerstand der Technologieunternehmen
Große Technologieunternehmen stellen sich mutig gegen die EU-Vorschriften und glauben, dass sie die Unterstützung der Trump-Administration haben werden. Meta hat Lobbyisten in der EU entsandt, um den AI Act zu entschärfen.
Berichten zufolge hat Meta sich geweigert, den Code of Practice zu unterzeichnen, während Google erklärt hat, dass dieser eine “Richtung ist, die in die falsche Richtung führt”, zu einer Zeit, in der Europa wettbewerbsfähiger werden möchte.
Einige Streitpunkte betreffen die Nutzung von urheberrechtlich geschütztem Material für das Training von Modellen sowie die Notwendigkeit einer unabhängigen Drittpartei zur Risikobewertung ihrer Modelle.
Die Unternehmen haben sich beschwert, dass der Code über die Anforderungen des EU AI Act hinausgeht. Uuk stellte jedoch fest, dass viele dieser Praktiken bereits in Zusammenarbeit mit dem UK AI Safety Institute und anderen durchgeführt werden.
Folgen des AI-Pause-Briefes
Das Future of Life Institute ist bekannt für den im März 2023 verbreiteten offenen Brief, der eine sechsmonatige Moratorium auf fortgeschrittene KI-Modelle forderte, bis Sicherheitsprotokolle entwickelt sind. Zu den Unterzeichnern zählen Elon Musk und Steve Wozniak.
Hat der Brief gewirkt? Uuk erklärte, dass es keine Pause in der KI-Entwicklung gab und der schnelle Fortschritt der KI-Technologien unvermindert weitergeht.
Obwohl die Technologieunternehmen weiterhin entwickeln, hat die regulatorische Aktion weltweit an Schwung gewonnen. Der EU AI Act wurde als das erste umfassende KI-Regelwerk der Welt im März 2024 verabschiedet.
Globale Entwicklungen und Ausblick
Südkorea hat im Dezember das Basic AI Act verabschiedet, das dem Rahmen der EU ähnelt. China führt KI-Governance-Richtlinien ein, während Brasilien an einem eigenen AI Act arbeitet.
Die USA bleiben fragmentiert, da die Bundesstaaten eigene Gesetze einführen.
Die Bedenken über eine mögliche Schwächung der Sicherheitsbestimmungen durch den Widerstand der Technologieunternehmen nehmen zu. Es bleibt abzuwarten, wie die neue Europäische Kommission unter dem Druck der Industrie reagieren wird.