Technologie-Riesen wehren sich gegen den EU AI Act

Technologie-Giganten wehren sich zu einem entscheidenden Zeitpunkt für den EU AI Act

Der EU AI Act gilt als das umfassendste Regelwerk für künstliche Intelligenz weltweit. Doch es handelt sich um eine Sammlung allgemeiner Prinzipien, die ohne detaillierte Umsetzungsrichtlinien bleibt.

Die eigentliche Arbeit beginnt mit dem Code of Practice für allgemeine KI-Modelle, der die Compliance-Anforderungen für KI-Unternehmen detailliert beschreibt.

Viele außerhalb Europas haben aufgehört, dem EU AI Act Beachtung zu schenken, da sie ihn für einen beschlossenen Fall halten. Diese Annahme könnte sich als schwerwiegender Fehler herausstellen, da der wahre Kampf gegenwärtig stattfindet.

Code of Practice und seine Bedeutung

Der Code of Practice wird drei Entwürfe durchlaufen, bevor er Ende April finalisiert wird. Diese freiwilligen Anforderungen treten im August in Kraft.

Allerdings war der dritte Entwurf ursprünglich für den 17. Februar angekündigt, wurde jedoch verzögert, und es gibt Hinweise darauf, dass er erst in einem Monat veröffentlicht wird.

Risto Uuk, Leiter der EU-Politik und Forschung am Future of Life Institute, erklärte, dass die Verzögerung des Entwurfs auf Druck aus der Technologiebranche zurückzuführen sei. Besonders knifflig sind die Regeln für KI-Modelle, die ein systemisches Risiko darstellen, und die auf 10 bis 15 der größten Modelle von Unternehmen wie OpenAI, Google, Meta und Anthropic zutreffen.

Widerstand der Technologieunternehmen

Große Technologieunternehmen stellen sich mutig gegen die EU-Vorschriften und glauben, dass sie die Unterstützung der Trump-Administration haben werden. Meta hat Lobbyisten in der EU entsandt, um den AI Act zu entschärfen.

Berichten zufolge hat Meta sich geweigert, den Code of Practice zu unterzeichnen, während Google erklärt hat, dass dieser eine „Richtung ist, die in die falsche Richtung führt“, zu einer Zeit, in der Europa wettbewerbsfähiger werden möchte.

Einige Streitpunkte betreffen die Nutzung von urheberrechtlich geschütztem Material für das Training von Modellen sowie die Notwendigkeit einer unabhängigen Drittpartei zur Risikobewertung ihrer Modelle.

Die Unternehmen haben sich beschwert, dass der Code über die Anforderungen des EU AI Act hinausgeht. Uuk stellte jedoch fest, dass viele dieser Praktiken bereits in Zusammenarbeit mit dem UK AI Safety Institute und anderen durchgeführt werden.

Folgen des AI-Pause-Briefes

Das Future of Life Institute ist bekannt für den im März 2023 verbreiteten offenen Brief, der eine sechsmonatige Moratorium auf fortgeschrittene KI-Modelle forderte, bis Sicherheitsprotokolle entwickelt sind. Zu den Unterzeichnern zählen Elon Musk und Steve Wozniak.

Hat der Brief gewirkt? Uuk erklärte, dass es keine Pause in der KI-Entwicklung gab und der schnelle Fortschritt der KI-Technologien unvermindert weitergeht.

Obwohl die Technologieunternehmen weiterhin entwickeln, hat die regulatorische Aktion weltweit an Schwung gewonnen. Der EU AI Act wurde als das erste umfassende KI-Regelwerk der Welt im März 2024 verabschiedet.

Globale Entwicklungen und Ausblick

Südkorea hat im Dezember das Basic AI Act verabschiedet, das dem Rahmen der EU ähnelt. China führt KI-Governance-Richtlinien ein, während Brasilien an einem eigenen AI Act arbeitet.

Die USA bleiben fragmentiert, da die Bundesstaaten eigene Gesetze einführen.

Die Bedenken über eine mögliche Schwächung der Sicherheitsbestimmungen durch den Widerstand der Technologieunternehmen nehmen zu. Es bleibt abzuwarten, wie die neue Europäische Kommission unter dem Druck der Industrie reagieren wird.

More Insights

Verantwortungsvolle KI: Ein unverzichtbares Gebot für Unternehmen

Unternehmen sind sich der Notwendigkeit von verantwortungsvollem KI-Betrieb bewusst, behandeln ihn jedoch oft als nachträglichen Gedanken oder separates Projekt. Verantwortliche KI ist eine vordere...

Neues KI-Governance-Modell gegen Schatten-KI

Künstliche Intelligenz (KI) verbreitet sich schnell in den Arbeitsplatz und verändert, wie alltägliche Aufgaben erledigt werden. Unternehmen müssen ihre Ansätze zur KI-Politik überdenken, um mit der...

EU plant Aufschub für AI-Gesetzgebung

Die EU plant, die Anforderungen für risikobehaftete KI-Systeme im KI-Gesetz bis Ende 2027 zu verschieben, um Unternehmen mehr Zeit zu geben, sich anzupassen. Kritiker befürchten, dass diese...

Weißes Haus lehnt GAIN AI-Gesetz ab: Nvidia im Fokus

Das Weiße Haus hat sich gegen den GAIN AI Act ausgesprochen, während es um die Exportbeschränkungen für Nvidia-AI-Chips nach China geht. Die Diskussion spiegelt die politischen Spannungen wider, die...

Ethische KI als Beschleuniger für Innovation

Unternehmen stehen heute unter Druck, mit künstlicher Intelligenz zu innovieren, oft jedoch ohne die notwendigen Sicherheitsvorkehrungen. Indem sie Datenschutz und Ethik in den Entwicklungsprozess...

KI im Recruiting: Verborgene Risiken für Arbeitgeber

Künstliche Intelligenz verändert die Art und Weise, wie Arbeitgeber Talente rekrutieren und bewerten. Während diese Tools Effizienz und Kosteneinsparungen versprechen, bringen sie auch erhebliche...

KI im australischen Kabinett: Chancen und Sicherheitsbedenken

Die australische Regierung könnte in Betracht ziehen, KI-Programme zur Erstellung sensibler Kabinettsanträge zu nutzen, trotz Bedenken hinsichtlich Sicherheitsrisiken und Datenverletzungen...