Meta widersetzt sich dem EU-AI-Gesetz

Meta und der EU AI Act

Am 21. Juli 2025 gab Meta bekannt, dass das Unternehmen nicht beabsichtigt, den EU AI Act Code of Practice zu unterzeichnen. Diese Entscheidung folgt auf die Verabschiedung des EU AI Act im Vorjahr und die Einführung eines Codes für allgemeine KI-Modellanbieter in diesem Jahr.

Hintergrund des EU AI Act

Der EU AI Act zielt darauf ab, eine regulierte Umgebung für die Entwicklung und den Einsatz von Künstlicher Intelligenz in Europa zu schaffen. Unternehmen, die den Code unterzeichnen, verpflichten sich, eine bestimmte Transparenz über ihre Modelle aufrechtzuerhalten und diverse Urheberrechtsversprechen einzuhalten.

Zu den Verpflichtungen gehört unter anderem, dass Unternehmen nur rechtmäßig zugängliche urheberrechtlich geschützte Inhalte reproduzieren und extrahieren, die Rechte wahren und das Risiko der Erstellung urheberrechtsverletzender Ausgaben mindern.

Meta’s Bedenken

Meta äußerte, dass der Code rechtliche Unsicherheiten für Modellentwickler mit sich bringt und Maßnahmen enthält, die weit über den Rahmen des AI Act hinausgehen. Joel Kaplan, der globale Leiter für Angelegenheiten bei Meta, erklärte, dass „dieses Übergreifen die Entwicklung und Bereitstellung von Frontier-KI-Modellen in Europa hemmen und europäische Unternehmen behindern wird, die darauf aufbauen möchten.“

Reaktionen und Auswirkungen

Diese Entscheidung von Meta könnte weitreichende Auswirkungen auf die KI-Industrie in Europa haben. Während die EU versucht, einen standardisierten Rahmen für Künstliche Intelligenz zu schaffen, könnte der Widerstand großer Unternehmen wie Meta die Umsetzung der Vorschriften herausfordern.

Zusätzlich sieht sich Meta in diesem Jahr auch anderen Herausforderungen gegenüber, wie den Vorwürfen, eine umfangreiche Bibliothek von piratisierten E-Books für das Training ihrer Modelle verwendet zu haben.

Fazit

Die Entscheidung von Meta, den EU AI Act Code of Practice nicht zu unterzeichnen, wirft wichtige Fragen zur Regulierung und Entwicklung von Künstlicher Intelligenz in Europa auf. Es bleibt abzuwarten, wie die EU auf diesen Widerstand reagieren wird und welche Folgen dies für die Zukunft der KI-Technologie im europäischen Raum haben könnte.

More Insights

Verantwortliche KI für .NET-Entwickler: Ein praktischer Leitfaden

In der heutigen Ära der Künstlichen Intelligenz (KI) stehen wir vor der Herausforderung, AI-Systeme zu vertrauen. Der Artikel erläutert die sechs Grundsätze von Responsible AI, die von Microsoft...

KI im Risikomanagement und der Compliance im Bankenwesen

In der heutigen komplexen Bankenlandschaft ist KI nicht mehr nur ein Nice-to-Have, sondern wird zur neuen Risikomanagement-Engine, die zentral dafür ist, wie Finanzinstitute Bedrohungen identifizieren...

Kalifornien führt wegweisendes Gesetz zur AI-Transparenz ein

Die kalifornischen Gesetzgeber haben mit dem Gesetz zur Transparenz in der künstlichen Intelligenz einen wichtigen Schritt zur Gewährleistung von Verantwortung und Sicherheit in der Entwicklung von...

Herausforderungen bei der Nutzung von KI-Anwendungen im Recruiting

Die Verwendung von KI-Tools im Bewerbungsprozess ermöglicht es Unternehmen, ihre Abläufe zu optimieren und effizienter zu gestalten. Arbeitgeber müssen jedoch sicherstellen, dass die verwendeten...

Die vier Säulen verantwortungsvoller KI-Systeme

Da generative KI die Art und Weise, wie Unternehmen arbeiten, transformiert, ist es entscheidend, sicherzustellen, dass KI-Systeme mit angemessenen Sicherheitsvorkehrungen implementiert werden. Die...

Verantwortungsvolle KI: Inklusive Gestaltung für Schwellenmärkte

Dieser Artikel beschreibt, wie künstliche Intelligenz in aufstrebenden Märkten verantwortungsvoll gestaltet werden kann, um Inklusion durch Design zu fördern. Es werden drei wesentliche Säulen der...