EU-Vorschriften für KI: Befindet sich OpenAI im Einklang mit dem AI Act?

ChatGPT und die EU-Vorschriften für KI

Es ist unklar, ob OpenAI die Anforderungen zur Offenlegung der Trainingsdaten gemäß dem AI Act für GPT-5, das neueste Modell des beliebten Chatbots, erfüllt. Dennoch wird die EU die Regelungen erst im kommenden Jahr durchsetzen.

Die Anforderungen des AI Act

Das EU AI Gesetz legt eine Reihe von Anforderungen für Entwickler von allgemeinen KI-Modellen (GPAIs) fest, wie beispielsweise OpenAI’s GPT-5. Dazu gehört die Verpflichtung, Zusammenfassungen der verwendeten Trainingsdaten zu veröffentlichen.

Im Juli veröffentlichte das AI Office – die EU-Behörde, die die Entwickler von GPAIs überwacht – eine Vorlage, die die Informationen festlegt, die bereitgestellt werden müssen. Das Compliance-Tool erfordert eine Zusammenfassung der „relevantesten Domainnamen“, die zum Sammeln von Trainingsdaten verwendet wurden, sowie die Namen öffentlich verfügbarer Datensätze.

Fristen und Compliance

Modelle, die vor dem 2. August 2025 veröffentlicht wurden, haben bis 2027 Zeit, um die Offenlegungen zu erfüllen. Modelle, die nach diesem Datum veröffentlicht werden, müssen jedoch sofort compliant sein.

Diese Daten sind relevant, da OpenAI GPT-5 am 7. August 2025, fünf Tage nach der EU-Frist, veröffentlicht hat. Bisher scheint OpenAI jedoch keine erforderliche Zusammenfassung der Trainingsdaten für GPT-5 bereitgestellt zu haben.

Die Recherchen von Euractiv konnten keine entsprechenden Informationen auf der Website von OpenAI finden. Auch auf wiederholte Anfragen zu den Compliance-Anforderungen des Modells reagierte OpenAI nicht.

Fehlende Veröffentlichungen und systemische Risiken

„Bis heute hat OpenAI keine Zusammenfassung der Trainingsdaten oder eine Urheberrechtspolitik für GPT-5 veröffentlicht“, erklärte Petar Tsankov, CEO des KI-Compliance-Unternehmens LatticeFlow.

Zusätzlich wurde festgestellt, dass GPT-5 „fast sicher“ die Schwelle überschreitet, um als systemisches Risiko-Modell gemäß dem AI Act betrachtet zu werden. Dies würde bedeuten, dass OpenAI „state of the art“-Bewertungen des Modells durchführen und mögliche systemische Risiken behandeln muss. „Wiederum wurden keine öffentlichen Beweise für diese Schritte geteilt“, bemerkte Tsankov.

Es ist jedoch anzumerken, dass OpenAI rechtlich nicht verpflichtet ist, eine öffentliche Offenlegung der systemischen Risiko-Bewertungen vorzunehmen, die es möglicherweise durchführen muss.

Europäische Kommission und Klassifikation von GPT-5

Auf die Frage, ob GPT-5 den Anforderungen zur Offenlegung von Trainingsdaten im Rahmen des AI Act entspricht, antwortete die Europäische Kommission, dass dies davon abhängt, ob die Technologie gemäß den Regeln des Gesetzes als neues Modell betrachtet wird.

Die Kommission fügte hinzu, dass das AI Office noch analysiert, ob dies der Fall ist, basierend auf verschiedenen nicht-öffentlichen technischen Details.

OpenAI hat GPT-5 als neues Modell vermarktet. Der Unternehmensleiter Sam Altman verglich es sogar mit dem Manhattan-Projekt – einem Verweis auf das geheime US-Militärprogramm zur Forschung und Entwicklung der Atombombe während des Zweiten Weltkriegs.

Fazit

Sollte das AI Office letztendlich entscheiden, dass GPT-5 tatsächlich ein neues Modell ist und die Regeln des AI Act bereits auf dieses Modell Anwendung finden, könnte OpenAI dennoch relativ gelassen bleiben, da die Durchsetzung erst im August 2026 beginnt.

„Denken Sie an ein Geschwindigkeitslimit-Schild, das bereits aufgestellt ist, aber noch nicht durchgesetzt wird“, erklärte Tsankov. „Wenn Sie das Limit überschreiten, verstoßen Sie technisch gesehen – aber Sie werden erst bestraft, wenn die Durchsetzung beginnt.“

More Insights

Verantwortliche KI für .NET-Entwickler: Ein praktischer Leitfaden

In der heutigen Ära der Künstlichen Intelligenz (KI) stehen wir vor der Herausforderung, AI-Systeme zu vertrauen. Der Artikel erläutert die sechs Grundsätze von Responsible AI, die von Microsoft...

KI im Risikomanagement und der Compliance im Bankenwesen

In der heutigen komplexen Bankenlandschaft ist KI nicht mehr nur ein Nice-to-Have, sondern wird zur neuen Risikomanagement-Engine, die zentral dafür ist, wie Finanzinstitute Bedrohungen identifizieren...

Kalifornien führt wegweisendes Gesetz zur AI-Transparenz ein

Die kalifornischen Gesetzgeber haben mit dem Gesetz zur Transparenz in der künstlichen Intelligenz einen wichtigen Schritt zur Gewährleistung von Verantwortung und Sicherheit in der Entwicklung von...

Herausforderungen bei der Nutzung von KI-Anwendungen im Recruiting

Die Verwendung von KI-Tools im Bewerbungsprozess ermöglicht es Unternehmen, ihre Abläufe zu optimieren und effizienter zu gestalten. Arbeitgeber müssen jedoch sicherstellen, dass die verwendeten...

Die vier Säulen verantwortungsvoller KI-Systeme

Da generative KI die Art und Weise, wie Unternehmen arbeiten, transformiert, ist es entscheidend, sicherzustellen, dass KI-Systeme mit angemessenen Sicherheitsvorkehrungen implementiert werden. Die...

Verantwortungsvolle KI: Inklusive Gestaltung für Schwellenmärkte

Dieser Artikel beschreibt, wie künstliche Intelligenz in aufstrebenden Märkten verantwortungsvoll gestaltet werden kann, um Inklusion durch Design zu fördern. Es werden drei wesentliche Säulen der...