Besorgnis über die Einhaltung des EU KI-Gesetzes durch GPT-5

Die EU AI Act Newsletter #86: Bedenken hinsichtlich der Compliance von GPT-5

Willkommen zum EU AI Act Newsletter, einem kurzen, zweiwöchentlichen Newsletter, der Ihnen aktuelle Entwicklungen und Analysen des EU-Gesetzes über künstliche Intelligenz bietet.

Gesetzgebungsprozess

Konsultation der Kommission zu transparenten KI-Systemen

Die Europäische Kommission hat eine Konsultation initiiert, um Richtlinien und einen Verhaltenskodex für transparente KI-Systeme zu entwickeln. Dies konzentriert sich insbesondere darauf, Anbieter und Betreiber generativer KI-Systeme zu unterstützen, um AI-generierte oder manipulierte Inhalte zu erkennen und zu kennzeichnen. Laut dem AI Act müssen Betreiber und Anbieter von generativer KI die Nutzer darüber informieren, wenn sie mit KI-Systemen interagieren, einschließlich der Exposition gegenüber Emotionserkennung und biometrischen Kategorisierungssystemen oder wenn sie auf KI-generierte Inhalte stoßen. Die Konsultationsfrist endet am 2. Oktober 2025 und gleichzeitig wird ein Aufruf zur Interessenbekundung für Stakeholder veröffentlicht, die an der Erstellung des Verhaltenskodex teilnehmen möchten. Diese Transparenzverpflichtungen werden ab dem 2. August 2026 wirksam.

Deutsche Datenschutzbehörden sind verärgert über die Umsetzung

Laut Euractiv haben die deutschen Datenschutzbehörden die Entwurfsumsetzung des AI Acts stark kritisiert, da sie ihre Befugnisse unangemessen einschränkt. Der AI Act verwendet einen risikobasierten Regulierungsrahmen, der von benannten nationalen Behörden überwacht wird. Die Hauptsorge, die von 17 deutschen Landesdatenschutzbehörden geäußert wurde, betrifft die Aufsicht über KI-Systeme in sensiblen Bereichen wie Strafverfolgung, Grenzmanagement, Justiz und Demokratie. Das Entwurfsgesetz weist die Aufsichtsbefugnisse der Telekommunikationsbehörde (BNetzA) zu, was die Datenschutzbehörden als Widerspruch zu den Bestimmungen des AI Acts betrachten, die vorsehen, dass die Datenschutzbehörden die Aufsicht über Hochrisiko-KI-Anwendungen in diesen sensiblen Bereichen haben sollen. Meike Kamp, Leiterin der Berliner Datenschutzbehörde, warnte, dass die Delegierung dieser Verantwortlichkeiten an die BNetzA zu einer „massiven Schwächung der Grundrechte“ führen würde und kritisierte die offensichtliche Missachtung der Bedeutung dieser Rechte im Entwurfsgesetz.

Analysen

ChatGPT könnte die EU-Vorschriften noch nicht einhalten

Es gibt Bedenken hinsichtlich der Einhaltung der AI Act-Anforderungen durch OpenAI für das neu veröffentlichte Modell GPT-5, insbesondere in Bezug auf die Verpflichtungen zur Offenlegung von Trainingsdaten. Der AI Act verlangt von Entwicklern von allgemeinen KI-Systemen, Zusammenfassungen ihrer Trainingsdaten zu veröffentlichen, für die die AI Office im Juli eine Vorlage bereitgestellt hat. Modelle, die vor dem 2. August 2025 veröffentlicht wurden, haben bis 2027 Zeit, um compliant zu sein, während neuere Modelle sofort den Anforderungen entsprechen müssen. GPT-5, das am 7. August 2025 veröffentlicht wurde, scheint die erforderliche Zusammenfassung der Trainingsdaten und die Urheberrechtspolitik zu vermissen, obwohl OpenAI ein Unterzeichner des EU-Verhaltenskodex ist. Laut Petar Tsankov, CEO des Compliance-Unternehmens LatticeFlow, qualifiziert sich das Modell wahrscheinlich für die Klassifizierung als „systemisches Risiko“, was Modellbewertungen und das Management potenzieller systemischer Risiken erforderlich macht. Die Europäische Kommission deutet an, dass die Anforderungen an die Compliance von GPT-5 davon abhängen, ob es unter dem Gesetz als neues Modell angesehen wird, was das AI Office derzeit bewertet. Die Durchsetzung wird jedoch erst im August 2026 beginnen, was OpenAI Zeit gibt, um etwaige Compliance-Probleme anzugehen.

Das EU AI Office hat mit Einstellungsproblemen zu kämpfen

Das AI Office, das eine entscheidende Rolle bei der Umsetzung des AI Acts spielt, sieht sich erheblichen Personalproblemen gegenüber. Es hat einige namhafte Talente angezogen und beschäftigt derzeit über 125 Mitarbeiter, mit dem Ziel, bis Ende des Jahres 35 weitere einzustellen. Dennoch bleiben wichtige Führungspositionen unbesetzt. Das Büro ist für über 100 Aufgaben verantwortlich, darunter die Durchsetzung des Verhaltenskodex und die Verhängung erheblicher Geldstrafen bei Nichteinhaltung. Die Schwierigkeiten bei der Rekrutierung sind auf unattraktive Gehälter, langsame Einstellungsverfahren und den Druck zurückzuführen, eine Vertretung der Mitgliedstaaten sicherzustellen. Aktuelle Stellenangebote bieten zwischen 55.000 und 120.000 USD, was trotz steuerlicher Vorteile weit hinter den Vergütungen des privaten Sektors zurückbleibt, wo technische Mitarbeiter Millionen verdienen können. Der Personalmangel ist besonders dringend geworden, seit die allgemeinen Vorschriften für KI am 2. August in Kraft traten. MEP Axel Voss schlägt vor, dass allein die Compliance- und Sicherheitseinheiten 200 Mitarbeiter benötigen, was erheblich mehr ist als derzeit vorgeschlagen.

Die EU kämpft weiterhin mit den Komplexitäten des KI-Urheberrechts

Die Umsetzung des AI Acts der EU, einschließlich seines Verhaltenskodex (CoP), legt anhaltende Spannungen zwischen dem Urheberrecht und den Bedürfnissen der KI-Entwicklung offen. Bertin Martens, Senior Fellow bei Brugel, argumentiert, dass während Transparenz- und Sicherheitsanforderungen einfach sind, Urheberrechtsfragen erhebliche Herausforderungen darstellen. Urheberrechtsverpflichtungen reduzieren die verfügbaren Daten und erhöhen durch Lizenzanforderungen die Kosten für Trainingsdaten. Ein Verbot der Reproduktion urheberrechtlich geschützter Inhalte in Modellausgaben erscheint sinnvoll, ebenso wie das Training mit rechtlich zugänglichen Daten. Die Verwaltung der Datensatztransparenz und der Umgang mit der zunehmenden Anzahl von Urheberrechtsausnahmen erweist sich jedoch als problematisch. EU-Regulierungsbehörden stehen vor einem Dilemma: Strikte Urheberrechtsdurchsetzung könnte die Wettbewerbsfähigkeit der EU in der KI-Entwicklung beeinträchtigen, während sofortige rechtliche Reformen unpraktisch sind. Die subtile Abschwächung der Urheberrechtsdurchsetzung im CoP hat die meisten großen KI-Entwickler als Unterzeichner angezogen, mit Ausnahme von Meta und xAI. Eine zufriedenstellendere Politik würde eine Debatte über die Rolle der KI bei der Verbesserung von Lernen, Forschung und Innovation erfordern, da der aktuelle Urheberrechtsrahmen – dominiert von Medienindustrien, die weniger als 4 % des BIP ausmachen – Fortschritte behindern könnte.

Europäische Industrie beteiligt sich nicht an der Entwicklung von Standards

Ein Schlüsselakteur in der Entwicklung von EU-KI-Standards hat die mangelnde Teilnahme der europäischen Industrie an der Schaffung technischer Standards, die für die Umsetzung des AI Acts entscheidend sind, kritisiert. Piercosma Bisconti, der die Ausarbeitung eines „Vertrauensrahmens für KI“ für CEN und CENELEC leitet, hat öffentlich Unternehmen für ihre Abwesenheit im Standardisierungsprozess kritisiert. Diese Kritik richtete sich insbesondere an Unterzeichner der „AI Champions Initiative“, zu denen große Unternehmen wie Airbus, Siemens, Spotify und SAP gehören. Der AI Act erfordert detaillierte technische Standards, um seine umfassenden Prinzipien in konkrete Richtlinien für KI-Entwickler umzusetzen. Langsame Fortschritte bei der Entwicklung von Standards haben die Industrie und die EU-Regierungen dazu veranlasst, um Implementierungsverzögerungen zu bitten. Bisconti, der auch Mitbegründer des italienischen KI-Unternehmens Dexai ist, kritisierte besonders Unternehmen, die gefordert haben, „die Uhr anzuhalten“ für den AI Act, während sie gleichzeitig versäumen, sich am Entwicklungsprozess der Standards zu beteiligen und bemerkte, dass „die EU-Industrie kaum am Tisch sitzt“.

More Insights

Verantwortliche KI für .NET-Entwickler: Ein praktischer Leitfaden

In der heutigen Ära der Künstlichen Intelligenz (KI) stehen wir vor der Herausforderung, AI-Systeme zu vertrauen. Der Artikel erläutert die sechs Grundsätze von Responsible AI, die von Microsoft...

KI im Risikomanagement und der Compliance im Bankenwesen

In der heutigen komplexen Bankenlandschaft ist KI nicht mehr nur ein Nice-to-Have, sondern wird zur neuen Risikomanagement-Engine, die zentral dafür ist, wie Finanzinstitute Bedrohungen identifizieren...

Kalifornien führt wegweisendes Gesetz zur AI-Transparenz ein

Die kalifornischen Gesetzgeber haben mit dem Gesetz zur Transparenz in der künstlichen Intelligenz einen wichtigen Schritt zur Gewährleistung von Verantwortung und Sicherheit in der Entwicklung von...

Herausforderungen bei der Nutzung von KI-Anwendungen im Recruiting

Die Verwendung von KI-Tools im Bewerbungsprozess ermöglicht es Unternehmen, ihre Abläufe zu optimieren und effizienter zu gestalten. Arbeitgeber müssen jedoch sicherstellen, dass die verwendeten...

Die vier Säulen verantwortungsvoller KI-Systeme

Da generative KI die Art und Weise, wie Unternehmen arbeiten, transformiert, ist es entscheidend, sicherzustellen, dass KI-Systeme mit angemessenen Sicherheitsvorkehrungen implementiert werden. Die...

Verantwortungsvolle KI: Inklusive Gestaltung für Schwellenmärkte

Dieser Artikel beschreibt, wie künstliche Intelligenz in aufstrebenden Märkten verantwortungsvoll gestaltet werden kann, um Inklusion durch Design zu fördern. Es werden drei wesentliche Säulen der...