EU klärt den Anwendungsbereich des KI-Gesetzes für generative KI

EU bewegt sich zur Klarstellung des Anwendungsbereichs des KI-Gesetzes für generative KI

Die EU-Politiker ziehen in Betracht, Schwellenwerte für die Rechenressourcen festzulegen, um Unternehmen dabei zu helfen, zu bestimmen, ob und in welchem Umfang die KI-Modelle, die sie trainieren oder modifizieren, den regulatorischen Anforderungen des EU-KI-Gesetzes unterliegen.

Vorgeschlagene Schwellenwerte

Die vorgeschlagenen Schwellenwerte wurden von dem EU-KI-Büro in einem Arbeitsdokument dargelegt, das die derzeitigen, aber nicht endgültigen oder verbindlichen Überlegungen zu den Regeln für „generische KI (GPAI)“ -Modelle unter dem KI-Gesetz umreißt. Die Vorschläge sind Teil einer Umfrage, die die Europäische Kommission eröffnet hat, um die Meinungen der Industrie und anderer Stakeholder einzuholen. Die Rückmeldungen sollen dazu beitragen, neue Richtlinien zu entwickeln, die den Anwendungsbereich des GPAI-Regimes klären, das am 2. August 2025 in Kraft treten soll.

Die Regelungen für GPAI-Modelle unterscheiden sich von den anderen Anforderungen des Gesetzes, die für KI-Systeme gelten – KI-Modelle werden für die Zwecke des Gesetzes als Bestandteile von KI-Systemen betrachtet.

Die Bedeutung von Leitlinien

Dr. Nils Rauer, ein Experte für Technologie-Recht und KI-Regulierung, äußerte sich dazu, dass die betroffenen Akteure zu Beginn des neuen regulatorischen Regimes einige erste Anhaltspunkte benötigen, um zu verstehen, was der Gesetzgeber mit der gewählten und verabschiedeten Sprache meint. Die Bemühungen der Kommission sowie des KI-Büros werden daher allgemein begrüßt, auch wenn die Natur der Richtlinien nicht verbindlich ist.

Pflichten der Anbieter von GPAI-Modellen

Gemäß dem KI-Gesetz sehen die Anbieter von GPAI-Modellen eine Reihe von Aufzeichnungen und Offenlegungspflichten vor, darunter die Dokumentation des Trainings- und Testprozesses des Modells, das Teilen von Informationen zur Unterstützung der Anbieter von KI-Systemen, die ihre Systeme mit dem Modell integrieren, und die Erstellung einer europarechtskonformen Urheberrechtspolitik sowie die Veröffentlichung einer ausreichend detaillierten Zusammenfassung über die Inhalte, die für das Training des Modells verwendet wurden.

GPAI-Modelle, die ein systemisches Risiko darstellen, unterliegen weiteren Verpflichtungen, darunter die Bewertung, Prüfung und Risikominderung des Modells, sowie Anforderungen an die Vorfallberichterstattung und Cybersicherheit.

Code of Practice für GPAI

Die Kommission befindet sich in den letzten Zügen der Entwicklung eines GPAI-Code of Practice, um die verschiedenen Anforderungen, die GPAI-Anbieter gemäß dem KI-Gesetz erfüllen müssen, detaillierter darzulegen. Es wurde allgemein erwartet, dass der endgültige Code am 2. Mai veröffentlicht wird. Ein Bericht von Politico deutet jedoch auf eine Verzögerung hin. Die Vorschläge im Arbeitsdokument des KI-Büros legen nahe, dass die Veröffentlichung des Codes stattdessen mit den endgültigen Richtlinien „im Mai oder Juni 2025“ zusammenfallen könnte.

Die Einhaltung des Codes wird für GPAI-Anbieter zwar nicht obligatorisch sein, jedoch wird erwartet, dass sich die Unterzeichner des Codes in ihrer Einhaltung des KI-Gesetzes transparent zeigen und dadurch von erhöhtem Vertrauen seitens der Kommission und anderer Stakeholder profitieren.

Schwellenwerte für GPAI-Modelle

Generische KI wird im KI-Gesetz als KI-Modell definiert, das eine bedeutende Allgemeinheit aufweist und fähig ist, ein breites Spektrum unterschiedlicher Aufgaben kompetent auszuführen, unabhängig davon, wie das Modell auf den Markt gebracht wird. KI-Modelle, die für Forschungs-, Entwicklungs- oder Prototyping-Aktivitäten verwendet werden, fallen nicht unter die Definition.

Wenn die Vorschläge des KI-Büros in ihrer aktuellen Form angenommen werden, würden KI-Modelle, die Texte oder Bilder generieren, als GPAI-Modelle angesehen werden, wenn ihre Training-Compute mehr als 1022 Floating Point Operations (FLOP) beträgt. FLOP ist ein Maß für die Rechenleistung.

Abschließende Überlegungen

Die Diskrepanz zwischen den verschiedenen Modellen, die nicht in den Anwendungsbereich fallen, GPAI-Modelle und GPAI-Modelle mit systemischem Risiko unter dem EU-KI-Gesetz wirft Fragen auf. Insbesondere stellt sich die Frage, wie zukünftige Entwicklungen wie der Aufstieg von KI-Agenten und agentischer KI mit dem Konzept von GPAI und dem Anwendungsbereich seiner rechtlichen Definition interagieren werden.

Zusammenfassend lässt sich sagen, dass die EU auf einem Weg ist, die regulatorischen Anforderungen an generative KI zu klären, um sowohl die Innovation zu fördern als auch angemessene Sicherheitsvorkehrungen zu gewährleisten.

More Insights

EU AI-Gesetz und Australiens Sicherheitsrahmen: Ein globaler Überblick

Laut dem DJ Piper Technology’s Legal Edge-Blog müssen globale Unternehmen, die künstliche Intelligenz einsetzen, die internationalen KI-Vorschriften verstehen. Die Europäische Union und Australien...

Quebecs KI-Politik für Hochschulen und Cégeps

Die Regierung von Quebec hat eine neue KI-Richtlinie für Universitäten und CÉGEPs veröffentlicht, um die Nutzung von generativer KI im Hochschulbereich zu regeln. Die Richtlinien betonen die...

Deutschland setzt AI Act um: Neue Regelungen für KI-Compliance

Die bestehenden Regulierungsbehörden werden die Verantwortung für die Überwachung der Einhaltung des EU-AI-Gesetzes durch deutsche Unternehmen übernehmen, wobei der Bundesnetzagentur (BNetzA) eine...

Weltführer und KI-Pioniere fordern verbindliche globale AI-Schutzmaßnahmen bis 2026

Weltführer und KI-Pioniere fordern die UN auf, bis 2026 verbindliche globale Sicherheitsvorkehrungen für KI zu schaffen. Diese Initiative zielt darauf ab, die Risiken und Herausforderungen, die mit...

Künstliche Intelligenz im Zeitalter des Zero Trust: Governance neu denken

Im Jahr 2025 sehen wir, wie KI von einem bloßen Schlagwort zu einer praktischen Anwendung in verschiedenen Bereichen wird. Effektive Governance in einer Zero-Trust-Wirtschaft ist entscheidend, um...

Neue AI-Strategie: Technisches Sekretariat statt Regulator

Der bevorstehende Governance-Rahmen für künstliche Intelligenz könnte ein "technisches Sekretariat" umfassen, das die KI-Politik zwischen den Regierungsbehörden koordiniert. Dies stellt einen Wechsel...

KI-Sicherheit als Motor für Innovation in Schwellenländern

Die Diskussion über KI-Sicherheit und -Schutz wird oft als Hindernis für Innovationen wahrgenommen, insbesondere in Ländern der Global Majority. Die bevorstehende AI Impact Summit in Indien im Februar...

AI-Governance in ASEAN: Auf dem Weg zu einem einheitlichen Ansatz?

Wenn es um KI geht, legisliert Europa, während Amerika auf marktorientierte Innovation setzt und China zentral steuert. ASEAN hingegen setzt auf einen konsensorientierten Ansatz, der eine freiwillige...