EU bewegt sich zur Klarstellung des Anwendungsbereichs des KI-Gesetzes für generative KI
Die EU-Politiker ziehen in Betracht, Schwellenwerte für die Rechenressourcen festzulegen, um Unternehmen dabei zu helfen, zu bestimmen, ob und in welchem Umfang die KI-Modelle, die sie trainieren oder modifizieren, den regulatorischen Anforderungen des EU-KI-Gesetzes unterliegen.
Vorgeschlagene Schwellenwerte
Die vorgeschlagenen Schwellenwerte wurden von dem EU-KI-Büro in einem Arbeitsdokument dargelegt, das die derzeitigen, aber nicht endgültigen oder verbindlichen Überlegungen zu den Regeln für „generische KI (GPAI)“ -Modelle unter dem KI-Gesetz umreißt. Die Vorschläge sind Teil einer Umfrage, die die Europäische Kommission eröffnet hat, um die Meinungen der Industrie und anderer Stakeholder einzuholen. Die Rückmeldungen sollen dazu beitragen, neue Richtlinien zu entwickeln, die den Anwendungsbereich des GPAI-Regimes klären, das am 2. August 2025 in Kraft treten soll.
Die Regelungen für GPAI-Modelle unterscheiden sich von den anderen Anforderungen des Gesetzes, die für KI-Systeme gelten – KI-Modelle werden für die Zwecke des Gesetzes als Bestandteile von KI-Systemen betrachtet.
Die Bedeutung von Leitlinien
Dr. Nils Rauer, ein Experte für Technologie-Recht und KI-Regulierung, äußerte sich dazu, dass die betroffenen Akteure zu Beginn des neuen regulatorischen Regimes einige erste Anhaltspunkte benötigen, um zu verstehen, was der Gesetzgeber mit der gewählten und verabschiedeten Sprache meint. Die Bemühungen der Kommission sowie des KI-Büros werden daher allgemein begrüßt, auch wenn die Natur der Richtlinien nicht verbindlich ist.
Pflichten der Anbieter von GPAI-Modellen
Gemäß dem KI-Gesetz sehen die Anbieter von GPAI-Modellen eine Reihe von Aufzeichnungen und Offenlegungspflichten vor, darunter die Dokumentation des Trainings- und Testprozesses des Modells, das Teilen von Informationen zur Unterstützung der Anbieter von KI-Systemen, die ihre Systeme mit dem Modell integrieren, und die Erstellung einer europarechtskonformen Urheberrechtspolitik sowie die Veröffentlichung einer ausreichend detaillierten Zusammenfassung über die Inhalte, die für das Training des Modells verwendet wurden.
GPAI-Modelle, die ein systemisches Risiko darstellen, unterliegen weiteren Verpflichtungen, darunter die Bewertung, Prüfung und Risikominderung des Modells, sowie Anforderungen an die Vorfallberichterstattung und Cybersicherheit.
Code of Practice für GPAI
Die Kommission befindet sich in den letzten Zügen der Entwicklung eines GPAI-Code of Practice, um die verschiedenen Anforderungen, die GPAI-Anbieter gemäß dem KI-Gesetz erfüllen müssen, detaillierter darzulegen. Es wurde allgemein erwartet, dass der endgültige Code am 2. Mai veröffentlicht wird. Ein Bericht von Politico deutet jedoch auf eine Verzögerung hin. Die Vorschläge im Arbeitsdokument des KI-Büros legen nahe, dass die Veröffentlichung des Codes stattdessen mit den endgültigen Richtlinien „im Mai oder Juni 2025“ zusammenfallen könnte.
Die Einhaltung des Codes wird für GPAI-Anbieter zwar nicht obligatorisch sein, jedoch wird erwartet, dass sich die Unterzeichner des Codes in ihrer Einhaltung des KI-Gesetzes transparent zeigen und dadurch von erhöhtem Vertrauen seitens der Kommission und anderer Stakeholder profitieren.
Schwellenwerte für GPAI-Modelle
Generische KI wird im KI-Gesetz als KI-Modell definiert, das eine bedeutende Allgemeinheit aufweist und fähig ist, ein breites Spektrum unterschiedlicher Aufgaben kompetent auszuführen, unabhängig davon, wie das Modell auf den Markt gebracht wird. KI-Modelle, die für Forschungs-, Entwicklungs- oder Prototyping-Aktivitäten verwendet werden, fallen nicht unter die Definition.
Wenn die Vorschläge des KI-Büros in ihrer aktuellen Form angenommen werden, würden KI-Modelle, die Texte oder Bilder generieren, als GPAI-Modelle angesehen werden, wenn ihre Training-Compute mehr als 1022 Floating Point Operations (FLOP) beträgt. FLOP ist ein Maß für die Rechenleistung.
Abschließende Überlegungen
Die Diskrepanz zwischen den verschiedenen Modellen, die nicht in den Anwendungsbereich fallen, GPAI-Modelle und GPAI-Modelle mit systemischem Risiko unter dem EU-KI-Gesetz wirft Fragen auf. Insbesondere stellt sich die Frage, wie zukünftige Entwicklungen wie der Aufstieg von KI-Agenten und agentischer KI mit dem Konzept von GPAI und dem Anwendungsbereich seiner rechtlichen Definition interagieren werden.
Zusammenfassend lässt sich sagen, dass die EU auf einem Weg ist, die regulatorischen Anforderungen an generative KI zu klären, um sowohl die Innovation zu fördern als auch angemessene Sicherheitsvorkehrungen zu gewährleisten.