EU klärt den Anwendungsbereich des KI-Gesetzes für generative KI

EU bewegt sich zur Klarstellung des Anwendungsbereichs des KI-Gesetzes für generative KI

Die EU-Politiker ziehen in Betracht, Schwellenwerte für die Rechenressourcen festzulegen, um Unternehmen dabei zu helfen, zu bestimmen, ob und in welchem Umfang die KI-Modelle, die sie trainieren oder modifizieren, den regulatorischen Anforderungen des EU-KI-Gesetzes unterliegen.

Vorgeschlagene Schwellenwerte

Die vorgeschlagenen Schwellenwerte wurden von dem EU-KI-Büro in einem Arbeitsdokument dargelegt, das die derzeitigen, aber nicht endgültigen oder verbindlichen Überlegungen zu den Regeln für „generische KI (GPAI)“ -Modelle unter dem KI-Gesetz umreißt. Die Vorschläge sind Teil einer Umfrage, die die Europäische Kommission eröffnet hat, um die Meinungen der Industrie und anderer Stakeholder einzuholen. Die Rückmeldungen sollen dazu beitragen, neue Richtlinien zu entwickeln, die den Anwendungsbereich des GPAI-Regimes klären, das am 2. August 2025 in Kraft treten soll.

Die Regelungen für GPAI-Modelle unterscheiden sich von den anderen Anforderungen des Gesetzes, die für KI-Systeme gelten – KI-Modelle werden für die Zwecke des Gesetzes als Bestandteile von KI-Systemen betrachtet.

Die Bedeutung von Leitlinien

Dr. Nils Rauer, ein Experte für Technologie-Recht und KI-Regulierung, äußerte sich dazu, dass die betroffenen Akteure zu Beginn des neuen regulatorischen Regimes einige erste Anhaltspunkte benötigen, um zu verstehen, was der Gesetzgeber mit der gewählten und verabschiedeten Sprache meint. Die Bemühungen der Kommission sowie des KI-Büros werden daher allgemein begrüßt, auch wenn die Natur der Richtlinien nicht verbindlich ist.

Pflichten der Anbieter von GPAI-Modellen

Gemäß dem KI-Gesetz sehen die Anbieter von GPAI-Modellen eine Reihe von Aufzeichnungen und Offenlegungspflichten vor, darunter die Dokumentation des Trainings- und Testprozesses des Modells, das Teilen von Informationen zur Unterstützung der Anbieter von KI-Systemen, die ihre Systeme mit dem Modell integrieren, und die Erstellung einer europarechtskonformen Urheberrechtspolitik sowie die Veröffentlichung einer ausreichend detaillierten Zusammenfassung über die Inhalte, die für das Training des Modells verwendet wurden.

GPAI-Modelle, die ein systemisches Risiko darstellen, unterliegen weiteren Verpflichtungen, darunter die Bewertung, Prüfung und Risikominderung des Modells, sowie Anforderungen an die Vorfallberichterstattung und Cybersicherheit.

Code of Practice für GPAI

Die Kommission befindet sich in den letzten Zügen der Entwicklung eines GPAI-Code of Practice, um die verschiedenen Anforderungen, die GPAI-Anbieter gemäß dem KI-Gesetz erfüllen müssen, detaillierter darzulegen. Es wurde allgemein erwartet, dass der endgültige Code am 2. Mai veröffentlicht wird. Ein Bericht von Politico deutet jedoch auf eine Verzögerung hin. Die Vorschläge im Arbeitsdokument des KI-Büros legen nahe, dass die Veröffentlichung des Codes stattdessen mit den endgültigen Richtlinien „im Mai oder Juni 2025“ zusammenfallen könnte.

Die Einhaltung des Codes wird für GPAI-Anbieter zwar nicht obligatorisch sein, jedoch wird erwartet, dass sich die Unterzeichner des Codes in ihrer Einhaltung des KI-Gesetzes transparent zeigen und dadurch von erhöhtem Vertrauen seitens der Kommission und anderer Stakeholder profitieren.

Schwellenwerte für GPAI-Modelle

Generische KI wird im KI-Gesetz als KI-Modell definiert, das eine bedeutende Allgemeinheit aufweist und fähig ist, ein breites Spektrum unterschiedlicher Aufgaben kompetent auszuführen, unabhängig davon, wie das Modell auf den Markt gebracht wird. KI-Modelle, die für Forschungs-, Entwicklungs- oder Prototyping-Aktivitäten verwendet werden, fallen nicht unter die Definition.

Wenn die Vorschläge des KI-Büros in ihrer aktuellen Form angenommen werden, würden KI-Modelle, die Texte oder Bilder generieren, als GPAI-Modelle angesehen werden, wenn ihre Training-Compute mehr als 1022 Floating Point Operations (FLOP) beträgt. FLOP ist ein Maß für die Rechenleistung.

Abschließende Überlegungen

Die Diskrepanz zwischen den verschiedenen Modellen, die nicht in den Anwendungsbereich fallen, GPAI-Modelle und GPAI-Modelle mit systemischem Risiko unter dem EU-KI-Gesetz wirft Fragen auf. Insbesondere stellt sich die Frage, wie zukünftige Entwicklungen wie der Aufstieg von KI-Agenten und agentischer KI mit dem Konzept von GPAI und dem Anwendungsbereich seiner rechtlichen Definition interagieren werden.

Zusammenfassend lässt sich sagen, dass die EU auf einem Weg ist, die regulatorischen Anforderungen an generative KI zu klären, um sowohl die Innovation zu fördern als auch angemessene Sicherheitsvorkehrungen zu gewährleisten.

More Insights

Verantwortungsvolle KI: Ein unverzichtbares Gebot für Unternehmen

Unternehmen sind sich der Notwendigkeit von verantwortungsvollem KI-Betrieb bewusst, behandeln ihn jedoch oft als nachträglichen Gedanken oder separates Projekt. Verantwortliche KI ist eine vordere...

Neues KI-Governance-Modell gegen Schatten-KI

Künstliche Intelligenz (KI) verbreitet sich schnell in den Arbeitsplatz und verändert, wie alltägliche Aufgaben erledigt werden. Unternehmen müssen ihre Ansätze zur KI-Politik überdenken, um mit der...

EU plant Aufschub für AI-Gesetzgebung

Die EU plant, die Anforderungen für risikobehaftete KI-Systeme im KI-Gesetz bis Ende 2027 zu verschieben, um Unternehmen mehr Zeit zu geben, sich anzupassen. Kritiker befürchten, dass diese...

Weißes Haus lehnt GAIN AI-Gesetz ab: Nvidia im Fokus

Das Weiße Haus hat sich gegen den GAIN AI Act ausgesprochen, während es um die Exportbeschränkungen für Nvidia-AI-Chips nach China geht. Die Diskussion spiegelt die politischen Spannungen wider, die...

Ethische KI als Beschleuniger für Innovation

Unternehmen stehen heute unter Druck, mit künstlicher Intelligenz zu innovieren, oft jedoch ohne die notwendigen Sicherheitsvorkehrungen. Indem sie Datenschutz und Ethik in den Entwicklungsprozess...

KI im Recruiting: Verborgene Risiken für Arbeitgeber

Künstliche Intelligenz verändert die Art und Weise, wie Arbeitgeber Talente rekrutieren und bewerten. Während diese Tools Effizienz und Kosteneinsparungen versprechen, bringen sie auch erhebliche...

KI im australischen Kabinett: Chancen und Sicherheitsbedenken

Die australische Regierung könnte in Betracht ziehen, KI-Programme zur Erstellung sensibler Kabinettsanträge zu nutzen, trotz Bedenken hinsichtlich Sicherheitsrisiken und Datenverletzungen...