Leitlinien der Europäischen Kommission zur Definition von KI-Systemen

Richtlinien der Europäischen Kommission zur Definition eines „KI-Systems“

Im Februar 2025 veröffentlichte die Europäische Kommission zwei Sets von Richtlinien, um wesentliche Aspekte des EU-Gesetzes über Künstliche Intelligenz („KI-Gesetz“) zu klären: Richtlinien zur Definition eines KI-Systems und Richtlinien zu verbotenen KI-Praktiken. Diese Richtlinien sollen Orientierung bieten bezüglich der Verpflichtungen des KI-Gesetzes, die am 2. Februar 2025 in Kraft traten, einschließlich des Abschnitts über Definitionen, Verpflichtungen hinsichtlich der KI-Kompetenz und Verbote bestimmter KI-Praktiken.

Definition eines „KI-Systems“ unter dem KI-Gesetz

Das KI-Gesetz (Artikel 3(1)) definiert ein „KI-System“ als (1) ein maschinenbasiertes System; (2) das entworfen wurde, um mit unterschiedlichen Autonomiegraden zu arbeiten; (3) das nach der Bereitstellung Anpassungsfähigkeit aufweisen kann; (4) und das, für explizite oder implizite Ziele; (5) aus den erhaltenen Eingaben ableitet, wie Ausgaben zu generieren sind; (6) wie Vorhersagen, Inhalte, Empfehlungen oder Entscheidungen; (7) die physische oder virtuelle Umgebungen beeinflussen können. Die Richtlinien zur Definition von KI-Systemen bieten erläuternde Hinweise zu jedem dieser sieben Elemente.

Wesentliche Punkte aus den Richtlinien

  • Maschinenbasiert. Der Begriff „maschinenbasiert“ bezieht sich auf die Tatsache, dass KI-Systeme mit und auf Maschinen entwickelt und betrieben werden. Dies umfasst eine Vielzahl von rechnergestützten Systemen, einschließlich aufkommender Quantencomputersysteme. Interessanterweise wird in den Richtlinien darauf hingewiesen, dass auch biologische oder organische Systeme als „maschinenbasiert“ gelten können, wenn sie „Rechenkapazität“ bereitstellen.
  • Autonomie. Der Begriff „unterschiedliche Autonomiegrade“ bezieht sich auf die Fähigkeit des Systems, mit gewissem Maß an Unabhängigkeit von menschlichem Eingreifen zu arbeiten. Systeme, die ausschließlich mit vollständiger manueller menschlicher Beteiligung entworfen sind, fallen nicht unter die Definition eines KI-Systems. Ein System, das manuell bereitgestellte Eingaben erfordert, um eigenständig eine Ausgabe zu generieren, qualifiziert sich jedoch als solches, da die Ausgabe ohne menschliche Kontrolle erzeugt wird.
  • Anpassungsfähigkeit. Die Richtlinien erklären, dass „Anpassungsfähigkeit nach der Bereitstellung“ die „Selbstlernfähigkeiten“ eines Systems bezeichnet, die es ermöglichen, dass sich das Verhalten des Systems während der Nutzung ändert. Diese Anpassungsfähigkeit ist jedoch keine notwendige Bedingung, um als KI-System zu gelten.
  • Objektive. Die Ziele sind die expliziten oder impliziten Aufgaben, die von diesem KI-System erfüllt werden sollen. Die Richtlinien ziehen eine Unterscheidung zwischen den „Zielen“ eines KI-Systems, die intern sind, und dessen „beabsichtigtem Zweck“, der extern ist und sich auf den Kontext der Bereitstellung bezieht.
  • Inferieren und KI-Techniken. Die Richtlinien betonen, dass die Fähigkeit, aus den erhaltenen Eingaben abzuleiten, wie Ausgaben zu generieren sind, eine „schlüsselindispensable Bedingung“ für KI-Systeme ist. Der Begriff „inferieren, wie“ ist weit gefasst und umfasst nicht nur die Fähigkeit eines Systems, Ausgaben aus gegebenen Eingaben abzuleiten, sondern auch die „Bauphase“ eines KI-Systems, in der Ausgaben durch KI-Techniken ermöglicht werden.
  • Ausgaben. Ausgaben umfassen vier breite Kategorien: (1) Vorhersagen, (2) Inhalte, (3) Empfehlungen und (4) Entscheidungen.
  • Interaktion mit der Umwelt. Die Interaktion mit der Umwelt bedeutet, dass das KI-System „nicht passiv ist, sondern aktiv die Umwelt beeinflusst, in der es bereitgestellt wird“. Beeinflusste Umgebungen können physisch oder virtuell sein.

Die Richtlinien weisen auch auf Erwägungsgrund 12 hin, der einfachere traditionelle Software-Systeme oder Programmieransätze sowie Systeme ausschließt, die auf Regeln basieren, die ausschließlich von natürlichen Personen definiert wurden, um automatisch Operationen auszuführen. Systeme, die in diese Kategorie fallen, haben möglicherweise die Fähigkeit zu inferieren, fallen jedoch aufgrund ihrer begrenzten Fähigkeit, Muster zu analysieren und autonom ihre Ausgaben anzupassen, außerhalb des Geltungsbereichs der Definition.

Die Europäischen Kommission verfolgt weiterhin die regulatorischen Entwicklungen im Bereich der KI und berät führende Technologieunternehmen zu ihren herausforderndsten regulatorischen und compliance-relevanten Fragen in der EU und anderen wichtigen Märkten.

More Insights

Verantwortungsvolle KI: Ein unverzichtbares Gebot für Unternehmen

Unternehmen sind sich der Notwendigkeit von verantwortungsvollem KI-Betrieb bewusst, behandeln ihn jedoch oft als nachträglichen Gedanken oder separates Projekt. Verantwortliche KI ist eine vordere...

Neues KI-Governance-Modell gegen Schatten-KI

Künstliche Intelligenz (KI) verbreitet sich schnell in den Arbeitsplatz und verändert, wie alltägliche Aufgaben erledigt werden. Unternehmen müssen ihre Ansätze zur KI-Politik überdenken, um mit der...

EU plant Aufschub für AI-Gesetzgebung

Die EU plant, die Anforderungen für risikobehaftete KI-Systeme im KI-Gesetz bis Ende 2027 zu verschieben, um Unternehmen mehr Zeit zu geben, sich anzupassen. Kritiker befürchten, dass diese...

Weißes Haus lehnt GAIN AI-Gesetz ab: Nvidia im Fokus

Das Weiße Haus hat sich gegen den GAIN AI Act ausgesprochen, während es um die Exportbeschränkungen für Nvidia-AI-Chips nach China geht. Die Diskussion spiegelt die politischen Spannungen wider, die...

Ethische KI als Beschleuniger für Innovation

Unternehmen stehen heute unter Druck, mit künstlicher Intelligenz zu innovieren, oft jedoch ohne die notwendigen Sicherheitsvorkehrungen. Indem sie Datenschutz und Ethik in den Entwicklungsprozess...

KI im Recruiting: Verborgene Risiken für Arbeitgeber

Künstliche Intelligenz verändert die Art und Weise, wie Arbeitgeber Talente rekrutieren und bewerten. Während diese Tools Effizienz und Kosteneinsparungen versprechen, bringen sie auch erhebliche...

KI im australischen Kabinett: Chancen und Sicherheitsbedenken

Die australische Regierung könnte in Betracht ziehen, KI-Programme zur Erstellung sensibler Kabinettsanträge zu nutzen, trotz Bedenken hinsichtlich Sicherheitsrisiken und Datenverletzungen...