Richtlinien der Europäischen Kommission zur Definition von KI-Systemen

Richtlinien der Europäischen Kommission zur Definition eines „KI-Systems“

Im Februar 2025 veröffentlichte die Europäische Kommission zwei Richtlinien, um wesentliche Aspekte des EU-Gesetzes über künstliche Intelligenz („KI-Gesetz“) zu klären: Richtlinien zur Definition eines KI-Systems und Richtlinien zu verbotenen KI-Praktiken. Diese Richtlinien sollen als Leitfaden für die Verpflichtungen des KI-Gesetzes dienen, die seit dem 2. Februar 2025 gelten, einschließlich des Abschnitts über Definitionen, Verpflichtungen zur KI-Kompetenz und Verbote bestimmter KI-Praktiken.

Definition eines „KI-Systems“ gemäß dem KI-Gesetz

Das KI-Gesetz (Artikel 3(1)) definiert ein „KI-System“ als (1) ein maschinelles System; (2) das entwickelt wurde, um mit unterschiedlichen Autonomiestufen zu arbeiten; (3) das nach der Bereitstellung anpassungsfähig sein kann; (4) und das, für explizite oder implizite Ziele; (5) aus den Eingaben, die es erhält, ableitet, wie Ausgaben zu generieren sind; (6) wie Vorhersagen, Inhalte, Empfehlungen oder Entscheidungen; (7) die physische oder virtuelle Umgebungen beeinflussen können. Die Richtlinien zur Definition von KI-Systemen bieten erläuternde Hinweise zu jedem dieser sieben Elemente.

Wesentliche Punkte der Richtlinien

  • Maschinenbasiert. Der Begriff „maschinenbasiert“ bezieht sich darauf, dass KI-Systeme auf Maschinen entwickelt und betrieben werden. Dies umfasst eine Vielzahl von Berechnungssystemen, einschließlich aufkommender Quantencomputersysteme. Interessanterweise wird festgestellt, dass auch „biologische oder organische Systeme“ als „maschinenbasiert“ gelten können, wenn sie „Rechenkapazität“ bereitstellen.
  • Autonomie. Der Begriff „unterschiedliche Autonomiestufen“ bezieht sich auf die Fähigkeit des Systems, mit gewissem Maß an Unabhängigkeit von menschlichem Eingreifen zu arbeiten. Systeme, die ausschließlich mit voller manueller menschlicher Beteiligung und Intervention entwickelt wurden, fallen somit nicht unter die Definition eines KI-Systems.
  • Anpassungsfähigkeit. Die Richtlinien erklären, dass „Anpassungsfähigkeit nach der Bereitstellung“ sich auf die „selbstlernenden Fähigkeiten“ eines Systems bezieht, die es dem System ermöglichen, sein Verhalten während der Nutzung zu ändern. Diese Anpassungsfähigkeit ist jedoch keine notwendige Bedingung, um als KI-System zu gelten.
  • Ziele. Ziele sind die expliziten oder impliziten Vorgaben für die Aufgaben, die von diesem KI-System ausgeführt werden sollen. Die Richtlinien unterscheiden zwischen den „Zielen“ eines KI-Systems, die intern sind, und dem „beabsichtigten Zweck“, der extern ist und vom Kontext der Bereitstellung abhängt.
  • Inferieren und KI-Techniken. Die Fähigkeit, aus den erhaltenen Eingaben abzuleiten, wie Ausgaben zu generieren sind, ist eine „schlüsselnde, unverzichtbare Bedingung“ für KI-Systeme. Dies umfasst eine Vielzahl von KI-Techniken, die in der Aufbauphase verwendet werden, wie überwachtes Lernen, unüberwachtes Lernen, selbstüberwachtes Lernen, verstärkendes Lernen und tiefes Lernen.
  • Ausgaben. Ausgaben umfassen vier breite Kategorien: (1) Vorhersagen, (2) Inhalte, (3) Empfehlungen und (4) Entscheidungen. Diese Ausgaben können physische oder virtuelle Umgebungen beeinflussen.
  • Interaktion mit der Umgebung. Ein KI-System ist „nicht passiv, sondern beeinflusst aktiv die Umgebung, in der es eingesetzt wird“. Die betroffenen Umgebungen können physischer oder virtueller Natur sein.

Die Richtlinien weisen auch auf den Erwägungsgrund 12 hin, der „einfachere traditionelle Software-Systeme oder Programmieransätze“ von der Definition eines KI-Systems ausschließt. Beispiele für Systeme, die möglicherweise in diese Kategorie fallen, sind solche zur Verbesserung mathematischer Optimierung oder grundlegender Datenverarbeitung.

Die Europäische Kommission hat mit diesen Richtlinien einen wichtigen Schritt unternommen, um die Regulierung der künstlichen Intelligenz zu klären und sicherzustellen, dass die verpflichtenden Anforderungen klar definiert sind. Die kontinuierliche Überwachung regulatorischer Entwicklungen im Bereich KI bleibt von zentraler Bedeutung für die Einhaltung und Unterstützung der Technologieunternehmen.

More Insights

Verantwortungsvolle KI: Ein unverzichtbares Gebot für Unternehmen

Unternehmen sind sich der Notwendigkeit von verantwortungsvollem KI-Betrieb bewusst, behandeln ihn jedoch oft als nachträglichen Gedanken oder separates Projekt. Verantwortliche KI ist eine vordere...

Neues KI-Governance-Modell gegen Schatten-KI

Künstliche Intelligenz (KI) verbreitet sich schnell in den Arbeitsplatz und verändert, wie alltägliche Aufgaben erledigt werden. Unternehmen müssen ihre Ansätze zur KI-Politik überdenken, um mit der...

EU plant Aufschub für AI-Gesetzgebung

Die EU plant, die Anforderungen für risikobehaftete KI-Systeme im KI-Gesetz bis Ende 2027 zu verschieben, um Unternehmen mehr Zeit zu geben, sich anzupassen. Kritiker befürchten, dass diese...

Weißes Haus lehnt GAIN AI-Gesetz ab: Nvidia im Fokus

Das Weiße Haus hat sich gegen den GAIN AI Act ausgesprochen, während es um die Exportbeschränkungen für Nvidia-AI-Chips nach China geht. Die Diskussion spiegelt die politischen Spannungen wider, die...

Ethische KI als Beschleuniger für Innovation

Unternehmen stehen heute unter Druck, mit künstlicher Intelligenz zu innovieren, oft jedoch ohne die notwendigen Sicherheitsvorkehrungen. Indem sie Datenschutz und Ethik in den Entwicklungsprozess...

KI im Recruiting: Verborgene Risiken für Arbeitgeber

Künstliche Intelligenz verändert die Art und Weise, wie Arbeitgeber Talente rekrutieren und bewerten. Während diese Tools Effizienz und Kosteneinsparungen versprechen, bringen sie auch erhebliche...

KI im australischen Kabinett: Chancen und Sicherheitsbedenken

Die australische Regierung könnte in Betracht ziehen, KI-Programme zur Erstellung sensibler Kabinettsanträge zu nutzen, trotz Bedenken hinsichtlich Sicherheitsrisiken und Datenverletzungen...