Richtlinien der Europäischen Kommission zur Definition von KI-Systemen

Richtlinien der Europäischen Kommission zur Definition eines „KI-Systems“

Im Februar 2025 veröffentlichte die Europäische Kommission zwei Richtlinien, um wesentliche Aspekte des EU-Gesetzes über künstliche Intelligenz („KI-Gesetz“) zu klären: Richtlinien zur Definition eines KI-Systems und Richtlinien zu verbotenen KI-Praktiken. Diese Richtlinien sollen als Leitfaden für die Verpflichtungen des KI-Gesetzes dienen, die seit dem 2. Februar 2025 gelten, einschließlich des Abschnitts über Definitionen, Verpflichtungen zur KI-Kompetenz und Verbote bestimmter KI-Praktiken.

Definition eines „KI-Systems“ gemäß dem KI-Gesetz

Das KI-Gesetz (Artikel 3(1)) definiert ein „KI-System“ als (1) ein maschinelles System; (2) das entwickelt wurde, um mit unterschiedlichen Autonomiestufen zu arbeiten; (3) das nach der Bereitstellung anpassungsfähig sein kann; (4) und das, für explizite oder implizite Ziele; (5) aus den Eingaben, die es erhält, ableitet, wie Ausgaben zu generieren sind; (6) wie Vorhersagen, Inhalte, Empfehlungen oder Entscheidungen; (7) die physische oder virtuelle Umgebungen beeinflussen können. Die Richtlinien zur Definition von KI-Systemen bieten erläuternde Hinweise zu jedem dieser sieben Elemente.

Wesentliche Punkte der Richtlinien

  • Maschinenbasiert. Der Begriff „maschinenbasiert“ bezieht sich darauf, dass KI-Systeme auf Maschinen entwickelt und betrieben werden. Dies umfasst eine Vielzahl von Berechnungssystemen, einschließlich aufkommender Quantencomputersysteme. Interessanterweise wird festgestellt, dass auch „biologische oder organische Systeme“ als „maschinenbasiert“ gelten können, wenn sie „Rechenkapazität“ bereitstellen.
  • Autonomie. Der Begriff „unterschiedliche Autonomiestufen“ bezieht sich auf die Fähigkeit des Systems, mit gewissem Maß an Unabhängigkeit von menschlichem Eingreifen zu arbeiten. Systeme, die ausschließlich mit voller manueller menschlicher Beteiligung und Intervention entwickelt wurden, fallen somit nicht unter die Definition eines KI-Systems.
  • Anpassungsfähigkeit. Die Richtlinien erklären, dass „Anpassungsfähigkeit nach der Bereitstellung“ sich auf die „selbstlernenden Fähigkeiten“ eines Systems bezieht, die es dem System ermöglichen, sein Verhalten während der Nutzung zu ändern. Diese Anpassungsfähigkeit ist jedoch keine notwendige Bedingung, um als KI-System zu gelten.
  • Ziele. Ziele sind die expliziten oder impliziten Vorgaben für die Aufgaben, die von diesem KI-System ausgeführt werden sollen. Die Richtlinien unterscheiden zwischen den „Zielen“ eines KI-Systems, die intern sind, und dem „beabsichtigten Zweck“, der extern ist und vom Kontext der Bereitstellung abhängt.
  • Inferieren und KI-Techniken. Die Fähigkeit, aus den erhaltenen Eingaben abzuleiten, wie Ausgaben zu generieren sind, ist eine „schlüsselnde, unverzichtbare Bedingung“ für KI-Systeme. Dies umfasst eine Vielzahl von KI-Techniken, die in der Aufbauphase verwendet werden, wie überwachtes Lernen, unüberwachtes Lernen, selbstüberwachtes Lernen, verstärkendes Lernen und tiefes Lernen.
  • Ausgaben. Ausgaben umfassen vier breite Kategorien: (1) Vorhersagen, (2) Inhalte, (3) Empfehlungen und (4) Entscheidungen. Diese Ausgaben können physische oder virtuelle Umgebungen beeinflussen.
  • Interaktion mit der Umgebung. Ein KI-System ist „nicht passiv, sondern beeinflusst aktiv die Umgebung, in der es eingesetzt wird“. Die betroffenen Umgebungen können physischer oder virtueller Natur sein.

Die Richtlinien weisen auch auf den Erwägungsgrund 12 hin, der „einfachere traditionelle Software-Systeme oder Programmieransätze“ von der Definition eines KI-Systems ausschließt. Beispiele für Systeme, die möglicherweise in diese Kategorie fallen, sind solche zur Verbesserung mathematischer Optimierung oder grundlegender Datenverarbeitung.

Die Europäische Kommission hat mit diesen Richtlinien einen wichtigen Schritt unternommen, um die Regulierung der künstlichen Intelligenz zu klären und sicherzustellen, dass die verpflichtenden Anforderungen klar definiert sind. Die kontinuierliche Überwachung regulatorischer Entwicklungen im Bereich KI bleibt von zentraler Bedeutung für die Einhaltung und Unterstützung der Technologieunternehmen.

More Insights

Verantwortliche KI für .NET-Entwickler: Ein praktischer Leitfaden

In der heutigen Ära der Künstlichen Intelligenz (KI) stehen wir vor der Herausforderung, AI-Systeme zu vertrauen. Der Artikel erläutert die sechs Grundsätze von Responsible AI, die von Microsoft...

KI im Risikomanagement und der Compliance im Bankenwesen

In der heutigen komplexen Bankenlandschaft ist KI nicht mehr nur ein Nice-to-Have, sondern wird zur neuen Risikomanagement-Engine, die zentral dafür ist, wie Finanzinstitute Bedrohungen identifizieren...

Kalifornien führt wegweisendes Gesetz zur AI-Transparenz ein

Die kalifornischen Gesetzgeber haben mit dem Gesetz zur Transparenz in der künstlichen Intelligenz einen wichtigen Schritt zur Gewährleistung von Verantwortung und Sicherheit in der Entwicklung von...

Herausforderungen bei der Nutzung von KI-Anwendungen im Recruiting

Die Verwendung von KI-Tools im Bewerbungsprozess ermöglicht es Unternehmen, ihre Abläufe zu optimieren und effizienter zu gestalten. Arbeitgeber müssen jedoch sicherstellen, dass die verwendeten...

Die vier Säulen verantwortungsvoller KI-Systeme

Da generative KI die Art und Weise, wie Unternehmen arbeiten, transformiert, ist es entscheidend, sicherzustellen, dass KI-Systeme mit angemessenen Sicherheitsvorkehrungen implementiert werden. Die...

Verantwortungsvolle KI: Inklusive Gestaltung für Schwellenmärkte

Dieser Artikel beschreibt, wie künstliche Intelligenz in aufstrebenden Märkten verantwortungsvoll gestaltet werden kann, um Inklusion durch Design zu fördern. Es werden drei wesentliche Säulen der...