Die Definition von KI-Systemen: Ein Leitfaden der EU-Kommission

Verständnis des Umfangs der Definition von „Künstlichem Intelligenz (KI)-System“: Wichtige Erkenntnisse aus den Richtlinien der Europäischen Kommission

Mit Inkrafttreten des KI-Gesetzes (Verordnung 2024/1689) im August 2024 wurde ein wegweisender Rahmen für KI geschaffen.

Am 2. Februar 2025 traten die ersten Bestimmungen des KI-Gesetzes in Kraft, einschließlich der Definition des KI-Systems, der KI-Kompetenz und einer begrenzten Anzahl verbotener KI-Praktiken. In Übereinstimmung mit Artikel 96 des KI-Gesetzes veröffentlichte die Europäische Kommission am 6. Februar 2025 detaillierte Richtlinien zur Anwendung der Definition eines KI-Systems.

Diese nicht bindenden Richtlinien sind von hoher praktischer Relevanz, da sie rechtliche Klarheit über einen der grundlegendsten Aspekte des Gesetzes bieten – was unter EU-Recht als „KI-System“ qualifiziert. Ihre Veröffentlichung bietet wichtige Hinweise für Entwickler, Anbieter, Anwender und Regulierungsbehörden, die den Umfang des KI-Gesetzes verstehen und bewerten möchten, ob spezifische Systeme darunter fallen.

Elemente der Definition eines „KI-Systems“

Artikel 3(1) des KI-Gesetzes definiert ein KI-System als ein maschinenbasiertes System, das so konzipiert ist, dass es mit unterschiedlichen Autonomiestufen arbeitet und nach der Bereitstellung anpassungsfähig sein kann. Für explizite oder implizite Ziele leitet es aus den Eingaben, die es erhält, ab, wie es Ausgaben generieren kann, wie Vorhersagen, Inhalte, Empfehlungen oder Entscheidungen, die physische oder virtuelle Umgebungen beeinflussen können.

Die Europäische Kommission betont, dass diese Definition aus einer Lebenszyklus-Perspektive basiert und sowohl die Bauphase (Vorbereitungsphase) als auch die Nutzungsphase (Nachbereitungsphase) abdeckt. Wichtig ist, dass nicht alle definitorischen Elemente immer vorhanden sein müssen – einige können nur in einer Phase auftreten, was die Definition an eine Vielzahl von Technologien anpassbar macht, im Einklang mit dem zukunftsorientierten Ansatz des KI-Gesetzes.

Maschinenbasiertes System

Die Richtlinien bekräftigen, dass alle KI-Systeme durch Maschinen betrieben werden müssen – bestehend aus sowohl Hardware (z.B. Prozessoren, Speicher und Schnittstellen) als auch Software (z.B. Code, Algorithmen und Modelle). Dies umfasst nicht nur traditionelle digitale Systeme, sondern auch fortschrittliche Plattformen wie Quantencomputing und biologisches Computing, sofern sie über Rechenkapazitäten verfügen.

Autonomie

Ein weiteres wesentliches Kriterium ist die Autonomie, die als die Fähigkeit eines Systems beschrieben wird, mit einem gewissen Grad an Unabhängigkeit von menschlicher Kontrolle zu funktionieren. Dies impliziert nicht notwendigerweise vollständige Automatisierung, sondern kann Systeme einschließen, die in der Lage sind, basierend auf indirektem menschlichen Input oder Aufsicht zu arbeiten. Systeme, die ausschließlich für die vollständige manuelle menschliche Beteiligung und Intervention konzipiert sind, fallen nicht unter diese Definition.

Anpassungsfähigkeit

Ein KI-System kann, muss aber nicht anpassungsfähig sein – das bedeutet, es kann sein Verhalten nach der Bereitstellung basierend auf neuen Daten oder Erfahrungen ändern. Wichtig ist, dass Anpassungsfähigkeit optional ist und Systeme ohne Lernfähigkeiten weiterhin als KI qualifiziert werden können, wenn andere Kriterien erfüllt sind. Dieses Merkmal ist jedoch entscheidend, um dynamische KI-Systeme von statischer Software zu unterscheiden.

Ziele der Systeme

KI-Systeme sind darauf ausgelegt, spezifische Ziele zu erreichen, die entweder explizit (klar programmiert) oder implizit (abgeleitet aus Trainingsdaten oder dem Verhalten des Systems) sein können. Diese internen Ziele unterscheiden sich von dem beabsichtigten Zweck, der extern von seinem Anbieter und dem Nutzungskontext definiert wird.

Inferenzfähigkeiten

Es ist die Fähigkeit, abzuleiten, wie Ausgaben basierend auf Eingabedaten generiert werden, die ein KI-System definiert. Dies unterscheidet sie von traditioneller regelbasierter oder deterministischer Software. Laut den Richtlinien umfasst „Inference“ sowohl die Nutzungsphase, in der die Ausgaben wie Vorhersagen, Entscheidungen oder Empfehlungen generiert werden, als auch die Bauphase, in der Modelle oder Algorithmen unter Verwendung von KI-Techniken abgeleitet werden.

Ausgaben, die physische oder virtuelle Umgebungen beeinflussen können

Die Ausgaben eines KI-Systems (Vorhersagen, Inhalte, Empfehlungen oder Entscheidungen) müssen in der Lage sein, physische oder virtuelle Umgebungen zu beeinflussen. Dies erfasst die breite Funktionalität moderner KI, von autonomen Fahrzeugen und Sprachmodellen bis hin zu Empfehlungssystemen. Systeme, die lediglich Daten verarbeiten oder visualisieren, ohne ein Ergebnis zu beeinflussen, fallen nicht unter die Definition.

Interaktion mit der Umwelt

Schließlich müssen KI-Systeme in der Lage sein, mit ihrer Umwelt zu interagieren, sei es physisch (z.B. Robotersysteme) oder virtuell (z.B. digitale Assistenten). Dieses Element unterstreicht die praktische Auswirkung von KI-Systemen und unterscheidet sie weiter von rein passiver oder isolierter Software.

Von der Definition des KI-Systems ausgeschlossene Systeme

Zusätzlich zu der breiten Erklärung der Elemente der Definition von KI-Systemen bieten diese Richtlinien Klarheit darüber, was nicht als KI im Sinne des KI-Gesetzes betrachtet wird, selbst wenn einige Systeme rudimentäre Inferenzmerkmale aufweisen:

  • Systeme zur Verbesserung mathematischer Optimierung – Systeme, wie bestimmte maschinelle Lernwerkzeuge, die ausschließlich zur Verbesserung der Rechenleistung eingesetzt werden (z.B. zur Steigerung der Simulationsgeschwindigkeit oder der Bandbreitennutzung), fallen außerhalb des Anwendungsbereichs, es sei denn, sie beinhalten intelligente Entscheidungsfindung.
  • Einfaches Datenverarbeitungstools – Systeme, die vordefinierte Anweisungen oder Berechnungen ausführen (z.B. Tabellenkalkulationen, Dashboards und Datenbanken), ohne Lernen, Schlussfolgern oder Modellieren, werden nicht als KI-Systeme betrachtet.
  • Klassische heuristische Systeme – Regelbasierte Problemlösesysteme, die sich nicht durch Daten oder Erfahrungen weiterentwickeln, wie Schachprogramme, die ausschließlich auf Minimax-Algorithmen basieren, sind ebenfalls ausgeschlossen.
  • Einfachste Vorhersagemaschinen – Werkzeuge, die einfache statistische Methoden verwenden (z.B. durchschnittsbasierte Vorhersager) zur Benchmarking oder Prognose, ohne komplexe Mustererkennung oder Inferenz, erfüllen nicht die Schwelle der Definition.

Die Europäische Kommission schließt mit der Hervorhebung folgender Aspekte:

  • Es muss beachtet werden, dass die Definition eines KI-Systems im KI-Gesetz breit gefasst ist und auf der Grundlage der Funktionsweise jedes Systems in der Praxis bewertet werden muss.
  • Es gibt keine erschöpfende Liste von dem, was als KI betrachtet wird, jeder Fall hängt von den Merkmalen des Systems ab.
  • Nicht alle KI-Systeme unterliegen regulatorischen Verpflichtungen und Aufsicht gemäß dem KI-Gesetz.
  • Nur diejenigen, die höhere Risiken darstellen, wie die von den Regeln über verbotene oder hochriskante KI erfassten, unterliegen rechtlichen Verpflichtungen.

Diese Richtlinien spielen eine wichtige Rolle bei der Unterstützung der effektiven Umsetzung des KI-Gesetzes. Durch die Klarstellung, was unter einem KI-System zu verstehen ist, bieten sie größere rechtliche Sicherheit und helfen allen relevanten Interessengruppen, wie Regulierungsbehörden, Anbietern und Nutzern, zu verstehen, wie die Regeln in der Praxis angewendet werden. Ihr funktionaler und flexibler Ansatz spiegelt die Vielfalt der KI-Technologien wider und bietet eine praktische Grundlage, um KI-Systeme von traditioneller Software zu unterscheiden. Somit tragen die Richtlinien zu einer konsistenteren und zuverlässigeren Anwendung der Regulierung in der gesamten EU bei.

More Insights

EU AI-Gesetz und Australiens Sicherheitsrahmen: Ein globaler Überblick

Laut dem DJ Piper Technology’s Legal Edge-Blog müssen globale Unternehmen, die künstliche Intelligenz einsetzen, die internationalen KI-Vorschriften verstehen. Die Europäische Union und Australien...

Quebecs KI-Politik für Hochschulen und Cégeps

Die Regierung von Quebec hat eine neue KI-Richtlinie für Universitäten und CÉGEPs veröffentlicht, um die Nutzung von generativer KI im Hochschulbereich zu regeln. Die Richtlinien betonen die...

Deutschland setzt AI Act um: Neue Regelungen für KI-Compliance

Die bestehenden Regulierungsbehörden werden die Verantwortung für die Überwachung der Einhaltung des EU-AI-Gesetzes durch deutsche Unternehmen übernehmen, wobei der Bundesnetzagentur (BNetzA) eine...

Weltführer und KI-Pioniere fordern verbindliche globale AI-Schutzmaßnahmen bis 2026

Weltführer und KI-Pioniere fordern die UN auf, bis 2026 verbindliche globale Sicherheitsvorkehrungen für KI zu schaffen. Diese Initiative zielt darauf ab, die Risiken und Herausforderungen, die mit...

Künstliche Intelligenz im Zeitalter des Zero Trust: Governance neu denken

Im Jahr 2025 sehen wir, wie KI von einem bloßen Schlagwort zu einer praktischen Anwendung in verschiedenen Bereichen wird. Effektive Governance in einer Zero-Trust-Wirtschaft ist entscheidend, um...

Neue AI-Strategie: Technisches Sekretariat statt Regulator

Der bevorstehende Governance-Rahmen für künstliche Intelligenz könnte ein "technisches Sekretariat" umfassen, das die KI-Politik zwischen den Regierungsbehörden koordiniert. Dies stellt einen Wechsel...

KI-Sicherheit als Motor für Innovation in Schwellenländern

Die Diskussion über KI-Sicherheit und -Schutz wird oft als Hindernis für Innovationen wahrgenommen, insbesondere in Ländern der Global Majority. Die bevorstehende AI Impact Summit in Indien im Februar...

AI-Governance in ASEAN: Auf dem Weg zu einem einheitlichen Ansatz?

Wenn es um KI geht, legisliert Europa, während Amerika auf marktorientierte Innovation setzt und China zentral steuert. ASEAN hingegen setzt auf einen konsensorientierten Ansatz, der eine freiwillige...