Entwurf der EU-Leitlinien zur Definition von KI-Systemen

Entwurf der Richtlinien zur Definition von KI-Systemen unter dem EU-KI-Gesetz

Die Europäische Kommission hat kürzlich Richtlinien zur Definition von KI-Systemen veröffentlicht. Diese Richtlinien erläutern die praktische Anwendung der Definition in Artikel 3(1) des KI-Gesetzes.

Was ist ein KI-System?

Gemäß der Definition ist ein KI-System ein maschinenbasiertes System, das darauf ausgelegt ist, mit unterschiedlichen Autonomiegraden zu arbeiten. Es kann nach der Bereitstellung adaptiv sein und hat das Ziel, aus den erhaltenen Eingaben Ausgaben zu generieren, die Vorhersagen, Inhalte, Empfehlungen oder Entscheidungen umfassen können. Diese Ausgaben können sowohl physische als auch virtuelle Umgebungen beeinflussen.

Ziel der Richtlinien

Die Richtlinien sollen Organisationen helfen zu entscheiden, ob ein Software-System als KI-System betrachtet werden kann. Dies erleichtert die effektive Anwendung der festgelegten Regeln. Die Richtlinien sind jedoch nicht bindend und sollen sich im Laufe der Zeit weiterentwickeln. Sie werden aktualisiert, um neuen praktischen Erfahrungen, Fragen und Anwendungsfällen Rechnung zu tragen.

Kategorisierung von KI-Systemen

Das KI-Gesetz zielt darauf ab, Innovation zu fördern, während gleichzeitig hohe Standards in den Bereichen Gesundheit, Sicherheit und Schutz grundlegender Rechte gewährleistet werden. KI-Systeme werden in verschiedene Risiko-Kategorien eingeteilt, darunter:

  • Verbotene KI
  • Hochrisiko-KI
  • Transparenzpflichten

Seit dem 2. Februar gelten die ersten Regeln des KI-Gesetzes, die die Definition von KI-Systemen, KI-Kompetenz und verbotene KI-Anwendungsfälle, die in der EU inakzeptable Risiken darstellen, umfassen.

Ausblick

Obwohl die Richtlinien derzeit als Entwurf vorliegen, hat die Kommission noch nicht bekannt gegeben, wann sie möglicherweise endgültig werden.

More Insights

EU AI-Gesetz und Australiens Sicherheitsrahmen: Ein globaler Überblick

Laut dem DJ Piper Technology’s Legal Edge-Blog müssen globale Unternehmen, die künstliche Intelligenz einsetzen, die internationalen KI-Vorschriften verstehen. Die Europäische Union und Australien...

Quebecs KI-Politik für Hochschulen und Cégeps

Die Regierung von Quebec hat eine neue KI-Richtlinie für Universitäten und CÉGEPs veröffentlicht, um die Nutzung von generativer KI im Hochschulbereich zu regeln. Die Richtlinien betonen die...

Deutschland setzt AI Act um: Neue Regelungen für KI-Compliance

Die bestehenden Regulierungsbehörden werden die Verantwortung für die Überwachung der Einhaltung des EU-AI-Gesetzes durch deutsche Unternehmen übernehmen, wobei der Bundesnetzagentur (BNetzA) eine...

Weltführer und KI-Pioniere fordern verbindliche globale AI-Schutzmaßnahmen bis 2026

Weltführer und KI-Pioniere fordern die UN auf, bis 2026 verbindliche globale Sicherheitsvorkehrungen für KI zu schaffen. Diese Initiative zielt darauf ab, die Risiken und Herausforderungen, die mit...

Künstliche Intelligenz im Zeitalter des Zero Trust: Governance neu denken

Im Jahr 2025 sehen wir, wie KI von einem bloßen Schlagwort zu einer praktischen Anwendung in verschiedenen Bereichen wird. Effektive Governance in einer Zero-Trust-Wirtschaft ist entscheidend, um...

Neue AI-Strategie: Technisches Sekretariat statt Regulator

Der bevorstehende Governance-Rahmen für künstliche Intelligenz könnte ein "technisches Sekretariat" umfassen, das die KI-Politik zwischen den Regierungsbehörden koordiniert. Dies stellt einen Wechsel...

KI-Sicherheit als Motor für Innovation in Schwellenländern

Die Diskussion über KI-Sicherheit und -Schutz wird oft als Hindernis für Innovationen wahrgenommen, insbesondere in Ländern der Global Majority. Die bevorstehende AI Impact Summit in Indien im Februar...

AI-Governance in ASEAN: Auf dem Weg zu einem einheitlichen Ansatz?

Wenn es um KI geht, legisliert Europa, während Amerika auf marktorientierte Innovation setzt und China zentral steuert. ASEAN hingegen setzt auf einen konsensorientierten Ansatz, der eine freiwillige...