Zielgerichtete Konsultation der Interessenvertreter zur Klassifizierung von KI-Systemen als hochriskant
Die vorliegende Konsultation richtet sich an Interessengruppen unterschiedlicher Kategorien. Zu diesen Kategorien gehören, aber sind nicht beschränkt auf, Anbieter und Betreiber von (hochriskanten) KI-Systemen, andere Industrieorganisationen, sowie Wissenschaftler, unabhängige Experten, Organisationen der Zivilgesellschaft und öffentliche Behörden.
Das Gesetz über künstliche Intelligenz (das „AI-Gesetz“), das am 1. August 2024 in Kraft trat, schafft einen einheitlichen Markt und harmonisierte Regeln für vertrauenswürdige und menschzentrierte künstliche Intelligenz in der EU. Es zielt darauf ab, Innovation und Einsatz von KI zu fördern, während ein hohes Maß an Schutz für Gesundheit, Sicherheit und grundlegende Rechte, einschließlich Demokratie und Rechtsstaatlichkeit, gewährleistet wird. Das AI-Gesetz folgt einem risikobasierten Ansatz, der KI-Systeme in verschiedene Risikokategorien einteilt, von denen eine die hochriskanten KI-Systeme darstellt (Kapitel III des AI-Gesetzes). Die relevanten Verpflichtungen für diese Systeme werden zwei Jahre nach Inkrafttreten des AI-Gesetzes, also ab dem 2. August 2026, anwendbar sein.
Klassifizierung hochriskanter KI-Systeme
Das AI-Gesetz unterscheidet zwischen zwei Kategorien von KI-Systemen, die als „hochriskant“ betrachtet werden, die in Artikel 6(1) und 6(2) des AI-Gesetzes festgelegt sind. Artikel 6(1) bezieht sich auf KI-Systeme, die als Sicherheitskomponenten in Produkten integriert sind oder die selbst Produkte sind, die durch die Union Gesetzgebung in Anhang I abgedeckt sind und die negative Auswirkungen auf die Gesundheit und Sicherheit von Personen haben könnten. Artikel 6(2) bezieht sich auf KI-Systeme, die aufgrund ihres beabsichtigten Zwecks als erhebliches Risiko für Gesundheit, Sicherheit oder grundlegende Rechte gelten.
Das AI-Gesetz listet acht Bereiche auf, in denen KI-Systeme ein solches erhebliches Risiko für Gesundheit, Sicherheit oder grundlegende Rechte darstellen könnten, die in Anhang III aufgeführt sind. Innerhalb jedes Bereichs werden spezifische Anwendungsfälle aufgelistet, die als hochriskant klassifiziert werden sollen. Artikel 6(3) des AI-Gesetzes sieht Ausnahmen für KI-Systeme vor, die für einen der im Anhang III aufgeführten Fälle bestimmt sind, aber kein erhebliches Risiko darstellen, da sie unter eine der in Artikel 6(3) aufgeführten Ausnahmen fallen.
Entwicklung und Verpflichtungen für hochriskante KI-Systeme
Hochriskante KI-Systeme müssen entwickelt und gestaltet werden, um die Anforderungen zu erfüllen, die in Kapitel III Abschnitt 2 in Bezug auf Daten und Datenverwaltung, Dokumentation und Aufzeichnung, Transparenz und Bereitstellung von Informationen für Benutzer, menschliche Aufsicht, Robustheit, Genauigkeit und Sicherheit festgelegt sind. Anbieter hochriskanter KI-Systeme müssen sicherstellen, dass ihr hochriskantes KI-System diesen Anforderungen entspricht und müssen selbst eine Reihe von Verpflichtungen gemäß Kapitel III Abschnitt 3 einhalten, insbesondere die Verpflichtung zur Implementierung eines Qualitätsmanagementsystems und sicherzustellen, dass das hochriskante KI-System einer Konformitätsbewertung unterzogen wird, bevor es auf den Markt gebracht oder in Betrieb genommen wird.
Das AI-Gesetz legt auch Verpflichtungen für Betreiber hochriskanter KI-Systeme fest, die sich auf den korrekten Gebrauch, die menschliche Aufsicht, die Überwachung des Betriebs des hochriskanten KI-Systems und in bestimmten Fällen auf die Transparenz gegenüber betroffenen Personen beziehen.
Zweck der Konsultation
Der Zweck der vorliegenden zielgerichteten Konsultation der Interessenvertreter ist es, Input von Interessengruppen zu praktischen Beispielen von KI-Systemen und Themen zu sammeln, die in den Richtlinien der Kommission zur Klassifizierung hochriskanter KI-Systeme und zukünftigen Richtlinien zu hochriskanten Anforderungen und Verpflichtungen sowie Verantwortlichkeiten entlang der KI-Wertschöpfungskette klargestellt werden sollen.
Da nicht alle Fragen für alle Interessengruppen relevant sein mögen, können die Befragten nur auf die Abschnitte und Fragen antworten, die sie interessieren. Die Befragten werden ermutigt, Erklärungen und praktische Fälle als Teil ihrer Antworten bereitzustellen, um die praktische Nützlichkeit der Richtlinien zu unterstützen.
Die zielgerichtete Konsultation ist nur in Englisch verfügbar und wird für 6 Wochen geöffnet sein, beginnend am 6. Juni bis zum 18. Juli 2025.
Der Fragebogen für diese Konsultation ist in 5 Abschnitte mit mehreren Fragen gegliedert.
Struktur des Fragebogens
Bezüglich der Abschnitte 1 und 2 werden die Befragten gebeten, Antworten gemäß den Teilen der Umfrage zu geben, für die sie in Frage 13 Interesse bekundet haben, während alle Teilnehmer freundlich gebeten werden, Input für die Abschnitte 3, 4 und 5 zu geben.
Abschnitt 1
Fragen in Bezug auf die Klassifizierungsregeln hochriskanter KI-Systeme in Artikel 6(1) und dem Anhang I zum AI-Gesetz.
Abschnitt 2
Fragen zur Klassifizierung hochriskanter KI-Systeme in Artikel 6(2) und dem Anhang III des AI-Gesetzes. Diese Kategorie umfasst Fragen zu:
- KI-Systemen in jedem Anwendungsfall unter den 8 Bereichen, die im Anhang III erwähnt werden.
- Dem Filtermechanismus von Artikel 6(3) des AI-Gesetzes, der es ermöglicht, bestimmte KI-Systeme unter bestimmten Bedingungen von der Klassifizierung als hochriskant auszunehmen.
- Wenn relevant: Bedarf an Klarstellung der Unterscheidung zwischen der Klassifizierung als hochriskantes KI-System und KI-Praktiken, die gemäß Artikel 5 des AI-Gesetzes verboten sind (und weiter spezifiziert in den Richtlinien der Kommission zu verbotenen KI-Praktiken vom 3. Februar 2025) und der Wechselwirkung der Klassifizierung mit anderen Union-Gesetzgebungen.
Abschnitt 3
Allgemeine Fragen zur Klassifizierung hochriskanter KI-Systeme. Diese Kategorie umfasst Fragen zu:
- Der Vorstellung des beabsichtigten Zwecks, einschließlich ihrer Wechselwirkung mit allgemeinen KI-Systemen.
- Fällen potenzieller Überlappungen im Klassifizierungssystem des AI-Gesetzes unter den Anhängen I und III.
Abschnitt 4
Fragen zu Anforderungen und Verpflichtungen für hochriskante KI-Systeme und Verpflichtungen entlang der Wertschöpfungskette. Diese Kategorie umfasst Fragen zu:
- Den Anforderungen für hochriskante KI-Systeme und den Verpflichtungen der Anbieter.
- Den Verpflichtungen der Betreiber hochriskanter KI-Systeme.
- Dem Konzept der wesentlichen Modifikation und den Verpflichtungen entlang der Wertschöpfungskette in Artikel 25 des AI-Gesetzes.
Abschnitt 5
Fragen zu dem Bedarf an einer Änderung der Liste der hochriskanten Anwendungsfälle im Anhang III und der verbotenen KI-Praktiken, die in Artikel 5 festgelegt sind.
- Input für die obligatorische jährliche Bewertung des Bedarfs an Änderungen der Liste hochriskanter Anwendungsfälle im Anhang III.
- Input für die obligatorische jährliche Bewertung der Liste verbotener KI-Praktiken, die in Artikel 5 festgelegt sind.
Alle Beiträge zu dieser Konsultation können öffentlich zugänglich gemacht werden. Daher dürfen keine vertraulichen Informationen in Ihrem Beitrag geteilt werden. Einzelpersonen können beantragen, dass ihr Beitrag anonymisiert wird. Persönliche Daten werden anonymisiert.
Das AI-Büro wird eine Zusammenfassung der Ergebnisse der Konsultation veröffentlichen. Die Ergebnisse basieren auf aggregierten Daten und die Befragten werden nicht direkt zitiert.