Zielgerichtete Stakeholder-Konsultation zur Einstufung von KI-Systemen als Hochrisiko

Zielgerichtete Konsultation der Interessenvertreter zur Klassifizierung von KI-Systemen als hochriskant

Die vorliegende Konsultation richtet sich an Interessengruppen unterschiedlicher Kategorien. Zu diesen Kategorien gehören, aber sind nicht beschränkt auf, Anbieter und Betreiber von (hochriskanten) KI-Systemen, andere Industrieorganisationen, sowie Wissenschaftler, unabhängige Experten, Organisationen der Zivilgesellschaft und öffentliche Behörden.

Das Gesetz über künstliche Intelligenz (das „AI-Gesetz“), das am 1. August 2024 in Kraft trat, schafft einen einheitlichen Markt und harmonisierte Regeln für vertrauenswürdige und menschzentrierte künstliche Intelligenz in der EU. Es zielt darauf ab, Innovation und Einsatz von KI zu fördern, während ein hohes Maß an Schutz für Gesundheit, Sicherheit und grundlegende Rechte, einschließlich Demokratie und Rechtsstaatlichkeit, gewährleistet wird. Das AI-Gesetz folgt einem risikobasierten Ansatz, der KI-Systeme in verschiedene Risikokategorien einteilt, von denen eine die hochriskanten KI-Systeme darstellt (Kapitel III des AI-Gesetzes). Die relevanten Verpflichtungen für diese Systeme werden zwei Jahre nach Inkrafttreten des AI-Gesetzes, also ab dem 2. August 2026, anwendbar sein.

Klassifizierung hochriskanter KI-Systeme

Das AI-Gesetz unterscheidet zwischen zwei Kategorien von KI-Systemen, die als „hochriskant“ betrachtet werden, die in Artikel 6(1) und 6(2) des AI-Gesetzes festgelegt sind. Artikel 6(1) bezieht sich auf KI-Systeme, die als Sicherheitskomponenten in Produkten integriert sind oder die selbst Produkte sind, die durch die Union Gesetzgebung in Anhang I abgedeckt sind und die negative Auswirkungen auf die Gesundheit und Sicherheit von Personen haben könnten. Artikel 6(2) bezieht sich auf KI-Systeme, die aufgrund ihres beabsichtigten Zwecks als erhebliches Risiko für Gesundheit, Sicherheit oder grundlegende Rechte gelten.

Das AI-Gesetz listet acht Bereiche auf, in denen KI-Systeme ein solches erhebliches Risiko für Gesundheit, Sicherheit oder grundlegende Rechte darstellen könnten, die in Anhang III aufgeführt sind. Innerhalb jedes Bereichs werden spezifische Anwendungsfälle aufgelistet, die als hochriskant klassifiziert werden sollen. Artikel 6(3) des AI-Gesetzes sieht Ausnahmen für KI-Systeme vor, die für einen der im Anhang III aufgeführten Fälle bestimmt sind, aber kein erhebliches Risiko darstellen, da sie unter eine der in Artikel 6(3) aufgeführten Ausnahmen fallen.

Entwicklung und Verpflichtungen für hochriskante KI-Systeme

Hochriskante KI-Systeme müssen entwickelt und gestaltet werden, um die Anforderungen zu erfüllen, die in Kapitel III Abschnitt 2 in Bezug auf Daten und Datenverwaltung, Dokumentation und Aufzeichnung, Transparenz und Bereitstellung von Informationen für Benutzer, menschliche Aufsicht, Robustheit, Genauigkeit und Sicherheit festgelegt sind. Anbieter hochriskanter KI-Systeme müssen sicherstellen, dass ihr hochriskantes KI-System diesen Anforderungen entspricht und müssen selbst eine Reihe von Verpflichtungen gemäß Kapitel III Abschnitt 3 einhalten, insbesondere die Verpflichtung zur Implementierung eines Qualitätsmanagementsystems und sicherzustellen, dass das hochriskante KI-System einer Konformitätsbewertung unterzogen wird, bevor es auf den Markt gebracht oder in Betrieb genommen wird.

Das AI-Gesetz legt auch Verpflichtungen für Betreiber hochriskanter KI-Systeme fest, die sich auf den korrekten Gebrauch, die menschliche Aufsicht, die Überwachung des Betriebs des hochriskanten KI-Systems und in bestimmten Fällen auf die Transparenz gegenüber betroffenen Personen beziehen.

Zweck der Konsultation

Der Zweck der vorliegenden zielgerichteten Konsultation der Interessenvertreter ist es, Input von Interessengruppen zu praktischen Beispielen von KI-Systemen und Themen zu sammeln, die in den Richtlinien der Kommission zur Klassifizierung hochriskanter KI-Systeme und zukünftigen Richtlinien zu hochriskanten Anforderungen und Verpflichtungen sowie Verantwortlichkeiten entlang der KI-Wertschöpfungskette klargestellt werden sollen.

Da nicht alle Fragen für alle Interessengruppen relevant sein mögen, können die Befragten nur auf die Abschnitte und Fragen antworten, die sie interessieren. Die Befragten werden ermutigt, Erklärungen und praktische Fälle als Teil ihrer Antworten bereitzustellen, um die praktische Nützlichkeit der Richtlinien zu unterstützen.

Die zielgerichtete Konsultation ist nur in Englisch verfügbar und wird für 6 Wochen geöffnet sein, beginnend am 6. Juni bis zum 18. Juli 2025.

Der Fragebogen für diese Konsultation ist in 5 Abschnitte mit mehreren Fragen gegliedert.

Struktur des Fragebogens

Bezüglich der Abschnitte 1 und 2 werden die Befragten gebeten, Antworten gemäß den Teilen der Umfrage zu geben, für die sie in Frage 13 Interesse bekundet haben, während alle Teilnehmer freundlich gebeten werden, Input für die Abschnitte 3, 4 und 5 zu geben.

Abschnitt 1

Fragen in Bezug auf die Klassifizierungsregeln hochriskanter KI-Systeme in Artikel 6(1) und dem Anhang I zum AI-Gesetz.

Abschnitt 2

Fragen zur Klassifizierung hochriskanter KI-Systeme in Artikel 6(2) und dem Anhang III des AI-Gesetzes. Diese Kategorie umfasst Fragen zu:

  • KI-Systemen in jedem Anwendungsfall unter den 8 Bereichen, die im Anhang III erwähnt werden.
  • Dem Filtermechanismus von Artikel 6(3) des AI-Gesetzes, der es ermöglicht, bestimmte KI-Systeme unter bestimmten Bedingungen von der Klassifizierung als hochriskant auszunehmen.
  • Wenn relevant: Bedarf an Klarstellung der Unterscheidung zwischen der Klassifizierung als hochriskantes KI-System und KI-Praktiken, die gemäß Artikel 5 des AI-Gesetzes verboten sind (und weiter spezifiziert in den Richtlinien der Kommission zu verbotenen KI-Praktiken vom 3. Februar 2025) und der Wechselwirkung der Klassifizierung mit anderen Union-Gesetzgebungen.

Abschnitt 3

Allgemeine Fragen zur Klassifizierung hochriskanter KI-Systeme. Diese Kategorie umfasst Fragen zu:

  • Der Vorstellung des beabsichtigten Zwecks, einschließlich ihrer Wechselwirkung mit allgemeinen KI-Systemen.
  • Fällen potenzieller Überlappungen im Klassifizierungssystem des AI-Gesetzes unter den Anhängen I und III.

Abschnitt 4

Fragen zu Anforderungen und Verpflichtungen für hochriskante KI-Systeme und Verpflichtungen entlang der Wertschöpfungskette. Diese Kategorie umfasst Fragen zu:

  • Den Anforderungen für hochriskante KI-Systeme und den Verpflichtungen der Anbieter.
  • Den Verpflichtungen der Betreiber hochriskanter KI-Systeme.
  • Dem Konzept der wesentlichen Modifikation und den Verpflichtungen entlang der Wertschöpfungskette in Artikel 25 des AI-Gesetzes.

Abschnitt 5

Fragen zu dem Bedarf an einer Änderung der Liste der hochriskanten Anwendungsfälle im Anhang III und der verbotenen KI-Praktiken, die in Artikel 5 festgelegt sind.

  • Input für die obligatorische jährliche Bewertung des Bedarfs an Änderungen der Liste hochriskanter Anwendungsfälle im Anhang III.
  • Input für die obligatorische jährliche Bewertung der Liste verbotener KI-Praktiken, die in Artikel 5 festgelegt sind.

Alle Beiträge zu dieser Konsultation können öffentlich zugänglich gemacht werden. Daher dürfen keine vertraulichen Informationen in Ihrem Beitrag geteilt werden. Einzelpersonen können beantragen, dass ihr Beitrag anonymisiert wird. Persönliche Daten werden anonymisiert.

Das AI-Büro wird eine Zusammenfassung der Ergebnisse der Konsultation veröffentlichen. Die Ergebnisse basieren auf aggregierten Daten und die Befragten werden nicht direkt zitiert.

More Insights

KI-Ingenieure vs. Verantwortungsvolle KI-Ingenieure: Intelligenter bauen oder sicherer gestalten

Künstliche Intelligenz hat in den letzten Jahren enorme Fortschritte gemacht, was AI-Ingenieure an die Spitze der Innovation stellt. Gleichzeitig bringt diese Macht Verantwortung mit sich, da Fragen...

Verantwortungsbewusste KI: Eine neue Notwendigkeit

Dr. Anna Zeiter betont, dass verantwortungsvolle KI nicht nur ein Schlagwort ist, sondern eine grundlegende Notwendigkeit. Sie hebt hervor, dass Vertrauen und Verantwortlichkeit entscheidend sind, um...

KI-Integration in Unternehmen: Compliance im Fokus

Künstliche Intelligenz soll Unternehmen schneller, intelligenter und wettbewerbsfähiger machen, aber die meisten Projekte scheitern. Der Cloud Security Alliance (CSA) zufolge liegt das Problem darin...

Erhalt von generativen KI-Inhalten: Rechtliche und organisatorische Herausforderungen

Generative KI-Tools, die Texte und Medien basierend auf den Daten erstellen, mit denen sie trainiert wurden, werfen rechtliche Bedenken hinsichtlich Datenschutz, Datensicherheit und Privilegien auf...

Verantwortungsvolles KI-Management: Prinzipien und Vorteile

Künstliche Intelligenz verändert, wie wir leben und arbeiten, weshalb es wichtig ist, sie auf die richtige Weise zu nutzen. Verantwortliche KI bedeutet, KI zu schaffen und zu verwenden, die fair...

Vertrauenswürdige KI: Erfolgsfaktor für Unternehmen im Zeitalter der Innovation

In den letzten zwanzig Jahren hat sich die Abhängigkeit von künstlicher Intelligenz (KI) zur Entscheidungsfindung in Unternehmen stark entwickelt. Um in diesem neuen Modell effektiv zu arbeiten...

KI-Regulierung in Spanien: Fortschritte und Herausforderungen

Spanien ist Vorreiter in der KI-Governance mit dem ersten KI-Regulator Europas (AESIA) und einem bereits aktiven regulatorischen Sandbox. Zudem wird ein nationaler KI-Gesetzentwurf vorbereitet, der...

Globale Regulierung von KI: Ein Überblick über Israel

Künstliche Intelligenz (KI) hat in den letzten Jahren enorme Fortschritte gemacht und ist zunehmend in das öffentliche Bewusstsein gerückt. Regierungen und Aufsichtsbehörden weltweit müssen schnell...

KI im Glücksspiel: Chancen und Herausforderungen der Regulierung

Der Einsatz von Künstlicher Intelligenz (KI) im Glücksspielsektor bringt sowohl Chancen als auch Risiken mit sich, da die regulatorischen Anforderungen steigen und die Haftungsrisiken zunehmen...