Experten aus dem Technologiesektor teilen ihre Ansichten zu den bevorstehenden Änderungen des EU AI Act
Die vorbereitenden Verpflichtungen für hochriskante KI-Systeme treten heute in Kraft, während der EU AI Act näher an seiner vollständigen Anwendung rückt. Diese Regeln gelten für Organisationen innerhalb und außerhalb der EU, die KI-Systeme auf dem EU-Markt anbieten oder sie innerhalb des Blocks verwenden.
Die Europäische Kommission erklärt, dass das Gesetz auf Sicherheits- und Rechtsrisiken reagiert, die mit bestimmten KI-Anwendungen verbunden sind. In ihren Richtlinien heißt es: „Der AI Act ist das weltweit erste umfassende Gesetz für KI. Es zielt darauf ab, Risiken für Gesundheit, Sicherheit und grundlegende Rechte anzugehen.“ Hochriskante Systeme umfassen KI, die in Bereichen wie Rekrutierung, Kreditbewertung, Zugang zu Gesundheitsversorgung, Bildungsbewertung und Strafverfolgung eingesetzt wird. Dies sind Anwendungen, bei denen automatisierte Ergebnisse direkte und anhaltende Entscheidungen über Einzelpersonen beeinflussen können.
Was müssen Anbieter tun, bevor sie hochriskante KI auf den Markt bringen?
Anbieter müssen eine Konformitätsbewertung durchführen, bevor ein hochriskantes KI-System auf den Markt kommt oder in Betrieb genommen wird. Diese Bewertung überprüft das Risikomanagement, die Datenverwaltung, die technische Dokumentation, die Transparenz, die menschliche Aufsicht, die Genauigkeit und die Cybersicherheit. Ein Qualitätsmanagementsystem muss ebenfalls während des gesamten Lebenszyklus des Systems vorhanden sein. Laut der Kommission bleiben Anbieter hochriskanter KI-Systeme verantwortlich für die Sicherheit und Konformität des Systems während seines gesamten Lebenszyklus.
Jedes hochriskante System muss in eine öffentliche EU-Datenbank eingetragen werden. Die Behörden können diese Informationen im Rahmen der Marktüberwachung überprüfen. Wenn das System oder seine beabsichtigte Verwendung sich wesentlich ändert, muss die Bewertung erneut durchgeführt werden.
Neue Pflichten für Betreiber und öffentliche Behörden
Betreiber müssen die Gebrauchsanweisungen befolgen und überwachen, wie Systeme in der Praxis funktionieren. Die menschliche Aufsicht muss Mitarbeitern zugewiesen werden, die befugt sind, einzugreifen, wenn Risiken auftreten. Öffentliche Behörden und Organisationen, die öffentliche Dienstleistungen erbringen, müssen vor der ersten Nutzung eine Grundrechtsauswirkungsanalyse durchführen. Diese untersucht die Auswirkungen auf unter EU-Recht geschützte Rechte sowie die datenschutzrechtlichen Pflichten.
Betroffene Personen müssen über KI-gestützte Entscheidungen informiert werden. Wo eine Entscheidung rechtliche Auswirkungen hat, können Einzelpersonen eine Erklärung anfordern. Der Act besagt, dass Betreiber eine „klare und bedeutungsvolle Erklärung“ geben müssen. Bei der Nutzung am Arbeitsplatz gibt es zusätzliche Informationspflichten. Mitarbeiter und Vertreter der Arbeitnehmer müssen vor der Einführung hochriskanter Systeme informiert werden.
Warum sind Klassifizierung und Richtlinien in diesem Stadium weiterhin notwendig?
Der Act klassifiziert hochriskante KI nach ihrem beabsichtigten Zweck. Anhang III listet empfindliche Anwendungen in Beschäftigung, Bildung, Migration, Justiz und biometrischer Identifikation auf. Anbieter können argumentieren, dass ein System aus Anhang III kein hohes Risiko darstellt, wenn es eine eingeschränkte oder vorbereitende Aufgabe erfüllt und keine Ergebnisse beeinflusst. Diese Bewertung muss dokumentiert und den Behörden auf Anfrage vorgelegt werden.
Die Kommission erklärt, dass sie Richtlinien mit praktischen Beispielen herausgeben wird, um die Klassifizierung zu unterstützen. Ziel ist es, den Unternehmen Klarheit zu geben und gleichzeitig den Schutz von Gesundheit, Sicherheit und grundlegenden Rechten aufrechtzuerhalten. Strafen unterstreichen die Regeln, mit Geldstrafen von bis zu 35 Millionen Euro oder 7 % des weltweiten Umsatzes für verbotene Praktiken und niedrigeren Schwellenwerten für andere Verstöße.
Reaktionen von Technologieexperten auf die Aktualisierungen
Experten aus der Branche äußern sich zu den Aktualisierungen des EU AI Act. Sie betonen die Bedeutung von Klarheit und Transparenz in der KI-Nutzung sowie die Notwendigkeit, verantwortungsvolle Innovation voranzutreiben. Die neuen Richtlinien werden als entscheidend angesehen, um das Vertrauen in KI zu stärken und die Wettbewerbsfähigkeit Europas zu sichern.
Fazit
Die Einführung des EU AI Acts stellt einen bedeutenden Schritt in Richtung einer klaren und verantwortungsvollen Regulierung von KI dar. Unternehmen sind gefordert, sowohl Innovation als auch Compliance zu balancieren, um das volle Potenzial von KI zu nutzen und gleichzeitig die Rechte und Sicherheit der Bürger zu schützen.