EU AI Act: Pflichten für hochriskante KI starten

Experten aus dem Technologiesektor teilen ihre Ansichten zu den bevorstehenden Änderungen des EU AI Act

Die vorbereitenden Verpflichtungen für hochriskante KI-Systeme treten heute in Kraft, während der EU AI Act näher an seiner vollständigen Anwendung rückt. Diese Regeln gelten für Organisationen innerhalb und außerhalb der EU, die KI-Systeme auf dem EU-Markt anbieten oder sie innerhalb des Blocks verwenden.

Die Europäische Kommission erklärt, dass das Gesetz auf Sicherheits- und Rechtsrisiken reagiert, die mit bestimmten KI-Anwendungen verbunden sind. In ihren Richtlinien heißt es: „Der AI Act ist das weltweit erste umfassende Gesetz für KI. Es zielt darauf ab, Risiken für Gesundheit, Sicherheit und grundlegende Rechte anzugehen.“ Hochriskante Systeme umfassen KI, die in Bereichen wie Rekrutierung, Kreditbewertung, Zugang zu Gesundheitsversorgung, Bildungsbewertung und Strafverfolgung eingesetzt wird. Dies sind Anwendungen, bei denen automatisierte Ergebnisse direkte und anhaltende Entscheidungen über Einzelpersonen beeinflussen können.

Was müssen Anbieter tun, bevor sie hochriskante KI auf den Markt bringen?

Anbieter müssen eine Konformitätsbewertung durchführen, bevor ein hochriskantes KI-System auf den Markt kommt oder in Betrieb genommen wird. Diese Bewertung überprüft das Risikomanagement, die Datenverwaltung, die technische Dokumentation, die Transparenz, die menschliche Aufsicht, die Genauigkeit und die Cybersicherheit. Ein Qualitätsmanagementsystem muss ebenfalls während des gesamten Lebenszyklus des Systems vorhanden sein. Laut der Kommission bleiben Anbieter hochriskanter KI-Systeme verantwortlich für die Sicherheit und Konformität des Systems während seines gesamten Lebenszyklus.

Jedes hochriskante System muss in eine öffentliche EU-Datenbank eingetragen werden. Die Behörden können diese Informationen im Rahmen der Marktüberwachung überprüfen. Wenn das System oder seine beabsichtigte Verwendung sich wesentlich ändert, muss die Bewertung erneut durchgeführt werden.

Neue Pflichten für Betreiber und öffentliche Behörden

Betreiber müssen die Gebrauchsanweisungen befolgen und überwachen, wie Systeme in der Praxis funktionieren. Die menschliche Aufsicht muss Mitarbeitern zugewiesen werden, die befugt sind, einzugreifen, wenn Risiken auftreten. Öffentliche Behörden und Organisationen, die öffentliche Dienstleistungen erbringen, müssen vor der ersten Nutzung eine Grundrechtsauswirkungsanalyse durchführen. Diese untersucht die Auswirkungen auf unter EU-Recht geschützte Rechte sowie die datenschutzrechtlichen Pflichten.

Betroffene Personen müssen über KI-gestützte Entscheidungen informiert werden. Wo eine Entscheidung rechtliche Auswirkungen hat, können Einzelpersonen eine Erklärung anfordern. Der Act besagt, dass Betreiber eine „klare und bedeutungsvolle Erklärung“ geben müssen. Bei der Nutzung am Arbeitsplatz gibt es zusätzliche Informationspflichten. Mitarbeiter und Vertreter der Arbeitnehmer müssen vor der Einführung hochriskanter Systeme informiert werden.

Warum sind Klassifizierung und Richtlinien in diesem Stadium weiterhin notwendig?

Der Act klassifiziert hochriskante KI nach ihrem beabsichtigten Zweck. Anhang III listet empfindliche Anwendungen in Beschäftigung, Bildung, Migration, Justiz und biometrischer Identifikation auf. Anbieter können argumentieren, dass ein System aus Anhang III kein hohes Risiko darstellt, wenn es eine eingeschränkte oder vorbereitende Aufgabe erfüllt und keine Ergebnisse beeinflusst. Diese Bewertung muss dokumentiert und den Behörden auf Anfrage vorgelegt werden.

Die Kommission erklärt, dass sie Richtlinien mit praktischen Beispielen herausgeben wird, um die Klassifizierung zu unterstützen. Ziel ist es, den Unternehmen Klarheit zu geben und gleichzeitig den Schutz von Gesundheit, Sicherheit und grundlegenden Rechten aufrechtzuerhalten. Strafen unterstreichen die Regeln, mit Geldstrafen von bis zu 35 Millionen Euro oder 7 % des weltweiten Umsatzes für verbotene Praktiken und niedrigeren Schwellenwerten für andere Verstöße.

Reaktionen von Technologieexperten auf die Aktualisierungen

Experten aus der Branche äußern sich zu den Aktualisierungen des EU AI Act. Sie betonen die Bedeutung von Klarheit und Transparenz in der KI-Nutzung sowie die Notwendigkeit, verantwortungsvolle Innovation voranzutreiben. Die neuen Richtlinien werden als entscheidend angesehen, um das Vertrauen in KI zu stärken und die Wettbewerbsfähigkeit Europas zu sichern.

Fazit

Die Einführung des EU AI Acts stellt einen bedeutenden Schritt in Richtung einer klaren und verantwortungsvollen Regulierung von KI dar. Unternehmen sind gefordert, sowohl Innovation als auch Compliance zu balancieren, um das volle Potenzial von KI zu nutzen und gleichzeitig die Rechte und Sicherheit der Bürger zu schützen.

More Insights

Verantwortungsvolle KI: Ein unverzichtbares Gebot für Unternehmen

Unternehmen sind sich der Notwendigkeit von verantwortungsvollem KI-Betrieb bewusst, behandeln ihn jedoch oft als nachträglichen Gedanken oder separates Projekt. Verantwortliche KI ist eine vordere...

Neues KI-Governance-Modell gegen Schatten-KI

Künstliche Intelligenz (KI) verbreitet sich schnell in den Arbeitsplatz und verändert, wie alltägliche Aufgaben erledigt werden. Unternehmen müssen ihre Ansätze zur KI-Politik überdenken, um mit der...

EU plant Aufschub für AI-Gesetzgebung

Die EU plant, die Anforderungen für risikobehaftete KI-Systeme im KI-Gesetz bis Ende 2027 zu verschieben, um Unternehmen mehr Zeit zu geben, sich anzupassen. Kritiker befürchten, dass diese...

Weißes Haus lehnt GAIN AI-Gesetz ab: Nvidia im Fokus

Das Weiße Haus hat sich gegen den GAIN AI Act ausgesprochen, während es um die Exportbeschränkungen für Nvidia-AI-Chips nach China geht. Die Diskussion spiegelt die politischen Spannungen wider, die...

Ethische KI als Beschleuniger für Innovation

Unternehmen stehen heute unter Druck, mit künstlicher Intelligenz zu innovieren, oft jedoch ohne die notwendigen Sicherheitsvorkehrungen. Indem sie Datenschutz und Ethik in den Entwicklungsprozess...

KI im Recruiting: Verborgene Risiken für Arbeitgeber

Künstliche Intelligenz verändert die Art und Weise, wie Arbeitgeber Talente rekrutieren und bewerten. Während diese Tools Effizienz und Kosteneinsparungen versprechen, bringen sie auch erhebliche...

KI im australischen Kabinett: Chancen und Sicherheitsbedenken

Die australische Regierung könnte in Betracht ziehen, KI-Programme zur Erstellung sensibler Kabinettsanträge zu nutzen, trotz Bedenken hinsichtlich Sicherheitsrisiken und Datenverletzungen...