Neue Haftungsregeln für KI: EU plant Richtlinie nach dem AI Act

EU-Gesetzgebung nach dem AI-Gesetz: Brüssel erwägt neue Haftungsregeln

Die EU hat eine Konsultation zu einem vorgeschlagenen AI-Haftungsrichtlinie (AILD) eröffnet. Die AILD würde ein Haftungsregime für AI-Entwickler und Benutzer etablieren. Wichtige Fragen, die die Konsultation erforschen wird, sind, ob eine solche Richtlinie überhaupt notwendig ist und ob neue Gesetze eine Haftpflichtversicherung für AI vorschreiben sollten.

Nachdem das AI-Gesetz jetzt offiziell in Kraft ist, haben sich die Gesetzgeber auf den nächsten legislativen Vorschlag konzentriert, der auf Technologie der künstlichen Intelligenz abzielt.

Einheitlicher Haftungsrahmen für AI

Die AILD, die erstmals 2022 vorgeschlagen wurde, würde einen einheitlichen, EU-weiten zivilrechtlichen Haftungsrahmen für Schäden einführen, die durch AI-Systeme verursacht werden. Eine am 3. Februar gestartete Konsultation deutet jedoch auf geteilte Meinungen über die vorgeschlagene Gesetzgebung hin.

Benötigt die EU mehr AI-Regeln?

Als die Europäische Kommission die AILD zunächst vorschlug, wurde AI durch ein Patchwork aus EU- und nationalen Gesetzen reguliert – viele davon wurden mit völlig unterschiedlichen technologischen Kontexten im Hinterkopf verfasst.

Seitdem hat das AI-Gesetz jedoch den regulatorischen Rahmen harmonisiert, der die Nutzung und Entwicklung der Technologie abdeckt.

Im Jahr 2024 hat die EU auch die Produkt-Haftungsrichtlinie (PLD) aktualisiert, um sie an das digitale Zeitalter anzupassen, und einen neuen Abschnitt über „Software und AI-Systeme“ aufgenommen, der die Verantwortlichkeiten der Entwickler gegenüber den Benutzern umreißt.

Stakeholder-Meinungen zur Haftung

Einige Stakeholder argumentieren, dass die PLD alle potenziellen AI-Haftungsszenarien ausreichend abdeckt und dass die AILD nicht mehr notwendig ist. Eine Wirkungsanalyse des Europäischen Parlaments kam jedoch zu dem Schluss, dass mehrere Angelegenheiten von der überarbeiteten PLD nicht behandelt werden.

Die PLD legt beispielsweise nur die Haftung für professionelle oder unternehmerische AI-Nutzer fest und lässt ein „regulatorisches Vakuum“ offen, wenn es um Schäden durch nicht-professionelle AI-Nutzer geht. Zudem spezifiziert die PLD derzeit eine enge Palette von Schäden, die für eine Entschädigung in Betracht kommen, was laut der Wirkungsanalyse „signifikante Schlupflöcher“ im Coverage schafft.

Beispielsweise deckt die Richtlinie keine Fälle ab, in denen AI zu diskriminierenden Ergebnissen führt, Verstöße gegen das Recht auf Privatsphäre und Würde von Personen oder Fragen im Zusammenhang mit den Umwelt- und Klimafolgen von AI-Systemen.

Gesetzgeber erwägen Haftpflichtversicherung für AI

Eine der Fragen, die in der Konsultation zur AILD vorgeschlagen wird, ist, ob die vorgeschlagene Richtlinie eine Verpflichtung zur Versicherung gegen AI-Haftungsrisiken beinhalten sollte. Die Position der Europäischen Kommission besteht darin, dass alle Betreiber von hochriskanten AI-Systemen über eine Haftpflichtversicherung verfügen sollten. Dies könnte erhebliche zusätzliche Kosten für Unternehmen verursachen, die Technologien entwickeln, die gemäß Artikel 6 des AI-Gesetzes als hochriskant eingestuft werden.

Entwickler von biometrischen Überwachungstools könnten beispielsweise verpflichtet werden, sich gegen das Risiko falscher Identifikationen abzusichern.

Die Konsultation wirft die Frage auf, ob Versicherer genügend Daten haben, um AI-Risiken effektiv zu bewerten. Ein aktueller Bericht von Deloitte identifizierte einen globalen Mangel an AI-bezogenen Versicherungsprodukten und stellte fest, dass „der Mangel an historischen Daten über die Leistung von AI-Modellen und die Geschwindigkeit, mit der sie sich weiterentwickeln, eine Bewertung und Preisgestaltung von Risiken schwierig machen kann.“

Nächste Schritte zur AI-Haftungsrichtlinie

Nach der sechs Wochen dauernden Konsultation wird der AILD-Berichterstatter des Europäischen Parlaments, Axel Voss, im Juni über die Ergebnisse berichten und dann eine zweite, zwölfwöchige Konsultation eröffnen. Das Parlament und die Europäische Kommission werden von September bis Dezember über den vorgeschlagenen Richtlinienvorschlag verhandeln. Der Rechtsausschuss wird voraussichtlich im Januar 2026 über das endgültige Dokument abstimmen, bevor es in der letzten Plenarsitzung im Februar behandelt wird.

More Insights

KI-Ingenieure vs. Verantwortungsvolle KI-Ingenieure: Intelligenter bauen oder sicherer gestalten

Künstliche Intelligenz hat in den letzten Jahren enorme Fortschritte gemacht, was AI-Ingenieure an die Spitze der Innovation stellt. Gleichzeitig bringt diese Macht Verantwortung mit sich, da Fragen...

Verantwortungsbewusste KI: Eine neue Notwendigkeit

Dr. Anna Zeiter betont, dass verantwortungsvolle KI nicht nur ein Schlagwort ist, sondern eine grundlegende Notwendigkeit. Sie hebt hervor, dass Vertrauen und Verantwortlichkeit entscheidend sind, um...

KI-Integration in Unternehmen: Compliance im Fokus

Künstliche Intelligenz soll Unternehmen schneller, intelligenter und wettbewerbsfähiger machen, aber die meisten Projekte scheitern. Der Cloud Security Alliance (CSA) zufolge liegt das Problem darin...

Erhalt von generativen KI-Inhalten: Rechtliche und organisatorische Herausforderungen

Generative KI-Tools, die Texte und Medien basierend auf den Daten erstellen, mit denen sie trainiert wurden, werfen rechtliche Bedenken hinsichtlich Datenschutz, Datensicherheit und Privilegien auf...

Verantwortungsvolles KI-Management: Prinzipien und Vorteile

Künstliche Intelligenz verändert, wie wir leben und arbeiten, weshalb es wichtig ist, sie auf die richtige Weise zu nutzen. Verantwortliche KI bedeutet, KI zu schaffen und zu verwenden, die fair...

Vertrauenswürdige KI: Erfolgsfaktor für Unternehmen im Zeitalter der Innovation

In den letzten zwanzig Jahren hat sich die Abhängigkeit von künstlicher Intelligenz (KI) zur Entscheidungsfindung in Unternehmen stark entwickelt. Um in diesem neuen Modell effektiv zu arbeiten...

KI-Regulierung in Spanien: Fortschritte und Herausforderungen

Spanien ist Vorreiter in der KI-Governance mit dem ersten KI-Regulator Europas (AESIA) und einem bereits aktiven regulatorischen Sandbox. Zudem wird ein nationaler KI-Gesetzentwurf vorbereitet, der...

Globale Regulierung von KI: Ein Überblick über Israel

Künstliche Intelligenz (KI) hat in den letzten Jahren enorme Fortschritte gemacht und ist zunehmend in das öffentliche Bewusstsein gerückt. Regierungen und Aufsichtsbehörden weltweit müssen schnell...

KI im Glücksspiel: Chancen und Herausforderungen der Regulierung

Der Einsatz von Künstlicher Intelligenz (KI) im Glücksspielsektor bringt sowohl Chancen als auch Risiken mit sich, da die regulatorischen Anforderungen steigen und die Haftungsrisiken zunehmen...