EU-Gesetzgebung nach dem AI-Gesetz: Brüssel erwägt neue Haftungsregeln
Die EU hat eine Konsultation zu einem vorgeschlagenen AI-Haftungsrichtlinie (AILD) eröffnet. Die AILD würde ein Haftungsregime für AI-Entwickler und Benutzer etablieren. Wichtige Fragen, die die Konsultation erforschen wird, sind, ob eine solche Richtlinie überhaupt notwendig ist und ob neue Gesetze eine Haftpflichtversicherung für AI vorschreiben sollten.
Nachdem das AI-Gesetz jetzt offiziell in Kraft ist, haben sich die Gesetzgeber auf den nächsten legislativen Vorschlag konzentriert, der auf Technologie der künstlichen Intelligenz abzielt.
Einheitlicher Haftungsrahmen für AI
Die AILD, die erstmals 2022 vorgeschlagen wurde, würde einen einheitlichen, EU-weiten zivilrechtlichen Haftungsrahmen für Schäden einführen, die durch AI-Systeme verursacht werden. Eine am 3. Februar gestartete Konsultation deutet jedoch auf geteilte Meinungen über die vorgeschlagene Gesetzgebung hin.
Benötigt die EU mehr AI-Regeln?
Als die Europäische Kommission die AILD zunächst vorschlug, wurde AI durch ein Patchwork aus EU- und nationalen Gesetzen reguliert – viele davon wurden mit völlig unterschiedlichen technologischen Kontexten im Hinterkopf verfasst.
Seitdem hat das AI-Gesetz jedoch den regulatorischen Rahmen harmonisiert, der die Nutzung und Entwicklung der Technologie abdeckt.
Im Jahr 2024 hat die EU auch die Produkt-Haftungsrichtlinie (PLD) aktualisiert, um sie an das digitale Zeitalter anzupassen, und einen neuen Abschnitt über „Software und AI-Systeme“ aufgenommen, der die Verantwortlichkeiten der Entwickler gegenüber den Benutzern umreißt.
Stakeholder-Meinungen zur Haftung
Einige Stakeholder argumentieren, dass die PLD alle potenziellen AI-Haftungsszenarien ausreichend abdeckt und dass die AILD nicht mehr notwendig ist. Eine Wirkungsanalyse des Europäischen Parlaments kam jedoch zu dem Schluss, dass mehrere Angelegenheiten von der überarbeiteten PLD nicht behandelt werden.
Die PLD legt beispielsweise nur die Haftung für professionelle oder unternehmerische AI-Nutzer fest und lässt ein „regulatorisches Vakuum“ offen, wenn es um Schäden durch nicht-professionelle AI-Nutzer geht. Zudem spezifiziert die PLD derzeit eine enge Palette von Schäden, die für eine Entschädigung in Betracht kommen, was laut der Wirkungsanalyse „signifikante Schlupflöcher“ im Coverage schafft.
Beispielsweise deckt die Richtlinie keine Fälle ab, in denen AI zu diskriminierenden Ergebnissen führt, Verstöße gegen das Recht auf Privatsphäre und Würde von Personen oder Fragen im Zusammenhang mit den Umwelt- und Klimafolgen von AI-Systemen.
Gesetzgeber erwägen Haftpflichtversicherung für AI
Eine der Fragen, die in der Konsultation zur AILD vorgeschlagen wird, ist, ob die vorgeschlagene Richtlinie eine Verpflichtung zur Versicherung gegen AI-Haftungsrisiken beinhalten sollte. Die Position der Europäischen Kommission besteht darin, dass alle Betreiber von hochriskanten AI-Systemen über eine Haftpflichtversicherung verfügen sollten. Dies könnte erhebliche zusätzliche Kosten für Unternehmen verursachen, die Technologien entwickeln, die gemäß Artikel 6 des AI-Gesetzes als hochriskant eingestuft werden.
Entwickler von biometrischen Überwachungstools könnten beispielsweise verpflichtet werden, sich gegen das Risiko falscher Identifikationen abzusichern.
Die Konsultation wirft die Frage auf, ob Versicherer genügend Daten haben, um AI-Risiken effektiv zu bewerten. Ein aktueller Bericht von Deloitte identifizierte einen globalen Mangel an AI-bezogenen Versicherungsprodukten und stellte fest, dass „der Mangel an historischen Daten über die Leistung von AI-Modellen und die Geschwindigkeit, mit der sie sich weiterentwickeln, eine Bewertung und Preisgestaltung von Risiken schwierig machen kann.“
Nächste Schritte zur AI-Haftungsrichtlinie
Nach der sechs Wochen dauernden Konsultation wird der AILD-Berichterstatter des Europäischen Parlaments, Axel Voss, im Juni über die Ergebnisse berichten und dann eine zweite, zwölfwöchige Konsultation eröffnen. Das Parlament und die Europäische Kommission werden von September bis Dezember über den vorgeschlagenen Richtlinienvorschlag verhandeln. Der Rechtsausschuss wird voraussichtlich im Januar 2026 über das endgültige Dokument abstimmen, bevor es in der letzten Plenarsitzung im Februar behandelt wird.