Neue Haftungsregeln für KI: EU plant Richtlinie nach dem AI Act

EU-Gesetzgebung nach dem AI-Gesetz: Brüssel erwägt neue Haftungsregeln

Die EU hat eine Konsultation zu einem vorgeschlagenen AI-Haftungsrichtlinie (AILD) eröffnet. Die AILD würde ein Haftungsregime für AI-Entwickler und Benutzer etablieren. Wichtige Fragen, die die Konsultation erforschen wird, sind, ob eine solche Richtlinie überhaupt notwendig ist und ob neue Gesetze eine Haftpflichtversicherung für AI vorschreiben sollten.

Nachdem das AI-Gesetz jetzt offiziell in Kraft ist, haben sich die Gesetzgeber auf den nächsten legislativen Vorschlag konzentriert, der auf Technologie der künstlichen Intelligenz abzielt.

Einheitlicher Haftungsrahmen für AI

Die AILD, die erstmals 2022 vorgeschlagen wurde, würde einen einheitlichen, EU-weiten zivilrechtlichen Haftungsrahmen für Schäden einführen, die durch AI-Systeme verursacht werden. Eine am 3. Februar gestartete Konsultation deutet jedoch auf geteilte Meinungen über die vorgeschlagene Gesetzgebung hin.

Benötigt die EU mehr AI-Regeln?

Als die Europäische Kommission die AILD zunächst vorschlug, wurde AI durch ein Patchwork aus EU- und nationalen Gesetzen reguliert – viele davon wurden mit völlig unterschiedlichen technologischen Kontexten im Hinterkopf verfasst.

Seitdem hat das AI-Gesetz jedoch den regulatorischen Rahmen harmonisiert, der die Nutzung und Entwicklung der Technologie abdeckt.

Im Jahr 2024 hat die EU auch die Produkt-Haftungsrichtlinie (PLD) aktualisiert, um sie an das digitale Zeitalter anzupassen, und einen neuen Abschnitt über „Software und AI-Systeme“ aufgenommen, der die Verantwortlichkeiten der Entwickler gegenüber den Benutzern umreißt.

Stakeholder-Meinungen zur Haftung

Einige Stakeholder argumentieren, dass die PLD alle potenziellen AI-Haftungsszenarien ausreichend abdeckt und dass die AILD nicht mehr notwendig ist. Eine Wirkungsanalyse des Europäischen Parlaments kam jedoch zu dem Schluss, dass mehrere Angelegenheiten von der überarbeiteten PLD nicht behandelt werden.

Die PLD legt beispielsweise nur die Haftung für professionelle oder unternehmerische AI-Nutzer fest und lässt ein „regulatorisches Vakuum“ offen, wenn es um Schäden durch nicht-professionelle AI-Nutzer geht. Zudem spezifiziert die PLD derzeit eine enge Palette von Schäden, die für eine Entschädigung in Betracht kommen, was laut der Wirkungsanalyse „signifikante Schlupflöcher“ im Coverage schafft.

Beispielsweise deckt die Richtlinie keine Fälle ab, in denen AI zu diskriminierenden Ergebnissen führt, Verstöße gegen das Recht auf Privatsphäre und Würde von Personen oder Fragen im Zusammenhang mit den Umwelt- und Klimafolgen von AI-Systemen.

Gesetzgeber erwägen Haftpflichtversicherung für AI

Eine der Fragen, die in der Konsultation zur AILD vorgeschlagen wird, ist, ob die vorgeschlagene Richtlinie eine Verpflichtung zur Versicherung gegen AI-Haftungsrisiken beinhalten sollte. Die Position der Europäischen Kommission besteht darin, dass alle Betreiber von hochriskanten AI-Systemen über eine Haftpflichtversicherung verfügen sollten. Dies könnte erhebliche zusätzliche Kosten für Unternehmen verursachen, die Technologien entwickeln, die gemäß Artikel 6 des AI-Gesetzes als hochriskant eingestuft werden.

Entwickler von biometrischen Überwachungstools könnten beispielsweise verpflichtet werden, sich gegen das Risiko falscher Identifikationen abzusichern.

Die Konsultation wirft die Frage auf, ob Versicherer genügend Daten haben, um AI-Risiken effektiv zu bewerten. Ein aktueller Bericht von Deloitte identifizierte einen globalen Mangel an AI-bezogenen Versicherungsprodukten und stellte fest, dass „der Mangel an historischen Daten über die Leistung von AI-Modellen und die Geschwindigkeit, mit der sie sich weiterentwickeln, eine Bewertung und Preisgestaltung von Risiken schwierig machen kann.“

Nächste Schritte zur AI-Haftungsrichtlinie

Nach der sechs Wochen dauernden Konsultation wird der AILD-Berichterstatter des Europäischen Parlaments, Axel Voss, im Juni über die Ergebnisse berichten und dann eine zweite, zwölfwöchige Konsultation eröffnen. Das Parlament und die Europäische Kommission werden von September bis Dezember über den vorgeschlagenen Richtlinienvorschlag verhandeln. Der Rechtsausschuss wird voraussichtlich im Januar 2026 über das endgültige Dokument abstimmen, bevor es in der letzten Plenarsitzung im Februar behandelt wird.

More Insights

EU AI-Gesetz und Australiens Sicherheitsrahmen: Ein globaler Überblick

Laut dem DJ Piper Technology’s Legal Edge-Blog müssen globale Unternehmen, die künstliche Intelligenz einsetzen, die internationalen KI-Vorschriften verstehen. Die Europäische Union und Australien...

Quebecs KI-Politik für Hochschulen und Cégeps

Die Regierung von Quebec hat eine neue KI-Richtlinie für Universitäten und CÉGEPs veröffentlicht, um die Nutzung von generativer KI im Hochschulbereich zu regeln. Die Richtlinien betonen die...

Deutschland setzt AI Act um: Neue Regelungen für KI-Compliance

Die bestehenden Regulierungsbehörden werden die Verantwortung für die Überwachung der Einhaltung des EU-AI-Gesetzes durch deutsche Unternehmen übernehmen, wobei der Bundesnetzagentur (BNetzA) eine...

Weltführer und KI-Pioniere fordern verbindliche globale AI-Schutzmaßnahmen bis 2026

Weltführer und KI-Pioniere fordern die UN auf, bis 2026 verbindliche globale Sicherheitsvorkehrungen für KI zu schaffen. Diese Initiative zielt darauf ab, die Risiken und Herausforderungen, die mit...

Künstliche Intelligenz im Zeitalter des Zero Trust: Governance neu denken

Im Jahr 2025 sehen wir, wie KI von einem bloßen Schlagwort zu einer praktischen Anwendung in verschiedenen Bereichen wird. Effektive Governance in einer Zero-Trust-Wirtschaft ist entscheidend, um...

Neue AI-Strategie: Technisches Sekretariat statt Regulator

Der bevorstehende Governance-Rahmen für künstliche Intelligenz könnte ein "technisches Sekretariat" umfassen, das die KI-Politik zwischen den Regierungsbehörden koordiniert. Dies stellt einen Wechsel...

KI-Sicherheit als Motor für Innovation in Schwellenländern

Die Diskussion über KI-Sicherheit und -Schutz wird oft als Hindernis für Innovationen wahrgenommen, insbesondere in Ländern der Global Majority. Die bevorstehende AI Impact Summit in Indien im Februar...

AI-Governance in ASEAN: Auf dem Weg zu einem einheitlichen Ansatz?

Wenn es um KI geht, legisliert Europa, während Amerika auf marktorientierte Innovation setzt und China zentral steuert. ASEAN hingegen setzt auf einen konsensorientierten Ansatz, der eine freiwillige...