EU-Abgeordneter prüft Haftungsregeln für KI

EU-Gesetzgeber prüft Unternehmensmeinungen zu Haftungsregeln für KI

Der AI Liability Directive wurde ursprünglich parallel zum AI Act geplant.

Unternehmen sind eingeladen, sich mit dem Gesetzgeber des Europäischen Parlaments zu den Haftungsregeln für künstliche Intelligenz auseinanderzusetzen. Diese Übung soll das Bedürfnis nach einem bevorstehenden Richtlinienentwurf sowie dessen mögliche Reichweite abwägen.

Hintergrund der Haftungsrichtlinie

Der Berichterstatter MEP Axel Voss (Deutschland/EPP) hat am Montag eine Konsultation gestartet, die bis zum 17. März offen sein wird.

Die Europäische Kommission schlug 2022 die AI Liability Directive vor, um bestehende Regeln zu modernisieren und neue Bestimmungen zu schaffen, die Schäden abdecken, die von KI-Systemen verursacht werden, um eine einheitliche Schutzregelung zu gewährleisten.

Obwohl der AI Act – das Hauptregelwerk, das KI-Systeme auf risikobasierter Grundlage reguliert – im vergangenen August in Kraft trat, bleiben die Regeln zur KI-Haftung vorerst ausstehend.

Meinungen von Lobbygruppen und Unternehmen

Die Technologie-Lobby in Brüssel und Verbraucherschutzorganisationen waren zuvor skeptisch gegenüber der Notwendigkeit zusätzlicher Regeln. Sie behaupten, dass die Probleme bereits durch die überarbeitete Produkt-Haftungsrichtlinie (PLD) abgedeckt sind.

Voss’ Fragebogen untersucht, ob KI-Systeme einzigartige rechtliche Herausforderungen darstellen, die bisher nicht durch bestehende Regeln abgedeckt sind, und ob Haftungsregeln die Innovation gefährden.

Darüber hinaus wird gefragt, ob die Richtlinie in eine Verordnung umgewandelt werden sollte.

Herausforderungen für Unternehmen

„Die Kommission schlug eine AI Liability Directive vor. Infolgedessen müssten Unternehmen, die ihre Produkte und Dienstleistungen in der EU verkaufen möchten, 27 sehr unterschiedliche Haftungsregime (d.h. immaterielle Schäden) einhalten“, heißt es in der Frage.

„Darüber hinaus interpretieren oder wenden die Mitgliedstaaten die PLD sehr unterschiedlich an. Dies würde zu hoher rechtlicher Unsicherheit und hohen Prozesskosten für Unternehmen und Anspruchsteller führen, was insbesondere KMU und Startups, die über wenig rechtliches Fachwissen verfügen, benachteiligen und die Wettbewerbsbedingungen gegenüber großen nicht-europäischen Technologieunternehmen verschärfen würde.“

Studie zu großen Sprachmodellen

Eine Studie des Forschungsdienstes des Parlaments, die im Rechtsausschuss (JURI) des Parlaments Ende Januar vorgestellt wurde, wies auf Probleme hin, die große Sprachmodelle wie ChatGPT und Claude.ai verursachen könnten, da sie nicht in den Anwendungsbereich der aktuellen Produkt-Haftungsrichtlinie fallen.

Voss plant, am 4. Juni einen Entwurf zu veröffentlichen, gefolgt von einer Diskussion im JURI-Ausschuss Ende des Monats.

More Insights

EU AI-Gesetz und Australiens Sicherheitsrahmen: Ein globaler Überblick

Laut dem DJ Piper Technology’s Legal Edge-Blog müssen globale Unternehmen, die künstliche Intelligenz einsetzen, die internationalen KI-Vorschriften verstehen. Die Europäische Union und Australien...

Quebecs KI-Politik für Hochschulen und Cégeps

Die Regierung von Quebec hat eine neue KI-Richtlinie für Universitäten und CÉGEPs veröffentlicht, um die Nutzung von generativer KI im Hochschulbereich zu regeln. Die Richtlinien betonen die...

Deutschland setzt AI Act um: Neue Regelungen für KI-Compliance

Die bestehenden Regulierungsbehörden werden die Verantwortung für die Überwachung der Einhaltung des EU-AI-Gesetzes durch deutsche Unternehmen übernehmen, wobei der Bundesnetzagentur (BNetzA) eine...

Weltführer und KI-Pioniere fordern verbindliche globale AI-Schutzmaßnahmen bis 2026

Weltführer und KI-Pioniere fordern die UN auf, bis 2026 verbindliche globale Sicherheitsvorkehrungen für KI zu schaffen. Diese Initiative zielt darauf ab, die Risiken und Herausforderungen, die mit...

Künstliche Intelligenz im Zeitalter des Zero Trust: Governance neu denken

Im Jahr 2025 sehen wir, wie KI von einem bloßen Schlagwort zu einer praktischen Anwendung in verschiedenen Bereichen wird. Effektive Governance in einer Zero-Trust-Wirtschaft ist entscheidend, um...

Neue AI-Strategie: Technisches Sekretariat statt Regulator

Der bevorstehende Governance-Rahmen für künstliche Intelligenz könnte ein "technisches Sekretariat" umfassen, das die KI-Politik zwischen den Regierungsbehörden koordiniert. Dies stellt einen Wechsel...

KI-Sicherheit als Motor für Innovation in Schwellenländern

Die Diskussion über KI-Sicherheit und -Schutz wird oft als Hindernis für Innovationen wahrgenommen, insbesondere in Ländern der Global Majority. Die bevorstehende AI Impact Summit in Indien im Februar...

AI-Governance in ASEAN: Auf dem Weg zu einem einheitlichen Ansatz?

Wenn es um KI geht, legisliert Europa, während Amerika auf marktorientierte Innovation setzt und China zentral steuert. ASEAN hingegen setzt auf einen konsensorientierten Ansatz, der eine freiwillige...