EU-Gesetzgeber prüft Unternehmensmeinungen zu Haftungsregeln für KI
Der AI Liability Directive wurde ursprünglich parallel zum AI Act geplant.
Unternehmen sind eingeladen, sich mit dem Gesetzgeber des Europäischen Parlaments zu den Haftungsregeln für künstliche Intelligenz auseinanderzusetzen. Diese Übung soll das Bedürfnis nach einem bevorstehenden Richtlinienentwurf sowie dessen mögliche Reichweite abwägen.
Hintergrund der Haftungsrichtlinie
Der Berichterstatter MEP Axel Voss (Deutschland/EPP) hat am Montag eine Konsultation gestartet, die bis zum 17. März offen sein wird.
Die Europäische Kommission schlug 2022 die AI Liability Directive vor, um bestehende Regeln zu modernisieren und neue Bestimmungen zu schaffen, die Schäden abdecken, die von KI-Systemen verursacht werden, um eine einheitliche Schutzregelung zu gewährleisten.
Obwohl der AI Act – das Hauptregelwerk, das KI-Systeme auf risikobasierter Grundlage reguliert – im vergangenen August in Kraft trat, bleiben die Regeln zur KI-Haftung vorerst ausstehend.
Meinungen von Lobbygruppen und Unternehmen
Die Technologie-Lobby in Brüssel und Verbraucherschutzorganisationen waren zuvor skeptisch gegenüber der Notwendigkeit zusätzlicher Regeln. Sie behaupten, dass die Probleme bereits durch die überarbeitete Produkt-Haftungsrichtlinie (PLD) abgedeckt sind.
Voss’ Fragebogen untersucht, ob KI-Systeme einzigartige rechtliche Herausforderungen darstellen, die bisher nicht durch bestehende Regeln abgedeckt sind, und ob Haftungsregeln die Innovation gefährden.
Darüber hinaus wird gefragt, ob die Richtlinie in eine Verordnung umgewandelt werden sollte.
Herausforderungen für Unternehmen
„Die Kommission schlug eine AI Liability Directive vor. Infolgedessen müssten Unternehmen, die ihre Produkte und Dienstleistungen in der EU verkaufen möchten, 27 sehr unterschiedliche Haftungsregime (d.h. immaterielle Schäden) einhalten“, heißt es in der Frage.
„Darüber hinaus interpretieren oder wenden die Mitgliedstaaten die PLD sehr unterschiedlich an. Dies würde zu hoher rechtlicher Unsicherheit und hohen Prozesskosten für Unternehmen und Anspruchsteller führen, was insbesondere KMU und Startups, die über wenig rechtliches Fachwissen verfügen, benachteiligen und die Wettbewerbsbedingungen gegenüber großen nicht-europäischen Technologieunternehmen verschärfen würde.“
Studie zu großen Sprachmodellen
Eine Studie des Forschungsdienstes des Parlaments, die im Rechtsausschuss (JURI) des Parlaments Ende Januar vorgestellt wurde, wies auf Probleme hin, die große Sprachmodelle wie ChatGPT und Claude.ai verursachen könnten, da sie nicht in den Anwendungsbereich der aktuellen Produkt-Haftungsrichtlinie fallen.
Voss plant, am 4. Juni einen Entwurf zu veröffentlichen, gefolgt von einer Diskussion im JURI-Ausschuss Ende des Monats.