EU-Abgeordneter prüft Haftungsregeln für KI

EU-Gesetzgeber prüft Unternehmensmeinungen zu Haftungsregeln für KI

Der AI Liability Directive wurde ursprünglich parallel zum AI Act geplant.

Unternehmen sind eingeladen, sich mit dem Gesetzgeber des Europäischen Parlaments zu den Haftungsregeln für künstliche Intelligenz auseinanderzusetzen. Diese Übung soll das Bedürfnis nach einem bevorstehenden Richtlinienentwurf sowie dessen mögliche Reichweite abwägen.

Hintergrund der Haftungsrichtlinie

Der Berichterstatter MEP Axel Voss (Deutschland/EPP) hat am Montag eine Konsultation gestartet, die bis zum 17. März offen sein wird.

Die Europäische Kommission schlug 2022 die AI Liability Directive vor, um bestehende Regeln zu modernisieren und neue Bestimmungen zu schaffen, die Schäden abdecken, die von KI-Systemen verursacht werden, um eine einheitliche Schutzregelung zu gewährleisten.

Obwohl der AI Act – das Hauptregelwerk, das KI-Systeme auf risikobasierter Grundlage reguliert – im vergangenen August in Kraft trat, bleiben die Regeln zur KI-Haftung vorerst ausstehend.

Meinungen von Lobbygruppen und Unternehmen

Die Technologie-Lobby in Brüssel und Verbraucherschutzorganisationen waren zuvor skeptisch gegenüber der Notwendigkeit zusätzlicher Regeln. Sie behaupten, dass die Probleme bereits durch die überarbeitete Produkt-Haftungsrichtlinie (PLD) abgedeckt sind.

Voss’ Fragebogen untersucht, ob KI-Systeme einzigartige rechtliche Herausforderungen darstellen, die bisher nicht durch bestehende Regeln abgedeckt sind, und ob Haftungsregeln die Innovation gefährden.

Darüber hinaus wird gefragt, ob die Richtlinie in eine Verordnung umgewandelt werden sollte.

Herausforderungen für Unternehmen

„Die Kommission schlug eine AI Liability Directive vor. Infolgedessen müssten Unternehmen, die ihre Produkte und Dienstleistungen in der EU verkaufen möchten, 27 sehr unterschiedliche Haftungsregime (d.h. immaterielle Schäden) einhalten“, heißt es in der Frage.

„Darüber hinaus interpretieren oder wenden die Mitgliedstaaten die PLD sehr unterschiedlich an. Dies würde zu hoher rechtlicher Unsicherheit und hohen Prozesskosten für Unternehmen und Anspruchsteller führen, was insbesondere KMU und Startups, die über wenig rechtliches Fachwissen verfügen, benachteiligen und die Wettbewerbsbedingungen gegenüber großen nicht-europäischen Technologieunternehmen verschärfen würde.“

Studie zu großen Sprachmodellen

Eine Studie des Forschungsdienstes des Parlaments, die im Rechtsausschuss (JURI) des Parlaments Ende Januar vorgestellt wurde, wies auf Probleme hin, die große Sprachmodelle wie ChatGPT und Claude.ai verursachen könnten, da sie nicht in den Anwendungsbereich der aktuellen Produkt-Haftungsrichtlinie fallen.

Voss plant, am 4. Juni einen Entwurf zu veröffentlichen, gefolgt von einer Diskussion im JURI-Ausschuss Ende des Monats.

More Insights

Verantwortungsvolle KI: Ein unverzichtbares Gebot für Unternehmen

Unternehmen sind sich der Notwendigkeit von verantwortungsvollem KI-Betrieb bewusst, behandeln ihn jedoch oft als nachträglichen Gedanken oder separates Projekt. Verantwortliche KI ist eine vordere...

Neues KI-Governance-Modell gegen Schatten-KI

Künstliche Intelligenz (KI) verbreitet sich schnell in den Arbeitsplatz und verändert, wie alltägliche Aufgaben erledigt werden. Unternehmen müssen ihre Ansätze zur KI-Politik überdenken, um mit der...

EU plant Aufschub für AI-Gesetzgebung

Die EU plant, die Anforderungen für risikobehaftete KI-Systeme im KI-Gesetz bis Ende 2027 zu verschieben, um Unternehmen mehr Zeit zu geben, sich anzupassen. Kritiker befürchten, dass diese...

Weißes Haus lehnt GAIN AI-Gesetz ab: Nvidia im Fokus

Das Weiße Haus hat sich gegen den GAIN AI Act ausgesprochen, während es um die Exportbeschränkungen für Nvidia-AI-Chips nach China geht. Die Diskussion spiegelt die politischen Spannungen wider, die...

Ethische KI als Beschleuniger für Innovation

Unternehmen stehen heute unter Druck, mit künstlicher Intelligenz zu innovieren, oft jedoch ohne die notwendigen Sicherheitsvorkehrungen. Indem sie Datenschutz und Ethik in den Entwicklungsprozess...

KI im Recruiting: Verborgene Risiken für Arbeitgeber

Künstliche Intelligenz verändert die Art und Weise, wie Arbeitgeber Talente rekrutieren und bewerten. Während diese Tools Effizienz und Kosteneinsparungen versprechen, bringen sie auch erhebliche...

KI im australischen Kabinett: Chancen und Sicherheitsbedenken

Die australische Regierung könnte in Betracht ziehen, KI-Programme zur Erstellung sensibler Kabinettsanträge zu nutzen, trotz Bedenken hinsichtlich Sicherheitsrisiken und Datenverletzungen...