EU-Abgeordneter prüft Haftungsregeln für KI

EU-Gesetzgeber prüft Unternehmensmeinungen zu Haftungsregeln für KI

Der AI Liability Directive wurde ursprünglich parallel zum AI Act geplant.

Unternehmen sind eingeladen, sich mit dem Gesetzgeber des Europäischen Parlaments zu den Haftungsregeln für künstliche Intelligenz auseinanderzusetzen. Diese Übung soll das Bedürfnis nach einem bevorstehenden Richtlinienentwurf sowie dessen mögliche Reichweite abwägen.

Hintergrund der Haftungsrichtlinie

Der Berichterstatter MEP Axel Voss (Deutschland/EPP) hat am Montag eine Konsultation gestartet, die bis zum 17. März offen sein wird.

Die Europäische Kommission schlug 2022 die AI Liability Directive vor, um bestehende Regeln zu modernisieren und neue Bestimmungen zu schaffen, die Schäden abdecken, die von KI-Systemen verursacht werden, um eine einheitliche Schutzregelung zu gewährleisten.

Obwohl der AI Act – das Hauptregelwerk, das KI-Systeme auf risikobasierter Grundlage reguliert – im vergangenen August in Kraft trat, bleiben die Regeln zur KI-Haftung vorerst ausstehend.

Meinungen von Lobbygruppen und Unternehmen

Die Technologie-Lobby in Brüssel und Verbraucherschutzorganisationen waren zuvor skeptisch gegenüber der Notwendigkeit zusätzlicher Regeln. Sie behaupten, dass die Probleme bereits durch die überarbeitete Produkt-Haftungsrichtlinie (PLD) abgedeckt sind.

Voss’ Fragebogen untersucht, ob KI-Systeme einzigartige rechtliche Herausforderungen darstellen, die bisher nicht durch bestehende Regeln abgedeckt sind, und ob Haftungsregeln die Innovation gefährden.

Darüber hinaus wird gefragt, ob die Richtlinie in eine Verordnung umgewandelt werden sollte.

Herausforderungen für Unternehmen

„Die Kommission schlug eine AI Liability Directive vor. Infolgedessen müssten Unternehmen, die ihre Produkte und Dienstleistungen in der EU verkaufen möchten, 27 sehr unterschiedliche Haftungsregime (d.h. immaterielle Schäden) einhalten“, heißt es in der Frage.

„Darüber hinaus interpretieren oder wenden die Mitgliedstaaten die PLD sehr unterschiedlich an. Dies würde zu hoher rechtlicher Unsicherheit und hohen Prozesskosten für Unternehmen und Anspruchsteller führen, was insbesondere KMU und Startups, die über wenig rechtliches Fachwissen verfügen, benachteiligen und die Wettbewerbsbedingungen gegenüber großen nicht-europäischen Technologieunternehmen verschärfen würde.“

Studie zu großen Sprachmodellen

Eine Studie des Forschungsdienstes des Parlaments, die im Rechtsausschuss (JURI) des Parlaments Ende Januar vorgestellt wurde, wies auf Probleme hin, die große Sprachmodelle wie ChatGPT und Claude.ai verursachen könnten, da sie nicht in den Anwendungsbereich der aktuellen Produkt-Haftungsrichtlinie fallen.

Voss plant, am 4. Juni einen Entwurf zu veröffentlichen, gefolgt von einer Diskussion im JURI-Ausschuss Ende des Monats.

More Insights

KI-Ingenieure vs. Verantwortungsvolle KI-Ingenieure: Intelligenter bauen oder sicherer gestalten

Künstliche Intelligenz hat in den letzten Jahren enorme Fortschritte gemacht, was AI-Ingenieure an die Spitze der Innovation stellt. Gleichzeitig bringt diese Macht Verantwortung mit sich, da Fragen...

Verantwortungsbewusste KI: Eine neue Notwendigkeit

Dr. Anna Zeiter betont, dass verantwortungsvolle KI nicht nur ein Schlagwort ist, sondern eine grundlegende Notwendigkeit. Sie hebt hervor, dass Vertrauen und Verantwortlichkeit entscheidend sind, um...

KI-Integration in Unternehmen: Compliance im Fokus

Künstliche Intelligenz soll Unternehmen schneller, intelligenter und wettbewerbsfähiger machen, aber die meisten Projekte scheitern. Der Cloud Security Alliance (CSA) zufolge liegt das Problem darin...

Erhalt von generativen KI-Inhalten: Rechtliche und organisatorische Herausforderungen

Generative KI-Tools, die Texte und Medien basierend auf den Daten erstellen, mit denen sie trainiert wurden, werfen rechtliche Bedenken hinsichtlich Datenschutz, Datensicherheit und Privilegien auf...

Verantwortungsvolles KI-Management: Prinzipien und Vorteile

Künstliche Intelligenz verändert, wie wir leben und arbeiten, weshalb es wichtig ist, sie auf die richtige Weise zu nutzen. Verantwortliche KI bedeutet, KI zu schaffen und zu verwenden, die fair...

Vertrauenswürdige KI: Erfolgsfaktor für Unternehmen im Zeitalter der Innovation

In den letzten zwanzig Jahren hat sich die Abhängigkeit von künstlicher Intelligenz (KI) zur Entscheidungsfindung in Unternehmen stark entwickelt. Um in diesem neuen Modell effektiv zu arbeiten...

KI-Regulierung in Spanien: Fortschritte und Herausforderungen

Spanien ist Vorreiter in der KI-Governance mit dem ersten KI-Regulator Europas (AESIA) und einem bereits aktiven regulatorischen Sandbox. Zudem wird ein nationaler KI-Gesetzentwurf vorbereitet, der...

Globale Regulierung von KI: Ein Überblick über Israel

Künstliche Intelligenz (KI) hat in den letzten Jahren enorme Fortschritte gemacht und ist zunehmend in das öffentliche Bewusstsein gerückt. Regierungen und Aufsichtsbehörden weltweit müssen schnell...

KI im Glücksspiel: Chancen und Herausforderungen der Regulierung

Der Einsatz von Künstlicher Intelligenz (KI) im Glücksspielsektor bringt sowohl Chancen als auch Risiken mit sich, da die regulatorischen Anforderungen steigen und die Haftungsrisiken zunehmen...