Risiken der Abschaffung der KI-Haftungsrichtlinie

Op-Ed: Die Risiken des Verzichts auf die AI-Haftungsrichtlinie

Die Notwendigkeit, Bürokratie abzubauen, ist in Europa kein Geheimnis. Dies wird in allen regelmäßigen Gesprächen mit Unternehmen deutlich – seien es Start-ups, Scale-ups oder etablierte Firmen. Die Europäische Kommission hat sich verpflichtet, dieses Ziel zu erreichen. Doch es gibt zunehmend Zweifel an den Mitteln, um dies zu erreichen.

Ein Beispiel ist die AI-Haftungsrichtlinie (AILD), die die Europäische Kommission beschlossen hat, abzulehnen. Befürworter dieses Schrittes, darunter Henna Virkkunen, die Kommissarin für technologische Souveränität, Sicherheit und Demokratie, argumentieren, dass zusätzliche Haftungsregeln Innovation und Investitionen in Europa ersticken könnten. Doch durch das Streichen der Richtlinie wird die Kommission das erreichen, was sie vermeiden möchte: Unternehmen ohne klare rechtliche Richtlinien zu lassen, wird ihre Anreize zur Investition verringern.

Rechtliche Unsicherheit: Ein Hindernis für KI-Innovation in der EU

Investoren in Europa sind bereits für ihre Risikoscheu bekannt. Mit der zunehmenden Interaktion von KI-Technologien sowohl mit der realen als auch der virtuellen Welt vervielfachen sich die Risiken, und die Entscheidung der Kommission fügt der rechtlichen Opazität und Fragmentierung weitere Probleme hinzu.

Die Verantwortlichkeit bleibt unklar. Wer ist verantwortlich, wenn Risiken unvermeidlich eintreten – die Entwickler, Anbieter, Verkäufer oder Designer? Und was, wenn sie die Verantwortung untereinander teilen? Es ist offensichtlich, dass der Spiegel, in dem wir nach Antworten suchen, nicht nur schwarz, sondern auch in 27 Stücke zerbrochen ist.

Derzeit haben Unternehmen, die mit KI-gesteuerten Technologien arbeiten, wenig Vorstellung davon, wie innovativ der Richter sein könnte, der ihnen gegenübersteht, noch welche der 27 Rechtsrahmen sie erwarten müssen.

Die Rolle der AILD im digitalen Regelwerk Europas

Einige Gegner der Richtlinie behaupten, es sei keine weitere Regulierung nötig, da der AI Act und die neue Produkt-Haftungsrichtlinie (PLD) dasselbe abdecken. Dies ist falsch, irreführend oder manipulativ, je nachdem, wie viel Schulden wir den Kritikern zugestehen möchten.

Weder der AI Act noch die überarbeitete PLD sind Ersatz für die AILD. Der Unterschied ist sehr klar: Der AI Act befasst sich mit präventivem Risikomanagement und sagt den KI-Anbietern, was sie tun sollten, um Schaden zu vermeiden. Er regelt jedoch nicht, wer nach einem Schaden verantwortlich ist.

Die Produkt-Haftungsrichtlinie hingegen deckt Schäden nach einem Vorfall ab, aber dies sind andere Schäden als die, die von der AILD behandelt werden. Die Unterschiede zwischen der Produkthaftung (PLD) und der Produzentenhaftung (AILD) sind jedem Jurastudenten bekannt und sollten der Kommission bekannt sein.

Ohne AILD: KI-Risiken untergraben Vertrauen und Sicherheit

KI-Schäden gehen oft über Produktfehler hinaus. Was passiert, wenn KI in einem beruflichen Kontext mit beruflichen Werkzeugen Schäden verursacht? Was, wenn der Schaden nicht aus einem Herstellungsfehler resultiert, sondern aus einer unzureichenden Anleitung für die Nutzer? Was, wenn die Verletzung aus einem „unberechenbaren“ KI-Verhalten resultiert, das nicht in einem technischen Fehler, sondern im Missmanagement bei der Implementierung verwurzelt ist?

Es gibt auch eine wachsende Klasse von Anwendungsfällen, in denen Programmierer generative KI nutzen, um Anwendungen zu codieren, die einige KI-Elemente enthalten, ohne offensichtliche Mängel aufzuweisen. Was, wenn solche privat genutzten und privat hergestellten Anwendungen Dritten Schaden zufügen? Diese Szenarien zu ignorieren, ist nicht nur ein rechtlicher blinder Fleck – es ist eine politische Haftung.

Die Kommission muss es besser wissen. Indem sie sich weigert, harmonisierte Haftungsregeln für KI zu verabschieden, lässt sie Unternehmen einem Flickenteppich aus nationalen Standards und widersprüchlichen Auslegungen ausgesetzt, genau zu dem Zeitpunkt, an dem wir die KI-Akzeptanz auf dem Kontinent beschleunigen wollen.

Statt Klarheit erhalten wir rechtliches Roulette. In diesem Fall bedeutet Harmonisierung nicht Überregulierung; sie bedeutet intelligente, gezielte, faktenbasierte Regeln, die sowohl Innovatoren als auch Verbrauchern rechtliche Sicherheit bieten.

Die Opazität, scheinbare Autonomie und Unberechenbarkeit für die Nutzer erschweren es, die Verantwortung klar zuzuordnen. Die AILD zielte darauf ab, diese Lücken durch angemessene, moderne Werkzeuge wie Offenlegungspflichten und widerlegbare Schuldvermutungen zu schließen – Maßnahmen, die für die einzigartigen Risiken von KI entwickelt wurden.

Die vagen Hinweise der Kommission auf „künftige rechtliche Ansätze“ bieten wenig Trost. Unternehmen benötigen jetzt rechtliche Sicherheit, nicht offene Versprechen für die Zukunft.

Im Herzen der Debatte steht eine größere Frage: Wollen wir wirklich einen digitalen Binnenmarkt in Europa, der über leere Worte hinausgeht? Wenn die Antwort ja ist, ist Harmonisierung unerlässlich und muss auf Tatsachen basieren. Ohne sie erhalten wir mehr Fragmentierung, nicht Vorhersehbarkeit; mehr Verwirrung, nicht Klarheit. Mit ihrem neuesten Rückzug vereinfacht die Kommission nicht – sie gibt auf.

More Insights

Verantwortungsvolle KI: Ein unverzichtbares Gebot für Unternehmen

Unternehmen sind sich der Notwendigkeit von verantwortungsvollem KI-Betrieb bewusst, behandeln ihn jedoch oft als nachträglichen Gedanken oder separates Projekt. Verantwortliche KI ist eine vordere...

Neues KI-Governance-Modell gegen Schatten-KI

Künstliche Intelligenz (KI) verbreitet sich schnell in den Arbeitsplatz und verändert, wie alltägliche Aufgaben erledigt werden. Unternehmen müssen ihre Ansätze zur KI-Politik überdenken, um mit der...

EU plant Aufschub für AI-Gesetzgebung

Die EU plant, die Anforderungen für risikobehaftete KI-Systeme im KI-Gesetz bis Ende 2027 zu verschieben, um Unternehmen mehr Zeit zu geben, sich anzupassen. Kritiker befürchten, dass diese...

Weißes Haus lehnt GAIN AI-Gesetz ab: Nvidia im Fokus

Das Weiße Haus hat sich gegen den GAIN AI Act ausgesprochen, während es um die Exportbeschränkungen für Nvidia-AI-Chips nach China geht. Die Diskussion spiegelt die politischen Spannungen wider, die...

Ethische KI als Beschleuniger für Innovation

Unternehmen stehen heute unter Druck, mit künstlicher Intelligenz zu innovieren, oft jedoch ohne die notwendigen Sicherheitsvorkehrungen. Indem sie Datenschutz und Ethik in den Entwicklungsprozess...

KI im Recruiting: Verborgene Risiken für Arbeitgeber

Künstliche Intelligenz verändert die Art und Weise, wie Arbeitgeber Talente rekrutieren und bewerten. Während diese Tools Effizienz und Kosteneinsparungen versprechen, bringen sie auch erhebliche...

KI im australischen Kabinett: Chancen und Sicherheitsbedenken

Die australische Regierung könnte in Betracht ziehen, KI-Programme zur Erstellung sensibler Kabinettsanträge zu nutzen, trotz Bedenken hinsichtlich Sicherheitsrisiken und Datenverletzungen...