Europas Rückzug bei der Regulierung von KI: Ein Freifahrtschein für Big Tech?
Die Diskussion um die Wettbewerbsfähigkeit in Brüssel hat in letzter Zeit an Intensität zugenommen. Ein jüngstes Opfer dieser Bestrebungen zur Vereinfachung ist der Vorschlag zur KI-Haftungsrichtlinie (AILD), der klare Regeln zur Verantwortung einführen sollte, wenn KI-Systeme Schäden verursachen.
Die auffällige Abwesenheit dieses Vorschlags aus dem Arbeitsprogramm der EU-Kommission für 2025 hinterlässt eine besorgniserregende Lücke im europäischen KI-Rahmen. Auf dem AI Action Summit zu Beginn des Jahres signalisierten die EU-Führer eine Verschiebung der Prioritäten, weg von der Sicherheit hin zur Wettbewerbsfähigkeit.
Die Kommissionspräsidentin erklärte, dass „wir den bürokratischen Aufwand verringern“ müssen, um „es KI zu erleichtern, in Europa zu wachsen“. Nur wenige Tage später setzte die Kommission diese Rhetorik in die Tat um und zog die AILD effektiv zurück.
Die Bedeutung der KI-Haftungsrichtlinie
Im Gegensatz zum KI-Gesetz, das darauf abzielt, Schäden durch hochriskante KI-Systeme zu verringern, sollte die AILD sicherstellen, dass Verantwortlichkeit besteht, wenn Schäden auftreten, und einen klaren Weg zur Entschädigung für die Betroffenen bieten.
Die Entscheidung der Kommission, den Vorschlag fallen zu lassen, sieht weniger nach einer technischen Entscheidung aus, sondern vielmehr nach einem politischen Zugeständnis. Die Richtlinie hätte rechtliche Haftungen für große KI-Entwickler eingeführt, was Big Tech vehement ablehnte. Letztendlich wollen Tech-Giganten nicht für die Produkte, die sie entwickeln, zur Verantwortung gezogen werden.
Doch jemand muss zur Verantwortung gezogen werden, wenn etwas schiefgeht. Wenn ein KI-System Kredite verweigert, einen Marktcrash auslöst oder einen verletzlichen Verbraucher von grundlegenden Dienstleistungen ausschließt, wer ist dann verantwortlich?
Die Herausforderung durch KI
Wie ein aktueller Bericht zeigt, basiert die finanzielle Regulierung auf den Prinzipien von Verantwortung, Haftung und Transparenz. Bis vor kurzem konnten Aufsichtsbehörden die Quelle eines Handelsfehlers oder eine ungerechtfertigte Versicherungsablehnung identifizieren. Selbst die komplexesten softwaregestützten Entscheidungen waren letztendlich erklärbar.
Fehlerhafter Code konnte identifiziert und Verantwortung zugewiesen werden. Diese Verantwortungskette ist in der finanziellen Regulierung verankert, und Unternehmen sind verpflichtet, sich daran zu halten. Wenn sie dies nicht tun, müssen sie mit Konsequenzen rechnen.
Doch KI durchbricht diese Kette. KI-Deep-Learning-Systeme arbeiten, indem sie Korrelationen in riesigen Datensätzen erkennen, nicht durch eine transparente Logik von Ursache und Wirkung. Diese Modelle funktionieren in einer „Nehmen oder Lassen“-Manier, bei der selbst ihre Entwickler Schwierigkeiten haben, die Ausgaben zu erklären.
Die Lücke in der Regulierung
Diese „Black-Box-Logik“ macht eine effektive Aufsicht impraktisch, wenn nicht sogar unmöglich. Kreditbewertungen, Versicherungsprämien oder Investitionsentscheidungen, die von KI getroffen werden, entziehen sich der Erklärung, und die Regulierungsbehörden könnten Schwierigkeiten haben, Fehler, Vorurteile oder sogar systemische Risiken zu erkennen.
Die KI ist nicht wie gewohnt. Sie stellt die Anwendung der Kernprinzipien der finanziellen Regulierung in Frage. Und wenn die Kommission sich von der Haftung zurückzieht, öffnet sich eine besorgniserregende Lücke im Regulierungsrahmen.
Ein freier Markt ohne Verantwortung ist schlichtweg eine Lizenz zum Ausbeuten. KI ist bereits ein Oligopol, das von einer Handvoll US-Unternehmen dominiert wird, und der Rückzug der EU gibt ihnen noch mehr Macht. Indem die Kommission das Haftungsregime für KI aufgibt, sagt sie diesen Unternehmen effektiv, dass sie vom Binnenmarkt profitieren können, ohne für die Schäden, die ihre Systeme verursachen, Verantwortung zu übernehmen.
Die EU-Politiker sollten sich nicht in einem Wettbewerbsrausch verlieren, der solide Regulierung mit Bürokratie verwechselt. Sie müssen einen Schritt zurücktreten und die Lage überdenken.
Was jetzt nötig ist, ist nicht Deregulierung, sondern eine Neubewertung des KI-Regelwerks. Pragmatiche Schritte können unternommen werden, um sicherzustellen, dass die Bürger geschützt sind, wenn die Anwendungsfälle von KI im Finanzbereich zunehmen.