Fehlgeschlagene KI-Implementierung im Europäischen Parlament

Wie man generative KI nicht einsetzt: Die Geschichte des Europäischen Parlaments

Am 3. April 2025 gab das Europäische Parlament bekannt, dass es Claude, ein KI-System, erworben hat, das nicht in der Lage ist, den ersten Präsidenten der Europäischen Kommission genau zu benennen. Im Oktober 2024 wählte das Parlament ein KI-Modell für ein neues historisches Archiv aus, in dem Bürger Fragen stellen und Antworten erhalten können.

Das Unternehmen Anthropic, das den Dienst für das Europäische Parlament bereitstellt, positioniert sich als vertrauenswürdige Alternative zu Meta, Google und Open AI. Die Entscheidung des Parlaments, Anthropic’s KI-Modell zu verwenden, ist daher ein nützliches Zeugnis, das Anthropic feierte.

Blindes Vertrauen in Anthropics KI-Verfassung

Das KI-Modell Claude basiert auf der Verfassungs-KI, die von Anthropic definiert wurde. Diese Prinzipien verwenden „hilfreich, ehrlich und harmlos“ als Kriterien, da sie einfach und einprägsam sind und den Großteil dessen erfassen, was wir von einer ausgerichteten KI erwarten. Eine unabhängige Bewertung hat bisher jedoch nicht festgestellt, dass diese Kriterien bedeutungsvoll sind oder dass das Produkt von Anthropic seinen Anspruch erfüllt. Dennoch behandelt die Archiveinheit des Parlaments die Ansprüche der Verfassungs-KI als Evangelium.

Die Mitglieder des Europäischen Parlaments waren an vorderster Front bei der Vorschlagserstellung für Regeln im KI-Gesetz beteiligt, um die Schäden durch generative KI-Systeme wie Claude zu adressieren. Statt den Regeln des KI-Gesetzes zu folgen, riskiert die Archiveinheit des Parlaments, indem sie sich auf die Ansprüche von Anthropic verlässt.

Probleme mit der Archivzugangskontrolle

Die unrechtmäßige Verarbeitung personenbezogener Daten ist nicht das einzige Problem mit LLMs (Large Language Models). Sie speichern ihre Trainingsdaten und geben Informationen wieder. Sie sind probabilistische Systeme, die „Bullshit“ generieren. LLMs sollten nicht verwendet werden, wenn die Genauigkeit von Informationen gefordert ist.

Dennoch hat das Parlament keine Alternativen zu LLMs bewertet. Es wurden nur zwei LLM-Modelle „getestet“: Claude von Anthropic und Titan von Amazon. Das Parlament ist in das Cloud-Ökosystem von Amazon eingebunden und verlässt sich auf Amazon Bedrock – den Marktplatz für KI-Modelle von Amazon.

Die (Nicht-)Bewertung des Parlaments

Das Parlament hätte eine Vielzahl von Bewertungen durchführen sollen, bevor es „Ask the EP Archives“ einführte, das auf Amazon AWS gehostet wird und für jeden über die Website des Parlaments zugänglich ist. Überraschenderweise hat das Parlament das Werkzeug nicht für die Verwendung durch die breite Öffentlichkeit bewertet.

„Dieses System ist eher für einen Business-to-Business-Kontext konzipiert als für einen Business-to-Consumer. Erwartete Benutzer sind junge Forscher, Archivare oder Historiker.“

Warum wurde ein „für einen Business-to-Business-Kontext konzipiertes“ System ohne weitere Bewertung der Öffentlichkeit zugänglich gemacht? Die breite Öffentlichkeit wird wahrscheinlich die Informationen auf der Website des Parlaments als autoritativ betrachten. Claude versagt bei einfachen Fragen.

Wer hat die Kontrolle?

Während das Parlament das Werkzeug vor der Einführung nicht bewertet hat, führt Anthropic das Parlament unter seinen Kunden. Es gab jedoch keine Ausschreibungen oder Verträge. Das Europäische Parlament nutzt die Dienste, die in der Anfrage für die historischen Archive spezifiziert sind, über die Europäische Kommission als Vermittler für Cloud-Brokerage-Dienste.

Die Europäische Kommission hat einen Vertrag mit Amazon AWS. Das Parlament verlässt sich auf den Vertrag der Kommission. Aber weder die Kommission noch das Parlament haben einen Vertrag mit Anthropic für generative KI.

Der Leiter der Archiveinheit des Parlaments sagte in einem Werbevideo für Anthropic: „Wenn wir generative KI nutzen, müssen wir permanently under control der Lösung sein, die wir gebaut haben.” Das Parlament verwendet die Infrastruktur von Amazon, den Marktplatz von Amazon und die von Amazon finanzierten KI-Modelle von Anthropic.

Das Parlament hat die Kontrolle nicht. Amazon hat die Kontrolle.

Fazit

Das Europäische Parlament hat versäumt, umfassende Bewertungen durchzuführen, bevor es generative KI in seinen Dienstleistungen einsetzt. Die blindlings gewählte Abhängigkeit von einem einzigen Anbieter könnte sowohl rechtliche als auch ethische Herausforderungen mit sich bringen, die es dringend zu adressieren gilt.

More Insights

Verantwortungsvolle KI: Ein unverzichtbares Gebot für Unternehmen

Unternehmen sind sich der Notwendigkeit von verantwortungsvollem KI-Betrieb bewusst, behandeln ihn jedoch oft als nachträglichen Gedanken oder separates Projekt. Verantwortliche KI ist eine vordere...

Neues KI-Governance-Modell gegen Schatten-KI

Künstliche Intelligenz (KI) verbreitet sich schnell in den Arbeitsplatz und verändert, wie alltägliche Aufgaben erledigt werden. Unternehmen müssen ihre Ansätze zur KI-Politik überdenken, um mit der...

EU plant Aufschub für AI-Gesetzgebung

Die EU plant, die Anforderungen für risikobehaftete KI-Systeme im KI-Gesetz bis Ende 2027 zu verschieben, um Unternehmen mehr Zeit zu geben, sich anzupassen. Kritiker befürchten, dass diese...

Weißes Haus lehnt GAIN AI-Gesetz ab: Nvidia im Fokus

Das Weiße Haus hat sich gegen den GAIN AI Act ausgesprochen, während es um die Exportbeschränkungen für Nvidia-AI-Chips nach China geht. Die Diskussion spiegelt die politischen Spannungen wider, die...

Ethische KI als Beschleuniger für Innovation

Unternehmen stehen heute unter Druck, mit künstlicher Intelligenz zu innovieren, oft jedoch ohne die notwendigen Sicherheitsvorkehrungen. Indem sie Datenschutz und Ethik in den Entwicklungsprozess...

KI im Recruiting: Verborgene Risiken für Arbeitgeber

Künstliche Intelligenz verändert die Art und Weise, wie Arbeitgeber Talente rekrutieren und bewerten. Während diese Tools Effizienz und Kosteneinsparungen versprechen, bringen sie auch erhebliche...

KI im australischen Kabinett: Chancen und Sicherheitsbedenken

Die australische Regierung könnte in Betracht ziehen, KI-Programme zur Erstellung sensibler Kabinettsanträge zu nutzen, trotz Bedenken hinsichtlich Sicherheitsrisiken und Datenverletzungen...