Wie man generative KI nicht einsetzt: Die Geschichte des Europäischen Parlaments
Am 3. April 2025 gab das Europäische Parlament bekannt, dass es Claude, ein KI-System, erworben hat, das nicht in der Lage ist, den ersten Präsidenten der Europäischen Kommission genau zu benennen. Im Oktober 2024 wählte das Parlament ein KI-Modell für ein neues historisches Archiv aus, in dem Bürger Fragen stellen und Antworten erhalten können.
Das Unternehmen Anthropic, das den Dienst für das Europäische Parlament bereitstellt, positioniert sich als vertrauenswürdige Alternative zu Meta, Google und Open AI. Die Entscheidung des Parlaments, Anthropic’s KI-Modell zu verwenden, ist daher ein nützliches Zeugnis, das Anthropic feierte.
Blindes Vertrauen in Anthropics KI-Verfassung
Das KI-Modell Claude basiert auf der Verfassungs-KI, die von Anthropic definiert wurde. Diese Prinzipien verwenden „hilfreich, ehrlich und harmlos“ als Kriterien, da sie einfach und einprägsam sind und den Großteil dessen erfassen, was wir von einer ausgerichteten KI erwarten. Eine unabhängige Bewertung hat bisher jedoch nicht festgestellt, dass diese Kriterien bedeutungsvoll sind oder dass das Produkt von Anthropic seinen Anspruch erfüllt. Dennoch behandelt die Archiveinheit des Parlaments die Ansprüche der Verfassungs-KI als Evangelium.
Die Mitglieder des Europäischen Parlaments waren an vorderster Front bei der Vorschlagserstellung für Regeln im KI-Gesetz beteiligt, um die Schäden durch generative KI-Systeme wie Claude zu adressieren. Statt den Regeln des KI-Gesetzes zu folgen, riskiert die Archiveinheit des Parlaments, indem sie sich auf die Ansprüche von Anthropic verlässt.
Probleme mit der Archivzugangskontrolle
Die unrechtmäßige Verarbeitung personenbezogener Daten ist nicht das einzige Problem mit LLMs (Large Language Models). Sie speichern ihre Trainingsdaten und geben Informationen wieder. Sie sind probabilistische Systeme, die „Bullshit“ generieren. LLMs sollten nicht verwendet werden, wenn die Genauigkeit von Informationen gefordert ist.
Dennoch hat das Parlament keine Alternativen zu LLMs bewertet. Es wurden nur zwei LLM-Modelle „getestet“: Claude von Anthropic und Titan von Amazon. Das Parlament ist in das Cloud-Ökosystem von Amazon eingebunden und verlässt sich auf Amazon Bedrock – den Marktplatz für KI-Modelle von Amazon.
Die (Nicht-)Bewertung des Parlaments
Das Parlament hätte eine Vielzahl von Bewertungen durchführen sollen, bevor es „Ask the EP Archives“ einführte, das auf Amazon AWS gehostet wird und für jeden über die Website des Parlaments zugänglich ist. Überraschenderweise hat das Parlament das Werkzeug nicht für die Verwendung durch die breite Öffentlichkeit bewertet.
„Dieses System ist eher für einen Business-to-Business-Kontext konzipiert als für einen Business-to-Consumer. Erwartete Benutzer sind junge Forscher, Archivare oder Historiker.“
Warum wurde ein „für einen Business-to-Business-Kontext konzipiertes“ System ohne weitere Bewertung der Öffentlichkeit zugänglich gemacht? Die breite Öffentlichkeit wird wahrscheinlich die Informationen auf der Website des Parlaments als autoritativ betrachten. Claude versagt bei einfachen Fragen.
Wer hat die Kontrolle?
Während das Parlament das Werkzeug vor der Einführung nicht bewertet hat, führt Anthropic das Parlament unter seinen Kunden. Es gab jedoch keine Ausschreibungen oder Verträge. Das Europäische Parlament nutzt die Dienste, die in der Anfrage für die historischen Archive spezifiziert sind, über die Europäische Kommission als Vermittler für Cloud-Brokerage-Dienste.
Die Europäische Kommission hat einen Vertrag mit Amazon AWS. Das Parlament verlässt sich auf den Vertrag der Kommission. Aber weder die Kommission noch das Parlament haben einen Vertrag mit Anthropic für generative KI.
Der Leiter der Archiveinheit des Parlaments sagte in einem Werbevideo für Anthropic: „Wenn wir generative KI nutzen, müssen wir permanently under control der Lösung sein, die wir gebaut haben.” Das Parlament verwendet die Infrastruktur von Amazon, den Marktplatz von Amazon und die von Amazon finanzierten KI-Modelle von Anthropic.
Das Parlament hat die Kontrolle nicht. Amazon hat die Kontrolle.
Fazit
Das Europäische Parlament hat versäumt, umfassende Bewertungen durchzuführen, bevor es generative KI in seinen Dienstleistungen einsetzt. Die blindlings gewählte Abhängigkeit von einem einzigen Anbieter könnte sowohl rechtliche als auch ethische Herausforderungen mit sich bringen, die es dringend zu adressieren gilt.