Wird Keir Starmer von KI beraten? Die britische Regierung gibt keine Auskunft
Der britische Premierminister Keir Starmer strebt danach, das Land zu einem Weltführer im Bereich der Künstlichen Intelligenz zu machen.
Wie New Scientist berichtet, nutzen Tausende von Beamten in der britischen Regierung, einschließlich derjenigen, die direkt Premierminister Starmer unterstützen, einen proprietären Künstliche Intelligenz-Chatbot, um ihre Arbeit zu erledigen. Die Beamten weigern sich jedoch, offizielle Auskünfte darüber zu erteilen, wie das Tool verwendet wird, ob der Premierminister Ratschläge erhält, die mit Hilfe von KI vorbereitet wurden, und wie die Beamten die Risiken ungenauer oder voreingenommener KI-Ausgaben mindern.
Experten äußern Bedenken über die mangelnde Transparenz der Regierung und die Genauigkeit der Informationen, die in der Regierung verwendet werden.
Einblick in die Nutzung von Redbox
Nach der erstmaligen Veröffentlichung von ChatGPT-Protokollen im Rahmen des Gesetzes über Informationsfreiheit (FOI) fragte New Scientist 20 Regierungsabteilungen nach den Aufzeichnungen ihrer Interaktionen mit Redbox, einem intern entwickelten generativen KI-Tool, das unter britischen Regierungsmitarbeitern getestet wird. Der Chatbot, der auf einem großen Sprachmodell basiert, ermöglicht es den Nutzern, Regierungsdokumente zu hinterfragen und „Erstentwürfe von Briefings zu erstellen“, so einer der Entwickler.
In den frühen Tests behauptete ein Beamter, dass er 50 Dokumente „in wenigen Sekunden“ synthetisiert hatte, anstatt einen ganzen Arbeitstag dafür zu benötigen.
Alle kontaktierte Abteilungen gaben entweder an, Redbox nicht zu verwenden, oder weigerten sich, die Protokolle der Interaktionen mit dem Tool bereitzustellen und bezeichneten die Anfragen von New Scientist als „ärgerlich“, ein offizieller Begriff, der in Antworten auf FOI-Anfragen verwendet wird.
Transparenz und Einschränkungen
Zwei Abteilungen gaben jedoch einige Informationen über ihre Verwendung von Redbox bekannt. Das Cabinet Office, das den Premierminister unterstützt, erklärte, dass 3000 Personen in seiner Abteilung an insgesamt 30.000 Chats mit Redbox teilgenommen hatten. Die Überprüfung dieser Chats zur Schwärzung sensibler Informationen würde mehr als ein Jahr an Arbeit erfordern. Auch das Ministerium für Wirtschaft und Handel verweigerte Informationen und gab an, dass es „über 13.000 Aufforderungen und Antworten“ halte, deren Überprüfung für eine Veröffentlichung nicht machbar sei.
Auf Nachfragen zur Nutzung von Redbox verwiesen beide Abteilungen auf das Ministerium für Wissenschaft, Innovation und Technologie (DSIT), das das Tool überwacht. DSIT weigerte sich, spezifische Fragen zu beantworten, ob der Premierminister oder andere Minister Ratschläge erhalten, die mit KI-Tools erstellt wurden.
Die Vorteile und Risiken von KI-Tools
Ein Sprecher von DSIT erklärte: „Niemand sollte Zeit mit etwas verbringen, das KI besser und schneller erledigen kann. Built in Whitehall hilft Redbox uns, die Kraft der KI sicher, geschützt und praktisch zu nutzen – es macht es einfacher für Beamte, Dokumente zusammenzufassen, Agenden zu entwerfen und mehr.“ Dies beschleunigt letztendlich unsere Arbeit und gibt den Beamten die Möglichkeit, sich auf die Gestaltung von Politik und die Verbesserung von Dienstleistungen zu konzentrieren.
Die Verwendung generativer KI-Tools besorgt jedoch einige Experten. Große Sprachmodelle haben gut dokumentierte Probleme in Bezug auf Voreingenommenheit und Genauigkeit, die schwer zu mindern sind. Daher haben wir keine Möglichkeit zu wissen, ob Redbox qualitativ hochwertige Informationen liefert. DSIT weigerte sich, spezifische Fragen dazu zu beantworten, wie die Nutzer von Redbox Ungenauigkeiten oder Voreingenommenheit vermeiden.
„Mein Problem ist hier, dass die Regierung dem Öffentlichen dienen soll, und ein Teil dieses Dienstes ist, dass wir – als Steuerzahler, als Wähler, als Wählerschaft – ein gewisses Maß an Zugang haben sollten, um zu verstehen, wie Entscheidungen getroffen werden und welche Prozesse bei der Entscheidungsfindung gelten“, sagt eine Expertin.
Die Rolle des Schatzamtes
Die mangelnde Transparenz erstreckt sich auch auf eine dritte Regierungsabteilung, das Schatzamt. Auf die FOI-Anfrage erklärte das Schatzamt, dass seine Mitarbeiter keinen Zugang zu Redbox haben und dass „intern verfügbare GPT-Tools innerhalb des Schatzamts keine Protokolle speichern“. Unklar ist, auf welches GPT-Tool sich dies bezieht – während ChatGPT das bekannteste Beispiel ist, sind auch andere große Sprachmodelle als GPTs bekannt. Die Antwort deutet darauf hin, dass das Schatzamt KI-Tools verwendet, aber keine umfassenden Aufzeichnungen über deren Nutzung führt.
„Wenn sie die Eingabeaufforderungen, die verwendet werden, nicht speichern, ist es schwierig, eine Vorstellung davon zu bekommen, wie die Entscheidungsprozesse dort repliziert werden können“, sagt die Expertin.
Ein rechtlicher Berater merkt an, dass es ungewöhnlich ist, diese Informationen nicht aufzuzeichnen. „Ich finde es überraschend, dass die Regierung sagt, sie könne die Eingabeaufforderungen, die in ihren internen GPT-Systemen verwendet werden, nicht abrufen.“ Während Gerichte entschieden haben, dass öffentliche Stellen keine öffentlichen Aufzeichnungen vor der Archivierung führen müssen, „würde eine gute Informationsverwaltung nahelegen, dass es dennoch sehr wichtig sein kann, Aufzeichnungen zu führen, insbesondere wenn sie zur Entwicklung oder Informierung von Politiken verwendet wurden“, so der Berater.
Ein Experte für Datenschutz sagt jedoch, dass das Schatzamt im Rahmen des FOI-Rechts nicht verpflichtet ist, KI-Eingabeaufforderungen aufzubewahren: „Ich denke, dass sie das tun können, es sei denn, es gibt eine spezifische gesetzliche oder dienstliche Regel über die Art der Daten.“
Schlussfolgerung
Die Berichterstattung über die Nutzung von KI im öffentlichen Sektor wirft wichtige Fragen zur Transparenz und Rechenschaftspflicht auf. Es bleibt abzuwarten, wie die Regierung auf die Bedenken reagiert und ob sie bereit ist, Einblicke in ihre Entscheidungsfindungsprozesse zu gewähren, die zunehmend von KI-Technologie beeinflusst werden.