Künstliche Intelligenz im britischen Regierungshandeln: Ein Geheimnis?

Wird Keir Starmer von KI beraten? Die britische Regierung gibt keine Auskunft

Der britische Premierminister Keir Starmer strebt danach, das Land zu einem Weltführer im Bereich der Künstlichen Intelligenz zu machen.

Wie New Scientist berichtet, nutzen Tausende von Beamten in der britischen Regierung, einschließlich derjenigen, die direkt Premierminister Starmer unterstützen, einen proprietären Künstliche Intelligenz-Chatbot, um ihre Arbeit zu erledigen. Die Beamten weigern sich jedoch, offizielle Auskünfte darüber zu erteilen, wie das Tool verwendet wird, ob der Premierminister Ratschläge erhält, die mit Hilfe von KI vorbereitet wurden, und wie die Beamten die Risiken ungenauer oder voreingenommener KI-Ausgaben mindern.

Experten äußern Bedenken über die mangelnde Transparenz der Regierung und die Genauigkeit der Informationen, die in der Regierung verwendet werden.

Einblick in die Nutzung von Redbox

Nach der erstmaligen Veröffentlichung von ChatGPT-Protokollen im Rahmen des Gesetzes über Informationsfreiheit (FOI) fragte New Scientist 20 Regierungsabteilungen nach den Aufzeichnungen ihrer Interaktionen mit Redbox, einem intern entwickelten generativen KI-Tool, das unter britischen Regierungsmitarbeitern getestet wird. Der Chatbot, der auf einem großen Sprachmodell basiert, ermöglicht es den Nutzern, Regierungsdokumente zu hinterfragen und „Erstentwürfe von Briefings zu erstellen“, so einer der Entwickler.

In den frühen Tests behauptete ein Beamter, dass er 50 Dokumente „in wenigen Sekunden“ synthetisiert hatte, anstatt einen ganzen Arbeitstag dafür zu benötigen.

Alle kontaktierte Abteilungen gaben entweder an, Redbox nicht zu verwenden, oder weigerten sich, die Protokolle der Interaktionen mit dem Tool bereitzustellen und bezeichneten die Anfragen von New Scientist als „ärgerlich“, ein offizieller Begriff, der in Antworten auf FOI-Anfragen verwendet wird.

Transparenz und Einschränkungen

Zwei Abteilungen gaben jedoch einige Informationen über ihre Verwendung von Redbox bekannt. Das Cabinet Office, das den Premierminister unterstützt, erklärte, dass 3000 Personen in seiner Abteilung an insgesamt 30.000 Chats mit Redbox teilgenommen hatten. Die Überprüfung dieser Chats zur Schwärzung sensibler Informationen würde mehr als ein Jahr an Arbeit erfordern. Auch das Ministerium für Wirtschaft und Handel verweigerte Informationen und gab an, dass es „über 13.000 Aufforderungen und Antworten“ halte, deren Überprüfung für eine Veröffentlichung nicht machbar sei.

Auf Nachfragen zur Nutzung von Redbox verwiesen beide Abteilungen auf das Ministerium für Wissenschaft, Innovation und Technologie (DSIT), das das Tool überwacht. DSIT weigerte sich, spezifische Fragen zu beantworten, ob der Premierminister oder andere Minister Ratschläge erhalten, die mit KI-Tools erstellt wurden.

Die Vorteile und Risiken von KI-Tools

Ein Sprecher von DSIT erklärte: „Niemand sollte Zeit mit etwas verbringen, das KI besser und schneller erledigen kann. Built in Whitehall hilft Redbox uns, die Kraft der KI sicher, geschützt und praktisch zu nutzen – es macht es einfacher für Beamte, Dokumente zusammenzufassen, Agenden zu entwerfen und mehr.“ Dies beschleunigt letztendlich unsere Arbeit und gibt den Beamten die Möglichkeit, sich auf die Gestaltung von Politik und die Verbesserung von Dienstleistungen zu konzentrieren.

Die Verwendung generativer KI-Tools besorgt jedoch einige Experten. Große Sprachmodelle haben gut dokumentierte Probleme in Bezug auf Voreingenommenheit und Genauigkeit, die schwer zu mindern sind. Daher haben wir keine Möglichkeit zu wissen, ob Redbox qualitativ hochwertige Informationen liefert. DSIT weigerte sich, spezifische Fragen dazu zu beantworten, wie die Nutzer von Redbox Ungenauigkeiten oder Voreingenommenheit vermeiden.

„Mein Problem ist hier, dass die Regierung dem Öffentlichen dienen soll, und ein Teil dieses Dienstes ist, dass wir – als Steuerzahler, als Wähler, als Wählerschaft – ein gewisses Maß an Zugang haben sollten, um zu verstehen, wie Entscheidungen getroffen werden und welche Prozesse bei der Entscheidungsfindung gelten“, sagt eine Expertin.

Die Rolle des Schatzamtes

Die mangelnde Transparenz erstreckt sich auch auf eine dritte Regierungsabteilung, das Schatzamt. Auf die FOI-Anfrage erklärte das Schatzamt, dass seine Mitarbeiter keinen Zugang zu Redbox haben und dass „intern verfügbare GPT-Tools innerhalb des Schatzamts keine Protokolle speichern“. Unklar ist, auf welches GPT-Tool sich dies bezieht – während ChatGPT das bekannteste Beispiel ist, sind auch andere große Sprachmodelle als GPTs bekannt. Die Antwort deutet darauf hin, dass das Schatzamt KI-Tools verwendet, aber keine umfassenden Aufzeichnungen über deren Nutzung führt.

„Wenn sie die Eingabeaufforderungen, die verwendet werden, nicht speichern, ist es schwierig, eine Vorstellung davon zu bekommen, wie die Entscheidungsprozesse dort repliziert werden können“, sagt die Expertin.

Ein rechtlicher Berater merkt an, dass es ungewöhnlich ist, diese Informationen nicht aufzuzeichnen. „Ich finde es überraschend, dass die Regierung sagt, sie könne die Eingabeaufforderungen, die in ihren internen GPT-Systemen verwendet werden, nicht abrufen.“ Während Gerichte entschieden haben, dass öffentliche Stellen keine öffentlichen Aufzeichnungen vor der Archivierung führen müssen, „würde eine gute Informationsverwaltung nahelegen, dass es dennoch sehr wichtig sein kann, Aufzeichnungen zu führen, insbesondere wenn sie zur Entwicklung oder Informierung von Politiken verwendet wurden“, so der Berater.

Ein Experte für Datenschutz sagt jedoch, dass das Schatzamt im Rahmen des FOI-Rechts nicht verpflichtet ist, KI-Eingabeaufforderungen aufzubewahren: „Ich denke, dass sie das tun können, es sei denn, es gibt eine spezifische gesetzliche oder dienstliche Regel über die Art der Daten.“

Schlussfolgerung

Die Berichterstattung über die Nutzung von KI im öffentlichen Sektor wirft wichtige Fragen zur Transparenz und Rechenschaftspflicht auf. Es bleibt abzuwarten, wie die Regierung auf die Bedenken reagiert und ob sie bereit ist, Einblicke in ihre Entscheidungsfindungsprozesse zu gewähren, die zunehmend von KI-Technologie beeinflusst werden.

More Insights

Verantwortungsvolle KI: Ein unverzichtbares Gebot für Unternehmen

Unternehmen sind sich der Notwendigkeit von verantwortungsvollem KI-Betrieb bewusst, behandeln ihn jedoch oft als nachträglichen Gedanken oder separates Projekt. Verantwortliche KI ist eine vordere...

Neues KI-Governance-Modell gegen Schatten-KI

Künstliche Intelligenz (KI) verbreitet sich schnell in den Arbeitsplatz und verändert, wie alltägliche Aufgaben erledigt werden. Unternehmen müssen ihre Ansätze zur KI-Politik überdenken, um mit der...

EU plant Aufschub für AI-Gesetzgebung

Die EU plant, die Anforderungen für risikobehaftete KI-Systeme im KI-Gesetz bis Ende 2027 zu verschieben, um Unternehmen mehr Zeit zu geben, sich anzupassen. Kritiker befürchten, dass diese...

Weißes Haus lehnt GAIN AI-Gesetz ab: Nvidia im Fokus

Das Weiße Haus hat sich gegen den GAIN AI Act ausgesprochen, während es um die Exportbeschränkungen für Nvidia-AI-Chips nach China geht. Die Diskussion spiegelt die politischen Spannungen wider, die...

Ethische KI als Beschleuniger für Innovation

Unternehmen stehen heute unter Druck, mit künstlicher Intelligenz zu innovieren, oft jedoch ohne die notwendigen Sicherheitsvorkehrungen. Indem sie Datenschutz und Ethik in den Entwicklungsprozess...

KI im Recruiting: Verborgene Risiken für Arbeitgeber

Künstliche Intelligenz verändert die Art und Weise, wie Arbeitgeber Talente rekrutieren und bewerten. Während diese Tools Effizienz und Kosteneinsparungen versprechen, bringen sie auch erhebliche...

KI im australischen Kabinett: Chancen und Sicherheitsbedenken

Die australische Regierung könnte in Betracht ziehen, KI-Programme zur Erstellung sensibler Kabinettsanträge zu nutzen, trotz Bedenken hinsichtlich Sicherheitsrisiken und Datenverletzungen...