Künstliche Intelligenz im britischen Regierungshandeln: Ein Geheimnis?

Wird Keir Starmer von KI beraten? Die britische Regierung gibt keine Auskunft

Der britische Premierminister Keir Starmer strebt danach, das Land zu einem Weltführer im Bereich der Künstlichen Intelligenz zu machen.

Wie New Scientist berichtet, nutzen Tausende von Beamten in der britischen Regierung, einschließlich derjenigen, die direkt Premierminister Starmer unterstützen, einen proprietären Künstliche Intelligenz-Chatbot, um ihre Arbeit zu erledigen. Die Beamten weigern sich jedoch, offizielle Auskünfte darüber zu erteilen, wie das Tool verwendet wird, ob der Premierminister Ratschläge erhält, die mit Hilfe von KI vorbereitet wurden, und wie die Beamten die Risiken ungenauer oder voreingenommener KI-Ausgaben mindern.

Experten äußern Bedenken über die mangelnde Transparenz der Regierung und die Genauigkeit der Informationen, die in der Regierung verwendet werden.

Einblick in die Nutzung von Redbox

Nach der erstmaligen Veröffentlichung von ChatGPT-Protokollen im Rahmen des Gesetzes über Informationsfreiheit (FOI) fragte New Scientist 20 Regierungsabteilungen nach den Aufzeichnungen ihrer Interaktionen mit Redbox, einem intern entwickelten generativen KI-Tool, das unter britischen Regierungsmitarbeitern getestet wird. Der Chatbot, der auf einem großen Sprachmodell basiert, ermöglicht es den Nutzern, Regierungsdokumente zu hinterfragen und „Erstentwürfe von Briefings zu erstellen“, so einer der Entwickler.

In den frühen Tests behauptete ein Beamter, dass er 50 Dokumente „in wenigen Sekunden“ synthetisiert hatte, anstatt einen ganzen Arbeitstag dafür zu benötigen.

Alle kontaktierte Abteilungen gaben entweder an, Redbox nicht zu verwenden, oder weigerten sich, die Protokolle der Interaktionen mit dem Tool bereitzustellen und bezeichneten die Anfragen von New Scientist als „ärgerlich“, ein offizieller Begriff, der in Antworten auf FOI-Anfragen verwendet wird.

Transparenz und Einschränkungen

Zwei Abteilungen gaben jedoch einige Informationen über ihre Verwendung von Redbox bekannt. Das Cabinet Office, das den Premierminister unterstützt, erklärte, dass 3000 Personen in seiner Abteilung an insgesamt 30.000 Chats mit Redbox teilgenommen hatten. Die Überprüfung dieser Chats zur Schwärzung sensibler Informationen würde mehr als ein Jahr an Arbeit erfordern. Auch das Ministerium für Wirtschaft und Handel verweigerte Informationen und gab an, dass es „über 13.000 Aufforderungen und Antworten“ halte, deren Überprüfung für eine Veröffentlichung nicht machbar sei.

Auf Nachfragen zur Nutzung von Redbox verwiesen beide Abteilungen auf das Ministerium für Wissenschaft, Innovation und Technologie (DSIT), das das Tool überwacht. DSIT weigerte sich, spezifische Fragen zu beantworten, ob der Premierminister oder andere Minister Ratschläge erhalten, die mit KI-Tools erstellt wurden.

Die Vorteile und Risiken von KI-Tools

Ein Sprecher von DSIT erklärte: „Niemand sollte Zeit mit etwas verbringen, das KI besser und schneller erledigen kann. Built in Whitehall hilft Redbox uns, die Kraft der KI sicher, geschützt und praktisch zu nutzen – es macht es einfacher für Beamte, Dokumente zusammenzufassen, Agenden zu entwerfen und mehr.“ Dies beschleunigt letztendlich unsere Arbeit und gibt den Beamten die Möglichkeit, sich auf die Gestaltung von Politik und die Verbesserung von Dienstleistungen zu konzentrieren.

Die Verwendung generativer KI-Tools besorgt jedoch einige Experten. Große Sprachmodelle haben gut dokumentierte Probleme in Bezug auf Voreingenommenheit und Genauigkeit, die schwer zu mindern sind. Daher haben wir keine Möglichkeit zu wissen, ob Redbox qualitativ hochwertige Informationen liefert. DSIT weigerte sich, spezifische Fragen dazu zu beantworten, wie die Nutzer von Redbox Ungenauigkeiten oder Voreingenommenheit vermeiden.

„Mein Problem ist hier, dass die Regierung dem Öffentlichen dienen soll, und ein Teil dieses Dienstes ist, dass wir – als Steuerzahler, als Wähler, als Wählerschaft – ein gewisses Maß an Zugang haben sollten, um zu verstehen, wie Entscheidungen getroffen werden und welche Prozesse bei der Entscheidungsfindung gelten“, sagt eine Expertin.

Die Rolle des Schatzamtes

Die mangelnde Transparenz erstreckt sich auch auf eine dritte Regierungsabteilung, das Schatzamt. Auf die FOI-Anfrage erklärte das Schatzamt, dass seine Mitarbeiter keinen Zugang zu Redbox haben und dass „intern verfügbare GPT-Tools innerhalb des Schatzamts keine Protokolle speichern“. Unklar ist, auf welches GPT-Tool sich dies bezieht – während ChatGPT das bekannteste Beispiel ist, sind auch andere große Sprachmodelle als GPTs bekannt. Die Antwort deutet darauf hin, dass das Schatzamt KI-Tools verwendet, aber keine umfassenden Aufzeichnungen über deren Nutzung führt.

„Wenn sie die Eingabeaufforderungen, die verwendet werden, nicht speichern, ist es schwierig, eine Vorstellung davon zu bekommen, wie die Entscheidungsprozesse dort repliziert werden können“, sagt die Expertin.

Ein rechtlicher Berater merkt an, dass es ungewöhnlich ist, diese Informationen nicht aufzuzeichnen. „Ich finde es überraschend, dass die Regierung sagt, sie könne die Eingabeaufforderungen, die in ihren internen GPT-Systemen verwendet werden, nicht abrufen.“ Während Gerichte entschieden haben, dass öffentliche Stellen keine öffentlichen Aufzeichnungen vor der Archivierung führen müssen, „würde eine gute Informationsverwaltung nahelegen, dass es dennoch sehr wichtig sein kann, Aufzeichnungen zu führen, insbesondere wenn sie zur Entwicklung oder Informierung von Politiken verwendet wurden“, so der Berater.

Ein Experte für Datenschutz sagt jedoch, dass das Schatzamt im Rahmen des FOI-Rechts nicht verpflichtet ist, KI-Eingabeaufforderungen aufzubewahren: „Ich denke, dass sie das tun können, es sei denn, es gibt eine spezifische gesetzliche oder dienstliche Regel über die Art der Daten.“

Schlussfolgerung

Die Berichterstattung über die Nutzung von KI im öffentlichen Sektor wirft wichtige Fragen zur Transparenz und Rechenschaftspflicht auf. Es bleibt abzuwarten, wie die Regierung auf die Bedenken reagiert und ob sie bereit ist, Einblicke in ihre Entscheidungsfindungsprozesse zu gewähren, die zunehmend von KI-Technologie beeinflusst werden.

More Insights

Risiken der KI im Compliance-Bereich

Das schnelle Wachstum der künstlichen Intelligenz (KI), insbesondere der generativen KI (GenAI) und Chatbots, bietet Unternehmen zahlreiche Möglichkeiten zur Verbesserung ihrer Arbeitsweise...

AI-Kompetenz: Anforderungen und Umsetzung im Unternehmen

Die Verpflichtung zur KI-Kompetenz gilt seit dem 2. Februar 2025 für alle, die mit KI-Systemen in Verbindung stehen. Die Kommission erwartet von den Anbietern und Anwendern von KI-Systemen, dass sie...

Ethische Herausforderungen der KI: Strategien für verantwortungsvolles Handeln

Künstliche Intelligenz (KI) durchdringt zunehmend kritische Entscheidungsprozesse in verschiedenen Branchen, weshalb robuste ethische Governance-Rahmenwerke von entscheidender Bedeutung sind. Die...

Rechtliche Personhood für KI: Eine dringende Debatte

Künstliche Intelligenz ist nicht mehr auf dem Weg, sie ist bereits etabliert. Angesichts der schnellen Integration von KI müssen wir die dringende Frage stellen: Soll KI irgendeine Form von...

Datenherkunft als Schlüssel zur KI-Governance für CISOs

Künstliche Intelligenz hat schleichend in zentrale Funktionen des Unternehmens Einzug gehalten, und viele dieser Funktionen basieren auf großen Sprachmodellen (LLMs). Die Annahme der Sicherheit der...

Ausgewogene KI-Regulierung für die Philippinen

Eine Abgeordnete auf den Philippinen fordert einen vorsichtigen und konsulativen Ansatz zur Regulierung von Künstlicher Intelligenz (KI), um sicherzustellen, dass die Richtlinien eine ethische...

Chinas Weg zur offenen KI-Governance

Chinas schnelle Fortschritte im Bereich der künstlichen Intelligenz (KI) werden zunehmend durch eine starke Betonung der Open-Source-Zusammenarbeit vorangetrieben. Dies ermöglicht es Unternehmen...

Neun Schritte zur effektiven KI-Governance

Die AI-Governance ist entscheidend, um die Integrität, Verantwortlichkeit und Sicherheit der Datenökosysteme zu gewährleisten, die KI-Modelle antreiben. Ohne starke Kontrollen können KI-Systeme...