AI ist bereits am Arbeitsplatz. Ist die Regierung bereit dafür?
In verschiedenen Branchen – von der Bildung über das Gesundheitswesen bis hin zu staatlichen und lokalen Regierungen – beobachten wir einen grundlegenden Wandel: Organisationen fragen nicht mehr, ob sie künstliche Intelligenz (KI) übernehmen müssen, sondern wie. Dieser Wandel ist wichtig, da er den Übergang von Experimenten zur operativen Realität signalisiert.
Doch KI ist kein einfaches Plug-and-Play-Upgrade. Jede transformative Technologie bringt Herausforderungen mit sich. Widerstand in der Kultur, Vertrauenslücken und Unsicherheiten über die angemessene Nutzung sind ebenso real wie technische Einschränkungen. In der Regierung, wo der Spielraum für Fehler kleiner und das öffentliche Vertrauen entscheidend ist, sind diese Herausforderungen umso ausgeprägter.
Was wir in unserer Zusammenarbeit mit Behörden lernen, ist, dass der Erfolg von KI nicht nur von den Werkzeugen selbst abhängt. Es geht darum, die Arbeitskräfte strukturell, kulturell und ethisch darauf vorzubereiten, sie effektiv zu nutzen.
Bereitschaft der Arbeitskräfte kommt vor Automatisierung
Zu viele KI-Implementierungen scheitern nicht, weil die Technologie nicht funktioniert, sondern weil die Menschen nicht bereit dafür sind. Wir sehen immer noch, dass Organisationen KI wie eine Neuheit behandeln – etwas, das man einmal ausprobiert und dann hinter sich lässt. So geschieht jedoch keine sinnvolle Adoption.
KI sollte ein Zusammenarbeiter sein, nicht ein Autopilot. Die erfolgreichsten Implementierungen, die wir beobachten, sind stark interaktiv. Die Mitarbeiter sind gefordert, die Ergebnisse zu hinterfragen, Eingaben zu verfeinern, Annahmen zu validieren und Ergebnisse zu bearbeiten. Dies erfordert einen Wandel der Denkweise – von passiver Konsumierung zu aktiver Beteiligung.
Regierungsleiter sollten auch erkennen, dass die Einstellungen gegenüber KI innerhalb ihrer eigenen Belegschaft stark variieren. Einige Mitarbeiter sehen darin einen Produktivitätsdurchbruch, während andere es als Bedrohung für ihre Arbeitsplatzsicherheit oder ihre berufliche Identität betrachten. Diese emotionalen und verhaltensbezogenen Faktoren sind ebenso wichtig wie technische.
Öffentliche Einrichtungen müssen einen schmalen Grat finden: die operativen Vorteile von KI zu nutzen und gleichzeitig Wahrnehmungen von Übergriffigkeit oder Entmenschlichung zu vermeiden. Wie die Bürger über KI denken, ist entscheidend, und diese Gefühle werden zunächst durch die Erfahrungen der Regierungsmitarbeiter mit diesen Werkzeugen geprägt.
KI als Teamkollege, nicht als Abkürzung
Ein weit verbreitetes Missverständnis über KI ist, dass sie das Denken ersetzt. In Wirklichkeit beschleunigt sie das Denken – aber nur, wenn sie verantwortungsbewusst eingesetzt wird. Wir beobachten bereits praktische, alltägliche Erfolge: automatisierte Besprechungsnotizen, Verfolgung von Aktionspunkten, Dokumentenzusammenfassungen und Workflow-Orchestrierung in Kollaborationsanwendungen. Diese Anwendungsfälle reduzieren Reibungsverluste und schaffen Zeit.
Die nächste Evolutionsstufe wird jedoch tiefgreifender sein. Zukünftig werden Mitarbeiter Teams von KI-Agenten verwalten, so wie Manager menschliche Teams überwachen. Sie setzen Absichten, überprüfen Entwürfe, senden Arbeiten zur Überarbeitung zurück und wählen zwischen konkurrierenden Ergebnissen. Dies erfordert Urteilsvermögen und nicht blinden Vertrauen.
KI kann Risiken aufdecken, die man nicht bedacht hat, Optionen vorschlagen, von denen man nicht wusste, dass sie existieren, und Annahmen infrage stellen. Doch sie darf keine Entscheidungen treffen. Die Verantwortung muss beim Menschen bleiben.
Governance von KI: Mehr als nur Daten
Wenn staatliche Einrichtungen über die Governance von KI nachdenken, konzentrieren sie sich oft auf die naheliegenden Aspekte: Sicherheit, Datenschutz und Datenleckagen. Diese sind zwar entscheidend, aber nicht ausreichend.
KI speichert nicht nur Daten. Sie schließt daraus. Diese Schlussfolgerungen und die Logik, die den Modellen zugrunde liegt, werden zu einer Form von Daten selbst. Einrichtungen müssen verstehen, wie KI-Systeme zu ihren Schlussfolgerungen gelangen, nicht nur, welche Schlussfolgerungen sie ziehen. Das bedeutet, dass Nachvollziehbarkeit und Transparenz auch in die Schlussfolgerungsebene einbezogen werden müssen.
Ohne diese Transparenz kann man Ergebnisse nicht erklären, Vorurteile nicht korrigieren, Genauigkeit nicht verbessern und Entscheidungen nicht gegenüber der Öffentlichkeit verteidigen.
Die Governance sollte sich parallel zur Implementierung entwickeln, nicht Jahre im Voraus. Ein aufkommendes Risiko, das Einrichtungen genau beobachten sollten, ist die Prompt-Injection – versteckte Anweisungen in Dokumenten, die das Verhalten von KI manipulieren. Diese Art von Vorfällen zeigt, warum die Aufsicht über KI über das traditionelle Datenmanagement hinausgehen muss.
Strategie, Taktik und Talent müssen gemeinsam vorankommen
Eine erfolgreiche KI-Adoption erfordert drei parallele Ansätze:
Strategie: Einrichtungen benötigen eine klare Vision dafür, was KI erreichen soll, die mit den Zielen des öffentlichen Dienstes übereinstimmt. Dazu gehören Richtlinien, ethische Grenzen und klare Erfolgskriterien.
Taktik: Einrichtungen müssen Anwendungsfälle schnell testen, validieren und verwerfen. Der KI-Markt ist unübersichtlich. Hier ist Unterscheidungsvermögen erforderlich.
Talent: KI verändert, was „digitale Kompetenz“ bedeutet. Mitarbeiter benötigen gemeinsame Begriffe, sichere Räume zum Experimentieren und Foren zum Austausch von Techniken. Kultur entsteht nicht zufällig – sie muss gefördert werden.
Deshalb betonen wir Rahmenwerke statt Vorhersagen. Niemand kann zuverlässig vorhersagen, wo KI in einem Jahr stehen wird. Was Einrichtungen tun können, ist, adaptive Prozesse zu schaffen, die es ihnen ermöglichen, Veränderungen kontinuierlich zu integrieren.
Die Geschwindigkeit der KI nimmt nur zu. Die Frage ist, ob die Arbeitsplätze der Regierung bereit sind, sich mit ihr weiterzuentwickeln oder ständig hinterherzuhinken.