AI-Governance durch menschliche Fähigkeiten
Die Geschichte der Unternehmens-IT ist im Allgemeinen eine Geschichte der dialektischen Spannungen zwischen dem Zentrum und der Peripherie, insbesondere zwischen Zentralisierung und Dezentralisierung. Wir haben gelernt, mit Shadow IT zu leben, also der Nutzung von Software und mobilen Geräten im Schatten der Technologie-Manager, die in jedem Fall nicht genehmigt sind. Heute stehen wir vor einer weitaus heimtückischeren und komplexeren Mutation: Shadow AI.
Das Phänomen Shadow AI
Wir stehen einem Phänomen gegenüber, bei dem generative künstliche Intelligenz, die für jeden mit einem Browser zugänglich ist, eingesetzt wird, um kritische Aufgaben ohne das Wissen der Organisation auszuführen. Die logische Schlussfolgerung ist einfach: Wenn der Zugang zu Rechenleistung reibungslos geworden ist, dann ist die traditionelle zentrale Kontrolle nicht mehr ausreichend.
Diejenigen, die AI auf diese Weise nutzen, tun dies nicht aus böswilliger Absicht, sondern verfolgen ein Prinzip der individuellen wirtschaftlichen Effizienz. Sie versuchen, ihre Produktivität zu maximieren, indem sie die Kluft zwischen der durch den Markt auferlegten Geschwindigkeit und den oft langsamen internen Prozessen überbrücken. Leider ignorieren sie dabei die Risiken, die ihre Handlungen mit sich bringen.
Existenzielle Risiken
Wenn wir diese Werkzeuge in den Schatten bringen, setzen wir die Organisation drei existenziellen Risiken aus, die nicht ignoriert werden können.
Das erste Risiko ist die Souveränität der Daten. Vertrauliche Daten in ein öffentliches Modell einzugeben, ist in vielen Fällen gleichbedeutend damit, diese Daten dem Anbieter des Modells für zukünftiges Training zu überlassen. Dies bedeutet einen stillen und fortlaufenden Verlust von geistigem Eigentum und gefährdet somit das Kerngeschäft des Unternehmens.
Das zweite Risiko besteht darin, dass man vergisst, dass die Maschine berechnet und nicht denkt. Sie produziert Inhalte, ohne zu realisieren, dass sie dies tut. Im Schatten könnten strategische Entscheidungen auf fehlerhaften statistischen Ableitungen basieren, die von einer Maschine erzeugt wurden, die den Kontext dessen, was sie produziert hat, nicht vollständig versteht. Wenn wir das Denken der Maschine ohne Aufsicht überlassen, geben wir unsere menschliche Verantwortung auf.
Das dritte Risiko ist verstehende technische und rechtliche Schulden. Ein von einer KI generierter Code ohne klare Lizenz oder ein Text, der Urheberrechte verletzt, gelangt ohne Nachvollziehbarkeit in die Unternehmenssysteme. Wenn der Zeitpunkt kommt, an dem diese Vermögenswerte nachgewiesen werden müssen, wird das Unternehmen mit Verbindlichkeiten konfrontiert, von denen es nicht wusste, dass sie existieren.
Innovationen in der Unternehmenskultur
Verbote und der Zugang zu blockierten Ressourcen zeigen, dass die Geschichte der Digitalisierung lehrt, dass dies nicht funktioniert. Die Antwort liegt nie in der Einführung weiterer Technologien; tatsächlich werden die besten Ergebnisse durch organisatorische und kulturelle Innovationen erzielt.
Wir müssen die Achse von nutzloser a priori Kontrolle zu Kompetenz verschieben. Shadow AI gedeiht dort, wo eine weit verbreitete Kultur der KI fehlt. Wenn Mitarbeiter nicht genehmigte Werkzeuge verwenden, liegt es oft daran, dass das Unternehmen keine praktikablen und sicheren Alternativen angeboten hat.
Unternehmen sollten sichere „Sandkästen“ bereitstellen, geschützte Umgebungen, in denen Modelle privat instanziiert werden, wo Daten das Unternehmensperimeter nicht verlassen und wo Ausgaben überprüft werden können.
Was ebenfalls notwendig ist, ist eine Rückkehr zu den Grundlagen des kritischen Denkens. Die Einführung von KI erfordert mehr Humanismus, nicht weniger. Wir müssen Menschen nicht nur im Umgang mit dem Werkzeug schulen (die Schnittstelle ist mittlerweile natürliche Sprache, die für alle zugänglich ist), sondern auch in der Bewertung der Ergebnisse. Technische Kompetenz muss sich in epistemologische Kompetenz weiterentwickeln: das Wissen, statistische Korrelationen von kausalen Zusammenhängen zu unterscheiden, Vorurteile zu erkennen und die Ethik eines Ergebnisses zu bewerten.
Fazit
Wir können Shadow AI als internes Marktsignal neu definieren. Es zeigt uns, dass der Hunger nach kognitiver Automatisierung immens ist. Die echte Herausforderung für Führungskräfte besteht darin, KI aus dem Schatten ins Licht zu bringen, wo sie geregelt, gemessen und vor allem von menschlicher Absicht geleitet werden kann. Wenn wir in die 1970er Jahre zurückblicken, als es nur zentrale Systeme und lediglich einen Terminal, nicht aber einen Personal Computer in unseren Händen gab, würden wir sicherlich keine Sicherheitsrisiken in der Peripherie haben, aber auch keine Kreativität und Verantwortlichkeit, die, im Gegensatz zur Berechnung, nicht delegiert werden können. Verantwortlichkeit ist die einzige objektive Realität, die uns von Maschinen unterscheidet, und das wird immer so bleiben.