Künstliche Intelligenz und der Schatten der Verantwortung

AI-Governance durch menschliche Fähigkeiten

Die Geschichte der Unternehmens-IT ist im Allgemeinen eine Geschichte der dialektischen Spannungen zwischen dem Zentrum und der Peripherie, insbesondere zwischen Zentralisierung und Dezentralisierung. Wir haben gelernt, mit Shadow IT zu leben, also der Nutzung von Software und mobilen Geräten im Schatten der Technologie-Manager, die in jedem Fall nicht genehmigt sind. Heute stehen wir vor einer weitaus heimtückischeren und komplexeren Mutation: Shadow AI.

Das Phänomen Shadow AI

Wir stehen einem Phänomen gegenüber, bei dem generative künstliche Intelligenz, die für jeden mit einem Browser zugänglich ist, eingesetzt wird, um kritische Aufgaben ohne das Wissen der Organisation auszuführen. Die logische Schlussfolgerung ist einfach: Wenn der Zugang zu Rechenleistung reibungslos geworden ist, dann ist die traditionelle zentrale Kontrolle nicht mehr ausreichend.

Diejenigen, die AI auf diese Weise nutzen, tun dies nicht aus böswilliger Absicht, sondern verfolgen ein Prinzip der individuellen wirtschaftlichen Effizienz. Sie versuchen, ihre Produktivität zu maximieren, indem sie die Kluft zwischen der durch den Markt auferlegten Geschwindigkeit und den oft langsamen internen Prozessen überbrücken. Leider ignorieren sie dabei die Risiken, die ihre Handlungen mit sich bringen.

Existenzielle Risiken

Wenn wir diese Werkzeuge in den Schatten bringen, setzen wir die Organisation drei existenziellen Risiken aus, die nicht ignoriert werden können.

Das erste Risiko ist die Souveränität der Daten. Vertrauliche Daten in ein öffentliches Modell einzugeben, ist in vielen Fällen gleichbedeutend damit, diese Daten dem Anbieter des Modells für zukünftiges Training zu überlassen. Dies bedeutet einen stillen und fortlaufenden Verlust von geistigem Eigentum und gefährdet somit das Kerngeschäft des Unternehmens.

Das zweite Risiko besteht darin, dass man vergisst, dass die Maschine berechnet und nicht denkt. Sie produziert Inhalte, ohne zu realisieren, dass sie dies tut. Im Schatten könnten strategische Entscheidungen auf fehlerhaften statistischen Ableitungen basieren, die von einer Maschine erzeugt wurden, die den Kontext dessen, was sie produziert hat, nicht vollständig versteht. Wenn wir das Denken der Maschine ohne Aufsicht überlassen, geben wir unsere menschliche Verantwortung auf.

Das dritte Risiko ist verstehende technische und rechtliche Schulden. Ein von einer KI generierter Code ohne klare Lizenz oder ein Text, der Urheberrechte verletzt, gelangt ohne Nachvollziehbarkeit in die Unternehmenssysteme. Wenn der Zeitpunkt kommt, an dem diese Vermögenswerte nachgewiesen werden müssen, wird das Unternehmen mit Verbindlichkeiten konfrontiert, von denen es nicht wusste, dass sie existieren.

Innovationen in der Unternehmenskultur

Verbote und der Zugang zu blockierten Ressourcen zeigen, dass die Geschichte der Digitalisierung lehrt, dass dies nicht funktioniert. Die Antwort liegt nie in der Einführung weiterer Technologien; tatsächlich werden die besten Ergebnisse durch organisatorische und kulturelle Innovationen erzielt.

Wir müssen die Achse von nutzloser a priori Kontrolle zu Kompetenz verschieben. Shadow AI gedeiht dort, wo eine weit verbreitete Kultur der KI fehlt. Wenn Mitarbeiter nicht genehmigte Werkzeuge verwenden, liegt es oft daran, dass das Unternehmen keine praktikablen und sicheren Alternativen angeboten hat.

Unternehmen sollten sichere „Sandkästen“ bereitstellen, geschützte Umgebungen, in denen Modelle privat instanziiert werden, wo Daten das Unternehmensperimeter nicht verlassen und wo Ausgaben überprüft werden können.

Was ebenfalls notwendig ist, ist eine Rückkehr zu den Grundlagen des kritischen Denkens. Die Einführung von KI erfordert mehr Humanismus, nicht weniger. Wir müssen Menschen nicht nur im Umgang mit dem Werkzeug schulen (die Schnittstelle ist mittlerweile natürliche Sprache, die für alle zugänglich ist), sondern auch in der Bewertung der Ergebnisse. Technische Kompetenz muss sich in epistemologische Kompetenz weiterentwickeln: das Wissen, statistische Korrelationen von kausalen Zusammenhängen zu unterscheiden, Vorurteile zu erkennen und die Ethik eines Ergebnisses zu bewerten.

Fazit

Wir können Shadow AI als internes Marktsignal neu definieren. Es zeigt uns, dass der Hunger nach kognitiver Automatisierung immens ist. Die echte Herausforderung für Führungskräfte besteht darin, KI aus dem Schatten ins Licht zu bringen, wo sie geregelt, gemessen und vor allem von menschlicher Absicht geleitet werden kann. Wenn wir in die 1970er Jahre zurückblicken, als es nur zentrale Systeme und lediglich einen Terminal, nicht aber einen Personal Computer in unseren Händen gab, würden wir sicherlich keine Sicherheitsrisiken in der Peripherie haben, aber auch keine Kreativität und Verantwortlichkeit, die, im Gegensatz zur Berechnung, nicht delegiert werden können. Verantwortlichkeit ist die einzige objektive Realität, die uns von Maschinen unterscheidet, und das wird immer so bleiben.

More Insights

Verantwortungsvolle KI: Ein unverzichtbares Gebot für Unternehmen

Unternehmen sind sich der Notwendigkeit von verantwortungsvollem KI-Betrieb bewusst, behandeln ihn jedoch oft als nachträglichen Gedanken oder separates Projekt. Verantwortliche KI ist eine vordere...

Neues KI-Governance-Modell gegen Schatten-KI

Künstliche Intelligenz (KI) verbreitet sich schnell in den Arbeitsplatz und verändert, wie alltägliche Aufgaben erledigt werden. Unternehmen müssen ihre Ansätze zur KI-Politik überdenken, um mit der...

EU plant Aufschub für AI-Gesetzgebung

Die EU plant, die Anforderungen für risikobehaftete KI-Systeme im KI-Gesetz bis Ende 2027 zu verschieben, um Unternehmen mehr Zeit zu geben, sich anzupassen. Kritiker befürchten, dass diese...

Weißes Haus lehnt GAIN AI-Gesetz ab: Nvidia im Fokus

Das Weiße Haus hat sich gegen den GAIN AI Act ausgesprochen, während es um die Exportbeschränkungen für Nvidia-AI-Chips nach China geht. Die Diskussion spiegelt die politischen Spannungen wider, die...

Ethische KI als Beschleuniger für Innovation

Unternehmen stehen heute unter Druck, mit künstlicher Intelligenz zu innovieren, oft jedoch ohne die notwendigen Sicherheitsvorkehrungen. Indem sie Datenschutz und Ethik in den Entwicklungsprozess...

KI im Recruiting: Verborgene Risiken für Arbeitgeber

Künstliche Intelligenz verändert die Art und Weise, wie Arbeitgeber Talente rekrutieren und bewerten. Während diese Tools Effizienz und Kosteneinsparungen versprechen, bringen sie auch erhebliche...

KI im australischen Kabinett: Chancen und Sicherheitsbedenken

Die australische Regierung könnte in Betracht ziehen, KI-Programme zur Erstellung sensibler Kabinettsanträge zu nutzen, trotz Bedenken hinsichtlich Sicherheitsrisiken und Datenverletzungen...