Schatten-KI im Aufschwung: Governance muss nachziehen

Shadow AI Explodiert: Die Notwendigkeit von Governance

Generative KI (GenAI) ist bereits tief in Unternehmen eingebettet, ob die Manager es nun realisieren oder nicht. Verkaufsteams verwenden sie, um E-Mails zu erstellen, Ingenieure setzen Agenten ein, die Code generieren und testen, und Vermarkter verlassen sich auf sie für das Copywriting und die Ideenfindung von Kampagnen. Vieles davon geschieht jedoch ohne formale Genehmigung, Aufsicht oder Kontrolle.

Dies wird als Shadow LLM oder Shadow AI bezeichnet: die ungenehmigte und unüberwachte Nutzung von GenAI-Tools, die oft völlig unbemerkt bleibt.

Die Sichtbarkeit ist entscheidend

Ähnlich wie bei Shadow IT ist die Sichtbarkeit für Sicherheitsteams entscheidend, um Einblick in die verwendeten GenAI-Tools zu erhalten, wie sie genutzt werden und welche Benutzer das größte Risiko darstellen.

Dies geschieht nicht aus böser Absicht, da Endbenutzer aus gutem Grund auf GenAI-Tools zurückgreifen. Es ist einfach ein Fall, in dem Geschwindigkeit die Aufsicht überholt. Diese Tools sind leicht zugänglich, schnell einsetzbar und unglaublich produktiv, aber auch schwer zu überwachen. In den meisten Fällen gibt es keinen Audit-Trail, dem gefolgt werden kann, wenn etwas schiefgeht.

Statistiken belegen die Nutzung

Eine aktuelle Umfrage von Palo Alto Networks mit dem Titel „Der Stand der Generativen KI“ hat ergeben, dass der GenAI-Verkehr um 890 % gestiegen ist. Eine andere Umfrage unter europäischen Rechtsteams ergab, dass, obwohl über 90 % der Kanzleien KI-Tools verwenden, nur 18 % eine formale Governance implementiert haben.

Risiken ohne klare Regeln

Zwischen der schnelllebigen Technologie und der langsamen Governance beginnt meist das Trouble. Ohne klare Regeln und Richtlinien besteht das Risiko, empfindliche Daten offenzulegen, Entscheidungen ohne Aufsicht zu automatisieren und blinde Flecken bei der Nutzung von GenAI zu schaffen.

Deshalb benötigen Unternehmen eine GenAI-Politik, um sie in Bezug auf Regulierung, Compliance und Sicherheit zu schützen. Wenn GenAI bereits Teil der Geschäftstätigkeit ist (und das ist es wahrscheinlich), müssen klare Leitplanken und Durchsetzungsrichtlinien vorhanden sein, um festzulegen, was erlaubt ist, was nicht und wer für die Durchsetzung verantwortlich ist. Doch eine Richtlinie auf dem Papier reicht nicht aus. Wie jede effektive Governance muss sie sowohl anpassen als auch formen, wie GenAI im Alltag genutzt wird.

Was eine effektive GenAI-Politik durchsetzen sollte

Eine GenAI-Politik muss den Ablauf nicht verlangsamen. Sie stellt sicher, dass die Tools, auf die sich die Teams verlassen, vertrauenswürdig sind, insbesondere wenn die Tools beginnen, Entscheidungen zu treffen, Daten zu bewegen oder im Namen des Unternehmens zu handeln. Die Richtlinien sollten sechs zentrale Bereiche abdecken:

1. Genehmigung von GenAI-Chatbots und Drittanbieteranwendungen

Kein GenAI-Tool sollte ohne ordentliche Überprüfung genehmigt werden. Das bedeutet, genau zu prüfen, was das Tool tatsächlich macht, wie es mit Ihren Systemen verbunden ist, wer es entwickelt hat und was es mit Ihren Daten macht – sei es ein Chatbot, ein Plug-in oder eine Drittanbieter-App.

2. GenAI-Anwendungsinventar und Eigentumszuweisung

Es ist schwer, das zu sichern, was Sie nicht verfolgen. Jedes GenAI-System, das verwendet wird – intern oder extern – muss in einem zentralen Inventar protokolliert werden. Und jemand muss die Verantwortung dafür übernehmen, mit klarer Zuordnung, die nicht vage oder geteilt sein sollte.

3. Zugriffssteuerungen und Berechtigungsmanagement

GenAI-Chatbots oder -Tools sollten denselben Zugriffsregeln wie alles andere folgen. Das bedeutet, dass die Sichtweise und die Handlungen der Tools und Agenten basierend auf ihren Rollen eingeschränkt werden müssen und diese Berechtigungen regelmäßig überprüft werden sollten, um festzustellen, wer auf welche Inhalte zugreifen kann.

4. Protokollierung und Audit-Trails

Wenn etwas schiefgeht, müssen Sie wissen, was passiert ist. Daher ist eines der Schlüsselaspekte von Shadow AI, GenAI-Interaktionen über alle Datenflüsse für sowohl Eingaben als auch Ausgaben zu protokollieren und Administratoren über riskante Verhaltensweisen zu informieren.

5. Tests und Red Teaming

Es sollte nicht angenommen werden, dass GenAI-Systeme wie beabsichtigt funktionieren. Sie müssen vor der Bereitstellung und regelmäßig getestet werden. Dazu gehören Red Teaming, Simulationen und Überprüfungen auf spezifische GenAI-Schwachstellen und Bedrohungen wie Prompt Injection, Datenschutz oder Sicherheitsvorschriften.

6. Durchsetzung von GenAI-Nutzungsleitplanken

Richtlinien sind nicht nützlich, wenn sie nicht durchgesetzt werden. Leitplanken, die festlegen, welche Tools ein Agent verwenden kann, welche Art von Daten er abrufen kann oder wann eine menschliche Genehmigung erforderlich ist, sollten in das System eingebaut werden.

Die richtige GenAI-Politik von Anfang an aufbauen

Es ist eine Sache, eine Richtlinie zu schreiben. Es ist eine andere, sie relevant zu machen.

Viele Organisationen haben GenAI-Richtlinien veröffentlicht. Wenige haben jedoch die Governance-Kompetenz aufgebaut, um diese konsistent auf Teams, Tools und sich entwickelnde Anwendungsfälle anzuwenden. Zu viele Organisationen haben GenAI-Richtlinien in Dokumenten, die niemand liest, oder die in der Theorie klar erscheinen, aber in der Anwendung an realen Arbeitsabläufen, Bereitstellungsprozessen oder Entwickler-Tools scheitern. Dieses Versagen ergibt sich aus einem Mangel an Verbindung zwischen dem, was die Richtlinie besagt, und wie die Menschen tatsächlich arbeiten. Zwischen den Regeln und den Systemen, die dazu bestimmt sind, sie durchzusetzen, und zwischen Eigentum und Verantwortung.

Eine GenAI-Politik in die Praxis umzusetzen, bedeutet, sie in etwas Operatives zu verwandeln. Das umfasst die richtigen Kontrollen, die richtige Sichtbarkeit und die richtigen Personen, die für die Aktualität verantwortlich sind. Denn sobald GenAI in Ihr Geschäft integriert ist, ist die Richtlinie nicht der Ausgangspunkt, sondern das Sicherheitsnetz. Und wenn dieses Netz nicht vorhanden ist, wenn etwas schiefgeht, ist es bereits zu spät.

More Insights

Pillar Security: Neuer AI-Sicherheitsrahmen für die Branche

Das Start-up Pillar Security hat ein KI-Sicherheitsframework codifiziert, das einen weiteren wichtigen Schritt in den Bemühungen der Branche darstellt, Strategien, Governance und Tools...

Tokio Marine führt Richtlinien für KI-Governance ein

Die Tokio Marine Holdings hat ein formelles AI-Governance-Rahmenwerk eingeführt, um die Entwicklung und Nutzung von künstlicher Intelligenz in ihren globalen Unternehmensgruppen zu leiten. Die...

Schatten-KI im Aufschwung: Governance muss nachziehen

Generative KI (GenAI) ist bereits tief in Unternehmen integriert, oft ohne formelle Genehmigung oder Kontrolle. Es ist entscheidend, klare Regeln und Richtlinien zu haben, um sensible Daten zu...

Politik der Fragmentierung und Einflussnahme in der KI-Regulierung

In der aktuellen Diskussion über die Regulierung von Künstlicher Intelligenz (KI) wird oft die Frage übersehen, welche Art von globaler Governance-Landschaft aus den nationalen Regulierungsbemühungen...

Politik der Fragmentierung und Einflussnahme in der KI-Regulierung

In der aktuellen Diskussion über die Regulierung von Künstlicher Intelligenz (KI) wird oft die Frage übersehen, welche Art von globaler Governance-Landschaft aus den nationalen Regulierungsbemühungen...

Dubai Kultur erhält Auszeichnung für beste KI-Governance 2025

Die Dubai Culture & Arts Authority wurde während des GovTech Innovation Forum & Awards mit dem Preis für das beste KI-Governance-Rahmenwerk 2025 ausgezeichnet. Diese Auszeichnung würdigt die...

Vertrauen in KI: FLIRs Verkehrslösungen und die EU AI-Verordnung

Künstliche Intelligenz wird zunehmend Teil der modernen Infrastruktur, wobei Sicherheit, Transparenz und Verantwortung von größter Bedeutung sind. FLIR begrüßt den EU-KI-Rechtsakt, der als Maßstab für...

Neuer Anstoß für bundesweite KI-Regeln nach gescheitertem Staatsverbot

Der gescheiterte Vorschlag in den Haushaltsgesetzentwurf der Republikaner, der eine staatliche Regulierung von Künstlicher Intelligenz blockieren sollte, führt zu neuem Druck für eine bundesweite...