Vorbereitung auf eine Welle von Klagen wegen Verstößen gegen AI-Regulierungen
Bis 2028 wird erwartet, dass Verstöße gegen AI-Regulierungen zu einem 30%igen Anstieg rechtlicher Auseinandersetzungen für Technologieunternehmen führen. Diese Vorhersage basiert auf einer Umfrage von Gartner, die von Mai bis Juni 2025 unter 360 IT-Führungskräften durchgeführt wurde, die an der Einführung von generativen AI (genAI) Tools beteiligt sind.
Über 70% der Befragten gaben an, dass die Einhaltung von Vorschriften zu den drei größten Herausforderungen gehört, die sie bei der umfassenden Einführung von genAI-Produktivitätsassistenten in ihren Organisationen sehen. Nur 23% der Befragten sind sehr zuversichtlich in die Fähigkeit ihrer Organisation, Sicherheits- und Governance-Komponenten bei der Einführung von genAI-Tools in Unternehmensanwendungen zu verwalten.
Globale Regulierungslandschaft
„Die globalen AI-Regulierungen variieren erheblich und spiegeln die jeweilige Bewertung der Länder wider, wie gut sie AI-Führung, Innovation und Agilität mit Risikominderungsprioritäten in Einklang bringen können“, erläutert ein Analyst von Gartner. Diese Unterschiede führen zu inkonsistenten und oft unlogischen Compliance-Verpflichtungen, die die Ausrichtung von AI-Investitionen auf nachweisbaren und wiederholbaren Unternehmenswert komplizieren und Unternehmen möglicherweise anderen Haftungen aussetzen.
Geopolitische Einflüsse
Gleichzeitig wächst der Einfluss des geopolitischen Klimas stetig, während die Fähigkeit zur Reaktion hinterherhinkt. 57% der nicht-US-IT-Leiter aus der gleichen Umfrage gaben an, dass das geopolitische Klima mindestens einen moderaten Einfluss auf die Strategie und den Einsatz von GenAI hat, wobei 19% der Befragten berichteten, dass es einen signifikanten Einfluss hat. Dennoch gaben nahezu 60% der Befragten an, dass sie nicht bereit oder in der Lage waren, Alternativen zu nicht-US-genAI-Tools anzunehmen.
Sentiment zur AI-Souveränität
In einer Umfrage von Gartner am 3. September 2025 gaben 40% der 489 Befragten an, dass das Sentiment ihrer Organisation zur AI-Souveränität – definiert als die Fähigkeit von Nationalstaaten, die Entwicklung, den Einsatz und die Governance von AI-Technologien innerhalb ihrer Jurisdiktionen zu kontrollieren – „positiv“ ist. 36% gaben an, dass das Sentiment ihrer Organisation „neutral“ sei und sie einen „abwarten und sehen“-Ansatz verfolgen.
In derselben Umfrage gaben 66% der Befragten an, dass sie proaktiv sind und/oder sich mit der souveränen AI-Strategie beschäftigen, und 52% berichteten, dass ihre Organisation strategische oder betriebliche Modelländerungen als direkte Folge der souveränen AI vornimmt.
Empfohlene Schritte für IT-Leiter
Mit der Zunahme von genAI-Tools, wie z. B. genAI-Produktivitätsassistenten, in einem unsicheren und schwankenden geopolitischen und rechtlichen Umfeld sind IT-Leiter aufgefordert, eine Reihe von Schritten zu unternehmen. Dazu gehören:
- Engineering von Selbstkorrekturen
- Erstellung strenger Verfahren zur Überprüfung von Anwendungsfällen
- Erhöhung von Modelltests und Sandbox-Umgebungen
- Einführung von Techniken zur Inhaltsmoderation in ihre Systeme
Diese Maßnahmen sind entscheidend, um den Herausforderungen der AI-Regulierung und den damit verbundenen rechtlichen Risiken wirksam zu begegnen.