AI-Regulierungsverstöße und deren Auswirkungen auf rechtliche Auseinandersetzungen in Technologieunternehmen
Eine aktuelle Umfrage von Gartner hat ergeben, dass AI-Regulierungsverstöße bis 2028 zu einem Anstieg der rechtlichen Auseinandersetzungen in Technologieunternehmen um 30% führen werden. Diese Erkenntnisse stammen aus einer Untersuchung, die unter 360 IT-Leitern durchgeführt wurde, die in die Implementierung von generativen KI-Tools (GenAI) involviert sind.
Herausforderungen bei der Implementierung von GenAI
Über 70% der Befragten gaben an, dass die regulatorische Compliance zu den drei größten Herausforderungen bei der breiten Einführung von GenAI-Produktivitätsassistenten gehört. Nur 23% der Befragten waren sehr zuversichtlich in die Fähigkeit ihrer Organisation, Sicherheits- und Governance-Komponenten bei der Einführung von GenAI-Tools in Unternehmensanwendungen zu verwalten.
Globale AI-Regulierungen und deren Komplexität
Die globalen AI-Regulierungen variieren erheblich, was die Bewertung der jeweiligen Länder hinsichtlich der Angemessenheit von AI-Führung, Innovation und Agilität im Vergleich zu Risikominderungsprioritäten widerspiegelt. Dies führt zu inkonsistenten und oft inkohärenten Compliance-Verpflichtungen, die die Ausrichtung von AI-Investitionen mit nachweisbarem Unternehmenswert komplizieren und möglicherweise Unternehmen anderen Haftungen aussetzen.
Geopolitische Einflüsse auf GenAI-Strategien
Der Einfluss des geopolitischen Klimas wächst stetig, jedoch bleibt die Fähigkeit zur Reaktion hinterher. In der Umfrage gaben 57% der nicht-US IT-Leiter an, dass das geopolitische Klima einen moderaten Einfluss auf die GenAI-Strategie und -Implementierung hat, während 19% der Befragten berichteten, dass es einen erheblichen Einfluss hat. Dennoch gaben fast 60% der Befragten an, dass sie nicht bereit oder in der Lage waren, nicht-US GenAI-Tool-Alternativen zu übernehmen.
Sentiment gegenüber AI-Souveränität
In einer kürzlich durchgeführten Webinar-Umfrage, an der 489 Personen teilnahmen, gaben 40% der Befragten an, dass das Sentiment ihrer Organisation zur AI-Souveränität „positiv“ (Hoffnung und Gelegenheit) sei, während 36% angaben, dass das Sentiment „neutral“ sei (Abwarten und Sehen). In derselben Umfrage berichteten 66% der Befragten, dass sie proaktiv und/oder engagiert auf die souveräne AI-Strategie reagieren, und 52% gaben an, dass ihre Organisation strategische oder betriebliche Modelländerungen aufgrund der souveränen AI vornimmt.
Empfehlungen für IT-Führungskräfte
IT-Leiter werden aufgefordert, die Moderation von Ausgaben zu stärken, indem sie Modelle trainieren, um Selbstkorrekturen zu ermöglichen, strenge Überprüfungsverfahren für Anwendungsfälle zu erstellen, die Risiken bewerten, und Kontrolltests rund um AI-generierte Sprache durchzuführen. Gartner rät außerdem, die Modelltests und Sandbox-Umgebungen zu erhöhen, indem ein interdisziplinäres Fusionsteam aus Entscheidungstechnikern, Datenwissenschaftlern und Rechtsberatern gebildet wird, um Vorab-Testprotokolle zu entwerfen und die Modellausgaben gegen unerwünschte Konversationsergebnisse zu testen und zu validieren.