AI-Umfrage: Wachstum der Akzeptanz, Governance-Lücken bleiben
Die Umfrage, die in der ersten Hälfte des Jahres 2025 durchgeführt wurde, sammelte Antworten von 80 Fachleuten aus verschiedenen Branchen, wobei die Mehrheit aus den Bereichen Finanzdienstleistungen und ICT stammte. Die Befragten umfassten Technologieführer, Rechtsberater, Risikomanagement- und Compliance-Profis sowie C-Suite-Executives.
Wachstum der AI-Akzeptanz, aber unterschiedliche Reife
Die Umfrage zeigt, dass nahezu alle Organisationen in irgendeiner Form mit AI interagieren, wobei 10% angeben, dass AI grundlegend für ihre Abläufe ist. Viele befinden sich jedoch noch in den frühen Phasen der Einführung, wobei 21% den Mitarbeitern Zugang zu generativen AI-Tools gewähren und 33% Proof-of-Concepts entwickeln oder testen.
„AI steht eindeutig auf der Agenda der meisten Organisationen, aber der Weg von der Experimentation zur Integration ist noch im Gange“, sagte ein Partner und Leiter für Technologie & Innovation. „Die Herausforderung besteht jetzt darin, von isolierten Anwendungsfällen zu unternehmensweiten Strategien zu wechseln, die rechtlich abgesichert und ethisch fundiert sind.“
Governance-Lücken und Rollenunklarheit
Trotz wachsender Akzeptanz haben 38% der Organisationen noch keine Verantwortung für die Umsetzung von AI einem bestimmten Individuum zugewiesen. Wo Verantwortung zugewiesen wurde, gibt es keinen klaren Konsens darüber, wo diese sitzen sollte – die Rollen reichen von CTOs und Leitern der Daten bis hin zu General Counsel und COOs.
„Mit der Reifung der AI-Strategien sehen wir einen wachsenden Bedarf an klarer Verantwortlichkeit“, sagte der Leiter für Governance und Beratungsdienste. „Die Etablierung definierter Verantwortungsstrukturen wird Organisationen helfen, Risiken effektiv zu managen und sich an die sich entwickelnden regulatorischen Anforderungen anzupassen.“
EU AI-Gesetz: Bewusstsein steigt, aber Auswirkungen möglicherweise unterschätzt
Während 61% der Befragten sich als Deployers unter dem EU AI-Gesetz identifizieren und weitere 14% sich als Providers klassifizieren, sind 25% immer noch unsicher über ihre Klassifizierung – eine wichtige Unterscheidung angesichts der unterschiedlichen Compliance-Verpflichtungen. Nur 14% glauben, dass das Gesetz einen hohen Einfluss auf ihre Organisation haben wird, obwohl 28% AI-Tools intern entwickeln und 40% mit Dritten zusammenarbeiten, um maßgeschneiderte Lösungen zu erstellen.
„Eine falsche Klassifizierung unter dem EU AI-Gesetz könnte zu schwerwiegenden Compliance-Lücken führen“, sagte ein Technologie- und Innovationspartner. „Organisationen müssen ihre Rolle im AI-Ökosystem verstehen und sich entsprechend vorbereiten.“
„Wir sehen auch einen Wandel in der Sichtweise von AI – nicht nur als technisches Thema, sondern als strategische Geschäftspriorität“, fügte ein Partner für Technologie und Innovation hinzu. „Dieser Wandel führt zu mehr interdisziplinärer Zusammenarbeit, insbesondere zwischen Rechts-, Compliance- und Technologieteams.“
Entwicklung von Governance-Rahmenwerken
Während 53% der Organisationen eine AI-Nutzungsrichtlinie und ein Technologiekomitee eingerichtet haben, sind andere Governance-Elemente weniger reif:
- Nur 20% haben eine genehmigte AI-Risiko-Richtlinie.
- Nur 20% haben eine AI-Beschaffungsrichtlinie.
- Lediglich 25% haben eine genehmigte AI-Schulung für Mitarbeiter und Vorstandsmitglieder.
„Die ungleiche Entwicklung der Governance-Rahmenwerke unterstreicht die Notwendigkeit eines koordinierten Ansatzes“, sagte ein Technologie- und Innovationspartner. „AI-Literacy wird zunehmend nicht nur zu einer Best Practice, sondern zu einer rechtlichen Verpflichtung.“
Globale Perspektive
Obwohl es weltweit regulatorische Unterschiede gibt, sagen 76% der Befragten, dass die EU-Vorschriften für ihre Organisationen Vorrang haben, was die Rolle der EU als globalen Führer in der AI-Governance bestätigt.