KI-Adoption: Fortschritte und Governance-Herausforderungen

AI-Umfrage: Wachstum der Akzeptanz, Governance-Lücken bleiben

Die Umfrage, die in der ersten Hälfte des Jahres 2025 durchgeführt wurde, sammelte Antworten von 80 Fachleuten aus verschiedenen Branchen, wobei die Mehrheit aus den Bereichen Finanzdienstleistungen und ICT stammte. Die Befragten umfassten Technologieführer, Rechtsberater, Risikomanagement- und Compliance-Profis sowie C-Suite-Executives.

Wachstum der AI-Akzeptanz, aber unterschiedliche Reife

Die Umfrage zeigt, dass nahezu alle Organisationen in irgendeiner Form mit AI interagieren, wobei 10% angeben, dass AI grundlegend für ihre Abläufe ist. Viele befinden sich jedoch noch in den frühen Phasen der Einführung, wobei 21% den Mitarbeitern Zugang zu generativen AI-Tools gewähren und 33% Proof-of-Concepts entwickeln oder testen.

„AI steht eindeutig auf der Agenda der meisten Organisationen, aber der Weg von der Experimentation zur Integration ist noch im Gange“, sagte ein Partner und Leiter für Technologie & Innovation. „Die Herausforderung besteht jetzt darin, von isolierten Anwendungsfällen zu unternehmensweiten Strategien zu wechseln, die rechtlich abgesichert und ethisch fundiert sind.“

Governance-Lücken und Rollenunklarheit

Trotz wachsender Akzeptanz haben 38% der Organisationen noch keine Verantwortung für die Umsetzung von AI einem bestimmten Individuum zugewiesen. Wo Verantwortung zugewiesen wurde, gibt es keinen klaren Konsens darüber, wo diese sitzen sollte – die Rollen reichen von CTOs und Leitern der Daten bis hin zu General Counsel und COOs.

„Mit der Reifung der AI-Strategien sehen wir einen wachsenden Bedarf an klarer Verantwortlichkeit“, sagte der Leiter für Governance und Beratungsdienste. „Die Etablierung definierter Verantwortungsstrukturen wird Organisationen helfen, Risiken effektiv zu managen und sich an die sich entwickelnden regulatorischen Anforderungen anzupassen.“

EU AI-Gesetz: Bewusstsein steigt, aber Auswirkungen möglicherweise unterschätzt

Während 61% der Befragten sich als Deployers unter dem EU AI-Gesetz identifizieren und weitere 14% sich als Providers klassifizieren, sind 25% immer noch unsicher über ihre Klassifizierung – eine wichtige Unterscheidung angesichts der unterschiedlichen Compliance-Verpflichtungen. Nur 14% glauben, dass das Gesetz einen hohen Einfluss auf ihre Organisation haben wird, obwohl 28% AI-Tools intern entwickeln und 40% mit Dritten zusammenarbeiten, um maßgeschneiderte Lösungen zu erstellen.

„Eine falsche Klassifizierung unter dem EU AI-Gesetz könnte zu schwerwiegenden Compliance-Lücken führen“, sagte ein Technologie- und Innovationspartner. „Organisationen müssen ihre Rolle im AI-Ökosystem verstehen und sich entsprechend vorbereiten.“

„Wir sehen auch einen Wandel in der Sichtweise von AI – nicht nur als technisches Thema, sondern als strategische Geschäftspriorität“, fügte ein Partner für Technologie und Innovation hinzu. „Dieser Wandel führt zu mehr interdisziplinärer Zusammenarbeit, insbesondere zwischen Rechts-, Compliance- und Technologieteams.“

Entwicklung von Governance-Rahmenwerken

Während 53% der Organisationen eine AI-Nutzungsrichtlinie und ein Technologiekomitee eingerichtet haben, sind andere Governance-Elemente weniger reif:

  • Nur 20% haben eine genehmigte AI-Risiko-Richtlinie.
  • Nur 20% haben eine AI-Beschaffungsrichtlinie.
  • Lediglich 25% haben eine genehmigte AI-Schulung für Mitarbeiter und Vorstandsmitglieder.

„Die ungleiche Entwicklung der Governance-Rahmenwerke unterstreicht die Notwendigkeit eines koordinierten Ansatzes“, sagte ein Technologie- und Innovationspartner. „AI-Literacy wird zunehmend nicht nur zu einer Best Practice, sondern zu einer rechtlichen Verpflichtung.“

Globale Perspektive

Obwohl es weltweit regulatorische Unterschiede gibt, sagen 76% der Befragten, dass die EU-Vorschriften für ihre Organisationen Vorrang haben, was die Rolle der EU als globalen Führer in der AI-Governance bestätigt.

More Insights

Verantwortungsvolle KI: Ein unverzichtbares Gebot für Unternehmen

Unternehmen sind sich der Notwendigkeit von verantwortungsvollem KI-Betrieb bewusst, behandeln ihn jedoch oft als nachträglichen Gedanken oder separates Projekt. Verantwortliche KI ist eine vordere...

Neues KI-Governance-Modell gegen Schatten-KI

Künstliche Intelligenz (KI) verbreitet sich schnell in den Arbeitsplatz und verändert, wie alltägliche Aufgaben erledigt werden. Unternehmen müssen ihre Ansätze zur KI-Politik überdenken, um mit der...

EU plant Aufschub für AI-Gesetzgebung

Die EU plant, die Anforderungen für risikobehaftete KI-Systeme im KI-Gesetz bis Ende 2027 zu verschieben, um Unternehmen mehr Zeit zu geben, sich anzupassen. Kritiker befürchten, dass diese...

Weißes Haus lehnt GAIN AI-Gesetz ab: Nvidia im Fokus

Das Weiße Haus hat sich gegen den GAIN AI Act ausgesprochen, während es um die Exportbeschränkungen für Nvidia-AI-Chips nach China geht. Die Diskussion spiegelt die politischen Spannungen wider, die...

Ethische KI als Beschleuniger für Innovation

Unternehmen stehen heute unter Druck, mit künstlicher Intelligenz zu innovieren, oft jedoch ohne die notwendigen Sicherheitsvorkehrungen. Indem sie Datenschutz und Ethik in den Entwicklungsprozess...

KI im Recruiting: Verborgene Risiken für Arbeitgeber

Künstliche Intelligenz verändert die Art und Weise, wie Arbeitgeber Talente rekrutieren und bewerten. Während diese Tools Effizienz und Kosteneinsparungen versprechen, bringen sie auch erhebliche...

KI im australischen Kabinett: Chancen und Sicherheitsbedenken

Die australische Regierung könnte in Betracht ziehen, KI-Programme zur Erstellung sensibler Kabinettsanträge zu nutzen, trotz Bedenken hinsichtlich Sicherheitsrisiken und Datenverletzungen...