OpenText Studie warnt vor Sicherheits- und Governance-Lücken bei KI
Eine aktuelle Studie zeigt, dass viele Organisationen generative KI einsetzen, ohne entsprechende Sicherheits- und Governance-Maßnahmen zu implementieren. Die Umfrage ergab, dass 52 % der Unternehmen GenAI vollständig oder teilweise eingesetzt haben.
Governance-Lücken
Nur eines von fünf Unternehmen hat laut der Studie ein Niveau an KI-Reife im Bereich Cybersecurity erreicht, bei dem KI vollständig in Sicherheitsaktivitäten implementiert und Risiken bewertet werden. Fast 80 % der Organisationen haben diesen Stand nicht erreicht.
Die Einführung von Richtlinien bleibt ebenfalls begrenzt. Nur 41 % der Organisationen haben spezifische Datenschutzrichtlinien für KI implementiert, während 43 % einen risikobasierten Governance-Ansatz verfolgt haben, der Themen wie Vorurteile, Sicherheitsbedrohungen und ethische Bedenken abdeckt.
Die Studie zeigt, dass das Implementierungstempo die internen Kontrollen übersteigt. Fast 60 % der Befragten gaben an, dass KI es schwieriger macht, die Datenschutz- und Sicherheitsvorschriften einzuhalten, doch die meisten Organisationen haben keine speziellen Datenschutzregeln für KI-Systeme eingeführt.
Betriebliche Bedenken
58 % der Befragten berichteten, dass Risiken bei Eingaben oder Aufforderungen, einschließlich irreführender oder schädlicher Antworten, sehr oder extrem schwer zu minimieren sind. Mehr als die Hälfte (56 %) gab an, Schwierigkeiten im Umgang mit Nutzer-Risiken zu haben, einschließlich der unbeabsichtigten Verbreitung von Fehlinformationen.
Vertrauensfragen
Die Studie untersuchte auch, ob KI-Systeme die erwarteten Vorteile in den Sicherheitsoperationen bieten. Nur 51 % der Befragten gaben an, dass KI effektiv ist, um die Zeit zur Erkennung von Anomalien oder aufkommenden Bedrohungen zu reduzieren. Bei fortgeschritteneren Anwendungen war das Vertrauen geringer: Weniger als die Hälfte (48 %) bewertete KI als effektiv für die Bedrohungserkennung und die Suche nach tiefergehenden Einblicken.
Vorurteile und Zuverlässigkeit bleiben wesentliche Hindernisse. Nahezu zwei Drittel der Befragten (62 %) gaben an, dass es sehr oder extrem schwierig ist, Modell- und Vorurteilrisiken, einschließlich unfairer oder diskriminierender Ergebnisse, zu minimieren. Weitere Hindernisse beziehen sich auf die Art und Weise, wie KI-Systeme gebaut und verwendet werden. 45 % nannten Fehler in den Entscheidungsregeln von KI als führendes Problem, während 40 % auf Fehler in den Daten verwiesen, die in die KI-Systeme eingespeist werden.
Für viele Unternehmen scheint eine vollständig autonome KI noch in weiter Ferne zu liegen. Nur 47 % gaben an, dass ihre KI-Modelle robuste Normen lernen und sichere Entscheidungen autonom treffen können, während 51 % der Meinung sind, dass menschliche Aufsicht in der KI-Governance notwendig ist, da Angreifer sich schnell anpassen können.
Schlussfolgerung
Die Studie hebt hervor, dass es bei der KI-Reife nicht nur um die Einführung von KI-Tools geht, sondern auch um deren verantwortungsvolle Nutzung. Sicherheits- und Governance-Maßnahmen müssen frühzeitig integriert werden, um echten Mehrwert aus KI zu gewinnen. Organisationen, die Transparenz und Kontrolle in ihre KI von Anfang an einbauen, werden in der nächsten Phase der KI-Einführung führend sein.