KI-Sicherheitslücke: Herausforderungen bei der Einführung und Governance

OpenText Studie warnt vor Sicherheits- und Governance-Lücken bei KI

Eine aktuelle Studie zeigt, dass viele Organisationen generative KI einsetzen, ohne entsprechende Sicherheits- und Governance-Maßnahmen zu implementieren. Die Umfrage ergab, dass 52 % der Unternehmen GenAI vollständig oder teilweise eingesetzt haben.

Governance-Lücken

Nur eines von fünf Unternehmen hat laut der Studie ein Niveau an KI-Reife im Bereich Cybersecurity erreicht, bei dem KI vollständig in Sicherheitsaktivitäten implementiert und Risiken bewertet werden. Fast 80 % der Organisationen haben diesen Stand nicht erreicht.

Die Einführung von Richtlinien bleibt ebenfalls begrenzt. Nur 41 % der Organisationen haben spezifische Datenschutzrichtlinien für KI implementiert, während 43 % einen risikobasierten Governance-Ansatz verfolgt haben, der Themen wie Vorurteile, Sicherheitsbedrohungen und ethische Bedenken abdeckt.

Die Studie zeigt, dass das Implementierungstempo die internen Kontrollen übersteigt. Fast 60 % der Befragten gaben an, dass KI es schwieriger macht, die Datenschutz- und Sicherheitsvorschriften einzuhalten, doch die meisten Organisationen haben keine speziellen Datenschutzregeln für KI-Systeme eingeführt.

Betriebliche Bedenken

58 % der Befragten berichteten, dass Risiken bei Eingaben oder Aufforderungen, einschließlich irreführender oder schädlicher Antworten, sehr oder extrem schwer zu minimieren sind. Mehr als die Hälfte (56 %) gab an, Schwierigkeiten im Umgang mit Nutzer-Risiken zu haben, einschließlich der unbeabsichtigten Verbreitung von Fehlinformationen.

Vertrauensfragen

Die Studie untersuchte auch, ob KI-Systeme die erwarteten Vorteile in den Sicherheitsoperationen bieten. Nur 51 % der Befragten gaben an, dass KI effektiv ist, um die Zeit zur Erkennung von Anomalien oder aufkommenden Bedrohungen zu reduzieren. Bei fortgeschritteneren Anwendungen war das Vertrauen geringer: Weniger als die Hälfte (48 %) bewertete KI als effektiv für die Bedrohungserkennung und die Suche nach tiefergehenden Einblicken.

Vorurteile und Zuverlässigkeit bleiben wesentliche Hindernisse. Nahezu zwei Drittel der Befragten (62 %) gaben an, dass es sehr oder extrem schwierig ist, Modell- und Vorurteilrisiken, einschließlich unfairer oder diskriminierender Ergebnisse, zu minimieren. Weitere Hindernisse beziehen sich auf die Art und Weise, wie KI-Systeme gebaut und verwendet werden. 45 % nannten Fehler in den Entscheidungsregeln von KI als führendes Problem, während 40 % auf Fehler in den Daten verwiesen, die in die KI-Systeme eingespeist werden.

Für viele Unternehmen scheint eine vollständig autonome KI noch in weiter Ferne zu liegen. Nur 47 % gaben an, dass ihre KI-Modelle robuste Normen lernen und sichere Entscheidungen autonom treffen können, während 51 % der Meinung sind, dass menschliche Aufsicht in der KI-Governance notwendig ist, da Angreifer sich schnell anpassen können.

Schlussfolgerung

Die Studie hebt hervor, dass es bei der KI-Reife nicht nur um die Einführung von KI-Tools geht, sondern auch um deren verantwortungsvolle Nutzung. Sicherheits- und Governance-Maßnahmen müssen frühzeitig integriert werden, um echten Mehrwert aus KI zu gewinnen. Organisationen, die Transparenz und Kontrolle in ihre KI von Anfang an einbauen, werden in der nächsten Phase der KI-Einführung führend sein.

More Insights

Verantwortungsvolle KI: Ein unverzichtbares Gebot für Unternehmen

Unternehmen sind sich der Notwendigkeit von verantwortungsvollem KI-Betrieb bewusst, behandeln ihn jedoch oft als nachträglichen Gedanken oder separates Projekt. Verantwortliche KI ist eine vordere...

Neues KI-Governance-Modell gegen Schatten-KI

Künstliche Intelligenz (KI) verbreitet sich schnell in den Arbeitsplatz und verändert, wie alltägliche Aufgaben erledigt werden. Unternehmen müssen ihre Ansätze zur KI-Politik überdenken, um mit der...

EU plant Aufschub für AI-Gesetzgebung

Die EU plant, die Anforderungen für risikobehaftete KI-Systeme im KI-Gesetz bis Ende 2027 zu verschieben, um Unternehmen mehr Zeit zu geben, sich anzupassen. Kritiker befürchten, dass diese...

Weißes Haus lehnt GAIN AI-Gesetz ab: Nvidia im Fokus

Das Weiße Haus hat sich gegen den GAIN AI Act ausgesprochen, während es um die Exportbeschränkungen für Nvidia-AI-Chips nach China geht. Die Diskussion spiegelt die politischen Spannungen wider, die...

Ethische KI als Beschleuniger für Innovation

Unternehmen stehen heute unter Druck, mit künstlicher Intelligenz zu innovieren, oft jedoch ohne die notwendigen Sicherheitsvorkehrungen. Indem sie Datenschutz und Ethik in den Entwicklungsprozess...

KI im Recruiting: Verborgene Risiken für Arbeitgeber

Künstliche Intelligenz verändert die Art und Weise, wie Arbeitgeber Talente rekrutieren und bewerten. Während diese Tools Effizienz und Kosteneinsparungen versprechen, bringen sie auch erhebliche...

KI im australischen Kabinett: Chancen und Sicherheitsbedenken

Die australische Regierung könnte in Betracht ziehen, KI-Programme zur Erstellung sensibler Kabinettsanträge zu nutzen, trotz Bedenken hinsichtlich Sicherheitsrisiken und Datenverletzungen...