Vertrauen in GenAI wächst weltweit trotz Sicherheitslücken

Vertrauen in GenAI steigt weltweit trotz Lücken in den KI-Schutzmaßnahmen

SAS, ein globaler Marktführer im Bereich Daten und KI, hat neue Forschungsergebnisse veröffentlicht, die die Nutzung, Auswirkungen und Vertrauenswürdigkeit von KI untersuchen. Der IDC Data and AI Impact Report: The Trust Imperative, in Auftrag gegeben von SAS, hat ergeben, dass IT- und Geschäftsleiter mehr Vertrauen in generative KI (GenAI) haben als in jede andere Form von KI.

Die globale Forschung zur Nutzung und Akzeptanz von KI hat zudem gezeigt, dass nur 40% der Organisationen in die Schaffung vertrauenswürdiger KI-Systeme durch Governance, Erklärbarkeit und ethische Schutzmaßnahmen investieren, obwohl Unternehmen, die vertrauenswürdige KI priorisieren, 60% wahrscheinlicher eine Verdopplung des ROI ihrer KI-Projekte erreichen. Paradoxerweise wurde GenAI (z. B. ChatGPT) unter denjenigen, die am wenigsten in vertrauenswürdige KI-Systeme investieren, als 200% vertrauenswürdiger angesehen als traditionelle KI (z. B. maschinelles Lernen), obwohl letztere die etablierteste, zuverlässigste und erklärbarste Form von KI ist.

„Unsere Forschung zeigt einen Widerspruch: Formen von KI mit menschenähnlicher Interaktivität und sozialer Vertrautheit scheinen das größte Vertrauen zu fördern, unabhängig von tatsächlicher Zuverlässigkeit oder Genauigkeit“, sagte ein Forschungsdirektor im Bereich KI und Automatisierung. „Als Anbieter von KI, Fachleute und persönliche Nutzer müssen wir fragen: GenAI ist vertrauenswürdig, aber ist es immer zuverlässig? Und wenden die Führungskräfte die notwendigen Schutzmaßnahmen und Governance-Praktiken auf diese aufkommende Technologie an?“

Vertrauen in aufkommende KI-Technologien

Die Studie ergab, dass die am meisten vertrauenswürdigen KI-Implementierungen aufkommende Technologien wie GenAI und agentische KI über traditioneller KI sind. Fast die Hälfte der Befragten (48%) berichteten von „vollständigem Vertrauen“ in GenAI, während ein Drittel dasselbe für agentische KI (33%) angab. Die am wenigsten vertrauenswürdige Form von KI ist traditionelle KI – weniger als einer von fünf (18%) gab an, vollständiges Vertrauen zu haben.

Trotz des hohen Vertrauens in GenAI und agentische KI äußerten die Befragten Bedenken, darunter Datenprivatsphäre (62%), Transparenz und Erklärbarkeit (57%) und ethische Nutzung (56%).

Inzwischen gewinnt die quantenbasierte KI schnell an Vertrauen, auch wenn die Technologie zur Umsetzung der meisten Anwendungsfälle noch nicht vollständig realisiert ist. Fast ein Drittel der globalen Entscheidungsträger gibt an, mit quantum AI vertraut zu sein, und 26% berichten von vollem Vertrauen in die Technologie, obwohl die realen Anwendungen noch in den frühen Phasen sind.

Fehlende KI-Schutzmaßnahmen schwächen den KI-Effekt und ROI

Die Studie zeigte einen rasanten Anstieg der KI-Nutzung – insbesondere von GenAI –, die schnell die traditionelle KI sowohl in Sichtbarkeit als auch in der Anwendung überholt hat (81% gegenüber 66%). Dies hat ein neues Maß an Risiken und ethischen Bedenken ausgelöst.

Über alle Regionen hinweg identifizierten IDC-Forscher eine Fehlanpassung zwischen dem Vertrauen in KI und der tatsächlichen Vertrauenswürdigkeit der Technologie. Laut der Studie behaupten fast 8 von 10 (78%) Organisationen, KI vollständig zu vertrauen, aber nur 40% haben investiert, um Systeme durch KI-Governance, Erklärbarkeit und ethische Schutzmaßnahmen nachweislich vertrauenswürdig zu machen.

Die Forschung zeigte auch eine geringe Priorität bei der Implementierung vertrauenswürdiger KI-Maßnahmen, wenn KI-Projekte operationalisiert werden. Unter den drei wichtigsten organisatorischen Prioritäten wählten nur 2% die Entwicklung eines KI-Governance-Rahmens, und weniger als 10% berichteten von der Entwicklung einer verantwortungsvollen KI-Politik. Die Vernachlässigung vertrauenswürdiger KI-Maßnahmen könnte jedoch diese Organisationen daran hindern, ihre KI-Investitionen in der Zukunft vollständig zu realisieren.

Schwache Datenfundamente und Governance behindern KI

Während KI-Systeme autonomer werden und tief in kritische Prozesse integriert werden, werden auch die Datenfundamente wichtiger. Die Qualität, Vielfalt und Governance von Daten beeinflussen direkt die Ergebnisse von KI, weshalb intelligente Datenstrategien entscheidend sind, um Vorteile (z. B. ROI, Produktivitätsgewinne) zu realisieren und Risiken zu mindern.

Die Studie identifizierte drei wesentliche Hürden, die den Erfolg bei der Implementierung von KI verhindern: schwache Dateninfrastruktur, schlechte Governance und ein Mangel an KI-Kompetenzen. Fast 49% der Organisationen geben an, dass nicht zentralisierte oder nicht optimierte Cloud-Datenumgebungen ein erhebliches Hindernis darstellen. Diese Hauptsorge wurde gefolgt von einem Mangel an ausreichenden Daten-Governance-Prozessen (44%) und einem Mangel an qualifizierten Fachleuten innerhalb ihrer Organisation (41%).

Die Befragten berichteten, dass das größte Problem beim Management der Daten, die in KI-Implementierungen verwendet werden, die Schwierigkeit ist, auf relevante Datenquellen zuzugreifen (58%). Weitere führende Anliegen umfassten Datenschutz- und Compliance-Fragen (49%) und Datenqualität (46%).

„Im Interesse der Gesellschaft sind Vertrauen in KI und deren Implementierung unerlässlich“, sagte ein Chief Technology Officer. „Um dies zu erreichen, muss die KI-Branche die Erfolgsquote bei Implementierungen erhöhen, Menschen müssen die Ergebnisse von KI kritisch überprüfen, und die Führung muss die Belegschaft mit KI befähigen.“

More Insights

Die Zukunft der KI: Verantwortung und Risiken im AI-ersten Zeitalter

Künstliche Intelligenz ist kein Nischenthema mehr, sondern zentral für Produktdesign und Geschäftsstrategien geworden. Die Herausforderung für die Gesetzgeber besteht darin, die Menschen zu schützen...

Ethik in der künstlichen Intelligenz: Kanadas erste Schule für verantwortungsvolle Technologie

Ontario Tech hat die erste und einzige Schule für Ethik in der künstlichen Intelligenz in Kanada gegründet, um sicherzustellen, dass Innovation der Menschheit und dem Planeten dient. Diese Schule wird...

EU-Richtlinien zur Sicherheit von Teenagern im Umgang mit KI

Die Schlagzeilen klingen beruhigend: OpenAI hat elterliche Kontrollen für ChatGPT eingeführt, um Eltern zu ermöglichen, ihre Konten mit denen ihrer Teenager zu verknüpfen und Einstellungen für eine...

EU AI-Gesetz: Risiken, Strafen und globale Auswirkungen

Die EU führt mit dem neuen AI-Gesetz eine Ära der Regulierung von Künstlicher Intelligenz ein, die Unternehmen weltweit betrifft. Strenge Anforderungen für hochriskante Anwendungen zielen darauf ab...

KI-Sandkasten: Sicheres Experimentieren für staatliche Mitarbeiter

Im Jahr 2023 startete das California Department of Technology (CDT eine generative KI-Sandbox, die es den staatlichen Angestellten ermöglichte, sicher zu experimentieren, wie KI in die öffentlichen...

Vertrauen in GenAI wächst weltweit trotz Sicherheitslücken

Laut einer neuen Studie von SAS haben IT- und Geschäftsleiter mehr Vertrauen in generative KI als in andere KI-Formen, obwohl nur 40 % in die Vertrauenswürdigkeit von KI-Systemen investieren. Die...

Kasachstans digitale Revolution: KI, Krypto und wirtschaftlicher Wandel

Kasachstan hat die Digitalisierung und die Entwicklung von KI zum zentralen Bestandteil seiner nationalen Strategie erklärt, um von einer rohstoffbasierten Wirtschaft wegzukommen. Präsident Tokayev...

Kalifornien führt umfassendes Gesetz für KI-Sicherheit und Transparenz ein

Kalifornien hat mit dem Inkrafttreten des Transparency in Frontier Artificial Intelligence Act (TFAIA) eine umfassende neue KI-Vorschrift erlassen, die auf Transparenz, Sicherheit und Verantwortung in...

Zukunft der KI: Kooperation statt Wettbewerb

In der heutigen schnelllebigen Welt verändert die Technologie, insbesondere die künstliche Intelligenz (KI), unsere Gesellschaft grundlegend und stellt unsere Ethik in Frage. Anstatt den Fortschritt...