Vertrauen in GenAI steigt weltweit trotz Lücken in den KI-Schutzmaßnahmen
SAS, ein globaler Marktführer im Bereich Daten und KI, hat neue Forschungsergebnisse veröffentlicht, die die Nutzung, Auswirkungen und Vertrauenswürdigkeit von KI untersuchen. Der IDC Data and AI Impact Report: The Trust Imperative, in Auftrag gegeben von SAS, hat ergeben, dass IT- und Geschäftsleiter mehr Vertrauen in generative KI (GenAI) haben als in jede andere Form von KI.
Die globale Forschung zur Nutzung und Akzeptanz von KI hat zudem gezeigt, dass nur 40% der Organisationen in die Schaffung vertrauenswürdiger KI-Systeme durch Governance, Erklärbarkeit und ethische Schutzmaßnahmen investieren, obwohl Unternehmen, die vertrauenswürdige KI priorisieren, 60% wahrscheinlicher eine Verdopplung des ROI ihrer KI-Projekte erreichen. Paradoxerweise wurde GenAI (z. B. ChatGPT) unter denjenigen, die am wenigsten in vertrauenswürdige KI-Systeme investieren, als 200% vertrauenswürdiger angesehen als traditionelle KI (z. B. maschinelles Lernen), obwohl letztere die etablierteste, zuverlässigste und erklärbarste Form von KI ist.
„Unsere Forschung zeigt einen Widerspruch: Formen von KI mit menschenähnlicher Interaktivität und sozialer Vertrautheit scheinen das größte Vertrauen zu fördern, unabhängig von tatsächlicher Zuverlässigkeit oder Genauigkeit“, sagte ein Forschungsdirektor im Bereich KI und Automatisierung. „Als Anbieter von KI, Fachleute und persönliche Nutzer müssen wir fragen: GenAI ist vertrauenswürdig, aber ist es immer zuverlässig? Und wenden die Führungskräfte die notwendigen Schutzmaßnahmen und Governance-Praktiken auf diese aufkommende Technologie an?“
Vertrauen in aufkommende KI-Technologien
Die Studie ergab, dass die am meisten vertrauenswürdigen KI-Implementierungen aufkommende Technologien wie GenAI und agentische KI über traditioneller KI sind. Fast die Hälfte der Befragten (48%) berichteten von „vollständigem Vertrauen“ in GenAI, während ein Drittel dasselbe für agentische KI (33%) angab. Die am wenigsten vertrauenswürdige Form von KI ist traditionelle KI – weniger als einer von fünf (18%) gab an, vollständiges Vertrauen zu haben.
Trotz des hohen Vertrauens in GenAI und agentische KI äußerten die Befragten Bedenken, darunter Datenprivatsphäre (62%), Transparenz und Erklärbarkeit (57%) und ethische Nutzung (56%).
Inzwischen gewinnt die quantenbasierte KI schnell an Vertrauen, auch wenn die Technologie zur Umsetzung der meisten Anwendungsfälle noch nicht vollständig realisiert ist. Fast ein Drittel der globalen Entscheidungsträger gibt an, mit quantum AI vertraut zu sein, und 26% berichten von vollem Vertrauen in die Technologie, obwohl die realen Anwendungen noch in den frühen Phasen sind.
Fehlende KI-Schutzmaßnahmen schwächen den KI-Effekt und ROI
Die Studie zeigte einen rasanten Anstieg der KI-Nutzung – insbesondere von GenAI –, die schnell die traditionelle KI sowohl in Sichtbarkeit als auch in der Anwendung überholt hat (81% gegenüber 66%). Dies hat ein neues Maß an Risiken und ethischen Bedenken ausgelöst.
Über alle Regionen hinweg identifizierten IDC-Forscher eine Fehlanpassung zwischen dem Vertrauen in KI und der tatsächlichen Vertrauenswürdigkeit der Technologie. Laut der Studie behaupten fast 8 von 10 (78%) Organisationen, KI vollständig zu vertrauen, aber nur 40% haben investiert, um Systeme durch KI-Governance, Erklärbarkeit und ethische Schutzmaßnahmen nachweislich vertrauenswürdig zu machen.
Die Forschung zeigte auch eine geringe Priorität bei der Implementierung vertrauenswürdiger KI-Maßnahmen, wenn KI-Projekte operationalisiert werden. Unter den drei wichtigsten organisatorischen Prioritäten wählten nur 2% die Entwicklung eines KI-Governance-Rahmens, und weniger als 10% berichteten von der Entwicklung einer verantwortungsvollen KI-Politik. Die Vernachlässigung vertrauenswürdiger KI-Maßnahmen könnte jedoch diese Organisationen daran hindern, ihre KI-Investitionen in der Zukunft vollständig zu realisieren.
Schwache Datenfundamente und Governance behindern KI
Während KI-Systeme autonomer werden und tief in kritische Prozesse integriert werden, werden auch die Datenfundamente wichtiger. Die Qualität, Vielfalt und Governance von Daten beeinflussen direkt die Ergebnisse von KI, weshalb intelligente Datenstrategien entscheidend sind, um Vorteile (z. B. ROI, Produktivitätsgewinne) zu realisieren und Risiken zu mindern.
Die Studie identifizierte drei wesentliche Hürden, die den Erfolg bei der Implementierung von KI verhindern: schwache Dateninfrastruktur, schlechte Governance und ein Mangel an KI-Kompetenzen. Fast 49% der Organisationen geben an, dass nicht zentralisierte oder nicht optimierte Cloud-Datenumgebungen ein erhebliches Hindernis darstellen. Diese Hauptsorge wurde gefolgt von einem Mangel an ausreichenden Daten-Governance-Prozessen (44%) und einem Mangel an qualifizierten Fachleuten innerhalb ihrer Organisation (41%).
Die Befragten berichteten, dass das größte Problem beim Management der Daten, die in KI-Implementierungen verwendet werden, die Schwierigkeit ist, auf relevante Datenquellen zuzugreifen (58%). Weitere führende Anliegen umfassten Datenschutz- und Compliance-Fragen (49%) und Datenqualität (46%).
„Im Interesse der Gesellschaft sind Vertrauen in KI und deren Implementierung unerlässlich“, sagte ein Chief Technology Officer. „Um dies zu erreichen, muss die KI-Branche die Erfolgsquote bei Implementierungen erhöhen, Menschen müssen die Ergebnisse von KI kritisch überprüfen, und die Führung muss die Belegschaft mit KI befähigen.“