CEOs und die Kluft zu den AI-Sorgen der Öffentlichkeit

Die Probleme und Lösungen von CEOs, die Bedenken hinsichtlich von KI falsch einschätzen

Eine aktuelle Studie zeigt, dass es eine Diskrepanz zwischen den Ansichten von Führungskräften und den tatsächlichen Bedenken der Öffentlichkeit bezüglich der künstlichen Intelligenz (KI) gibt. Diese Forschung hebt die Notwendigkeit eines effektiven Rahmens hervor, um nachhaltigen Erfolg im Bereich der Unternehmens-KI zu gewährleisten.

Die Kluft zwischen CEOs und der Öffentlichkeit

Die Untersuchung ergab, dass viele Führungskräfte in Unternehmen über die wichtigsten Themen, die der Öffentlichkeit Sorgen bereiten, schlecht informiert sind. Wenn die Antworten der Führungskräfte mit einer separaten Umfrage von über 15.000 Verbrauchern in 15 Ländern verglichen wurden, zeigte sich eine größere Diskrepanz als erwartet.

In nahezu allen Bereichen der verantwortungsvollen KI – von der Datenqualität bis zum Schutz der Privatsphäre – waren die normalen Verbraucher etwa doppelt so besorgt wie die CEOs.

Diese Diskrepanz könnte die milliardenschwere KI-Branche gefährden, da Unternehmen Ressourcen in Technologien investieren, die von den Verbrauchern möglicherweise abgelehnt werden.

Ein zentrales Problem: Überconfidence bei reifen KI-Anwendern

Viele Unternehmen haben begonnen, große Sprachmodelle (LLM) in Bereichen wie Kundenservice und Finanzplanung zu integrieren. Die Forschung von EY deutet jedoch darauf hin, dass diese Firmen auf einem wackeligen Fundament des öffentlichen Vertrauens aufbauen.

Ein Beispiel dafür ist das Thema Arbeitsplatzverluste. Sowohl die Führungskräfte als auch die Verbraucher bewerten dies relativ niedrig auf ihrer Sorgenliste, obwohl es jahrelange Medienberichterstattung über die Ersetzung von Arbeitskräften durch KI gab.

Die Öffentlichkeit ist vielmehr besorgt über die Risiken von Falschmeldungen, die durch KI erzeugt werden, sowie über die Möglichkeit der Manipulation und das Potenzial, dass gefährdete Personen ausgebeutet werden.

Die neun Prinzipien von EY zur Schließung von KI-Governance-Lücken

Um diesen Herausforderungen zu begegnen, hat EY einen neun Punkte umfassenden Rahmen für verantwortungsvolle KI entwickelt, der die spezifischen Bereiche anspricht, in denen Unternehmen versagen.

  • Rechenschaftspflicht
  • Datenschutz
  • Zuverlässigkeit
  • Sicherheit
  • Transparenz
  • Erklärbarkeit
  • Fairness
  • Compliance
  • Nachhaltigkeit

Diese Prinzipien bieten eine direkte Antwort auf die Bedenken der Verbraucher. Während der Datenschutz sicherstellt, dass KI-Systeme die Vertraulichkeit personenbezogener Informationen wahren, erfordert die Transparenz eine angemessene Offenlegung über den Zweck und das Design von KI-Systemen, damit die Nutzer die Ergebnisse verstehen und bewerten können.

Die nächste Welle der KI und die Governance-Herausforderungen

Die Herausforderungen werden sich verschärfen, da Unternehmen sich auf agentische KI vorbereiten – Systeme, die Entscheidungen treffen und ohne menschliche Aufsicht handeln können. Allerdings geben 50 % der befragten Führungskräfte zu, dass ihre aktuellen Risikomanagementansätze mit diesen leistungsstärkeren Systemen nicht umgehen können.

Die Forschung zeigt, dass Unternehmen in der Regel nur in drei der neun Schlüsselbereiche verantwortungsvoller KI starke Kontrollen aufrechterhalten, was die Notwendigkeit eines umfassenden Ansatzes zur Schließung dieser Lücken verdeutlicht.

Fazit

Die Studie hebt hervor, dass Unternehmen verantwortungsvolle KI als Compliance-Bürde betrachten, während sie in Wirklichkeit ein wettbewerblicher Vorteil sein könnte. Die Unternehmen, die transparent darüber sind, wie sie mit den Bedenken der Verbraucher umgehen, können sich von der Konkurrenz abheben und das Vertrauen der Verbraucher gewinnen.

More Insights

Verantwortungsvolle KI: Ein unverzichtbares Gebot für Unternehmen

Unternehmen sind sich der Notwendigkeit von verantwortungsvollem KI-Betrieb bewusst, behandeln ihn jedoch oft als nachträglichen Gedanken oder separates Projekt. Verantwortliche KI ist eine vordere...

Neues KI-Governance-Modell gegen Schatten-KI

Künstliche Intelligenz (KI) verbreitet sich schnell in den Arbeitsplatz und verändert, wie alltägliche Aufgaben erledigt werden. Unternehmen müssen ihre Ansätze zur KI-Politik überdenken, um mit der...

EU plant Aufschub für AI-Gesetzgebung

Die EU plant, die Anforderungen für risikobehaftete KI-Systeme im KI-Gesetz bis Ende 2027 zu verschieben, um Unternehmen mehr Zeit zu geben, sich anzupassen. Kritiker befürchten, dass diese...

Weißes Haus lehnt GAIN AI-Gesetz ab: Nvidia im Fokus

Das Weiße Haus hat sich gegen den GAIN AI Act ausgesprochen, während es um die Exportbeschränkungen für Nvidia-AI-Chips nach China geht. Die Diskussion spiegelt die politischen Spannungen wider, die...

Ethische KI als Beschleuniger für Innovation

Unternehmen stehen heute unter Druck, mit künstlicher Intelligenz zu innovieren, oft jedoch ohne die notwendigen Sicherheitsvorkehrungen. Indem sie Datenschutz und Ethik in den Entwicklungsprozess...

KI im Recruiting: Verborgene Risiken für Arbeitgeber

Künstliche Intelligenz verändert die Art und Weise, wie Arbeitgeber Talente rekrutieren und bewerten. Während diese Tools Effizienz und Kosteneinsparungen versprechen, bringen sie auch erhebliche...

KI im australischen Kabinett: Chancen und Sicherheitsbedenken

Die australische Regierung könnte in Betracht ziehen, KI-Programme zur Erstellung sensibler Kabinettsanträge zu nutzen, trotz Bedenken hinsichtlich Sicherheitsrisiken und Datenverletzungen...