CEOs und die Kluft zu den AI-Sorgen der Öffentlichkeit

Die Probleme und Lösungen von CEOs, die Bedenken hinsichtlich von KI falsch einschätzen

Eine aktuelle Studie zeigt, dass es eine Diskrepanz zwischen den Ansichten von Führungskräften und den tatsächlichen Bedenken der Öffentlichkeit bezüglich der künstlichen Intelligenz (KI) gibt. Diese Forschung hebt die Notwendigkeit eines effektiven Rahmens hervor, um nachhaltigen Erfolg im Bereich der Unternehmens-KI zu gewährleisten.

Die Kluft zwischen CEOs und der Öffentlichkeit

Die Untersuchung ergab, dass viele Führungskräfte in Unternehmen über die wichtigsten Themen, die der Öffentlichkeit Sorgen bereiten, schlecht informiert sind. Wenn die Antworten der Führungskräfte mit einer separaten Umfrage von über 15.000 Verbrauchern in 15 Ländern verglichen wurden, zeigte sich eine größere Diskrepanz als erwartet.

In nahezu allen Bereichen der verantwortungsvollen KI – von der Datenqualität bis zum Schutz der Privatsphäre – waren die normalen Verbraucher etwa doppelt so besorgt wie die CEOs.

Diese Diskrepanz könnte die milliardenschwere KI-Branche gefährden, da Unternehmen Ressourcen in Technologien investieren, die von den Verbrauchern möglicherweise abgelehnt werden.

Ein zentrales Problem: Überconfidence bei reifen KI-Anwendern

Viele Unternehmen haben begonnen, große Sprachmodelle (LLM) in Bereichen wie Kundenservice und Finanzplanung zu integrieren. Die Forschung von EY deutet jedoch darauf hin, dass diese Firmen auf einem wackeligen Fundament des öffentlichen Vertrauens aufbauen.

Ein Beispiel dafür ist das Thema Arbeitsplatzverluste. Sowohl die Führungskräfte als auch die Verbraucher bewerten dies relativ niedrig auf ihrer Sorgenliste, obwohl es jahrelange Medienberichterstattung über die Ersetzung von Arbeitskräften durch KI gab.

Die Öffentlichkeit ist vielmehr besorgt über die Risiken von Falschmeldungen, die durch KI erzeugt werden, sowie über die Möglichkeit der Manipulation und das Potenzial, dass gefährdete Personen ausgebeutet werden.

Die neun Prinzipien von EY zur Schließung von KI-Governance-Lücken

Um diesen Herausforderungen zu begegnen, hat EY einen neun Punkte umfassenden Rahmen für verantwortungsvolle KI entwickelt, der die spezifischen Bereiche anspricht, in denen Unternehmen versagen.

  • Rechenschaftspflicht
  • Datenschutz
  • Zuverlässigkeit
  • Sicherheit
  • Transparenz
  • Erklärbarkeit
  • Fairness
  • Compliance
  • Nachhaltigkeit

Diese Prinzipien bieten eine direkte Antwort auf die Bedenken der Verbraucher. Während der Datenschutz sicherstellt, dass KI-Systeme die Vertraulichkeit personenbezogener Informationen wahren, erfordert die Transparenz eine angemessene Offenlegung über den Zweck und das Design von KI-Systemen, damit die Nutzer die Ergebnisse verstehen und bewerten können.

Die nächste Welle der KI und die Governance-Herausforderungen

Die Herausforderungen werden sich verschärfen, da Unternehmen sich auf agentische KI vorbereiten – Systeme, die Entscheidungen treffen und ohne menschliche Aufsicht handeln können. Allerdings geben 50 % der befragten Führungskräfte zu, dass ihre aktuellen Risikomanagementansätze mit diesen leistungsstärkeren Systemen nicht umgehen können.

Die Forschung zeigt, dass Unternehmen in der Regel nur in drei der neun Schlüsselbereiche verantwortungsvoller KI starke Kontrollen aufrechterhalten, was die Notwendigkeit eines umfassenden Ansatzes zur Schließung dieser Lücken verdeutlicht.

Fazit

Die Studie hebt hervor, dass Unternehmen verantwortungsvolle KI als Compliance-Bürde betrachten, während sie in Wirklichkeit ein wettbewerblicher Vorteil sein könnte. Die Unternehmen, die transparent darüber sind, wie sie mit den Bedenken der Verbraucher umgehen, können sich von der Konkurrenz abheben und das Vertrauen der Verbraucher gewinnen.

More Insights

Kollaboration für eine gerechte KI-Zukunft

Ein KI-Beamter aus China hat den Aufbau eines kollaborativen und multi-governance Ökosystems gefordert, um KI als öffentliches Gut zu fördern und die Entwicklungslücke zu schließen. Dies erfordere...

Risikomanagement im EU AI Act: Ein Leitfaden für Anbieter

Das EU-Künstliche-Intelligenz-Gesetz, die umfassendste Regulierung für KI, schafft einen Rahmen mit Regeln für risikobehaftete KI-Systeme zum Schutz von Gesundheit, Sicherheit und grundlegenden...

Vorreiter im Umgang mit dem EU KI-Gesetz

Mit der Einführung des EU-Künstliche-Intelligenz-Gesetzes stehen Unternehmen vor der Herausforderung, ihre KI-Systeme konsistent und genau zu klassifizieren. Eine standardisierte...

Schatten-KI-Agenten: Unterschätzte Risiken in der KI-Governance

Dalen betont, dass Unternehmen spezifische Governance für die neue Generation von KI-Tools benötigen, um sicherzustellen, dass sie verantwortungsvoll eingesetzt werden und nachhaltigen Wert liefern...

Wichtige Compliance-Aspekte des EU AI Acts bis August 2025

Der EU AI Act stellt den weltweit ersten umfassenden rechtlichen Rahmen für die Nutzung und Entwicklung von KI dar. Die Umsetzung wird ab dem 2. August 2025 verbindlich, wobei Verstöße mit hohen...

Künstliche Intelligenz und Unternehmensführung: Ein ethischer Imperativ

Künstliche Intelligenz (KI) ist nicht nur ein operativer Assistent, sondern ein strategischer Störfaktor, der die Art und Weise, wie Arbeit geleistet wird, grundlegend verändert. Führungskräfte müssen...

Künstliche Intelligenz und Unternehmensführung: Ein ethischer Imperativ

Künstliche Intelligenz (KI) ist nicht nur ein operativer Assistent, sondern ein strategischer Störfaktor, der die Art und Weise, wie Arbeit geleistet wird, grundlegend verändert. Führungskräfte müssen...