CEOs und die Kluft zu den AI-Sorgen der Öffentlichkeit

Die Probleme und Lösungen von CEOs, die Bedenken hinsichtlich von KI falsch einschätzen

Eine aktuelle Studie zeigt, dass es eine Diskrepanz zwischen den Ansichten von Führungskräften und den tatsächlichen Bedenken der Öffentlichkeit bezüglich der künstlichen Intelligenz (KI) gibt. Diese Forschung hebt die Notwendigkeit eines effektiven Rahmens hervor, um nachhaltigen Erfolg im Bereich der Unternehmens-KI zu gewährleisten.

Die Kluft zwischen CEOs und der Öffentlichkeit

Die Untersuchung ergab, dass viele Führungskräfte in Unternehmen über die wichtigsten Themen, die der Öffentlichkeit Sorgen bereiten, schlecht informiert sind. Wenn die Antworten der Führungskräfte mit einer separaten Umfrage von über 15.000 Verbrauchern in 15 Ländern verglichen wurden, zeigte sich eine größere Diskrepanz als erwartet.

In nahezu allen Bereichen der verantwortungsvollen KI – von der Datenqualität bis zum Schutz der Privatsphäre – waren die normalen Verbraucher etwa doppelt so besorgt wie die CEOs.

Diese Diskrepanz könnte die milliardenschwere KI-Branche gefährden, da Unternehmen Ressourcen in Technologien investieren, die von den Verbrauchern möglicherweise abgelehnt werden.

Ein zentrales Problem: Überconfidence bei reifen KI-Anwendern

Viele Unternehmen haben begonnen, große Sprachmodelle (LLM) in Bereichen wie Kundenservice und Finanzplanung zu integrieren. Die Forschung von EY deutet jedoch darauf hin, dass diese Firmen auf einem wackeligen Fundament des öffentlichen Vertrauens aufbauen.

Ein Beispiel dafür ist das Thema Arbeitsplatzverluste. Sowohl die Führungskräfte als auch die Verbraucher bewerten dies relativ niedrig auf ihrer Sorgenliste, obwohl es jahrelange Medienberichterstattung über die Ersetzung von Arbeitskräften durch KI gab.

Die Öffentlichkeit ist vielmehr besorgt über die Risiken von Falschmeldungen, die durch KI erzeugt werden, sowie über die Möglichkeit der Manipulation und das Potenzial, dass gefährdete Personen ausgebeutet werden.

Die neun Prinzipien von EY zur Schließung von KI-Governance-Lücken

Um diesen Herausforderungen zu begegnen, hat EY einen neun Punkte umfassenden Rahmen für verantwortungsvolle KI entwickelt, der die spezifischen Bereiche anspricht, in denen Unternehmen versagen.

  • Rechenschaftspflicht
  • Datenschutz
  • Zuverlässigkeit
  • Sicherheit
  • Transparenz
  • Erklärbarkeit
  • Fairness
  • Compliance
  • Nachhaltigkeit

Diese Prinzipien bieten eine direkte Antwort auf die Bedenken der Verbraucher. Während der Datenschutz sicherstellt, dass KI-Systeme die Vertraulichkeit personenbezogener Informationen wahren, erfordert die Transparenz eine angemessene Offenlegung über den Zweck und das Design von KI-Systemen, damit die Nutzer die Ergebnisse verstehen und bewerten können.

Die nächste Welle der KI und die Governance-Herausforderungen

Die Herausforderungen werden sich verschärfen, da Unternehmen sich auf agentische KI vorbereiten – Systeme, die Entscheidungen treffen und ohne menschliche Aufsicht handeln können. Allerdings geben 50 % der befragten Führungskräfte zu, dass ihre aktuellen Risikomanagementansätze mit diesen leistungsstärkeren Systemen nicht umgehen können.

Die Forschung zeigt, dass Unternehmen in der Regel nur in drei der neun Schlüsselbereiche verantwortungsvoller KI starke Kontrollen aufrechterhalten, was die Notwendigkeit eines umfassenden Ansatzes zur Schließung dieser Lücken verdeutlicht.

Fazit

Die Studie hebt hervor, dass Unternehmen verantwortungsvolle KI als Compliance-Bürde betrachten, während sie in Wirklichkeit ein wettbewerblicher Vorteil sein könnte. Die Unternehmen, die transparent darüber sind, wie sie mit den Bedenken der Verbraucher umgehen, können sich von der Konkurrenz abheben und das Vertrauen der Verbraucher gewinnen.

More Insights

EU AI-Gesetz und Australiens Sicherheitsrahmen: Ein globaler Überblick

Laut dem DJ Piper Technology’s Legal Edge-Blog müssen globale Unternehmen, die künstliche Intelligenz einsetzen, die internationalen KI-Vorschriften verstehen. Die Europäische Union und Australien...

Quebecs KI-Politik für Hochschulen und Cégeps

Die Regierung von Quebec hat eine neue KI-Richtlinie für Universitäten und CÉGEPs veröffentlicht, um die Nutzung von generativer KI im Hochschulbereich zu regeln. Die Richtlinien betonen die...

Deutschland setzt AI Act um: Neue Regelungen für KI-Compliance

Die bestehenden Regulierungsbehörden werden die Verantwortung für die Überwachung der Einhaltung des EU-AI-Gesetzes durch deutsche Unternehmen übernehmen, wobei der Bundesnetzagentur (BNetzA) eine...

Weltführer und KI-Pioniere fordern verbindliche globale AI-Schutzmaßnahmen bis 2026

Weltführer und KI-Pioniere fordern die UN auf, bis 2026 verbindliche globale Sicherheitsvorkehrungen für KI zu schaffen. Diese Initiative zielt darauf ab, die Risiken und Herausforderungen, die mit...

Künstliche Intelligenz im Zeitalter des Zero Trust: Governance neu denken

Im Jahr 2025 sehen wir, wie KI von einem bloßen Schlagwort zu einer praktischen Anwendung in verschiedenen Bereichen wird. Effektive Governance in einer Zero-Trust-Wirtschaft ist entscheidend, um...

Neue AI-Strategie: Technisches Sekretariat statt Regulator

Der bevorstehende Governance-Rahmen für künstliche Intelligenz könnte ein "technisches Sekretariat" umfassen, das die KI-Politik zwischen den Regierungsbehörden koordiniert. Dies stellt einen Wechsel...

KI-Sicherheit als Motor für Innovation in Schwellenländern

Die Diskussion über KI-Sicherheit und -Schutz wird oft als Hindernis für Innovationen wahrgenommen, insbesondere in Ländern der Global Majority. Die bevorstehende AI Impact Summit in Indien im Februar...

AI-Governance in ASEAN: Auf dem Weg zu einem einheitlichen Ansatz?

Wenn es um KI geht, legisliert Europa, während Amerika auf marktorientierte Innovation setzt und China zentral steuert. ASEAN hingegen setzt auf einen konsensorientierten Ansatz, der eine freiwillige...