Öffentliches Vertrauen in Künstliche Intelligenz auf Rekordtief

Studie zeigt Rekordtiefes öffentliches Vertrauen in Künstliche Intelligenz

Eine neue Studie hat ergeben, dass das Vertrauen der Australier in Künstliche Intelligenz (KI) auf einem Rekordtief angekommen ist. Dies geschieht inmitten weit verbreiteter Ängste über den Missbrauch von KI und dringenden Forderungen nach staatlichem Handeln, da die Bundeswahlen näher rücken.

Wichtige Ergebnisse der Umfrage

Laut einer globalen Umfrage, die von der Universität Melbourne und KPMG durchgeführt wurde, hat das Vertrauen der Australier in KI-Systeme folgende alarmierende Werte erreicht:

  • Nur ein Drittel der Australier vertraut KI-Systemen.
  • Die Hälfte der Australier hat persönlich Schaden durch KI erlebt oder beobachtet.
  • Fast 3 von 5 fürchten, dass Wahlen durch KI-generierte Inhalte oder Bots manipuliert werden.
  • Mehr als drei Viertel fordern eine stärkere Regulierung, während weniger als ein Drittel die bestehenden Sicherheitsvorkehrungen als ausreichend erachtet.
  • Neun von zehn unterstützen spezifische Gesetze zur Bekämpfung von KI-gesteuerten Fehlinformationen.

AI Safety Scorecard zur Bundestagswahl 2025

Die Initiative Australians for AI Safety hat eine Bundestagswahl-AI-Sicherheits-Scorecard veröffentlicht, die die Positionen aller wichtigen Parteien zu zwei von Experten unterstützten KI-Politiken vergleicht:

  • Ein Australisches AI Safety Institute – eine gut finanzierte, unabhängige Institution, die Grenzmodelle testen, Risiken erforschen und die Regierung beraten kann.
  • Ein Australisches AI-Gesetz – eine Gesetzgebung, die verbindliche Sicherheitsvorkehrungen und klare Haftungen für Entwickler und Betreiber von hochriskanter und allgemeiner KI festlegt.

Die Scorecard zeigt, dass nur die Australischen Grünen, die Tierschutzpartei, die Indigene-Aborigines-Partei Australiens und die Trumpet of Patriots beide empfohlenen Politiken voll unterstützen. Senator David Pocock und andere Unabhängige haben ebenfalls ihre Unterstützung signalisiert. Die Libertarian Party lehnt die Politiken im Allgemeinen ab und bezeichnet sie als „Regierungspläne“.

Politische Reaktionen und öffentliche Wahrnehmung

Die Reaktion der Coalition auf die Scorecard hob die wahrgenommene Untätigkeit der Regierung hervor: „Wir müssen uns der mit dieser Technologie verbundenen Risiken bewusst sein… Die Albanese-Regierung hat komplett versagt, entschlossene Maßnahmen zu ergreifen oder Klarheit und politische Richtung zu bieten.“

Die Antwort der Coalition skizzierte jedoch keine klare Position zu den von Experten empfohlenen Politiken für ein AI Safety Institute oder ein AI-Gesetz.

„Das ist genau das, was Policrastination aussieht – eine Partei beschuldigt die andere der Untätigkeit, während sie selbst keinen eigenen Vorschlag unterbreitet,“ sagte ein Sprecher von Foundations for Tomorrow. „Die Australier sind es leid, dass Politiker Entscheidungen aufschieben und wichtige Politiken in die zu schwierigen Kategorie einsortieren.“

Forderung nach stärkeren Schutzmaßnahmen

Die Initiative Australians for AI Safety argumentiert, dass robuste Sicherheitsvorkehrungen der Luftfahrtbranche ermöglichten, zu florieren. Ähnlich wird die Innovation im Bereich KI nur gedeihen, wenn unabhängige Tests und klare gesetzliche Pflichten das öffentliche Vertrauen stärken. Vergleichbare Institute sind bereits in Japan, Korea, dem Vereinigten Königreich und Kanada tätig. Neben dem EU AI Act setzen sie einen klaren Maßstab für Australien.

Australien hat sich verpflichtet, ein AI Safety Institute zu schaffen, hat dies jedoch bislang nicht getan.

More Insights

Verantwortungsvolle KI: Ein unverzichtbares Gebot für Unternehmen

Unternehmen sind sich der Notwendigkeit von verantwortungsvollem KI-Betrieb bewusst, behandeln ihn jedoch oft als nachträglichen Gedanken oder separates Projekt. Verantwortliche KI ist eine vordere...

Neues KI-Governance-Modell gegen Schatten-KI

Künstliche Intelligenz (KI) verbreitet sich schnell in den Arbeitsplatz und verändert, wie alltägliche Aufgaben erledigt werden. Unternehmen müssen ihre Ansätze zur KI-Politik überdenken, um mit der...

EU plant Aufschub für AI-Gesetzgebung

Die EU plant, die Anforderungen für risikobehaftete KI-Systeme im KI-Gesetz bis Ende 2027 zu verschieben, um Unternehmen mehr Zeit zu geben, sich anzupassen. Kritiker befürchten, dass diese...

Weißes Haus lehnt GAIN AI-Gesetz ab: Nvidia im Fokus

Das Weiße Haus hat sich gegen den GAIN AI Act ausgesprochen, während es um die Exportbeschränkungen für Nvidia-AI-Chips nach China geht. Die Diskussion spiegelt die politischen Spannungen wider, die...

Ethische KI als Beschleuniger für Innovation

Unternehmen stehen heute unter Druck, mit künstlicher Intelligenz zu innovieren, oft jedoch ohne die notwendigen Sicherheitsvorkehrungen. Indem sie Datenschutz und Ethik in den Entwicklungsprozess...

KI im Recruiting: Verborgene Risiken für Arbeitgeber

Künstliche Intelligenz verändert die Art und Weise, wie Arbeitgeber Talente rekrutieren und bewerten. Während diese Tools Effizienz und Kosteneinsparungen versprechen, bringen sie auch erhebliche...

KI im australischen Kabinett: Chancen und Sicherheitsbedenken

Die australische Regierung könnte in Betracht ziehen, KI-Programme zur Erstellung sensibler Kabinettsanträge zu nutzen, trotz Bedenken hinsichtlich Sicherheitsrisiken und Datenverletzungen...