Studie zeigt Rekordtiefes öffentliches Vertrauen in Künstliche Intelligenz
Eine neue Studie hat ergeben, dass das Vertrauen der Australier in Künstliche Intelligenz (KI) auf einem Rekordtief angekommen ist. Dies geschieht inmitten weit verbreiteter Ängste über den Missbrauch von KI und dringenden Forderungen nach staatlichem Handeln, da die Bundeswahlen näher rücken.
Wichtige Ergebnisse der Umfrage
Laut einer globalen Umfrage, die von der Universität Melbourne und KPMG durchgeführt wurde, hat das Vertrauen der Australier in KI-Systeme folgende alarmierende Werte erreicht:
- Nur ein Drittel der Australier vertraut KI-Systemen.
- Die Hälfte der Australier hat persönlich Schaden durch KI erlebt oder beobachtet.
- Fast 3 von 5 fürchten, dass Wahlen durch KI-generierte Inhalte oder Bots manipuliert werden.
- Mehr als drei Viertel fordern eine stärkere Regulierung, während weniger als ein Drittel die bestehenden Sicherheitsvorkehrungen als ausreichend erachtet.
- Neun von zehn unterstützen spezifische Gesetze zur Bekämpfung von KI-gesteuerten Fehlinformationen.
AI Safety Scorecard zur Bundestagswahl 2025
Die Initiative Australians for AI Safety hat eine Bundestagswahl-AI-Sicherheits-Scorecard veröffentlicht, die die Positionen aller wichtigen Parteien zu zwei von Experten unterstützten KI-Politiken vergleicht:
- Ein Australisches AI Safety Institute – eine gut finanzierte, unabhängige Institution, die Grenzmodelle testen, Risiken erforschen und die Regierung beraten kann.
- Ein Australisches AI-Gesetz – eine Gesetzgebung, die verbindliche Sicherheitsvorkehrungen und klare Haftungen für Entwickler und Betreiber von hochriskanter und allgemeiner KI festlegt.
Die Scorecard zeigt, dass nur die Australischen Grünen, die Tierschutzpartei, die Indigene-Aborigines-Partei Australiens und die Trumpet of Patriots beide empfohlenen Politiken voll unterstützen. Senator David Pocock und andere Unabhängige haben ebenfalls ihre Unterstützung signalisiert. Die Libertarian Party lehnt die Politiken im Allgemeinen ab und bezeichnet sie als „Regierungspläne“.
Politische Reaktionen und öffentliche Wahrnehmung
Die Reaktion der Coalition auf die Scorecard hob die wahrgenommene Untätigkeit der Regierung hervor: „Wir müssen uns der mit dieser Technologie verbundenen Risiken bewusst sein… Die Albanese-Regierung hat komplett versagt, entschlossene Maßnahmen zu ergreifen oder Klarheit und politische Richtung zu bieten.“
Die Antwort der Coalition skizzierte jedoch keine klare Position zu den von Experten empfohlenen Politiken für ein AI Safety Institute oder ein AI-Gesetz.
„Das ist genau das, was Policrastination aussieht – eine Partei beschuldigt die andere der Untätigkeit, während sie selbst keinen eigenen Vorschlag unterbreitet,“ sagte ein Sprecher von Foundations for Tomorrow. „Die Australier sind es leid, dass Politiker Entscheidungen aufschieben und wichtige Politiken in die zu schwierigen Kategorie einsortieren.“
Forderung nach stärkeren Schutzmaßnahmen
Die Initiative Australians for AI Safety argumentiert, dass robuste Sicherheitsvorkehrungen der Luftfahrtbranche ermöglichten, zu florieren. Ähnlich wird die Innovation im Bereich KI nur gedeihen, wenn unabhängige Tests und klare gesetzliche Pflichten das öffentliche Vertrauen stärken. Vergleichbare Institute sind bereits in Japan, Korea, dem Vereinigten Königreich und Kanada tätig. Neben dem EU AI Act setzen sie einen klaren Maßstab für Australien.
Australien hat sich verpflichtet, ein AI Safety Institute zu schaffen, hat dies jedoch bislang nicht getan.