Öffentliches Vertrauen in Künstliche Intelligenz auf Rekordtief

Studie zeigt Rekordtiefes öffentliches Vertrauen in Künstliche Intelligenz

Eine neue Studie hat ergeben, dass das Vertrauen der Australier in Künstliche Intelligenz (KI) auf einem Rekordtief angekommen ist. Dies geschieht inmitten weit verbreiteter Ängste über den Missbrauch von KI und dringenden Forderungen nach staatlichem Handeln, da die Bundeswahlen näher rücken.

Wichtige Ergebnisse der Umfrage

Laut einer globalen Umfrage, die von der Universität Melbourne und KPMG durchgeführt wurde, hat das Vertrauen der Australier in KI-Systeme folgende alarmierende Werte erreicht:

  • Nur ein Drittel der Australier vertraut KI-Systemen.
  • Die Hälfte der Australier hat persönlich Schaden durch KI erlebt oder beobachtet.
  • Fast 3 von 5 fürchten, dass Wahlen durch KI-generierte Inhalte oder Bots manipuliert werden.
  • Mehr als drei Viertel fordern eine stärkere Regulierung, während weniger als ein Drittel die bestehenden Sicherheitsvorkehrungen als ausreichend erachtet.
  • Neun von zehn unterstützen spezifische Gesetze zur Bekämpfung von KI-gesteuerten Fehlinformationen.

AI Safety Scorecard zur Bundestagswahl 2025

Die Initiative Australians for AI Safety hat eine Bundestagswahl-AI-Sicherheits-Scorecard veröffentlicht, die die Positionen aller wichtigen Parteien zu zwei von Experten unterstützten KI-Politiken vergleicht:

  • Ein Australisches AI Safety Institute – eine gut finanzierte, unabhängige Institution, die Grenzmodelle testen, Risiken erforschen und die Regierung beraten kann.
  • Ein Australisches AI-Gesetz – eine Gesetzgebung, die verbindliche Sicherheitsvorkehrungen und klare Haftungen für Entwickler und Betreiber von hochriskanter und allgemeiner KI festlegt.

Die Scorecard zeigt, dass nur die Australischen Grünen, die Tierschutzpartei, die Indigene-Aborigines-Partei Australiens und die Trumpet of Patriots beide empfohlenen Politiken voll unterstützen. Senator David Pocock und andere Unabhängige haben ebenfalls ihre Unterstützung signalisiert. Die Libertarian Party lehnt die Politiken im Allgemeinen ab und bezeichnet sie als „Regierungspläne“.

Politische Reaktionen und öffentliche Wahrnehmung

Die Reaktion der Coalition auf die Scorecard hob die wahrgenommene Untätigkeit der Regierung hervor: „Wir müssen uns der mit dieser Technologie verbundenen Risiken bewusst sein… Die Albanese-Regierung hat komplett versagt, entschlossene Maßnahmen zu ergreifen oder Klarheit und politische Richtung zu bieten.“

Die Antwort der Coalition skizzierte jedoch keine klare Position zu den von Experten empfohlenen Politiken für ein AI Safety Institute oder ein AI-Gesetz.

„Das ist genau das, was Policrastination aussieht – eine Partei beschuldigt die andere der Untätigkeit, während sie selbst keinen eigenen Vorschlag unterbreitet,“ sagte ein Sprecher von Foundations for Tomorrow. „Die Australier sind es leid, dass Politiker Entscheidungen aufschieben und wichtige Politiken in die zu schwierigen Kategorie einsortieren.“

Forderung nach stärkeren Schutzmaßnahmen

Die Initiative Australians for AI Safety argumentiert, dass robuste Sicherheitsvorkehrungen der Luftfahrtbranche ermöglichten, zu florieren. Ähnlich wird die Innovation im Bereich KI nur gedeihen, wenn unabhängige Tests und klare gesetzliche Pflichten das öffentliche Vertrauen stärken. Vergleichbare Institute sind bereits in Japan, Korea, dem Vereinigten Königreich und Kanada tätig. Neben dem EU AI Act setzen sie einen klaren Maßstab für Australien.

Australien hat sich verpflichtet, ein AI Safety Institute zu schaffen, hat dies jedoch bislang nicht getan.

More Insights

EU AI-Gesetz und Australiens Sicherheitsrahmen: Ein globaler Überblick

Laut dem DJ Piper Technology’s Legal Edge-Blog müssen globale Unternehmen, die künstliche Intelligenz einsetzen, die internationalen KI-Vorschriften verstehen. Die Europäische Union und Australien...

Quebecs KI-Politik für Hochschulen und Cégeps

Die Regierung von Quebec hat eine neue KI-Richtlinie für Universitäten und CÉGEPs veröffentlicht, um die Nutzung von generativer KI im Hochschulbereich zu regeln. Die Richtlinien betonen die...

Deutschland setzt AI Act um: Neue Regelungen für KI-Compliance

Die bestehenden Regulierungsbehörden werden die Verantwortung für die Überwachung der Einhaltung des EU-AI-Gesetzes durch deutsche Unternehmen übernehmen, wobei der Bundesnetzagentur (BNetzA) eine...

Weltführer und KI-Pioniere fordern verbindliche globale AI-Schutzmaßnahmen bis 2026

Weltführer und KI-Pioniere fordern die UN auf, bis 2026 verbindliche globale Sicherheitsvorkehrungen für KI zu schaffen. Diese Initiative zielt darauf ab, die Risiken und Herausforderungen, die mit...

Künstliche Intelligenz im Zeitalter des Zero Trust: Governance neu denken

Im Jahr 2025 sehen wir, wie KI von einem bloßen Schlagwort zu einer praktischen Anwendung in verschiedenen Bereichen wird. Effektive Governance in einer Zero-Trust-Wirtschaft ist entscheidend, um...

Neue AI-Strategie: Technisches Sekretariat statt Regulator

Der bevorstehende Governance-Rahmen für künstliche Intelligenz könnte ein "technisches Sekretariat" umfassen, das die KI-Politik zwischen den Regierungsbehörden koordiniert. Dies stellt einen Wechsel...

KI-Sicherheit als Motor für Innovation in Schwellenländern

Die Diskussion über KI-Sicherheit und -Schutz wird oft als Hindernis für Innovationen wahrgenommen, insbesondere in Ländern der Global Majority. Die bevorstehende AI Impact Summit in Indien im Februar...

AI-Governance in ASEAN: Auf dem Weg zu einem einheitlichen Ansatz?

Wenn es um KI geht, legisliert Europa, während Amerika auf marktorientierte Innovation setzt und China zentral steuert. ASEAN hingegen setzt auf einen konsensorientierten Ansatz, der eine freiwillige...