Öffentliches Vertrauen in Künstliche Intelligenz auf Rekordtief

Studie zeigt Rekordtiefes öffentliches Vertrauen in Künstliche Intelligenz

Eine neue Studie hat ergeben, dass das Vertrauen der Australier in Künstliche Intelligenz (KI) auf einem Rekordtief angekommen ist. Dies geschieht inmitten weit verbreiteter Ängste über den Missbrauch von KI und dringenden Forderungen nach staatlichem Handeln, da die Bundeswahlen näher rücken.

Wichtige Ergebnisse der Umfrage

Laut einer globalen Umfrage, die von der Universität Melbourne und KPMG durchgeführt wurde, hat das Vertrauen der Australier in KI-Systeme folgende alarmierende Werte erreicht:

  • Nur ein Drittel der Australier vertraut KI-Systemen.
  • Die Hälfte der Australier hat persönlich Schaden durch KI erlebt oder beobachtet.
  • Fast 3 von 5 fürchten, dass Wahlen durch KI-generierte Inhalte oder Bots manipuliert werden.
  • Mehr als drei Viertel fordern eine stärkere Regulierung, während weniger als ein Drittel die bestehenden Sicherheitsvorkehrungen als ausreichend erachtet.
  • Neun von zehn unterstützen spezifische Gesetze zur Bekämpfung von KI-gesteuerten Fehlinformationen.

AI Safety Scorecard zur Bundestagswahl 2025

Die Initiative Australians for AI Safety hat eine Bundestagswahl-AI-Sicherheits-Scorecard veröffentlicht, die die Positionen aller wichtigen Parteien zu zwei von Experten unterstützten KI-Politiken vergleicht:

  • Ein Australisches AI Safety Institute – eine gut finanzierte, unabhängige Institution, die Grenzmodelle testen, Risiken erforschen und die Regierung beraten kann.
  • Ein Australisches AI-Gesetz – eine Gesetzgebung, die verbindliche Sicherheitsvorkehrungen und klare Haftungen für Entwickler und Betreiber von hochriskanter und allgemeiner KI festlegt.

Die Scorecard zeigt, dass nur die Australischen Grünen, die Tierschutzpartei, die Indigene-Aborigines-Partei Australiens und die Trumpet of Patriots beide empfohlenen Politiken voll unterstützen. Senator David Pocock und andere Unabhängige haben ebenfalls ihre Unterstützung signalisiert. Die Libertarian Party lehnt die Politiken im Allgemeinen ab und bezeichnet sie als „Regierungspläne“.

Politische Reaktionen und öffentliche Wahrnehmung

Die Reaktion der Coalition auf die Scorecard hob die wahrgenommene Untätigkeit der Regierung hervor: „Wir müssen uns der mit dieser Technologie verbundenen Risiken bewusst sein… Die Albanese-Regierung hat komplett versagt, entschlossene Maßnahmen zu ergreifen oder Klarheit und politische Richtung zu bieten.“

Die Antwort der Coalition skizzierte jedoch keine klare Position zu den von Experten empfohlenen Politiken für ein AI Safety Institute oder ein AI-Gesetz.

„Das ist genau das, was Policrastination aussieht – eine Partei beschuldigt die andere der Untätigkeit, während sie selbst keinen eigenen Vorschlag unterbreitet,“ sagte ein Sprecher von Foundations for Tomorrow. „Die Australier sind es leid, dass Politiker Entscheidungen aufschieben und wichtige Politiken in die zu schwierigen Kategorie einsortieren.“

Forderung nach stärkeren Schutzmaßnahmen

Die Initiative Australians for AI Safety argumentiert, dass robuste Sicherheitsvorkehrungen der Luftfahrtbranche ermöglichten, zu florieren. Ähnlich wird die Innovation im Bereich KI nur gedeihen, wenn unabhängige Tests und klare gesetzliche Pflichten das öffentliche Vertrauen stärken. Vergleichbare Institute sind bereits in Japan, Korea, dem Vereinigten Königreich und Kanada tätig. Neben dem EU AI Act setzen sie einen klaren Maßstab für Australien.

Australien hat sich verpflichtet, ein AI Safety Institute zu schaffen, hat dies jedoch bislang nicht getan.

More Insights

Vertrauen und Risiko im Zeitalter der KI

Für Vermarkter verspricht KI einen Sprung in der Produktivität – aber nur, wenn sie durch eine klare Strategie und menschliche Aufsicht geleitet wird. Die Frage ist nicht, ob man KI nutzen sollte...

Cloud Governance für die KI-Zukunft

In der heutigen Zeit, in der KI-Innovationen sprießen, wird oft übersehen, dass veraltete Cloud-Governance-Modelle ein kritisches Risiko darstellen. Diese Modelle sind nicht für die Geschwindigkeit...

Leitfaden zur verantwortungsvollen KI-Governance für Unternehmensvorstände

Mit der zunehmenden Bedeutung von Künstlicher Intelligenz (KI) in modernen Unternehmen hat die Confederation of Indian Industry (CII) am Sonntag ein neues Handbuch veröffentlicht, um...

KI-gestützte DevSecOps: Automatisierung, Risiken und Compliance im Zero-Trust-Umfeld

Die rasante Einführung von KI-gestützter Automatisierung im DevSecOps kann sowohl Chancen als auch Herausforderungen mit sich bringen. Während KI die Effizienz steigert, birgt sie auch das Risiko...

Ein Zentrum für KI, Recht und Regulierung in Indien

In einer wegweisenden Entwicklung haben Cyril Amarchand Mangaldas, Cyril Shroff und die O.P. Jindal Global University die Gründung des Cyril Shroff Centre for AI, Law & Regulation am Jindal Global Law...

Darwin präsentiert kostenlosen Policy-Wizard zur Vereinfachung der KI-Governance für Behörden

Darwin hat den AI Policy Wizard eingeführt, ein kostenloses und interaktives Tool, das lokalen Regierungen und öffentlichen Einrichtungen hilft, praktische, konforme und maßgeschneiderte...

Vertrauen in KI durch verantwortungsvolle Governance stärken

Unklare Bedrohungen und unvorhersehbares Verhalten erschweren das globale Vertrauen in KI. Der Aufbau eines gemeinsamen Verständnisses durch anpassbare Governance hilft, konsistente Erwartungen für...

Kultur als Schlüssel zu vertrauenswürdiger KI

In diesem Bericht wird die Bedeutung einer inklusiven KI-Governance hervorgehoben, um sicherzustellen, dass auch übersehene Stimmen im Globalen Süden an der Diskussion und Entscheidungsfindung über...

Die EU AI-Verordnung und die Einhaltung des Urheberrechts

Ein zentrales Problem beim Training generativer KI-Modelle ist die Einhaltung der Urheberrechtsgesetze. Das EU-AI-Gesetz verstärkt die Notwendigkeit der Urheberrechtskonformität, insbesondere in Bezug...