Öffentliches Vertrauen in Künstliche Intelligenz auf Rekordtief

Studie zeigt Rekordtiefes öffentliches Vertrauen in Künstliche Intelligenz

Eine neue Studie hat ergeben, dass das Vertrauen der Australier in Künstliche Intelligenz (KI) auf einem Rekordtief angekommen ist. Dies geschieht inmitten weit verbreiteter Ängste über den Missbrauch von KI und dringenden Forderungen nach staatlichem Handeln, da die Bundeswahlen näher rücken.

Wichtige Ergebnisse der Umfrage

Laut einer globalen Umfrage, die von der Universität Melbourne und KPMG durchgeführt wurde, hat das Vertrauen der Australier in KI-Systeme folgende alarmierende Werte erreicht:

  • Nur ein Drittel der Australier vertraut KI-Systemen.
  • Die Hälfte der Australier hat persönlich Schaden durch KI erlebt oder beobachtet.
  • Fast 3 von 5 fürchten, dass Wahlen durch KI-generierte Inhalte oder Bots manipuliert werden.
  • Mehr als drei Viertel fordern eine stärkere Regulierung, während weniger als ein Drittel die bestehenden Sicherheitsvorkehrungen als ausreichend erachtet.
  • Neun von zehn unterstützen spezifische Gesetze zur Bekämpfung von KI-gesteuerten Fehlinformationen.

AI Safety Scorecard zur Bundestagswahl 2025

Die Initiative Australians for AI Safety hat eine Bundestagswahl-AI-Sicherheits-Scorecard veröffentlicht, die die Positionen aller wichtigen Parteien zu zwei von Experten unterstützten KI-Politiken vergleicht:

  • Ein Australisches AI Safety Institute – eine gut finanzierte, unabhängige Institution, die Grenzmodelle testen, Risiken erforschen und die Regierung beraten kann.
  • Ein Australisches AI-Gesetz – eine Gesetzgebung, die verbindliche Sicherheitsvorkehrungen und klare Haftungen für Entwickler und Betreiber von hochriskanter und allgemeiner KI festlegt.

Die Scorecard zeigt, dass nur die Australischen Grünen, die Tierschutzpartei, die Indigene-Aborigines-Partei Australiens und die Trumpet of Patriots beide empfohlenen Politiken voll unterstützen. Senator David Pocock und andere Unabhängige haben ebenfalls ihre Unterstützung signalisiert. Die Libertarian Party lehnt die Politiken im Allgemeinen ab und bezeichnet sie als „Regierungspläne“.

Politische Reaktionen und öffentliche Wahrnehmung

Die Reaktion der Coalition auf die Scorecard hob die wahrgenommene Untätigkeit der Regierung hervor: „Wir müssen uns der mit dieser Technologie verbundenen Risiken bewusst sein… Die Albanese-Regierung hat komplett versagt, entschlossene Maßnahmen zu ergreifen oder Klarheit und politische Richtung zu bieten.“

Die Antwort der Coalition skizzierte jedoch keine klare Position zu den von Experten empfohlenen Politiken für ein AI Safety Institute oder ein AI-Gesetz.

„Das ist genau das, was Policrastination aussieht – eine Partei beschuldigt die andere der Untätigkeit, während sie selbst keinen eigenen Vorschlag unterbreitet,“ sagte ein Sprecher von Foundations for Tomorrow. „Die Australier sind es leid, dass Politiker Entscheidungen aufschieben und wichtige Politiken in die zu schwierigen Kategorie einsortieren.“

Forderung nach stärkeren Schutzmaßnahmen

Die Initiative Australians for AI Safety argumentiert, dass robuste Sicherheitsvorkehrungen der Luftfahrtbranche ermöglichten, zu florieren. Ähnlich wird die Innovation im Bereich KI nur gedeihen, wenn unabhängige Tests und klare gesetzliche Pflichten das öffentliche Vertrauen stärken. Vergleichbare Institute sind bereits in Japan, Korea, dem Vereinigten Königreich und Kanada tätig. Neben dem EU AI Act setzen sie einen klaren Maßstab für Australien.

Australien hat sich verpflichtet, ein AI Safety Institute zu schaffen, hat dies jedoch bislang nicht getan.

More Insights

Risiken der KI im Compliance-Bereich

Das schnelle Wachstum der künstlichen Intelligenz (KI), insbesondere der generativen KI (GenAI) und Chatbots, bietet Unternehmen zahlreiche Möglichkeiten zur Verbesserung ihrer Arbeitsweise...

AI-Kompetenz: Anforderungen und Umsetzung im Unternehmen

Die Verpflichtung zur KI-Kompetenz gilt seit dem 2. Februar 2025 für alle, die mit KI-Systemen in Verbindung stehen. Die Kommission erwartet von den Anbietern und Anwendern von KI-Systemen, dass sie...

Ethische Herausforderungen der KI: Strategien für verantwortungsvolles Handeln

Künstliche Intelligenz (KI) durchdringt zunehmend kritische Entscheidungsprozesse in verschiedenen Branchen, weshalb robuste ethische Governance-Rahmenwerke von entscheidender Bedeutung sind. Die...

Rechtliche Personhood für KI: Eine dringende Debatte

Künstliche Intelligenz ist nicht mehr auf dem Weg, sie ist bereits etabliert. Angesichts der schnellen Integration von KI müssen wir die dringende Frage stellen: Soll KI irgendeine Form von...

Datenherkunft als Schlüssel zur KI-Governance für CISOs

Künstliche Intelligenz hat schleichend in zentrale Funktionen des Unternehmens Einzug gehalten, und viele dieser Funktionen basieren auf großen Sprachmodellen (LLMs). Die Annahme der Sicherheit der...

Ausgewogene KI-Regulierung für die Philippinen

Eine Abgeordnete auf den Philippinen fordert einen vorsichtigen und konsulativen Ansatz zur Regulierung von Künstlicher Intelligenz (KI), um sicherzustellen, dass die Richtlinien eine ethische...

Chinas Weg zur offenen KI-Governance

Chinas schnelle Fortschritte im Bereich der künstlichen Intelligenz (KI) werden zunehmend durch eine starke Betonung der Open-Source-Zusammenarbeit vorangetrieben. Dies ermöglicht es Unternehmen...

Neun Schritte zur effektiven KI-Governance

Die AI-Governance ist entscheidend, um die Integrität, Verantwortlichkeit und Sicherheit der Datenökosysteme zu gewährleisten, die KI-Modelle antreiben. Ohne starke Kontrollen können KI-Systeme...