KI und Wahlen: Risiken und Herausforderungen für die Demokratie

Die Risiken von Künstlicher Intelligenz bei Wahlen

Eine interne Notiz, die für die Wahlbehörde Kanadas erstellt wurde, klassifiziert den Einsatz von Künstlicher Intelligenz (KI) als ein „hohes“ Risiko für den laufenden Wahlkampf. Die Notiz wurde für die Kommissionerin für die Wahlen in Kanada, Caroline Simard, vorbereitet, die als unabhängige Beauftragte des Parlaments für die Durchsetzung des Wahlgesetzes verantwortlich ist.

Vorwarnung bezüglich KI-Tools

Die Notiz, die rund einen Monat vor dem Kampagnenstart datiert ist, warnt davor, dass der bevorstehende Wahlkampf wahrscheinlich Beschwerden über den Einsatz von KI-Tools generieren wird, die gegen das Wahlgesetz verstoßen könnten. Es wird betont, dass das Wahlgesetz den Einsatz von KI, Bots oder Deepfakes nicht ausdrücklich verbietet, jedoch sind bestimmte Bestimmungen des Gesetzes anwendbar, wenn KI-Tools missbräuchlich verwendet werden.

Beispiele für Verstöße

Zu den möglichen Verstößen gehören die Verbreitung von Desinformation, die Veröffentlichung falscher Informationen über den Wahlprozess oder die Nachahmung von Wahlbeamten. Michael Litchfield, Direktor des AI-Risiko- und Regulierungszentrums an der Universität Victoria, hebt hervor, dass es schwierig sein kann, diejenigen zu identifizieren, die KI nutzen, um gegen die Wahlregeln zu verstoßen.

Deepfakes und ihre Gefahren

Die Notiz hebt spezifische Bedenken hinsichtlich des Einsatzes von KI-Tools und Deepfakes hervor, die hyperrealistische gefälschte Videos oder Audios darstellen. Obwohl es bisher keinen Vorfall gab, in dem ein Deepfake bei einer kanadischen Bundeswahl verwendet wurde, gibt es zahlreiche Beispiele für den Einsatz von Deepfakes im Ausland, wie etwa ein Deepfake von Kamala Harris während der Präsidentschaftswahlen 2024 in den USA.

Die Notiz warnt, dass die Auswirkungen eines Deepfakes von der Verbreitung abhängen können. Ein Anstieg der Werbung für maßgeschneiderte Deepfake-Dienste im dunklen Web wurde beobachtet, was die Risiken weiter erhöht.

Selbstregulierung und Herausforderungen

Die Notiz weist darauf hin, dass Kanada in der Regel auf einen Ansatz der Selbstregulierung setzt, wenn es um KI geht, was größtenteils in den Händen der Technologiebranche liegt. Dennoch wird gewarnt, dass die Wirksamkeit dieser Selbstregulierung umstritten ist. Einige führende KI-Bildgeneratoren haben spezifische Richtlinien zur Wahl-Desinformation, konnten jedoch die Erstellung irreführender Bilder von Wählern und Stimmzetteln nicht verhindern.

Gefahr der Desinformation

Die Verwendung von KI führt zu einem Anstieg der Desinformation im aktuellen Wahlkampf. Eine obskure Website, die anscheinend KI-generierte Artikel veröffentlicht, hat fragwürdige Informationen über die persönlichen Finanzen von Parteiführern verbreitet. Diese Entwicklungen tragen dazu bei, das Vertrauen in Online-Inhalte zu untergraben und führen zu einem Phänomen namens „News-Avoidance“, bei dem die Menschen weniger Vertrauen in alle Online-Inhalte haben.

Fazit

Die Notiz schließt mit der Warnung, dass die Verwendung von KI während dieser Wahlkampagne wahrscheinlich eine Reihe von Beschwerden auslösen wird, selbst wenn keine Regeln gebrochen wurden. Das Phänomen der Deepfakes trägt zur Verwirrung der Wähler über das, was real und was nicht, bei und könnte die Integrität des Wahlprozesses gefährden.

More Insights

EU AI-Gesetz und Australiens Sicherheitsrahmen: Ein globaler Überblick

Laut dem DJ Piper Technology’s Legal Edge-Blog müssen globale Unternehmen, die künstliche Intelligenz einsetzen, die internationalen KI-Vorschriften verstehen. Die Europäische Union und Australien...

Quebecs KI-Politik für Hochschulen und Cégeps

Die Regierung von Quebec hat eine neue KI-Richtlinie für Universitäten und CÉGEPs veröffentlicht, um die Nutzung von generativer KI im Hochschulbereich zu regeln. Die Richtlinien betonen die...

Deutschland setzt AI Act um: Neue Regelungen für KI-Compliance

Die bestehenden Regulierungsbehörden werden die Verantwortung für die Überwachung der Einhaltung des EU-AI-Gesetzes durch deutsche Unternehmen übernehmen, wobei der Bundesnetzagentur (BNetzA) eine...

Weltführer und KI-Pioniere fordern verbindliche globale AI-Schutzmaßnahmen bis 2026

Weltführer und KI-Pioniere fordern die UN auf, bis 2026 verbindliche globale Sicherheitsvorkehrungen für KI zu schaffen. Diese Initiative zielt darauf ab, die Risiken und Herausforderungen, die mit...

Künstliche Intelligenz im Zeitalter des Zero Trust: Governance neu denken

Im Jahr 2025 sehen wir, wie KI von einem bloßen Schlagwort zu einer praktischen Anwendung in verschiedenen Bereichen wird. Effektive Governance in einer Zero-Trust-Wirtschaft ist entscheidend, um...

Neue AI-Strategie: Technisches Sekretariat statt Regulator

Der bevorstehende Governance-Rahmen für künstliche Intelligenz könnte ein "technisches Sekretariat" umfassen, das die KI-Politik zwischen den Regierungsbehörden koordiniert. Dies stellt einen Wechsel...

KI-Sicherheit als Motor für Innovation in Schwellenländern

Die Diskussion über KI-Sicherheit und -Schutz wird oft als Hindernis für Innovationen wahrgenommen, insbesondere in Ländern der Global Majority. Die bevorstehende AI Impact Summit in Indien im Februar...

AI-Governance in ASEAN: Auf dem Weg zu einem einheitlichen Ansatz?

Wenn es um KI geht, legisliert Europa, während Amerika auf marktorientierte Innovation setzt und China zentral steuert. ASEAN hingegen setzt auf einen konsensorientierten Ansatz, der eine freiwillige...