Die Gefahren von Angstgetriebenen KI-Politiken für die Meinungsfreiheit

Die AI-Wahl-Panik: Wie angstgetriebene Politiken die Meinungsfreiheit einschränken könnten

Im Zuge der Gestaltung von KI-Rahmenbedingungen in den USA und der EU sollten Entscheidungsträger aus den jüngsten Erfahrungen lernen. Die angstgetriebene Erzählung über KI und die letzten Wahlen, in denen KI-generierte Inhalte nur begrenzte Auswirkungen hatten, sollte die politischen Entscheidungsträger davor warnen, hastig Gesetze zu erlassen, die unbeabsichtigt die demokratischen Werte untergraben könnten. Politische Entscheidungsträger, die den bevorstehenden US-Aktionsplan entwerfen, sowie die Landesgesetzgeber und die Behörden, die das EU-KI-Gesetz durchsetzen, sollten kategorische Verbote von politischen Deepfakes vermeiden und darauf verzichten, Vorgaben zu erlassen, die KI-Modelle zwingen könnten, sich an spezifische und willkürliche Werte anzupassen. Stattdessen sollten sie sich auf die Förderung von KI-Literacy und Transparenz konzentrieren, einschließlich der Gewährleistung, dass Forscher Zugang zu Daten haben.

Die Erzählung der KI-Desinformation

Im Jahr 2023 und 2024 äußerten prominente Medien Bedenken über den potenziellen Einfluss von KI auf Wahlen. Im April 2024 warnte die Washington Post ihre Leser: „KI-Deepfakes drohen, globale Wahlen auf den Kopf zu stellen. Niemand kann sie stoppen.“ Die Associated Press teilte ähnliche Bedenken mit und erklärte, dass „KI Desinformation anheizen und EU-Wahlen stören könnte.“ Viele andere angesehene Organisationen wiederholten diese Warnungen, die seit Jahren kursieren. Forscher fanden heraus, dass der Nachrichtenkonsum mit den steigenden Bedenken der Wähler über den Einfluss von KI auf Wahlen verbunden war.

Die öffentliche Besorgnis entsprach den Medienwarnungen. In den Vereinigten Staaten ergab eine Pew-Umfrage im September, dass 57 % der Erwachsenen über parteiübergreifende Unterschiede hinweg sehr besorgt über KI-gesteuerte Desinformation bei Wahlen waren. Ähnlich fürchteten 40 % der europäischen Wähler den Missbrauch von KI während der Wahlen. Die EU-Kommissarin Věra Jourová beschrieb KI-Deepfakes von Politikern bildlich als „eine Atombombe, die den Verlauf der Wählerpräferenzen ändern könnte.”

Mehrere KI-generierte Vorfälle traten tatsächlich auf. Bis zu 20.000 Wähler in New Hampshire erhielten Robocalls mit einer KI-generierten Stimme, die Präsident Biden nachahmte und fälschlicherweise von der Wählerbeteiligung abriet. Der ehemalige Präsident Donald Trump verbreitete ein KI-generiertes Bild von Popstar Taylor Swift, die ihn unterstützte, was dazu führte, dass Swift über soziale Medien auf die Falschinformation reagierte.

Dennoch legen Forschungen nahe, dass die angstgetriebene Erzählung über KI im Jahr 2024 nicht durch Beweise gestützt wurde. Das Alan Turing Institute fand keine signifikanten Beweise dafür, dass KI die Ergebnisse von Wahlen im Vereinigten Königreich, in Frankreich, in Europa oder den USA veränderte. Ebenso kamen Sayash Kapoor und Arvind Narayanan von Princeton durch ihre Analyse aller 78 Fälle aus dem WIRED AI Elections Project zu dem Schluss, dass die gefürchtete „Welle“ von KI-gesteuerter Desinformation weit weniger umfangreich und wirkungsvoll war als erwartet. Die Hälfte des analysierten KI-generierten Inhalts war nicht täuschend, während täuschender Inhalt hauptsächlich bereits voreingenommene Zielgruppen erreichte.

Dies bedeutet jedoch nicht, dass KI-generierte Desinformation überhaupt keinen Einfluss hatte. Obwohl sie das Wählerverhalten nicht signifikant veränderte, könnte KI-generierte Desinformation bestehende Gräben verstärkt haben. Diese Schlussfolgerungen gelten möglicherweise nicht gleichmäßig in jeder Umgebung, insbesondere bei Kommunalwahlen oder in unterschiedlichen nationalen Kontexten, und müssen möglicherweise aktualisiert werden, während sich die Technologie weiterentwickelt. Ein Mangel an Daten und Transparenz stellte ebenfalls erhebliche Herausforderungen bei der Bewertung der Auswirkungen von KI dar. Dennoch sind sich die Experten einig, dass die Ängste, die 2024 geäußert wurden, erheblich übertrieben waren.

Übergreifende Gesetze in den USA und Europa

Im September 2024 hatten neunzehn US-Bundesstaaten Gesetze erlassen, die speziell die Verwendung von KI in politischen Kampagnen anvisierten, und mehrere andere erwogen ähnliche Maßnahmen. Bis März 2025 hatten drei Bundesstaaten (Kalifornien, Minnesota und Texas) die Erstellung oder Verbreitung von Deepfakes in Bezug auf Wahlen unter bestimmten Umständen verboten. Drei weitere Bundesstaaten (Maryland, Massachusetts und New York) erwogen ähnliche Gesetze. Ein Bundesrichter in Kalifornien blockierte ein solches Gesetz aus Gründen der Meinungsfreiheit und kritisierte es als ein „Hammer statt eines Skalpells“ – ein grobes Instrument, das politisches Reden, einschließlich politischer Satire, verfassungswidrig erstickte. Ein ähnliches Gesetz in Minnesota steht momentan unter gerichtlicher Überprüfung.

Die Befürworter der Meinungsfreiheit haben vor den Risiken dieser Gesetze gewarnt. Zum Beispiel kriminalisiert Minnesotas Gesetz die Verbreitung von Deepfakes in der Vorwahlzeit, wenn dies mit der Absicht geschieht, einen Kandidaten zu „verletzen“ oder den Ausgang zu „beeinflussen“ – Begriffe, die beide subjektiv sind und zentral für geschützte politische Äußerungen. Diese Gesetze enthalten häufig keine Ausnahmen für Satire oder Parodie, zwei mächtige Werkzeuge, um Macht zu kritisieren. Die politische Reaktion auf Kamala Harris‘ Parodie-Deepfake verdeutlicht, wie Regierungen solche Gesetze nutzen könnten, um legitime Äußerungen zu ersticken.

In Europa hat die EU das KI-Gesetz verabschiedet, das ursprünglich 2021 vorgeschlagen wurde und die Kennzeichnung und Wasserzeichen für KI-generierte Inhalte fordert. Die Hauptsorge beim KI-Gesetz liegt jedoch in der breiten Pflicht für leistungsstarke KI-Modelle, systemische Risiken zu mindern, einschließlich vager Standards wie der Begrenzung negativer Auswirkungen auf die „Gesellschaft als Ganzes“. Diese problematische Auffassung könnte beispielsweise Inhalte einschränken, die die Regierung kritisieren oder die Sichtweise einer Seite im israelisch-palästinensischen Konflikt unterstützen.

Es ist wichtig zu betonen, dass das grundlegende Recht auf Meinungsfreiheit das Recht schützt, Informationen durch alle Medien zu suchen, zu empfangen und zu verbreiten, einschließlich KI. Dieser Schutz gilt nicht nur für Ideen und Informationen, die willkommen sind oder als harmlos angesehen werden, sondern auch für solche, die möglicherweise beleidigen, schockieren oder stören. Dieser Schutz ist entscheidend, um den Pluralismus, die Toleranz und die Offenheit aufrechtzuerhalten, die für eine demokratische Gesellschaft notwendig sind.

Ein smarter Weg nach vorne

Der bevorstehende US-Aktionsplan für KI sollte auf verfügbaren Beweisen basieren und darauf verzichten, Verbote von politischen Deepfakes zu fördern. Ähnliche Landesgesetze mit vergleichbaren Bestimmungen sollten aufgehoben oder überarbeitet werden. Weniger restriktive Maßnahmen, wie Kennzeichnung und Wasserzeichen, könnten eine Alternative bieten, aber sie werfen dennoch Bedenken hinsichtlich des Ersten Verfassungszusatzes auf. Darüber hinaus ist ihre Wirksamkeit fraglich, da böswillige Akteure diese Sicherheitsvorkehrungen umgehen können.

In der EU muss die Europäische Kommission sicherstellen, dass die Durchsetzung des KI-Gesetzes die Meinungsfreiheit robust schützt. Die Pflicht zur Minderung systemischer Risiken sollte nicht so interpretiert werden, dass Modelle mit spezifischen Sichtweisen übereinstimmen müssen, und muss Raum für umstrittene oder abweichende Inhalte lassen. Dieses Prinzip sollte klar im Verhaltenskodex formuliert werden.

Strukturelle Lösungen sind ebenfalls erforderlich. Zunächst müssen politische Entscheidungsträger und Unternehmen sicherstellen, dass Forscher Zugang zu hochwertigen, zuverlässigen Daten haben, um umfassendere Studien über die Auswirkungen von KI-generierten Inhalten durchzuführen. Verschiedene Interessengruppen haben auf die Einschränkungen hingewiesen, die durch den derzeit eingeschränkten Zugang zu Daten entstehen. Wir können nicht effektiv reagieren, ohne ein klares Verständnis der Landschaft, der Risiken und Chancen zu haben. In dieser Hinsicht sind Transparenzbestimmungen, wie die im EU-Digitaldienstegesetz, ein willkommener Schritt.

Ebenso wichtig ist die Förderung von KI- und Medienkompetenz. Anstatt öffentliche Ängste zu schüren, benötigen wir Bildungsinitiativen, die Einzelpersonen mit Wissen ausstatten. Die Förderung von digitalen Literacy- und kritischen Denkprogrammen sollte in Grund- und Sekundarschulen verpflichtend gemacht und unter Erwachsenen gefördert werden.

Regierungen, Unternehmen und zivilgesellschaftliche Organisationen sollten zusammenarbeiten, um die Öffentlichkeit mit den Fähigkeiten auszustatten, um kritisch mit Inhalten umzugehen. Nicht-restriktive Maßnahmen zur Bekämpfung von Desinformation, wie zentrale und dezentrale Faktenüberprüfung, können ebenfalls helfen, den Nutzern zu ermöglichen, informierte Urteile zu fällen. Die Wirksamkeit und potenzielle Ergänzung beider Ansätze zur Bekämpfung von Desinformation sollte sorgfältig geprüft werden. Schließlich sollten wir nicht erwarten, dass KI tief verwurzelte Probleme, die über die Technologie hinausgehen, wie politische Polarisierung und irreführende Behauptungen von Politikern und Medien, löst.

Schließlich sollten wir uns daran erinnern, dass bestehende rechtliche Instrumente wie Verleumdungs- und Betrugsrecht nach wie vor verfügbar sind und bei Bedarf angewendet werden können.

Effektive Regulierung muss letztendlich evidenzbasiert und klar formuliert sein. Andernfalls riskieren politische Entscheidungsträger, die Meinungsfreiheit, Kreativität und Satire zu untergraben – wesentliche Komponenten eines gesunden demokratischen Diskurses.

More Insights

Gesundheits-AI: Verantwortung und Innovation im Wandel

Die regulatorische Landschaft für KI hat in den letzten sechs Monaten monumentale Veränderungen erfahren, wobei die Rhetorik, die Regulierung als Hindernis für Innovation zu betrachten, stärker...

Widerstand gegen AI-Grundgesetz: Industrie fordert Verzögerung wegen unklarer Regelungen

Die Branche hat Bedenken geäußert, dass die vagen regulatorischen Standards des AI-Grundgesetzes das Wachstum der KI-Industrie behindern könnten. Kürzlich schlug Huang Jeong-a, ein Mitglied der...

KI im Marketing: GDPR und der EU AI Act verstehen

Als Vermarkter oder Geschäftsinhaber wissen wir, wie herausfordernd es sein kann, das richtige Publikum zur richtigen Zeit zu erreichen. Während die Nutzung persönlicher Daten für gezielte Werbung...

Die Risikopyramide des EU AI Gesetzes

Eines der bestimmenden Merkmale des EU AI Act ist sein risikobasierter Ansatz. KI-Systeme werden nicht gleich behandelt – wie sie reguliert werden, hängt von dem Risiko ab, das sie für Sicherheit...

Agentic AI: Bestehende Regeln für neue Technologien nutzen

AI-Unternehmen behaupten, dass bestehende Sicherheitsprozesse und bestehende staatliche sowie bundesstaatliche Vorschriften Unternehmen und Verbraucher schützen können, die mit agentic AI beginnen...

EU verhängt Verbot für KI-gestützte Software in Online-Meetings

Die Europäische Kommission hat überraschend die Nutzung von KI-gestützten virtuellen Assistenten während Online-Meetings verboten. Diese Entscheidung könnte mit Bedenken hinsichtlich Datenschutz...

Vertrauen Gestalten: Produktdesign für Verantwortungsvolle KI

Die rasante Integration von künstlicher Intelligenz (KI) in die alltägliche Technologie bringt enorme Chancen sowie bedeutende ethische Herausforderungen mit sich. Produktdesigner stehen an der...

Wege zur KI-Regulierung und technischen Interoperabilität

Die gegenwärtige Governance-Landschaft der KI ähnelt einem Flickenteppich aus fragmentierten Vorschriften und Standards, die die globale Einführung von KI-Systemen zunehmend erschweren. Diese...