EU-Regulierung verstärkt Zensur von Konservativen durch KI

EU verstärkt Zensur von Konservativen durch KI-Regulierung

Am 18. Juli 2025 kündigte die EU neue „Sicherheits- und Schutzstandards“ an, die Technologieunternehmen verpflichten, Inhalte auf allgemeinen künstlichen Intelligenz (KI)-Modellen zu zensieren und zu moderieren, um „Hass“ und „Diskriminierung“ zu verhindern.

Allgemeine Standards für KI

Der Allgemeine KI-Verhaltenskodex der EU fordert KI-Entwickler und Technologieunternehmen auf, sicherzustellen, dass allgemeine KI-Modelle „sicher“ sind. Dies geschieht unter anderem durch die Zensur von Inhalten, die als „hasserfüllt, radikalisierend oder falsch“ gelten.

Diese neue Regulierung hat das Potenzial, die Zensur und soziale Kontrolle auf allen großen Technologieplattformen erheblich zu verstärken. Zusammen mit dem EU Digital Services Act wird erwartet, dass die Regulierung zu neuen selbstauferlegten automatisierten KI-Zensurwerkzeugen auf allen großen Technologieplattformen führt.

Definition von „schädlicher Manipulation“

Ein Abschnitt der neu veröffentlichten Standards hebt schädliche Manipulation als spezifisches Risiko hervor und scheint diese durch populistische politische Narrative gegen die transgender-Politik der EU und Programme zur Masseneinwanderung zu definieren.

Unter „schädlicher Manipulation“ versteht die Regulierung „die strategische Verzerrung des menschlichen Verhaltens oder der Überzeugungen durch gezielte Ansprache großer Bevölkerungsgruppen oder entscheidungsrelevanter Akteure durch Überzeugung, Täuschung oder personalisierte Ansprache.“ Dies könnte laut Regulierung „demokratische Prozesse und fundamentale Rechte untergraben.“ Geschützte Merkmale im Kontext der EU beziehen sich weitgehend auf Themen wie Migrationsstatus oder sexuelle Orientierung und Geschlechtsidentität.

Identifikation und Analyse von Risiken

Die Regulierung verpflichtet Technologieunternehmen zunächst dazu, ein breites Spektrum potenzieller systemischer Risiken zu identifizieren, die unter die Kategorien öffentliche Gesundheit, Sicherheit, öffentliche Ordnung, fundamentale Rechte und die Gesellschaft als Ganzes fallen. Ein weiteres spezifisches Risiko, das in der Regulierung identifiziert wird, ist „Fehlanpassung an menschliche Werte (z.B. Missachtung fundamentaler Rechte)“ und „diskriminierende Verzerrung.“

Sobald solche Risiken identifiziert sind, müssen KI-Entwickler und Technologieunternehmen diese analysieren und potenzielle systemische Risiken durch „Überwachung und Filterung der Eingaben und/oder Ausgaben des Modells“ mindern.

Freiwillige Standards und zukünftige Compliance

Die Standards sind ein „freiwilliges Werkzeug“, das zeigen soll, dass Technologieunternehmen mit der EU-Gesetzgebung zur künstlichen Intelligenz, bekannt als AI Act, übereinstimmen. Obwohl sie nur freiwillig sind, werden Unternehmen, die die Standards übernehmen, als konform mit dem AI Act gelten. „Dies wird ihre administrative Last verringern und ihnen mehr rechtliche Sicherheit bieten, als wenn sie die Konformität auf andere Weise nachweisen“, so die EU-Kommission.

Die Standards sind überwiegend prospektiv. Sie sind weniger darauf ausgelegt, bestehende Probleme in KI-Modellen anzugehen, sondern sollen sicherstellen, dass zukünftige Modelle von vornherein konform mit den Standards sind, sodass die Ausgaben von KI-Modellen den Standards entsprechen.

Zusätzliche Zensurmaßnahmen

Die neue Regulierung kommt zusätzlich zu bereits erschöpfenden Zensurmaßnahmen, die Technologieunternehmen unter dem EU Digital Services Act einhalten müssen. Der EU-Kommission wurde bereits auferlegt, große Technologieunternehmen durch den Verhaltenskodex gegen Desinformation zur Zensur zu verpflichten. Als er 2018 erstmals angenommen wurde, war er nur eine freiwillige Regulierung, ist jedoch nun bindend unter dem im Jahr 2025 verabschiedeten EU Digital Services Act.

Der EU Digital Services Act verpflichtet große Online-Plattformen, Inhalte gemäß den Prioritäten der EU-Kommission zu zensieren. Die Desinformationsregulierung verlangt ausdrücklich von Technologieunternehmen, Inhalte zu zensieren und offizielle EU-Propaganda durch Inhaltsmoderation, Demonetarisierung, Faktenprüfung und Gegeninformation zu fördern.

Kritik an den Zensurregeln

Der US-Vizepräsident J.D. Vance kritisierte die Zensurregeln des EU Digital Services Act auf einem KI-Gipfel in Paris im Februar dieses Jahres.

„Wir sind der festen Überzeugung, dass KI frei von ideologischen Vorurteilen bleiben muss“, sagte er. „Und dass amerikanische KI nicht zu einem Werkzeug für autoritäre Zensur gemacht wird.“ Er warnte auch vor dem EU AI Act und dessen möglichen Auswirkungen auf die Innovation.

More Insights

EU AI-Gesetz und Australiens Sicherheitsrahmen: Ein globaler Überblick

Laut dem DJ Piper Technology’s Legal Edge-Blog müssen globale Unternehmen, die künstliche Intelligenz einsetzen, die internationalen KI-Vorschriften verstehen. Die Europäische Union und Australien...

Quebecs KI-Politik für Hochschulen und Cégeps

Die Regierung von Quebec hat eine neue KI-Richtlinie für Universitäten und CÉGEPs veröffentlicht, um die Nutzung von generativer KI im Hochschulbereich zu regeln. Die Richtlinien betonen die...

Deutschland setzt AI Act um: Neue Regelungen für KI-Compliance

Die bestehenden Regulierungsbehörden werden die Verantwortung für die Überwachung der Einhaltung des EU-AI-Gesetzes durch deutsche Unternehmen übernehmen, wobei der Bundesnetzagentur (BNetzA) eine...

Weltführer und KI-Pioniere fordern verbindliche globale AI-Schutzmaßnahmen bis 2026

Weltführer und KI-Pioniere fordern die UN auf, bis 2026 verbindliche globale Sicherheitsvorkehrungen für KI zu schaffen. Diese Initiative zielt darauf ab, die Risiken und Herausforderungen, die mit...

Künstliche Intelligenz im Zeitalter des Zero Trust: Governance neu denken

Im Jahr 2025 sehen wir, wie KI von einem bloßen Schlagwort zu einer praktischen Anwendung in verschiedenen Bereichen wird. Effektive Governance in einer Zero-Trust-Wirtschaft ist entscheidend, um...

Neue AI-Strategie: Technisches Sekretariat statt Regulator

Der bevorstehende Governance-Rahmen für künstliche Intelligenz könnte ein "technisches Sekretariat" umfassen, das die KI-Politik zwischen den Regierungsbehörden koordiniert. Dies stellt einen Wechsel...

KI-Sicherheit als Motor für Innovation in Schwellenländern

Die Diskussion über KI-Sicherheit und -Schutz wird oft als Hindernis für Innovationen wahrgenommen, insbesondere in Ländern der Global Majority. Die bevorstehende AI Impact Summit in Indien im Februar...

AI-Governance in ASEAN: Auf dem Weg zu einem einheitlichen Ansatz?

Wenn es um KI geht, legisliert Europa, während Amerika auf marktorientierte Innovation setzt und China zentral steuert. ASEAN hingegen setzt auf einen konsensorientierten Ansatz, der eine freiwillige...