EU verstärkt Zensur von Konservativen durch KI-Regulierung
Am 18. Juli 2025 kündigte die EU neue „Sicherheits- und Schutzstandards“ an, die Technologieunternehmen verpflichten, Inhalte auf allgemeinen künstlichen Intelligenz (KI)-Modellen zu zensieren und zu moderieren, um „Hass“ und „Diskriminierung“ zu verhindern.
Allgemeine Standards für KI
Der Allgemeine KI-Verhaltenskodex der EU fordert KI-Entwickler und Technologieunternehmen auf, sicherzustellen, dass allgemeine KI-Modelle „sicher“ sind. Dies geschieht unter anderem durch die Zensur von Inhalten, die als „hasserfüllt, radikalisierend oder falsch“ gelten.
Diese neue Regulierung hat das Potenzial, die Zensur und soziale Kontrolle auf allen großen Technologieplattformen erheblich zu verstärken. Zusammen mit dem EU Digital Services Act wird erwartet, dass die Regulierung zu neuen selbstauferlegten automatisierten KI-Zensurwerkzeugen auf allen großen Technologieplattformen führt.
Definition von „schädlicher Manipulation“
Ein Abschnitt der neu veröffentlichten Standards hebt schädliche Manipulation als spezifisches Risiko hervor und scheint diese durch populistische politische Narrative gegen die transgender-Politik der EU und Programme zur Masseneinwanderung zu definieren.
Unter „schädlicher Manipulation“ versteht die Regulierung „die strategische Verzerrung des menschlichen Verhaltens oder der Überzeugungen durch gezielte Ansprache großer Bevölkerungsgruppen oder entscheidungsrelevanter Akteure durch Überzeugung, Täuschung oder personalisierte Ansprache.“ Dies könnte laut Regulierung „demokratische Prozesse und fundamentale Rechte untergraben.“ Geschützte Merkmale im Kontext der EU beziehen sich weitgehend auf Themen wie Migrationsstatus oder sexuelle Orientierung und Geschlechtsidentität.
Identifikation und Analyse von Risiken
Die Regulierung verpflichtet Technologieunternehmen zunächst dazu, ein breites Spektrum potenzieller systemischer Risiken zu identifizieren, die unter die Kategorien öffentliche Gesundheit, Sicherheit, öffentliche Ordnung, fundamentale Rechte und die Gesellschaft als Ganzes fallen. Ein weiteres spezifisches Risiko, das in der Regulierung identifiziert wird, ist „Fehlanpassung an menschliche Werte (z.B. Missachtung fundamentaler Rechte)“ und „diskriminierende Verzerrung.“
Sobald solche Risiken identifiziert sind, müssen KI-Entwickler und Technologieunternehmen diese analysieren und potenzielle systemische Risiken durch „Überwachung und Filterung der Eingaben und/oder Ausgaben des Modells“ mindern.
Freiwillige Standards und zukünftige Compliance
Die Standards sind ein „freiwilliges Werkzeug“, das zeigen soll, dass Technologieunternehmen mit der EU-Gesetzgebung zur künstlichen Intelligenz, bekannt als AI Act, übereinstimmen. Obwohl sie nur freiwillig sind, werden Unternehmen, die die Standards übernehmen, als konform mit dem AI Act gelten. „Dies wird ihre administrative Last verringern und ihnen mehr rechtliche Sicherheit bieten, als wenn sie die Konformität auf andere Weise nachweisen“, so die EU-Kommission.
Die Standards sind überwiegend prospektiv. Sie sind weniger darauf ausgelegt, bestehende Probleme in KI-Modellen anzugehen, sondern sollen sicherstellen, dass zukünftige Modelle von vornherein konform mit den Standards sind, sodass die Ausgaben von KI-Modellen den Standards entsprechen.
Zusätzliche Zensurmaßnahmen
Die neue Regulierung kommt zusätzlich zu bereits erschöpfenden Zensurmaßnahmen, die Technologieunternehmen unter dem EU Digital Services Act einhalten müssen. Der EU-Kommission wurde bereits auferlegt, große Technologieunternehmen durch den Verhaltenskodex gegen Desinformation zur Zensur zu verpflichten. Als er 2018 erstmals angenommen wurde, war er nur eine freiwillige Regulierung, ist jedoch nun bindend unter dem im Jahr 2025 verabschiedeten EU Digital Services Act.
Der EU Digital Services Act verpflichtet große Online-Plattformen, Inhalte gemäß den Prioritäten der EU-Kommission zu zensieren. Die Desinformationsregulierung verlangt ausdrücklich von Technologieunternehmen, Inhalte zu zensieren und offizielle EU-Propaganda durch Inhaltsmoderation, Demonetarisierung, Faktenprüfung und Gegeninformation zu fördern.
Kritik an den Zensurregeln
Der US-Vizepräsident J.D. Vance kritisierte die Zensurregeln des EU Digital Services Act auf einem KI-Gipfel in Paris im Februar dieses Jahres.
„Wir sind der festen Überzeugung, dass KI frei von ideologischen Vorurteilen bleiben muss“, sagte er. „Und dass amerikanische KI nicht zu einem Werkzeug für autoritäre Zensur gemacht wird.“ Er warnte auch vor dem EU AI Act und dessen möglichen Auswirkungen auf die Innovation.