EU-Regulierung verstärkt Zensur von Konservativen durch KI

EU verstärkt Zensur von Konservativen durch KI-Regulierung

Am 18. Juli 2025 kündigte die EU neue „Sicherheits- und Schutzstandards“ an, die Technologieunternehmen verpflichten, Inhalte auf allgemeinen künstlichen Intelligenz (KI)-Modellen zu zensieren und zu moderieren, um „Hass“ und „Diskriminierung“ zu verhindern.

Allgemeine Standards für KI

Der Allgemeine KI-Verhaltenskodex der EU fordert KI-Entwickler und Technologieunternehmen auf, sicherzustellen, dass allgemeine KI-Modelle „sicher“ sind. Dies geschieht unter anderem durch die Zensur von Inhalten, die als „hasserfüllt, radikalisierend oder falsch“ gelten.

Diese neue Regulierung hat das Potenzial, die Zensur und soziale Kontrolle auf allen großen Technologieplattformen erheblich zu verstärken. Zusammen mit dem EU Digital Services Act wird erwartet, dass die Regulierung zu neuen selbstauferlegten automatisierten KI-Zensurwerkzeugen auf allen großen Technologieplattformen führt.

Definition von „schädlicher Manipulation“

Ein Abschnitt der neu veröffentlichten Standards hebt schädliche Manipulation als spezifisches Risiko hervor und scheint diese durch populistische politische Narrative gegen die transgender-Politik der EU und Programme zur Masseneinwanderung zu definieren.

Unter „schädlicher Manipulation“ versteht die Regulierung „die strategische Verzerrung des menschlichen Verhaltens oder der Überzeugungen durch gezielte Ansprache großer Bevölkerungsgruppen oder entscheidungsrelevanter Akteure durch Überzeugung, Täuschung oder personalisierte Ansprache.“ Dies könnte laut Regulierung „demokratische Prozesse und fundamentale Rechte untergraben.“ Geschützte Merkmale im Kontext der EU beziehen sich weitgehend auf Themen wie Migrationsstatus oder sexuelle Orientierung und Geschlechtsidentität.

Identifikation und Analyse von Risiken

Die Regulierung verpflichtet Technologieunternehmen zunächst dazu, ein breites Spektrum potenzieller systemischer Risiken zu identifizieren, die unter die Kategorien öffentliche Gesundheit, Sicherheit, öffentliche Ordnung, fundamentale Rechte und die Gesellschaft als Ganzes fallen. Ein weiteres spezifisches Risiko, das in der Regulierung identifiziert wird, ist „Fehlanpassung an menschliche Werte (z.B. Missachtung fundamentaler Rechte)“ und „diskriminierende Verzerrung.“

Sobald solche Risiken identifiziert sind, müssen KI-Entwickler und Technologieunternehmen diese analysieren und potenzielle systemische Risiken durch „Überwachung und Filterung der Eingaben und/oder Ausgaben des Modells“ mindern.

Freiwillige Standards und zukünftige Compliance

Die Standards sind ein „freiwilliges Werkzeug“, das zeigen soll, dass Technologieunternehmen mit der EU-Gesetzgebung zur künstlichen Intelligenz, bekannt als AI Act, übereinstimmen. Obwohl sie nur freiwillig sind, werden Unternehmen, die die Standards übernehmen, als konform mit dem AI Act gelten. „Dies wird ihre administrative Last verringern und ihnen mehr rechtliche Sicherheit bieten, als wenn sie die Konformität auf andere Weise nachweisen“, so die EU-Kommission.

Die Standards sind überwiegend prospektiv. Sie sind weniger darauf ausgelegt, bestehende Probleme in KI-Modellen anzugehen, sondern sollen sicherstellen, dass zukünftige Modelle von vornherein konform mit den Standards sind, sodass die Ausgaben von KI-Modellen den Standards entsprechen.

Zusätzliche Zensurmaßnahmen

Die neue Regulierung kommt zusätzlich zu bereits erschöpfenden Zensurmaßnahmen, die Technologieunternehmen unter dem EU Digital Services Act einhalten müssen. Der EU-Kommission wurde bereits auferlegt, große Technologieunternehmen durch den Verhaltenskodex gegen Desinformation zur Zensur zu verpflichten. Als er 2018 erstmals angenommen wurde, war er nur eine freiwillige Regulierung, ist jedoch nun bindend unter dem im Jahr 2025 verabschiedeten EU Digital Services Act.

Der EU Digital Services Act verpflichtet große Online-Plattformen, Inhalte gemäß den Prioritäten der EU-Kommission zu zensieren. Die Desinformationsregulierung verlangt ausdrücklich von Technologieunternehmen, Inhalte zu zensieren und offizielle EU-Propaganda durch Inhaltsmoderation, Demonetarisierung, Faktenprüfung und Gegeninformation zu fördern.

Kritik an den Zensurregeln

Der US-Vizepräsident J.D. Vance kritisierte die Zensurregeln des EU Digital Services Act auf einem KI-Gipfel in Paris im Februar dieses Jahres.

„Wir sind der festen Überzeugung, dass KI frei von ideologischen Vorurteilen bleiben muss“, sagte er. „Und dass amerikanische KI nicht zu einem Werkzeug für autoritäre Zensur gemacht wird.“ Er warnte auch vor dem EU AI Act und dessen möglichen Auswirkungen auf die Innovation.

More Insights

Kollaboration für eine gerechte KI-Zukunft

Ein KI-Beamter aus China hat den Aufbau eines kollaborativen und multi-governance Ökosystems gefordert, um KI als öffentliches Gut zu fördern und die Entwicklungslücke zu schließen. Dies erfordere...

Risikomanagement im EU AI Act: Ein Leitfaden für Anbieter

Das EU-Künstliche-Intelligenz-Gesetz, die umfassendste Regulierung für KI, schafft einen Rahmen mit Regeln für risikobehaftete KI-Systeme zum Schutz von Gesundheit, Sicherheit und grundlegenden...

Vorreiter im Umgang mit dem EU KI-Gesetz

Mit der Einführung des EU-Künstliche-Intelligenz-Gesetzes stehen Unternehmen vor der Herausforderung, ihre KI-Systeme konsistent und genau zu klassifizieren. Eine standardisierte...

Schatten-KI-Agenten: Unterschätzte Risiken in der KI-Governance

Dalen betont, dass Unternehmen spezifische Governance für die neue Generation von KI-Tools benötigen, um sicherzustellen, dass sie verantwortungsvoll eingesetzt werden und nachhaltigen Wert liefern...

Wichtige Compliance-Aspekte des EU AI Acts bis August 2025

Der EU AI Act stellt den weltweit ersten umfassenden rechtlichen Rahmen für die Nutzung und Entwicklung von KI dar. Die Umsetzung wird ab dem 2. August 2025 verbindlich, wobei Verstöße mit hohen...

Künstliche Intelligenz und Unternehmensführung: Ein ethischer Imperativ

Künstliche Intelligenz (KI) ist nicht nur ein operativer Assistent, sondern ein strategischer Störfaktor, der die Art und Weise, wie Arbeit geleistet wird, grundlegend verändert. Führungskräfte müssen...

Künstliche Intelligenz und Unternehmensführung: Ein ethischer Imperativ

Künstliche Intelligenz (KI) ist nicht nur ein operativer Assistent, sondern ein strategischer Störfaktor, der die Art und Weise, wie Arbeit geleistet wird, grundlegend verändert. Führungskräfte müssen...