La Regulación de la UE Acelera la Censura de Conservadores con la Nueva Normativa de IA
Recientemente, la Unión Europea (UE) ha implementado nuevos estándares de “seguridad y protección” que obligan a las empresas tecnológicas a censurar y moderar contenido en modelos de inteligencia artificial (IA) de propósito general. Esta medida busca prevenir la “odio” y la “discriminación”.
Normativa General de IA
La Comisión de la UE ha introducido el Código de Práctica para la IA de Propósito General, que exige a los desarrolladores y empresas tecnológicas garantizar que los modelos de IA sean “seguros”. Esto incluye la censura de contenido que se considere “odioso, radicalizante o falso”.
Esta nueva regulación tiene el potencial de acelerar la censura y el control social en todas las plataformas tecnológicas principales. Junto con la Ley de Servicios Digitales de la UE, se espera que conduzcan a la implementación de nuevas herramientas de censura automatizadas en las plataformas tecnológicas.
Definición de Manipulación Dañina
Un aspecto destacado en los nuevos estándares es el concepto de “manipulación dañina”, que parece definirse en referencia a narrativas políticas populistas que se oponen a las políticas de género y migración de la UE. Esta regulación define la “manipulación dañina” como “la distorsión estratégica del comportamiento humano o creencias” al dirigirse a grandes poblaciones o tomadores de decisiones a través de la persuasión, el engaño o el targeting personalizado.
La regulación también menciona que esta manipulación “podría socavar los procesos democráticos y los derechos fundamentales”, haciendo especial énfasis en características protegidas como el estado migratorio o la identidad de género y orientación sexual.
Identificación de Riesgos Sistémicos
Las empresas tecnológicas deben identificar un amplio conjunto de “riesgos sistémicos” en categorías como la salud pública, seguridad, derechos fundamentales y la sociedad en general. Entre los peligros específicos identificados se encuentran la “desalineación con los valores humanos” y “sesgo discriminatorio”.
Una vez identificados, los desarrolladores y empresas deben analizar y mitigar dichos riesgos a través de la “monitorización y filtrado” de las entradas y/o salidas del modelo.
Herramienta Voluntaria
Los nuevos estándares son considerados una “herramienta voluntaria” diseñada para demostrar que las empresas tecnológicas cumplen con la legislación de la UE sobre inteligencia artificial, conocida como la Ley de IA. Aunque son solo voluntarios, las compañías que adopten estos estándares serán consideradas en cumplimiento de la Ley de IA, lo que les proporcionará mayor certeza legal.
Implicaciones Futuras
Estos estándares son principalmente prospectivos, lo que significa que no están orientados a resolver problemas existentes en los modelos de IA, sino a asegurar que los futuros modelos cumplan con dichas normativas desde su diseño.
Esta regulación se suma a las exhaustivas medidas de censura que las empresas tecnológicas ya deben adoptar bajo la Ley de Servicios Digitales de la UE, que exige censurar contenido de acuerdo con las prioridades de la Comisión de la UE.
La Ley de Servicios Digitales ya requería que las grandes empresas tecnológicas censuraran a través del Código de Conducta sobre Desinformación, que pasó de ser una regulación voluntaria a ser vinculante con la Ley de Servicios Digitales de 2025.
Críticas a la Regulación
El Vicepresidente de EE.UU., J.D. Vance, criticó las reglas de censura de la Ley de Servicios Digitales de la UE durante una Cumbre de IA en París en febrero de este año. En sus declaraciones, afirmó que “la IA debe permanecer libre de sesgos ideológicos” y advirtió que la IA estadounidense no debe convertirse en una herramienta para la censura autoritaria.