La UE Acelera la Censura de Conservadores con Regulación de IA

La Regulación de la UE Acelera la Censura de Conservadores con la Nueva Normativa de IA

Recientemente, la Unión Europea (UE) ha implementado nuevos estándares de “seguridad y protección” que obligan a las empresas tecnológicas a censurar y moderar contenido en modelos de inteligencia artificial (IA) de propósito general. Esta medida busca prevenir la “odio” y la “discriminación”.

Normativa General de IA

La Comisión de la UE ha introducido el Código de Práctica para la IA de Propósito General, que exige a los desarrolladores y empresas tecnológicas garantizar que los modelos de IA sean “seguros”. Esto incluye la censura de contenido que se considere “odioso, radicalizante o falso”.

Esta nueva regulación tiene el potencial de acelerar la censura y el control social en todas las plataformas tecnológicas principales. Junto con la Ley de Servicios Digitales de la UE, se espera que conduzcan a la implementación de nuevas herramientas de censura automatizadas en las plataformas tecnológicas.

Definición de Manipulación Dañina

Un aspecto destacado en los nuevos estándares es el concepto de “manipulación dañina”, que parece definirse en referencia a narrativas políticas populistas que se oponen a las políticas de género y migración de la UE. Esta regulación define la “manipulación dañina” como “la distorsión estratégica del comportamiento humano o creencias” al dirigirse a grandes poblaciones o tomadores de decisiones a través de la persuasión, el engaño o el targeting personalizado.

La regulación también menciona que esta manipulación “podría socavar los procesos democráticos y los derechos fundamentales”, haciendo especial énfasis en características protegidas como el estado migratorio o la identidad de género y orientación sexual.

Identificación de Riesgos Sistémicos

Las empresas tecnológicas deben identificar un amplio conjunto de “riesgos sistémicos” en categorías como la salud pública, seguridad, derechos fundamentales y la sociedad en general. Entre los peligros específicos identificados se encuentran la “desalineación con los valores humanos” y “sesgo discriminatorio”.

Una vez identificados, los desarrolladores y empresas deben analizar y mitigar dichos riesgos a través de la “monitorización y filtrado” de las entradas y/o salidas del modelo.

Herramienta Voluntaria

Los nuevos estándares son considerados una “herramienta voluntaria” diseñada para demostrar que las empresas tecnológicas cumplen con la legislación de la UE sobre inteligencia artificial, conocida como la Ley de IA. Aunque son solo voluntarios, las compañías que adopten estos estándares serán consideradas en cumplimiento de la Ley de IA, lo que les proporcionará mayor certeza legal.

Implicaciones Futuras

Estos estándares son principalmente prospectivos, lo que significa que no están orientados a resolver problemas existentes en los modelos de IA, sino a asegurar que los futuros modelos cumplan con dichas normativas desde su diseño.

Esta regulación se suma a las exhaustivas medidas de censura que las empresas tecnológicas ya deben adoptar bajo la Ley de Servicios Digitales de la UE, que exige censurar contenido de acuerdo con las prioridades de la Comisión de la UE.

La Ley de Servicios Digitales ya requería que las grandes empresas tecnológicas censuraran a través del Código de Conducta sobre Desinformación, que pasó de ser una regulación voluntaria a ser vinculante con la Ley de Servicios Digitales de 2025.

Críticas a la Regulación

El Vicepresidente de EE.UU., J.D. Vance, criticó las reglas de censura de la Ley de Servicios Digitales de la UE durante una Cumbre de IA en París en febrero de este año. En sus declaraciones, afirmó que “la IA debe permanecer libre de sesgos ideológicos” y advirtió que la IA estadounidense no debe convertirse en una herramienta para la censura autoritaria.

More Insights

Política de IA en Universidades y CEGEPs de Quebec

El gobierno de Quebec ha lanzado una nueva política de inteligencia artificial para universidades y CEGEPs, con directrices que abordan el uso ético y la implementación de la IA en la educación...

Implementación de la Ley de IA en Alemania

Las autoridades existentes en Alemania asumirán la responsabilidad de supervisar el cumplimiento de las empresas con la Ley de IA de la UE, con un papel mejorado para la Agencia Federal de Redes...

Gobernanza de IA en la Economía de Cero Confianza

En 2025, la gobernanza de la inteligencia artificial se ha vuelto esencial en una economía de confianza cero, donde las empresas deben verificar continuamente la seguridad y la ética de sus sistemas...

Marco de IA del gobierno: ¿Secretaría técnica en lugar de regulador?

El próximo marco de gobernanza sobre inteligencia artificial puede contar con un "secretariado técnico" para coordinar políticas de IA entre departamentos gubernamentales, en lugar de un regulador...

Seguridad y Sostenibilidad en la Innovación de IA para el Mundo Global

La seguridad y la protección de la inteligencia artificial son fundamentales para fomentar la innovación en los países de la mayoría global. Invertir en estas áreas no debe verse como un obstáculo...

Enfoques de gobernanza de IA en ASEAN: retos y oportunidades

ASEAN ha optado por un enfoque de gobernanza de IA basado en principios voluntarios, permitiendo a los estados miembros adoptar diferentes caminos en sus políticas de IA. Sin embargo, esto podría...

Italia lidera la UE con una ley integral sobre el uso de la inteligencia artificial

Italia se ha convertido en el primer país de la UE en aprobar una ley integral que regula el uso de la inteligencia artificial, imponiendo penas de prisión a quienes utilicen la tecnología para causar...

Implementación Ética de la IA en Ucrania: Regulaciones y Desafíos

En junio, 14 empresas de TI ucranianas crearon una organización autorreguladora para apoyar enfoques éticos en la implementación de la inteligencia artificial en Ucrania. Esta organización tiene como...