Construyendo Confianza en los Medios Sintéticos a través de la Gobernanza Responsable de IA

Construyendo Confianza en los Medios Sintéticos a Través de la Gobernanza Responsable de la IA

La confianza en los ecosistemas de información pública es crucial para el debate democrático y el crecimiento socioeconómico. Mientras que los medios digitales han expandido el acceso a la información, también han permitido la difusión de desinformación y mala información, que se ve agravada por la IA generativa. Aunque los medios sintéticos producidos con IA generativa, incluyendo los deepfakes, pueden ser utilizados para propósitos constructivos en áreas como la educación y el entretenimiento, su uso indebido plantea preocupaciones significativas.

A diferencia de la desinformación tradicional, los medios sintéticos a menudo parecen convincentemente reales y son más difíciles de identificar. Estudios indican que muchas personas perciben el contenido falso generado por IA como genuino. El Foro Económico Mundial advierte que las falsedades impulsadas por IA, que pueden erosionar la democracia y profundizar la polarización social, representan un riesgo inmediato para la economía global. India es más vulnerable a esto debido a su baja alfabetización digital y la disminución de la legitimidad de los medios tradicionales.

Regulación y Desafíos

La regulación destinada a abordar los daños de los medios sintéticos está evolucionando a nivel global. La Ley de IA de la Unión Europea clasifica a los deepfakes como una categoría de «riesgo limitado», requiriendo divulgaciones de transparencia. En los Estados Unidos, se han propuesto legislaciones que abordan problemas específicos, como el DEFIANCE Act para deepfakes explícitos no consensuales y el No AI FRAUD Act para proteger las imágenes personales. La Take It Down Act, que fue firmada por el presidente Donald Trump el mes pasado, busca asegurar la eliminación de medios sintéticos íntimos no consensuales.

Las medidas emergentes de regulación se centran en la eliminación de contenido de plataformas de redes sociales y la identificación de contenido sintético. Sin embargo, estas medidas por sí solas no abordan la creación de medios sintéticos maliciosos. Por ejemplo, una mujer representada en contenido pornográfico generado por IA puede experimentar vergüenza y objeción sexual, incluso si el contenido incluye una advertencia de que es sintético.

Desafíos Operativos

Confiar únicamente en herramientas de etiquetado enfrenta múltiples desafíos operativos. Primero, las herramientas de etiquetado a menudo carecen de precisión. Esto crea un paradoja: etiquetas inexactas pueden legitimar medios dañinos, mientras que el contenido sin etiqueta puede parecer confiable. Además, los usuarios pueden no considerar ciertos cambios, como ajustes de color, como manipulación, lo que añade complejidad a las estrategias de moderación.

Los casos de uso de medios sintéticos existen en un espectro, y la presencia de contenido generado por IA y humano añade incertidumbre en las estrategias de moderación. Esto puede llevar a las plataformas a adoptar enfoques excesivamente cautelosos para evitar responsabilidades legales.

Privacidad y Responsabilidad

Los mecanismos de gobernanza de los medios sintéticos deben ser específicos al contexto, ya que la legalidad y adecuación del contenido generado por IA a menudo dependen de cómo y dónde se utiliza. Un marco regulador sensible al contexto sería proporcional al impacto potencial. Esto requiere desarrollar clasificaciones de riesgo basadas en evidencia y principios de daño a través de procesos colaborativos.

La responsabilidad debe activarse ante el incumplimiento de salvaguardas fundamentales. Esto es crucial, dado que aproximadamente un tercio de las herramientas de IA generativa permiten la creación de medios íntimos.

Desarrollo de un Marco Colaborativo

Depender únicamente de compromisos voluntarios crea problemas significativos, ya que no establece obligaciones vinculantes y deja las operaciones de los sistemas de IA opacas. Se sugiere que un organismo de supervisión independiente, compuesto por representantes de diversos sectores, supervise el cumplimiento y monitoreo de estas herramientas.

El marco también debe reconocer los desbalances de poder entre plataformas y usuarios, especialmente tras los daños. Para mitigar esto, la sociedad civil debería tener la capacidad legal de apoyar y representar a las personas afectadas en la reclamación de compensación o reparación.

En conclusión, la gobernanza de los medios sintéticos debe ser adaptativa y colaborativa, involucrando a múltiples partes interesadas para establecer límites claros sobre su uso, asegurando así tanto el avance tecnológico como la protección de los usuarios.

More Insights

Política de IA en Universidades y CEGEPs de Quebec

El gobierno de Quebec ha lanzado una nueva política de inteligencia artificial para universidades y CEGEPs, con directrices que abordan el uso ético y la implementación de la IA en la educación...

Implementación de la Ley de IA en Alemania

Las autoridades existentes en Alemania asumirán la responsabilidad de supervisar el cumplimiento de las empresas con la Ley de IA de la UE, con un papel mejorado para la Agencia Federal de Redes...

Gobernanza de IA en la Economía de Cero Confianza

En 2025, la gobernanza de la inteligencia artificial se ha vuelto esencial en una economía de confianza cero, donde las empresas deben verificar continuamente la seguridad y la ética de sus sistemas...

Marco de IA del gobierno: ¿Secretaría técnica en lugar de regulador?

El próximo marco de gobernanza sobre inteligencia artificial puede contar con un "secretariado técnico" para coordinar políticas de IA entre departamentos gubernamentales, en lugar de un regulador...

Seguridad y Sostenibilidad en la Innovación de IA para el Mundo Global

La seguridad y la protección de la inteligencia artificial son fundamentales para fomentar la innovación en los países de la mayoría global. Invertir en estas áreas no debe verse como un obstáculo...

Enfoques de gobernanza de IA en ASEAN: retos y oportunidades

ASEAN ha optado por un enfoque de gobernanza de IA basado en principios voluntarios, permitiendo a los estados miembros adoptar diferentes caminos en sus políticas de IA. Sin embargo, esto podría...

Italia lidera la UE con una ley integral sobre el uso de la inteligencia artificial

Italia se ha convertido en el primer país de la UE en aprobar una ley integral que regula el uso de la inteligencia artificial, imponiendo penas de prisión a quienes utilicen la tecnología para causar...

Implementación Ética de la IA en Ucrania: Regulaciones y Desafíos

En junio, 14 empresas de TI ucranianas crearon una organización autorreguladora para apoyar enfoques éticos en la implementación de la inteligencia artificial en Ucrania. Esta organización tiene como...