Transparencia en Contenido Generado por IA: Nueva Guía de Prácticas

AI Office Publica su Primer Código de Práctica sobre la Transparencia del Contenido Generado por IA

La oficina de IA de la UE ha publicado su primer borrador del Código de Práctica sobre la transparencia del contenido generado por IA, que proporciona pautas voluntarias para marcar y etiquetar la salida de IA (audio, imagen, video o texto), asegurando que los usuarios sepan cuándo el contenido es generado o manipulado por IA, en aplicación de las obligaciones encontradas bajo el artículo 50 de la Ley de IA, que entrará en vigor en agosto de 2026.

Obligaciones de los Proveedores de Sistemas de IA

Los proveedores de sistemas de IA deben asegurarse de que las salidas estén marcadas en un formato legible por máquina y detectables como generadas o manipuladas artificialmente. El contenido generado o manipulado por IA debe estar marcado con una marca de agua imperceptible.

Las marcas en el contenido generado por IA deben ser preservadas y no alteradas donde dicho contenido se use como entrada y posteriormente se transforme.

Para hacer que las salidas sean detectables, los proveedores de sistemas de IA deben habilitar la detección por parte de los usuarios y otros terceros. Deben proporcionar, de forma gratuita, una interfaz o detector disponible públicamente para verificar si un contenido ha sido generado o manipulado por sus sistemas de IA. Los proveedores deben mantener estos mecanismos de detección a lo largo del ciclo de vida del sistema y del modelo.

Se invita a los proveedores de sistemas de IA a implementar mecanismos de detección forense que no dependan de la presencia de marcas activas de IA.

Las soluciones técnicas promovidas por los proveedores deben ser efectivas, de bajo costo y asegurar que se apliquen en tiempo real sin comprometer la calidad del contenido generado. También deben ser interoperables, robustas y fiables.

Obligaciones de los Desplegadores de Sistemas de IA

Las obligaciones de los desplegadores son complementarias a las soluciones técnicas implementadas por los proveedores, contribuyendo a aumentar la transparencia a lo largo de la cadena de valor de la IA.

Los desplegadores de un sistema de IA que genera o manipula texto con el propósito de informar al público sobre asuntos de interés deben divulgar que el contenido ha sido generado o manipulado por IA. Deben identificar el contenido generado y manipulado por IA colocando un ícono común en un lugar visible y consistente.

Medidas Específicas para la Divulgación de Deepfake

Para videos deepfake en tiempo real, los desplegadores mostrarán el ícono de manera no intrusiva de forma consistente durante la exposición. Además, insertarán un descargo de responsabilidad al principio de la exposición que explique que el contenido incluye deepfake.

Para videos deepfake no en tiempo real, los desplegadores pueden colocar un descargo de responsabilidad al principio de la exposición o colocar el ícono de manera consistente en un lugar adecuado durante la exposición.

Respecto al contenido deepfake que forma parte de obras artísticas, creativas o satíricas, los desplegadores pueden mostrar el ícono durante al menos cinco segundos. Para videos que forman parte de obras evidentes, el ícono debe aparecer durante un «tiempo suficiente».

Medidas Específicas para Texto Generado o Manipulado por IA

Para texto generado o manipulado por IA publicado con el propósito de informar al público, el ícono debe mostrarse en una posición fija, clara y distinguible. Esta posición fija podría incluir, entre otras, colocar el ícono en la parte superior del texto, al lado del texto o al final del mismo.

Descargo de responsabilidad: Debido a la generalidad de esta actualización, la información proporcionada aquí puede no ser aplicable en todas las situaciones y no debe ser utilizada sin un asesoramiento legal específico basado en situaciones particulares.

More Insights

La urgencia de adoptar una IA responsable

Las empresas son conscientes de la necesidad de una IA responsable, pero muchas la tratan como un pensamiento posterior. La IA responsable es una defensa fundamental contra riesgos legales...

Modelo de gobernanza de IA que enfrenta el uso oculto

La inteligencia artificial (IA) se está expandiendo rápidamente en los lugares de trabajo, transformando la forma en que se realizan las tareas diarias. Para gestionar los riesgos asociados con el uso...

Europa extiende plazos para cumplir con la normativa de IA

La Unión Europea planea retrasar las obligaciones de alto riesgo en la Ley de IA hasta finales de 2027, proporcionando a las empresas más tiempo para adaptarse a las exigencias. Sin embargo, los...

Innovación Responsable a Través de IA Ética

Las empresas están compitiendo por innovar con inteligencia artificial, pero a menudo sin las medidas de seguridad adecuadas. La ética en la IA no solo es un imperativo moral, sino también una...

Riesgos Ocultos de Cumplimiento en la Contratación con IA

La inteligencia artificial está transformando la forma en que los empleadores reclutan y evalúan talento, pero también introduce riesgos legales significativos bajo las leyes federales de...