Charlas sobre la transparencia de la IA se centran en la «intención engañosa»
Las reglas propuestas para etiquetar los deepfakes generados por IA, que se están elaborando en un código de transparencia vinculado a la Ley de IA, están dividiendo a los expertos involucrados en el proceso de redacción de la UE.
Bajo la ley de IA del bloque, las empresas deben asegurarse de que el contenido generado por IA —imágenes, videos, audios— esté marcado, revelando el papel de la IA en su creación. Si se utiliza un sistema de IA para crear un deepfake, como un video que aparentemente muestra a una persona real hablando, la idea es que debe estar marcado como sintético para evitar el riesgo de engaño.
Sin embargo, aunque el principio suena simple, elaborar reglas claras para dicho etiquetado está lleno de decisiones complejas.
Conflictos entre partes interesadas
En particular, parece que se está gestando una disputa entre las partes interesadas de la industria y los grupos de la sociedad civil sobre dónde debe trazar la UE la línea en cuanto al etiquetado del contenido que ha sido mejorado o generado por IA. El objetivo del código de práctica es proporcionar a las empresas asesoría práctica sobre cómo cumplir con las reglas de transparencia de la Ley de IA, que originalmente se iba a implementar en agosto de 2026.
Un primer borrador del código, que se publicó antes de Navidad, parece inclinarse hacia la dirección de la sociedad civil, con expertos independientes presidiendo el proceso y apoyando el etiquetado de IA incluso para ediciones «aparentemente pequeñas» que alteran el contexto del contenido, como el uso de herramientas de IA para eliminar ruido de una grabación de audio, haciendo que parezca que una persona fue entrevistada en un entorno diferente.
Fuentes de la industria informaron que se oponen a tales reglas de etiquetado general, argumentando que llevarían a que las etiquetas aparezcan por todas partes, diluyendo así su efecto de advertencia. Ciertas industrias, como la publicidad, podrían verse especialmente afectadas por ello.
Consideraciones sobre la intención engañosa
La cuestión clave en las recientes conversaciones sobre el código ha sido si se debe tener en cuenta la «intención engañosa» al determinar si un contenido debe ser etiquetado. La Ley de IA en sí misma solo se refiere de manera amplia al contenido «generado o manipulado artificialmente».
El código de transparencia que se está elaborando es el segundo aviso de orientación de la Ley de IA, tras el código muy lobbyado para modelos de IA de propósito general (GPAIs) del año pasado. Al igual que el código GPAI, el código final será voluntario: las empresas podrán elegir si quieren inscribirse. Sin embargo, aquellas que lo hagan probablemente serán vistas como alineadas con las mejores prácticas, lo que les dará puntos positivos en cualquier evaluación formal de cumplimiento de la Ley de IA.
Desafíos y plazos
Los expertos independientes están presidiendo el proceso de redacción de estos códigos, con partes interesadas de la industria y la sociedad civil contribuyendo, o enfrentándose en desacuerdos, como parece ser el caso del proceso de redacción del código de transparencia.
Discusiones similares están teniendo lugar respecto a reglas separadas para que los sistemas de IA apliquen una marca de agua legible por máquina al contenido que generan. Esto se aplicará a todo el contenido de IA, no solo a los deepfakes, y pondrá obligaciones sobre los desarrolladores de sistemas de IA, en lugar de solo sobre los implementadores.
La Ley de IA menciona específicamente que esta marca de agua debe incluir texto generado por IA. El primer borrador del código de transparencia menciona el código (software) como un tipo específico de texto generado por IA, un paso que las fuentes de la industria consultadas ven con escepticismo.
Afirman que marcar el código reduciría la calidad y cuestionan por qué es necesario dar este paso.
Ampliación de plazos para el cumplimiento
Cualquiera que sea la forma final del código de transparencia, es probable que las empresas obtengan más tiempo para cumplir con las reglas de etiquetado de la Ley de IA: la Comisión ha propuesto retrasar su aplicación hasta febrero de 2027 para los sistemas de IA lanzados antes de agosto de 2026.
Además, la respuesta final a las preguntas que ahora están surgiendo a través de las discusiones con las partes interesadas sobre el código de transparencia podría requerir esperar a que la Comisión produzca un documento separado.
En teoría, el código de transparencia solo pretende ofrecer detalles prácticos sobre la implementación de las reglas de la UE; la Comisión está trabajando en directrices separadas que abordan el alcance y las definiciones legales de las reglas.
Este documento próximo de la Comisión podría clarificar ciertos términos clave pertinentes a las discusiones del código de transparencia. Sin embargo, se espera que solo esté disponible en junio, alrededor del momento en que se supone que el código de práctica debe ser finalizado.