India establece un plazo de 3 horas para que las plataformas de redes sociales eliminen contenido generado por IA y deepfakes
India ha ordenado a las plataformas de redes sociales que etiqueten claramente todo el contenido generado por IA y aseguren que dicho material sintético contenga identificadores incrustados, según una orden oficial.
Medidas de cumplimiento más estrictas
En una medida de cumplimiento más estricta, el gobierno ha establecido un plazo de tres horas para que las empresas de redes sociales eliminen contenido generado por IA o deepfake una vez que sea señalado por el gobierno o ordenado por un tribunal. Las plataformas también tienen prohibido permitir la eliminación o supresión de etiquetas de IA o metadatos asociados una vez que han sido aplicados.
Prevención del uso indebido
Para evitar el uso indebido, las empresas deberán implementar herramientas automatizadas para detectar y prevenir la circulación de contenido ilegal, sexualmente explotador o engañoso generado por IA. Además, las plataformas necesitan advertir regularmente a los usuarios sobre las consecuencias de violar las reglas relacionadas con el uso indebido de IA. Estas advertencias deben emitirse al menos una vez cada tres meses, según indicó el gobierno.
Contexto y próximos pasos
Las últimas directrices llegan en medio de crecientes preocupaciones sobre la difusión de deepfakes basados en IA en línea y se basan en enmiendas preliminares propuestas el mes pasado por el Ministerio de Electrónica y Tecnología de la Información para las Reglas de Tecnología de la Información (Directrices para Intermediarios y Código de Ética de Medios Digitales) de 2021.
Las reglas propuestas buscan exigir la divulgación por parte de los usuarios al publicar contenido generado o modificado por IA y requieren que las plataformas adopten tecnología para verificar tales declaraciones.
Las plataformas de redes sociales ya han implementado características que permiten a los usuarios etiquetar cierto contenido como generado o modificado utilizando inteligencia artificial. El enfoque inicial del impulso de cumplimiento del gobierno se centra en los principales intermediarios de redes sociales con cinco millones o más de usuarios registrados en el país.
Requisitos de divulgación y cumplimiento
Actualmente, algunas plataformas requieren que los creadores divulguen contenido “significativamente alterado” o generado sintéticamente en casos específicos, incluyendo videos que hacen que una persona real parezca decir o hacer algo que no hizo, alterando imágenes de eventos o lugares reales, o creando escenas que nunca ocurrieron. Además, algunos usuarios están siendo dirigidos a etiquetar contenido que presenta audio y visuales generados o alterados digitalmente.