India establece plazo de 3 horas para eliminar contenido generado por IA en redes sociales

India establece un plazo de 3 horas para que las plataformas de redes sociales eliminen contenido generado por IA y deepfakes

India ha ordenado a las plataformas de redes sociales que etiqueten claramente todo el contenido generado por IA y aseguren que dicho material sintético contenga identificadores incrustados, según una orden oficial.

Medidas de cumplimiento más estrictas

En una medida de cumplimiento más estricta, el gobierno ha establecido un plazo de tres horas para que las empresas de redes sociales eliminen contenido generado por IA o deepfake una vez que sea señalado por el gobierno o ordenado por un tribunal. Las plataformas también tienen prohibido permitir la eliminación o supresión de etiquetas de IA o metadatos asociados una vez que han sido aplicados.

Prevención del uso indebido

Para evitar el uso indebido, las empresas deberán implementar herramientas automatizadas para detectar y prevenir la circulación de contenido ilegal, sexualmente explotador o engañoso generado por IA. Además, las plataformas necesitan advertir regularmente a los usuarios sobre las consecuencias de violar las reglas relacionadas con el uso indebido de IA. Estas advertencias deben emitirse al menos una vez cada tres meses, según indicó el gobierno.

Contexto y próximos pasos

Las últimas directrices llegan en medio de crecientes preocupaciones sobre la difusión de deepfakes basados en IA en línea y se basan en enmiendas preliminares propuestas el mes pasado por el Ministerio de Electrónica y Tecnología de la Información para las Reglas de Tecnología de la Información (Directrices para Intermediarios y Código de Ética de Medios Digitales) de 2021.

Las reglas propuestas buscan exigir la divulgación por parte de los usuarios al publicar contenido generado o modificado por IA y requieren que las plataformas adopten tecnología para verificar tales declaraciones.

Las plataformas de redes sociales ya han implementado características que permiten a los usuarios etiquetar cierto contenido como generado o modificado utilizando inteligencia artificial. El enfoque inicial del impulso de cumplimiento del gobierno se centra en los principales intermediarios de redes sociales con cinco millones o más de usuarios registrados en el país.

Requisitos de divulgación y cumplimiento

Actualmente, algunas plataformas requieren que los creadores divulguen contenido “significativamente alterado” o generado sintéticamente en casos específicos, incluyendo videos que hacen que una persona real parezca decir o hacer algo que no hizo, alterando imágenes de eventos o lugares reales, o creando escenas que nunca ocurrieron. Además, algunos usuarios están siendo dirigidos a etiquetar contenido que presenta audio y visuales generados o alterados digitalmente.

More Insights

La urgencia de adoptar una IA responsable

Las empresas son conscientes de la necesidad de una IA responsable, pero muchas la tratan como un pensamiento posterior. La IA responsable es una defensa fundamental contra riesgos legales...

Modelo de gobernanza de IA que enfrenta el uso oculto

La inteligencia artificial (IA) se está expandiendo rápidamente en los lugares de trabajo, transformando la forma en que se realizan las tareas diarias. Para gestionar los riesgos asociados con el uso...

Europa extiende plazos para cumplir con la normativa de IA

La Unión Europea planea retrasar las obligaciones de alto riesgo en la Ley de IA hasta finales de 2027, proporcionando a las empresas más tiempo para adaptarse a las exigencias. Sin embargo, los...

Innovación Responsable a Través de IA Ética

Las empresas están compitiendo por innovar con inteligencia artificial, pero a menudo sin las medidas de seguridad adecuadas. La ética en la IA no solo es un imperativo moral, sino también una...

Riesgos Ocultos de Cumplimiento en la Contratación con IA

La inteligencia artificial está transformando la forma en que los empleadores reclutan y evalúan talento, pero también introduce riesgos legales significativos bajo las leyes federales de...