Nuevas normativas para contenido generado por IA en plataformas sociales

Explicado: A medida que el gobierno endurece las reglas sobre contenido de IA, ¿qué deben hacer las plataformas de redes sociales y otros?

El gobierno central emitió hoy directrices que obligan a las plataformas de redes sociales, entre otras, a etiquetar claramente todo contenido generado o modificado por inteligencia artificial.

¿Qué reglas han cambiado?

El Ministerio de Electrónica y Tecnología de la Información realizó enmiendas a las Reglas de Tecnología de la Información (Directrices para Intermediarios y Código de Ética de Medios Digitales) de 2021. El marco de intermediarios de la India se estableció por primera vez en 2011 y fue reemplazado por las enmiendas de 2021, que ampliaron las obligaciones de diligencia debida para los principales intermediarios de redes sociales e introdujeron regulaciones para noticias digitales y contenido audiovisual curado.

Las últimas directrices se basan en estas reglas, incorporando información generada sintéticamente (SGI), incluidos los deepfakes, en un marco regulatorio más estricto.

¿Qué ha cambiado?

Según las nuevas reglas, los intermediarios deben asegurarse de que el contenido generado o modificado por IA esté etiquetado o sea identificable, ya sea a través de divulgaciones visibles o metadatos incrustados. Las reglas permiten el uso de medidas técnicas como metadatos incrustados como identificadores para facilitar el cumplimiento, asegurando al mismo tiempo la trazabilidad.

Además, los identificadores deben ser irreversibles una vez aplicados. Las plataformas también deben advertir a los usuarios sobre las consecuencias del mal uso de la IA al menos una vez cada tres meses.

El gobierno ha ordenado el despliegue de herramientas automatizadas para detectar y prevenir la difusión de contenido generado por IA que sea ilegal, sexualmente explotador o engañoso.

Anteriormente, se ofrecía una ventana de 36 horas a los intermediarios para cumplir con las órdenes de eliminación. Sin embargo, bajo medidas de enforcement más estrictas, las plataformas deben ahora eliminar o deshabilitar el acceso al contenido generado por IA dentro de las tres horas posteriores a recibir una orden del tribunal o del gobierno.

¿Qué son los intermediarios?

Los intermediarios son entidades que almacenan o transmiten datos en nombre de los usuarios finales. Estos incluyen proveedores de servicios de telecomunicaciones, mercados en línea, motores de búsqueda y redes sociales.

¿Cómo se harán cumplir las reglas?

La fase inicial de enforcement se centra en los grandes intermediarios de redes sociales con cinco millones o más de usuarios registrados en India. Esto significa que las reglas afectarán en gran medida a los jugadores extranjeros.

¿Por qué ahora?

Estas medidas llegan en medio de la reciente controversia sobre Grok, donde el chatbot de IA generó deepfakes explícitos no consensuales. Los cambios también surgen tras las recientes consultas del gobierno con organizaciones de la industria.

Las reglas garantizarán que las plataformas informen a los usuarios sobre SGI e identifiquen incluso a aquellos involucrados en la producción de dicho contenido.

More Insights

La urgencia de adoptar una IA responsable

Las empresas son conscientes de la necesidad de una IA responsable, pero muchas la tratan como un pensamiento posterior. La IA responsable es una defensa fundamental contra riesgos legales...

Modelo de gobernanza de IA que enfrenta el uso oculto

La inteligencia artificial (IA) se está expandiendo rápidamente en los lugares de trabajo, transformando la forma en que se realizan las tareas diarias. Para gestionar los riesgos asociados con el uso...

Europa extiende plazos para cumplir con la normativa de IA

La Unión Europea planea retrasar las obligaciones de alto riesgo en la Ley de IA hasta finales de 2027, proporcionando a las empresas más tiempo para adaptarse a las exigencias. Sin embargo, los...

Innovación Responsable a Través de IA Ética

Las empresas están compitiendo por innovar con inteligencia artificial, pero a menudo sin las medidas de seguridad adecuadas. La ética en la IA no solo es un imperativo moral, sino también una...

Riesgos Ocultos de Cumplimiento en la Contratación con IA

La inteligencia artificial está transformando la forma en que los empleadores reclutan y evalúan talento, pero también introduce riesgos legales significativos bajo las leyes federales de...