Nuevas reglas de TI obligan a etiquetar contenido generado por IA en plataformas sociales

Nuevas reglas de TI del gobierno hacen obligatorio el etiquetado de contenido generado por IA; dan a Facebook, Instagram y otras plataformas 3 horas para eliminar contenido

El gobierno ha incluido el contenido generado por IA — videos deepfake, audio sintético, imágenes alteradas — bajo un marco regulatorio formal por primera vez al modificar las reglas de intermediarios de TI de la India. Las nuevas reglas entrarán en vigor el 20 de febrero.

Definición y requisitos del contenido generado por IA

La ley ahora tiene una definición formal para la «información generada sintéticamente». Esta abarca cualquier contenido de audio, visual o audiovisual creado o alterado utilizando un recurso informático que parece real y que presenta personas o eventos de manera que podría pasar como genuino.

No todo lo que tiene un filtro califica. La edición de rutina, como la corrección de color, la reducción de ruido y la compresión, está exenta, siempre que no distorsione el significado original. Documentos de investigación, materiales de capacitación, PDFs, presentaciones y borradores hipotéticos con contenido ilustrativo también quedan exentos.

Cumplimiento más estricto para las grandes plataformas de redes sociales

Las plataformas de redes sociales, como Instagram, YouTube y Facebook, enfrentan un nivel de cumplimiento más alto. Según la nueva regla, antes de que un usuario suba contenido, la plataforma debe preguntar: ¿es este contenido generado por IA? No se limita a la auto-declaración; las plataformas también deben implementar herramientas automatizadas para verificar el formato, la fuente y la naturaleza del contenido antes de que se publique.

Si se identifica como sintético, el contenido necesita una etiqueta de divulgación visible. Si una plataforma permite que contenido que infringe las normas permanezca, se considera que no ha cumplido con su debida diligencia.

Plazos de respuesta reducidos

Los plazos de respuesta se han acortado. Ahora, las plataformas tienen tres horas para actuar sobre ciertas órdenes legales, en lugar de 36. La ventana de 15 días se ha reducido a siete días, y el plazo de 24 horas se ha reducido a 12.

Implicaciones legales

Las reglas también establecen una conexión directa entre el contenido sintético y la ley penal. La información generada sintéticamente que involucra material de abuso sexual infantil, contenido obsceno, registros electrónicos falsos o deepfakes que tergiversan la identidad o voz de una persona real ahora se considera bajo diversas leyes penales.

Las plataformas deben advertir a los usuarios al menos una vez cada tres meses sobre las sanciones por el uso indebido de contenido generado por IA. Por otro lado, el gobierno ha asegurado a los intermediarios que actuar contra contenido sintético bajo estas reglas no les quitará la protección de puerto seguro.

More Insights

La urgencia de adoptar una IA responsable

Las empresas son conscientes de la necesidad de una IA responsable, pero muchas la tratan como un pensamiento posterior. La IA responsable es una defensa fundamental contra riesgos legales...

Modelo de gobernanza de IA que enfrenta el uso oculto

La inteligencia artificial (IA) se está expandiendo rápidamente en los lugares de trabajo, transformando la forma en que se realizan las tareas diarias. Para gestionar los riesgos asociados con el uso...

Europa extiende plazos para cumplir con la normativa de IA

La Unión Europea planea retrasar las obligaciones de alto riesgo en la Ley de IA hasta finales de 2027, proporcionando a las empresas más tiempo para adaptarse a las exigencias. Sin embargo, los...

Innovación Responsable a Través de IA Ética

Las empresas están compitiendo por innovar con inteligencia artificial, pero a menudo sin las medidas de seguridad adecuadas. La ética en la IA no solo es un imperativo moral, sino también una...

Riesgos Ocultos de Cumplimiento en la Contratación con IA

La inteligencia artificial está transformando la forma en que los empleadores reclutan y evalúan talento, pero también introduce riesgos legales significativos bajo las leyes federales de...