Regulación de Contenidos Sintéticos y Deepfake en India

Regulación del Contenido Generado por IA y Deepfake en India – Nuevas Reglas

Las Reglas de Enmienda de Tecnología de la Información (Directrices para Intermediarios y Código de Ética de Medios Digitales) de 2026 representan un cambio regulatorio significativo en el marco de gobernanza digital de India. Notificadas el 10 de febrero de 2026 y efectivas a partir del 20 de febrero de 2026, estas enmiendas abordan principalmente la regulación de la información generada sintéticamente (SGI), comúnmente conocida como contenido generado por IA o deepfake.

Objetivos de las Enmiendas de 2026

  • Regular el contenido generado por IA/deepfake.
  • Prevenir el uso indebido de los medios sintéticos para fraudes, suplantación, obscenidad, desinformación y actividades delictivas.
  • Mandatar el etiquetado y la trazabilidad del contenido sintético.
  • Endurecer los plazos de cumplimiento para los intermediarios.
  • Alinear las referencias del Código Penal Indio (IPC) con el Bharatiya Nyaya Sanhita de 2023.

Definición de Información Generada Sintéticamente

Una de las adiciones importantes es la definición formal de:

  • (a) Información de Audio, Visual o Audiovisual – Se amplía para incluir cualquier contenido creado, generado, modificado o alterado utilizando recursos informáticos.
  • (b) «Información Generada Sintéticamente» (SGI) – Se define como contenido creado por IA o alterado algorítmicamente que:
  • Aparece real o auténtico.
  • Representa individuos o eventos.
  • Es probable que sea percibido como indistinguible de eventos reales.

Exclusiones

La edición rutinaria, el formateo, las mejoras de accesibilidad, la corrección de color o la preparación de documentos legítimos están excluidos, siempre que no distorsionen materialmente el contenido subyacente.

Implicaciones de la Ley

La ley separa claramente la manipulación deepfake de la mejora digital legítima. La enmienda aclara que cualquier referencia a «información» bajo disposiciones de actividad ilegal incluirá información generada sintéticamente, asegurando que los deepfakes sean tratados al mismo nivel que el contenido real bajo las disposiciones de responsabilidad de la Ley de Tecnología de la Información.

Requisitos de Conciencia del Usuario

Los intermediarios deben informar a los usuarios cada tres meses sobre las consecuencias legales del uso indebido y advertir sobre las sanciones bajo diversas leyes. Los usuarios deben ser informados que las violaciones pueden resultar en:

  • Eliminación inmediata de contenido.
  • Suspensión de cuentas.
  • Divulgación de identidad a las víctimas.
  • Reporte obligatorio a las autoridades.

Obligaciones de Diligencia Debida para Plataformas de Contenido Sintético

Las plataformas que permiten la creación de contenido de IA deben:

  • (A) Prevenir SGI Ilegal – Implementar herramientas automatizadas y medidas técnicas razonables para prevenir la creación de contenido sintético que:
  • Contenga material de abuso sexual infantil.
  • Sea obsceno, pornográfico o invasivo de la privacidad.
  • Creé documentos falsos o registros electrónicos.
  • Ayude en la adquisición de explosivos o armas.
  • Represente falsamente individuos o eventos para engañar.
  • (B) Etiquetado Obligatorio – Todo SGI legal debe ser etiquetado de manera prominente y contener divulgaciones visibles. Las plataformas no pueden permitir la eliminación o supresión de dichas etiquetas, introduciendo un régimen de trazabilidad técnica para el contenido de IA.

Obligaciones de los Intermediarios de Redes Sociales Significativas

Antes de publicar contenido de usuarios, los intermediarios significativos deben:

  1. Requerir a los usuarios que declaren si el contenido es sintético.
  2. Implementar herramientas de verificación para validar las declaraciones.
  3. Asegurar el etiquetado si el contenido es confirmado como sintético.

Plazos de Cumplimiento Endurecidos

Las enmiendas reducen plazos clave, como el tiempo para la eliminación de contenido tras una orden gubernamental, pasando de 36 horas a 3 horas.

Aclaración de Puerto Seguro

La enmienda aclara que la eliminación o desactivación de acceso utilizando herramientas automatizadas no constituirá una violación de las protecciones de puerto seguro bajo la Sección 79 de la Ley de Tecnología de la Información.

Impacto Legal y Regulatorio

(A) Sobre Plataformas de Redes Sociales

  • Sistemas obligatorios de detección de IA.
  • Mayor carga de cumplimiento.
  • Incremento del riesgo de responsabilidad.
  • Obligaciones de eliminación más rápidas.

(B) Sobre Herramientas y Plataformas Generativas de IA

  • Deben incorporar marcas de agua o metadatos.
  • No pueden permitir el uso indebido de deepfakes.
  • Deben prevenir salidas ilegales a nivel de generación.

(C) Sobre Usuarios

  • Exposición penal por deepfakes maliciosos.
  • Menos anonimato si ocurren violaciones.
  • Mayor trazabilidad.

Conclusión

Las Reglas de Enmienda de 2026 representan la regulación más estricta de India sobre deepfakes, introduciendo estándares técnicos de cumplimiento para IA y combinando la moderación de contenido con la trazabilidad de metadatos. Este marco regula no solo el contenido dañino, sino también el mecanismo de creación en sí, marcando un cambio significativo hacia la regulación de ecosistemas de contenido generado por IA.

More Insights

La urgencia de adoptar una IA responsable

Las empresas son conscientes de la necesidad de una IA responsable, pero muchas la tratan como un pensamiento posterior. La IA responsable es una defensa fundamental contra riesgos legales...

Modelo de gobernanza de IA que enfrenta el uso oculto

La inteligencia artificial (IA) se está expandiendo rápidamente en los lugares de trabajo, transformando la forma en que se realizan las tareas diarias. Para gestionar los riesgos asociados con el uso...

Europa extiende plazos para cumplir con la normativa de IA

La Unión Europea planea retrasar las obligaciones de alto riesgo en la Ley de IA hasta finales de 2027, proporcionando a las empresas más tiempo para adaptarse a las exigencias. Sin embargo, los...

Innovación Responsable a Través de IA Ética

Las empresas están compitiendo por innovar con inteligencia artificial, pero a menudo sin las medidas de seguridad adecuadas. La ética en la IA no solo es un imperativo moral, sino también una...

Riesgos Ocultos de Cumplimiento en la Contratación con IA

La inteligencia artificial está transformando la forma en que los empleadores reclutan y evalúan talento, pero también introduce riesgos legales significativos bajo las leyes federales de...