Riesgos Legales para Empresas Globales Bajo la Nueva Regulación de IA en India

Las empresas globales enfrentan riesgos legales bajo la regulación de IA de India 2026

India ha fortalecido su regulación de IA a través de enmiendas a las Reglas de TI (Directrices para Intermediarios y Código de Ética de Medios Digitales) de 2021, que entrarán en vigor el 20 de febrero de 2026. Las reglas revisadas exigen un etiquetado prominente del contenido generado por IA e introducen plazos de eliminación acelerados de tan solo dos a tres horas.

Las plataformas de redes sociales y las empresas de tecnología que operan en India deben alinear proactivamente sus sistemas de cumplimiento con el nuevo mandato regulatorio para mitigar riesgos de ejecución, sanciones monetarias y posibles procedimientos legales.

Cómo India regula el contenido generado por IA bajo la Ley de TI

India no regula la IA como una tecnología independiente. En cambio, regula los resultados de los sistemas de IA cuando dichos resultados son alojados, transmitidos o habilitados por intermediarios digitales y violan la ley india.

Las enmiendas a las Reglas de TI amplían las obligaciones de cumplimiento en torno al:

  • Contenido sintético o generado por IA,
  • Deepfakes e impersonación,
  • Imágenes sensibles no consensuadas,
  • Contenido engañoso y dañino,
  • Plazos de eliminación acelerados.

Requisitos de etiquetado para deepfakes y contenido de IA

Las nuevas reglas imponen obligaciones explícitas de etiquetado. Las plataformas en línea deben:

  • Etiquetar de manera clara y prominente el contenido generado por IA o sintéticamente,
  • Asegurar que las etiquetas, marcas de agua o metadatos relacionados con la IA no puedan ser eliminados, alterados o suprimidos,
  • Obtener declaraciones de los usuarios donde el contenido haya sido creado o alterado materialmente usando sistemas de IA,
  • Implementar medidas técnicas razonables para verificar y rastrear la información de origen de la IA.

Aunque se retiró la propuesta anterior que requería que las etiquetas de IA ocuparan el 10% del espacio de pantalla, el requisito de «prominencia» sigue siendo legalmente exigible.

Implicaciones de cumplimiento para las plataformas

Estas obligaciones van más allá de las divulgaciones de política y requieren una implementación a nivel de producto, incluyendo:

  • Preservación de la integridad de los metadatos y marcas de agua en el backend,
  • Despliegue de mecanismos de seguimiento de origen,
  • Mantenimiento de registros de auditoría para revisión regulatoria.

Una vez que el contenido califique como sintético o generado por IA bajo las reglas, el etiquetado es obligatorio.

Plazos de eliminación comprimidos

India ha introducido algunos de los plazos de eliminación de contenido de IA más agresivos. Los mandatos legales actuales incluyen:

  • Imágenes íntimas no consensuadas (incluyendo imágenes deepfake generadas por IA): 2 horas,
  • Otro contenido ilegal (incluyendo desinformación generada por IA o impersonación): 3 horas,
  • Quejas de privacidad o impersonación: 24 horas,
  • Resolución de quejas: 72 horas.

Estos plazos se aplican independientemente de si el contenido es generado por IA o creado manualmente.

Riesgos operativos

El incumplimiento de actuar dentro de los plazos prescritos puede resultar en:

  • Pérdida de protección de puerto seguro,
  • Exposición a responsabilidad penal,
  • Órdenes de bloqueo bajo la Sección 69A,
  • Acciones de ejecución regulatoria.

Base legal para regular el contenido de IA en India

El contenido generado por IA en India está regulado bajo dos leyes:

  • La Ley de Tecnología de la Información (IT), 2000,
  • Las Reglas de TI (Directrices para Intermediarios y Código de Ética de Medios Digitales) de 2021.

La ley no prohíbe los sistemas de IA; sin embargo, regula los resultados ilegales que surgen de la información generada por IA.

Condicionalidad de puerto seguro y exposición a responsabilidad

El puerto seguro bajo la Sección 79 protege a los intermediarios de responsabilidad por contenido generado por usuarios, siempre que:

  • Sigan normas de diligencia debida,
  • Eliminen contenido ilegal de IA dentro de los plazos,
  • Cumplan con las direcciones del gobierno central o del tribunal.

Conclusión

El modelo regulatorio de India no prohíbe el contenido generado por IA, pero lo somete a estrictos estándares de responsabilidad. Las obligaciones de etiquetado obligatorias, los plazos de eliminación comprimidos y los requisitos proactivos de salvaguarda crean un entorno de alta conformidad.

Para las empresas de IA extranjeras, los proveedores de IA generativa y las plataformas digitales globales, India requiere capacidades de moderación en tiempo real, mecanismos de gobernanza de IA integrados y una infraestructura de cumplimiento local.

More Insights

La urgencia de adoptar una IA responsable

Las empresas son conscientes de la necesidad de una IA responsable, pero muchas la tratan como un pensamiento posterior. La IA responsable es una defensa fundamental contra riesgos legales...

Modelo de gobernanza de IA que enfrenta el uso oculto

La inteligencia artificial (IA) se está expandiendo rápidamente en los lugares de trabajo, transformando la forma en que se realizan las tareas diarias. Para gestionar los riesgos asociados con el uso...

Europa extiende plazos para cumplir con la normativa de IA

La Unión Europea planea retrasar las obligaciones de alto riesgo en la Ley de IA hasta finales de 2027, proporcionando a las empresas más tiempo para adaptarse a las exigencias. Sin embargo, los...

Innovación Responsable a Través de IA Ética

Las empresas están compitiendo por innovar con inteligencia artificial, pero a menudo sin las medidas de seguridad adecuadas. La ética en la IA no solo es un imperativo moral, sino también una...

Riesgos Ocultos de Cumplimiento en la Contratación con IA

La inteligencia artificial está transformando la forma en que los empleadores reclutan y evalúan talento, pero también introduce riesgos legales significativos bajo las leyes federales de...