India establece un marco integral de gobernanza de IA antes del Impact Summit 2026

India presenta su primer marco integral de gobernanza de inteligencia artificial antes de la Cumbre de Impacto 2026

Antes de la Cumbre de Impacto 2026, el gobierno ha desvelado las primeras directrices de gobernanza de inteligencia artificial de India, que establecen un marco basado en principios diseñado para abordar riesgos mientras se promueve la innovación. Este movimiento señala la intención de India de dar forma a una gobernanza responsable de la IA sin introducir una ley rígida y separada.

Principios rectores

Las directrices describen cómo la IA debe ser desarrollada y desplegada en sectores como la salud, la educación, la agricultura, las finanzas y la gobernanza. En lugar de imponer controles estrictos, el marco se basa en siete principios amplios, descritos como “sutras”, para guiar a los responsables de políticas y a la industria. Estos principios incluyen:

  • Confianza como base
  • Prioridad a las personas
  • Innovación sobre restricción
  • Equidad y justicia
  • Responsabilidad
  • Comprensible por diseño
  • Seguridad, resiliencia y sostenibilidad

En conjunto, estos principios enfatizan que los sistemas de IA deben asistir en la toma de decisiones humanas, mantenerse transparentes, evitar la discriminación y operar con salvaguardias claras.

Dependencia del marco legal existente

Un elemento central de las directrices es su dependencia de las leyes actuales. Se ha señalado que varios riesgos relacionados con la IA ya están abordados bajo disposiciones legales existentes, como las normas de TI, las leyes de protección de datos y los estatutos penales. En lugar de promulgar una ley de IA separada en esta etapa, el gobierno ha optado por revisiones periódicas y enmiendas específicas a medida que avanza la tecnología.

Expectativas para desarrolladores y usuarios

Las directrices establecen responsabilidades para los desarrolladores y usuarios de IA. Se solicita la presentación de informes de transparencia, divulgaciones claras cuando se utiliza contenido generado por IA, mecanismos de reparación de quejas para individuos afectados por sistemas de IA, y cooperación con los reguladores. Las aplicaciones consideradas de alto riesgo, especialmente aquellas que afectan la seguridad, los derechos o los medios de vida, se espera que sigan salvaguardias más estrictas e incorporen supervisión humana.

Conclusión

Este enfoque refleja la visión de que la IA no debe estar confinada a un puñado de empresas o naciones, sino desplegarse ampliamente para abordar desafíos prácticos mientras se mantiene confiable. Al combinar la innovación con salvaguardias, el gobierno tiene como objetivo posicionar a India no solo como un importante usuario de IA, sino también como una voz global en la formación de una gobernanza responsable e inclusiva de la IA, alineada con la visión de ‘Viksit Bharat 2047’.

More Insights

La urgencia de adoptar una IA responsable

Las empresas son conscientes de la necesidad de una IA responsable, pero muchas la tratan como un pensamiento posterior. La IA responsable es una defensa fundamental contra riesgos legales...

Modelo de gobernanza de IA que enfrenta el uso oculto

La inteligencia artificial (IA) se está expandiendo rápidamente en los lugares de trabajo, transformando la forma en que se realizan las tareas diarias. Para gestionar los riesgos asociados con el uso...

Europa extiende plazos para cumplir con la normativa de IA

La Unión Europea planea retrasar las obligaciones de alto riesgo en la Ley de IA hasta finales de 2027, proporcionando a las empresas más tiempo para adaptarse a las exigencias. Sin embargo, los...

Innovación Responsable a Través de IA Ética

Las empresas están compitiendo por innovar con inteligencia artificial, pero a menudo sin las medidas de seguridad adecuadas. La ética en la IA no solo es un imperativo moral, sino también una...

Riesgos Ocultos de Cumplimiento en la Contratación con IA

La inteligencia artificial está transformando la forma en que los empleadores reclutan y evalúan talento, pero también introduce riesgos legales significativos bajo las leyes federales de...