Cómo el nuevo marco de IA de India aborda riesgos, sesgos y abusos
Antes de la Cumbre de Impacto de IA 2026, el gobierno de India ha presentado su primer conjunto de directrices integrales para la gobernanza de la inteligencia artificial (IA).
Introducción
El marco se basa en principios y leyes existentes, con nuevos organismos de supervisión para equilibrar la innovación y las salvaguardias. Esta medida demuestra el compromiso de India con una gobernanza responsable de la IA, sin una ley independiente, abordando problemas como el sesgo, el abuso y la falta de transparencia en los sistemas de IA, mientras se asegura que la adopción tecnológica no se vea obstaculizada.
Principios del marco
Las nuevas directrices detallan cómo debe desarrollarse y desplegarse la IA en sectores como la salud, la educación, la agricultura, las finanzas y la gobernanza. El marco se basa en siete principios amplios o sutras, que son:
- Confianza como base
- Las personas primero
- Innovación sobre restricción
- Equidad y justicia
- Responsabilidad
- Comprensibilidad por diseño
- Seguridad, resiliencia y sostenibilidad
Estos principios enfatizan que los sistemas de IA deben apoyar los procesos de toma de decisiones humanas, siendo transparentes para evitar la discriminación, con salvaguardias claras en su lugar.
Marco regulador y supervisión
Un aspecto clave de las directrices es su dependencia de las leyes existentes. Los funcionarios han señalado que muchos de los riesgos relacionados con la IA ya están cubiertos por disposiciones legales actuales, como las normas de TI, las leyes de protección de datos y los estatutos penales. En lugar de promulgar una ley de IA separada en este momento, el gobierno ha optado por revisiones periódicas y enmiendas específicas a medida que evoluciona la tecnología.
El marco propone el establecimiento de organismos a nivel nacional para supervisar la gobernanza de la IA. Estos incluyen un grupo de gobernanza de IA para la coordinación de políticas entre ministerios, un comité de expertos en tecnología y políticas para asesoramiento especializado y un instituto de seguridad de IA que se centra en estándares de prueba, investigación en seguridad y evaluación de riesgos.
Responsabilidades y salvaguardias
Las directrices también definen las responsabilidades para los desarrolladores y desplegadores de IA, tales como informes de transparencia, divulgaciones claras al utilizar contenido generado por IA y mecanismos de resolución de quejas para aquellos afectados por estos sistemas. Las aplicaciones de alto riesgo, especialmente aquellas que impactan en la seguridad, los derechos o los medios de vida, se espera que sigan salvaguardias más estrictas con supervisión humana.
Conclusión
Las directrices reflejan la creencia de India en que la IA no debería estar limitada a unas pocas empresas o países, sino que debería implementarse ampliamente para resolver problemas del mundo real mientras se mantiene confiable. Al equilibrar la innovación con las salvaguardias, el gobierno espera posicionar a India no solo como un usuario importante de IA, sino también como un líder global en gobernanza responsable e inclusiva, alineada con la visión de ‘Viksit Bharat 2047’.