IndiaAI selecciona cinco proyectos de IA para detección de deepfakes y mitigación de sesgos

IndiaAI selecciona cinco proyectos de IA para la detección de deepfakes, mitigación de sesgos y pruebas de IA generativa

El gobierno central de India ha seleccionado cinco proyectos bajo su iniciativa de inteligencia artificial, IndiaAI, para fortalecer su marco de IA Segura y Confiable. Esta selección se centra en la detección de deepfakes, la mitigación de sesgos y la seguridad de IA generativa.

La decisión sigue a la segunda ronda de expresiones de interés (EoI) lanzadas en diciembre de 2024, en el marco del pilar de IA Segura y Confiable de la Misión IndiaAI, que busca asegurar la implementación ética y transparente de los sistemas de IA en India.

Según el Ministerio de Electrónica y Tecnología de la Información (MeitY), se recibieron más de 400 propuestas de instituciones académicas, startups, organizaciones de investigación y la sociedad civil. Un comité de múltiples partes interesadas revisó las solicitudes y seleccionó cinco proyectos destacados.

Proyectos seleccionados para el desarrollo de IA segura y confiable

Los proyectos seleccionados son:

  • Saakshya: Un marco multi-agente para la detección de deepfakes y gobernanza, desarrollado por IIT Jodhpur y IIT Madras.
  • AI Vishleshak: Una herramienta de IIT Mandi y la Dirección de Servicios Forenses de Himachal Pradesh, que mejora la detección de deepfakes audiovisuales y la falsificación de firmas utilizando IA explicativa.
  • Un sistema de detección de voice deepfake en tiempo real, desarrollado por IIT Kharagpur.
  • Un proyecto para abordar el sesgo de género en conjuntos de datos de IA agrícola, por Digital Futures Lab y Karya.
  • Anvil: Una herramienta de pruebas de penetración y evaluación para sistemas de IA generativa, liderada por Globals ITES Pvt Ltd y IIIT Dharwad.

Ecosistema de gobernanza de IA

IndiaAI declaró que los proyectos seleccionados refuerzan su compromiso de construir un ecosistema de IA seguro, transparente e inclusivo. Las iniciativas combinan forensicas en tiempo real, pruebas de resiliencia y auditorías de sesgos para garantizar que los modelos de IA utilizados en India sean responsables y confiables.

Un funcionario de la Misión IndiaAI expresó: “Estos proyectos representan el impulso de India no solo para adoptar la IA, sino para moldearla de manera responsable. Al desarrollar herramientas indígenas para la detección, prueba y evaluación de equidad, India aspira a liderar globalmente en innovación de IA segura”.

La misión más amplia de IndiaAI

IndiaAI, una división comercial independiente bajo el MeitY, actúa como la agencia implementadora de la estrategia nacional de IA. Trabaja para mejorar el acceso a la inteligencia artificial, promover prácticas de IA éticas y fomentar la autosuficiencia tecnológica.

El pilar de IA Segura y Confiable es parte del enfoque multidimensional de IndiaAI que incluye la construcción de modelos fundamentales, el avance de la infraestructura de computación de IA y la promoción de la adopción responsable de la IA en sectores como la agricultura, la salud pública y la seguridad pública.

En los últimos meses, IndiaAI también ha colaborado con instituciones de investigación líderes y actores del sector privado para avanzar en marcos de gobernanza de IA y ética de datos, señalando un creciente énfasis en equilibrar la innovación con la responsabilidad en el ecosistema digital en expansión del país.

La Misión IndiaAI ha sido aprobada con un presupuesto de ₹10,371.92 crore durante cinco años.

Lista de proyectos seleccionados para la Misión IndiaAI

Categorías Proyectos Organizaciones
Herramienta de Detección de Deepfake Saakshya: Marco Multi-Agente, Mejorado por RAG para Detección de Deepfake y Gobernanza IIT Jodhpur (CI) & IIT Madras
Herramienta de Detección de Deepfake AI Vishleshak: Mejorando la Detección de Deepfake Audiovisual y la Detección de Falsificación de Firmas con Robustez Adversarial, Explicabilidad y Generalización de Dominio IIT Mandi & Dirección de Servicios Forenses, Himachal Pradesh
Herramienta de Detección de Deepfake Sistema de Detección de Voice Deepfake en Tiempo Real IIT Kharagpur
Mitigación de Sesgos Evaluación del Sesgo de Género en LLMs Agrícolas – Creación de Bienes Públicos Digitales (DPG) para la Evaluación y Trabajo de Datos Justos Digital Futures Lab & Karya
Pruebas de Penetración y Evaluación Anvil: Herramienta de Pruebas de Penetración y Evaluación para LLM y IA Generativa Globals ITES Pvt Ltd & IIIT Dharwad

More Insights

La urgencia de adoptar una IA responsable

Las empresas son conscientes de la necesidad de una IA responsable, pero muchas la tratan como un pensamiento posterior. La IA responsable es una defensa fundamental contra riesgos legales...

Modelo de gobernanza de IA que enfrenta el uso oculto

La inteligencia artificial (IA) se está expandiendo rápidamente en los lugares de trabajo, transformando la forma en que se realizan las tareas diarias. Para gestionar los riesgos asociados con el uso...

Europa extiende plazos para cumplir con la normativa de IA

La Unión Europea planea retrasar las obligaciones de alto riesgo en la Ley de IA hasta finales de 2027, proporcionando a las empresas más tiempo para adaptarse a las exigencias. Sin embargo, los...

Innovación Responsable a Través de IA Ética

Las empresas están compitiendo por innovar con inteligencia artificial, pero a menudo sin las medidas de seguridad adecuadas. La ética en la IA no solo es un imperativo moral, sino también una...

Riesgos Ocultos de Cumplimiento en la Contratación con IA

La inteligencia artificial está transformando la forma en que los empleadores reclutan y evalúan talento, pero también introduce riesgos legales significativos bajo las leyes federales de...