IndiaAI selecciona cinco proyectos de IA para detección de deepfakes y mitigación de sesgos

IndiaAI selecciona cinco proyectos de IA para la detección de deepfakes, mitigación de sesgos y pruebas de IA generativa

El gobierno central de India ha seleccionado cinco proyectos bajo su iniciativa de inteligencia artificial, IndiaAI, para fortalecer su marco de IA Segura y Confiable. Esta selección se centra en la detección de deepfakes, la mitigación de sesgos y la seguridad de IA generativa.

La decisión sigue a la segunda ronda de expresiones de interés (EoI) lanzadas en diciembre de 2024, en el marco del pilar de IA Segura y Confiable de la Misión IndiaAI, que busca asegurar la implementación ética y transparente de los sistemas de IA en India.

Según el Ministerio de Electrónica y Tecnología de la Información (MeitY), se recibieron más de 400 propuestas de instituciones académicas, startups, organizaciones de investigación y la sociedad civil. Un comité de múltiples partes interesadas revisó las solicitudes y seleccionó cinco proyectos destacados.

Proyectos seleccionados para el desarrollo de IA segura y confiable

Los proyectos seleccionados son:

  • Saakshya: Un marco multi-agente para la detección de deepfakes y gobernanza, desarrollado por IIT Jodhpur y IIT Madras.
  • AI Vishleshak: Una herramienta de IIT Mandi y la Dirección de Servicios Forenses de Himachal Pradesh, que mejora la detección de deepfakes audiovisuales y la falsificación de firmas utilizando IA explicativa.
  • Un sistema de detección de voice deepfake en tiempo real, desarrollado por IIT Kharagpur.
  • Un proyecto para abordar el sesgo de género en conjuntos de datos de IA agrícola, por Digital Futures Lab y Karya.
  • Anvil: Una herramienta de pruebas de penetración y evaluación para sistemas de IA generativa, liderada por Globals ITES Pvt Ltd y IIIT Dharwad.

Ecosistema de gobernanza de IA

IndiaAI declaró que los proyectos seleccionados refuerzan su compromiso de construir un ecosistema de IA seguro, transparente e inclusivo. Las iniciativas combinan forensicas en tiempo real, pruebas de resiliencia y auditorías de sesgos para garantizar que los modelos de IA utilizados en India sean responsables y confiables.

Un funcionario de la Misión IndiaAI expresó: “Estos proyectos representan el impulso de India no solo para adoptar la IA, sino para moldearla de manera responsable. Al desarrollar herramientas indígenas para la detección, prueba y evaluación de equidad, India aspira a liderar globalmente en innovación de IA segura”.

La misión más amplia de IndiaAI

IndiaAI, una división comercial independiente bajo el MeitY, actúa como la agencia implementadora de la estrategia nacional de IA. Trabaja para mejorar el acceso a la inteligencia artificial, promover prácticas de IA éticas y fomentar la autosuficiencia tecnológica.

El pilar de IA Segura y Confiable es parte del enfoque multidimensional de IndiaAI que incluye la construcción de modelos fundamentales, el avance de la infraestructura de computación de IA y la promoción de la adopción responsable de la IA en sectores como la agricultura, la salud pública y la seguridad pública.

En los últimos meses, IndiaAI también ha colaborado con instituciones de investigación líderes y actores del sector privado para avanzar en marcos de gobernanza de IA y ética de datos, señalando un creciente énfasis en equilibrar la innovación con la responsabilidad en el ecosistema digital en expansión del país.

La Misión IndiaAI ha sido aprobada con un presupuesto de ₹10,371.92 crore durante cinco años.

Lista de proyectos seleccionados para la Misión IndiaAI

Categorías Proyectos Organizaciones
Herramienta de Detección de Deepfake Saakshya: Marco Multi-Agente, Mejorado por RAG para Detección de Deepfake y Gobernanza IIT Jodhpur (CI) & IIT Madras
Herramienta de Detección de Deepfake AI Vishleshak: Mejorando la Detección de Deepfake Audiovisual y la Detección de Falsificación de Firmas con Robustez Adversarial, Explicabilidad y Generalización de Dominio IIT Mandi & Dirección de Servicios Forenses, Himachal Pradesh
Herramienta de Detección de Deepfake Sistema de Detección de Voice Deepfake en Tiempo Real IIT Kharagpur
Mitigación de Sesgos Evaluación del Sesgo de Género en LLMs Agrícolas – Creación de Bienes Públicos Digitales (DPG) para la Evaluación y Trabajo de Datos Justos Digital Futures Lab & Karya
Pruebas de Penetración y Evaluación Anvil: Herramienta de Pruebas de Penetración y Evaluación para LLM y IA Generativa Globals ITES Pvt Ltd & IIIT Dharwad

More Insights

Colaboración y Competencia en la Gobernanza de la IA

La carrera por la inteligencia artificial está redefiniendo nuestra ética y la geopolítica, desafiando la noción de que se puede "ganar" esta competencia. La innovación en IA debe ser colaborativa y...

Política Nacional de IA en Pakistán: Un Futuro Innovador

Pakistán ha introducido una ambiciosa Política Nacional de IA destinada a construir un mercado de IA doméstico de 2.7 mil millones de dólares en cinco años. Esta política se basa en seis pilares...

Implementación de la ética en la IA: Guía práctica para empresas

La nueva guía de Capgemini destaca la importancia de la gobernanza ética de la IA como una prioridad estratégica para las organizaciones que buscan escalar la inteligencia artificial de manera...

Estrategia Integral de IA para la Educación Superior

La inteligencia artificial está transformando la educación superior al mejorar la experiencia académica y abordar problemas como la salud mental de los estudiantes. Las instituciones deben equilibrar...

Gobernanza de IA: Alineando políticas organizacionales con estándares globales

La inteligencia artificial (IA) está moldeando los servicios financieros, la agricultura y la educación en África, pero también trae riesgos significativos como sesgos y violaciones de privacidad...

El Resurgir del Descontento ante la IA

La transformación económica impulsada por la inteligencia artificial ha comenzado a causar despidos masivos en empresas como IBM y Salesforce, lo que ha llevado a una creciente preocupación entre los...

Ética laboral digital: Responsabilidad en la era de la IA

La mano de obra digital se está volviendo cada vez más común en el lugar de trabajo, pero se han implementado pocas reglas aceptadas para gobernarla. Los directores ejecutivos enfrentan el desafío de...

Anthropic lanza Petri, herramienta para auditorías automatizadas de seguridad en IA

Anthropic ha presentado Petri, una herramienta de auditoría de seguridad de IA de código abierto que utiliza agentes autónomos para probar modelos de lenguaje grande (LLMs) en busca de comportamientos...

El Acta de IA de la UE y el GDPR: ¿Choque o Sinergia?

La Ley de IA de la UE y el RGPD tienen interacciones significativas y similitudes en sus principios, como la transparencia y la gestión de riesgos. Ambos marcos requieren que se implementen medidas de...