IndiaAI sélectionne cinq projets d’IA pour la détection de deepfakes, l’atténuation des biais et les tests d’IA générative
Le gouvernement central indien, à travers son initiative d’intelligence artificielle IndiaAI, a sélectionné cinq projets visant à renforcer son cadre « IA Sûre et Fiable », en mettant l’accent sur la détection des deepfakes, l’atténuation des biais et la sécurité des systèmes d’IA générative.
Cette annonce fait suite à la deuxième vague d’appels à propositions lancée en décembre 2024 dans le cadre du pilier IA Sûre et Fiable de la mission IndiaAI, qui vise à garantir le déploiement éthique et transparent des systèmes d’IA en Inde.
Selon le Ministère de l’Électronique et des Technologies de l’Information (MeitY), plus de 400 propositions ont été reçues d’institutions académiques, de startups, d’organisations de recherche et de la société civile. Un comité multi-parties prenantes a examiné les soumissions et sélectionné cinq projets.
Cinq projets sélectionnés pour le développement d’une IA sûre et fiable
Les propositions retenues incluent ‘Saakshya’, un cadre multi-agent pour la détection et la gouvernance des deepfakes développé par IIT Jodhpur et IIT Madras, ainsi que ‘AI Vishleshak’, un outil développé par IIT Mandi et la Direction des Services Médico-Légaux de l’Himachal Pradesh, qui améliore la détection des deepfakes audio-visuels et des falsifications de signatures à l’aide de l’IA explicable.
Un autre projet de IIT Kharagpur développera un système de détection de deepfakes vocaux en temps réel, tandis que Digital Futures Lab et Karya se concentreront sur l’atténuation des biais de genre dans les ensembles de données d’IA agricoles.
Une cinquième initiative, dirigée par Globals ITES Pvt Ltd et IIIT Dharwad, créera ‘Anvil’, un outil de test de pénétration et d’évaluation pour les systèmes d’IA générative.
Écosystème de gouvernance de l’IA
IndiaAI a déclaré que les projets sélectionnés renforceraient son engagement à construire un écosystème d’IA sécurisé, transparent et inclusif. Les initiatives combinent la criminalistique en temps réel, les tests de résilience et les audits de biais pour garantir que les modèles d’IA utilisés en Inde soient responsables et fiables.
« Ces projets représentent la volonté de l’Inde non seulement d’adopter l’IA, mais aussi de la façonner de manière responsable », a déclaré un responsable impliqué dans la mission IndiaAI. « En développant des outils indigènes pour la détection, les tests et l’évaluation de l’équité, l’Inde vise à mener au niveau mondial en matière d’innovation IA sûre. »
La mission plus large d’IndiaAI
IndiaAI, une division commerciale indépendante sous le MeitY, sert d’agence de mise en œuvre pour la stratégie nationale d’IA. Elle travaille à améliorer l’accès à l’intelligence artificielle, à promouvoir des pratiques d’IA éthiques et à favoriser l’autonomie technologique.
Le pilier IA Sûre et Fiable fait partie de l’approche multidimensionnelle d’IndiaAI, qui comprend la construction de modèles fondamentaux, l’avancement de l’infrastructure de calcul IA, et la promotion de l’adoption responsable de l’IA dans des secteurs tels que l’agriculture, la santé et la sécurité publique.
Au cours des derniers mois, IndiaAI a également établi des partenariats avec des instituts de recherche de premier plan et des acteurs du secteur privé pour faire avancer les cadres de gouvernance de l’IA et l’éthique des données, signalant une emphase croissante sur l’équilibre entre innovation et responsabilité dans l’écosystème numérique en pleine expansion du pays.
La mission IndiaAI a été approuvée avec un budget de ₹10,371.92 crore pour une période de cinq ans.
Liste des projets sélectionnés pour la mission IndiaAI
| Catégories | Projets | Organisations |
|---|---|---|
| Outil de détection de deepfake | Saakshya : Cadre multi-agent, RAG-Amélioré pour la détection et la gouvernance des deepfakes | IIT Jodhpur (CI) & IIT Madras |
| Outil de détection de deepfake | AI Vishleshak : Amélioration de la détection des deepfakes audio-visuels et des falsifications de signatures avec robustesse adversariale, explicabilité et généralisation de domaine | IIT Mandi & Direction des Services Médico-Légaux, Himachal Pradesh |
| Outil de détection de deepfake | Système de détection de deepfake vocal en temps réel | IIT Kharagpur |
| Atténuation des biais | Évaluation des biais de genre dans les LLM agricoles – Création de biens publics numériques pour l’évaluation et le travail de données équitables | Digital Futures Lab & Karya |
| Tests de pénétration et évaluation | Anvil : Outil de test de pénétration et d’évaluation pour les LLM et l’IA générative | Globals ITES Pvt Ltd & IIIT Dharwad |