Cinq projets innovants pour détecter les deepfakes et atténuer les biais en intelligence artificielle

A robot holding a digital shield

IndiaAI sélectionne cinq projets d’IA pour la détection de deepfakes, l’atténuation des biais et les tests d’IA générative

Le gouvernement central indien, à travers son initiative d’intelligence artificielle IndiaAI, a sélectionné cinq projets visant à renforcer son cadre « IA Sûre et Fiable », en mettant l’accent sur la détection des deepfakes, l’atténuation des biais et la sécurité des systèmes d’IA générative.

Cette annonce fait suite à la deuxième vague d’appels à propositions lancée en décembre 2024 dans le cadre du pilier IA Sûre et Fiable de la mission IndiaAI, qui vise à garantir le déploiement éthique et transparent des systèmes d’IA en Inde.

Selon le Ministère de l’Électronique et des Technologies de l’Information (MeitY), plus de 400 propositions ont été reçues d’institutions académiques, de startups, d’organisations de recherche et de la société civile. Un comité multi-parties prenantes a examiné les soumissions et sélectionné cinq projets.

Cinq projets sélectionnés pour le développement d’une IA sûre et fiable

Les propositions retenues incluent ‘Saakshya’, un cadre multi-agent pour la détection et la gouvernance des deepfakes développé par IIT Jodhpur et IIT Madras, ainsi que ‘AI Vishleshak’, un outil développé par IIT Mandi et la Direction des Services Médico-Légaux de l’Himachal Pradesh, qui améliore la détection des deepfakes audio-visuels et des falsifications de signatures à l’aide de l’IA explicable.

Un autre projet de IIT Kharagpur développera un système de détection de deepfakes vocaux en temps réel, tandis que Digital Futures Lab et Karya se concentreront sur l’atténuation des biais de genre dans les ensembles de données d’IA agricoles.

Une cinquième initiative, dirigée par Globals ITES Pvt Ltd et IIIT Dharwad, créera ‘Anvil’, un outil de test de pénétration et d’évaluation pour les systèmes d’IA générative.

Écosystème de gouvernance de l’IA

IndiaAI a déclaré que les projets sélectionnés renforceraient son engagement à construire un écosystème d’IA sécurisé, transparent et inclusif. Les initiatives combinent la criminalistique en temps réel, les tests de résilience et les audits de biais pour garantir que les modèles d’IA utilisés en Inde soient responsables et fiables.

« Ces projets représentent la volonté de l’Inde non seulement d’adopter l’IA, mais aussi de la façonner de manière responsable », a déclaré un responsable impliqué dans la mission IndiaAI. « En développant des outils indigènes pour la détection, les tests et l’évaluation de l’équité, l’Inde vise à mener au niveau mondial en matière d’innovation IA sûre. »

La mission plus large d’IndiaAI

IndiaAI, une division commerciale indépendante sous le MeitY, sert d’agence de mise en œuvre pour la stratégie nationale d’IA. Elle travaille à améliorer l’accès à l’intelligence artificielle, à promouvoir des pratiques d’IA éthiques et à favoriser l’autonomie technologique.

Le pilier IA Sûre et Fiable fait partie de l’approche multidimensionnelle d’IndiaAI, qui comprend la construction de modèles fondamentaux, l’avancement de l’infrastructure de calcul IA, et la promotion de l’adoption responsable de l’IA dans des secteurs tels que l’agriculture, la santé et la sécurité publique.

Au cours des derniers mois, IndiaAI a également établi des partenariats avec des instituts de recherche de premier plan et des acteurs du secteur privé pour faire avancer les cadres de gouvernance de l’IA et l’éthique des données, signalant une emphase croissante sur l’équilibre entre innovation et responsabilité dans l’écosystème numérique en pleine expansion du pays.

La mission IndiaAI a été approuvée avec un budget de ₹10,371.92 crore pour une période de cinq ans.

Liste des projets sélectionnés pour la mission IndiaAI

Catégories Projets Organisations
Outil de détection de deepfake Saakshya : Cadre multi-agent, RAG-Amélioré pour la détection et la gouvernance des deepfakes IIT Jodhpur (CI) & IIT Madras
Outil de détection de deepfake AI Vishleshak : Amélioration de la détection des deepfakes audio-visuels et des falsifications de signatures avec robustesse adversariale, explicabilité et généralisation de domaine IIT Mandi & Direction des Services Médico-Légaux, Himachal Pradesh
Outil de détection de deepfake Système de détection de deepfake vocal en temps réel IIT Kharagpur
Atténuation des biais Évaluation des biais de genre dans les LLM agricoles – Création de biens publics numériques pour l’évaluation et le travail de données équitables Digital Futures Lab & Karya
Tests de pénétration et évaluation Anvil : Outil de test de pénétration et d’évaluation pour les LLM et l’IA générative Globals ITES Pvt Ltd & IIIT Dharwad

Articles

L’EU AI Act et l’avenir des drones

Cet article examine l'impact de la loi sur l'IA de l'UE sur l'utilisation des drones. Il met en lumière les implications réglementaires et les défis auxquels les entreprises doivent faire face dans ce...

L’EU AI Act et l’avenir des drones

Cet article examine l'impact de la loi sur l'IA de l'UE sur l'utilisation des drones. Il met en lumière les implications réglementaires et les défis auxquels les entreprises doivent faire face dans ce...

L’importance incontournable de l’IA responsable

Les entreprises sont conscientes de la nécessité d'une IA responsable, mais beaucoup la considèrent comme une réflexion après coup. En intégrant des pratiques de données fiables dès le départ, les...

Modèle de gouvernance AI : mettez fin à l’ère du Shadow IT

Les outils d'intelligence artificielle (IA) se répandent rapidement dans les lieux de travail, transformant la façon dont les tâches quotidiennes sont effectuées. Les organisations doivent établir des...

L’UE accorde un délai aux entreprises pour se conformer aux règles de l’IA

L'UE prévoit de retarder l'application des règles à haut risque de la loi sur l'IA jusqu'à fin 2027, afin de donner aux entreprises plus de temps pour se conformer. Les groupes de défense des droits...

Tensions autour des restrictions sur les exportations de puces AI et le GAIN AI Act

La Maison Blanche s'oppose au GAIN AI Act, qui vise à donner la priorité aux entreprises américaines pour l'achat de puces AI avancées avant leur vente à des pays étrangers. Cette mesure met en...

Défis de l’IA : Les experts appellent à des réformes pour l’industrie medtech en Europe

Un panel d'experts a exprimé des inquiétudes concernant la législation récemment adoptée sur l'intelligence artificielle (IA) de l'UE, affirmant qu'elle représente un fardeau significatif pour les...

Innover responsablement grâce à l’IA éthique

Les entreprises cherchent à innover avec l'intelligence artificielle, mais souvent sans les garde-fous nécessaires. En intégrant la conformité et l'éthique dans le développement technologique, elles...

Risques cachés de conformité liés à l’IA dans le recrutement

L'intelligence artificielle transforme la façon dont les employeurs recrutent et évaluent les talents, mais elle introduit également des risques juridiques importants en vertu des lois fédérales sur...