Cinq projets innovants pour détecter les deepfakes et atténuer les biais en intelligence artificielle

A robot holding a digital shield

IndiaAI sélectionne cinq projets d’IA pour la détection de deepfakes, l’atténuation des biais et les tests d’IA générative

Le gouvernement central indien, à travers son initiative d’intelligence artificielle IndiaAI, a sélectionné cinq projets visant à renforcer son cadre « IA Sûre et Fiable », en mettant l’accent sur la détection des deepfakes, l’atténuation des biais et la sécurité des systèmes d’IA générative.

Cette annonce fait suite à la deuxième vague d’appels à propositions lancée en décembre 2024 dans le cadre du pilier IA Sûre et Fiable de la mission IndiaAI, qui vise à garantir le déploiement éthique et transparent des systèmes d’IA en Inde.

Selon le Ministère de l’Électronique et des Technologies de l’Information (MeitY), plus de 400 propositions ont été reçues d’institutions académiques, de startups, d’organisations de recherche et de la société civile. Un comité multi-parties prenantes a examiné les soumissions et sélectionné cinq projets.

Cinq projets sélectionnés pour le développement d’une IA sûre et fiable

Les propositions retenues incluent ‘Saakshya’, un cadre multi-agent pour la détection et la gouvernance des deepfakes développé par IIT Jodhpur et IIT Madras, ainsi que ‘AI Vishleshak’, un outil développé par IIT Mandi et la Direction des Services Médico-Légaux de l’Himachal Pradesh, qui améliore la détection des deepfakes audio-visuels et des falsifications de signatures à l’aide de l’IA explicable.

Un autre projet de IIT Kharagpur développera un système de détection de deepfakes vocaux en temps réel, tandis que Digital Futures Lab et Karya se concentreront sur l’atténuation des biais de genre dans les ensembles de données d’IA agricoles.

Une cinquième initiative, dirigée par Globals ITES Pvt Ltd et IIIT Dharwad, créera ‘Anvil’, un outil de test de pénétration et d’évaluation pour les systèmes d’IA générative.

Écosystème de gouvernance de l’IA

IndiaAI a déclaré que les projets sélectionnés renforceraient son engagement à construire un écosystème d’IA sécurisé, transparent et inclusif. Les initiatives combinent la criminalistique en temps réel, les tests de résilience et les audits de biais pour garantir que les modèles d’IA utilisés en Inde soient responsables et fiables.

« Ces projets représentent la volonté de l’Inde non seulement d’adopter l’IA, mais aussi de la façonner de manière responsable », a déclaré un responsable impliqué dans la mission IndiaAI. « En développant des outils indigènes pour la détection, les tests et l’évaluation de l’équité, l’Inde vise à mener au niveau mondial en matière d’innovation IA sûre. »

La mission plus large d’IndiaAI

IndiaAI, une division commerciale indépendante sous le MeitY, sert d’agence de mise en œuvre pour la stratégie nationale d’IA. Elle travaille à améliorer l’accès à l’intelligence artificielle, à promouvoir des pratiques d’IA éthiques et à favoriser l’autonomie technologique.

Le pilier IA Sûre et Fiable fait partie de l’approche multidimensionnelle d’IndiaAI, qui comprend la construction de modèles fondamentaux, l’avancement de l’infrastructure de calcul IA, et la promotion de l’adoption responsable de l’IA dans des secteurs tels que l’agriculture, la santé et la sécurité publique.

Au cours des derniers mois, IndiaAI a également établi des partenariats avec des instituts de recherche de premier plan et des acteurs du secteur privé pour faire avancer les cadres de gouvernance de l’IA et l’éthique des données, signalant une emphase croissante sur l’équilibre entre innovation et responsabilité dans l’écosystème numérique en pleine expansion du pays.

La mission IndiaAI a été approuvée avec un budget de ₹10,371.92 crore pour une période de cinq ans.

Liste des projets sélectionnés pour la mission IndiaAI

Catégories Projets Organisations
Outil de détection de deepfake Saakshya : Cadre multi-agent, RAG-Amélioré pour la détection et la gouvernance des deepfakes IIT Jodhpur (CI) & IIT Madras
Outil de détection de deepfake AI Vishleshak : Amélioration de la détection des deepfakes audio-visuels et des falsifications de signatures avec robustesse adversariale, explicabilité et généralisation de domaine IIT Mandi & Direction des Services Médico-Légaux, Himachal Pradesh
Outil de détection de deepfake Système de détection de deepfake vocal en temps réel IIT Kharagpur
Atténuation des biais Évaluation des biais de genre dans les LLM agricoles – Création de biens publics numériques pour l’évaluation et le travail de données équitables Digital Futures Lab & Karya
Tests de pénétration et évaluation Anvil : Outil de test de pénétration et d’évaluation pour les LLM et l’IA générative Globals ITES Pvt Ltd & IIIT Dharwad

Articles

Collaboration et compétition : l’avenir de la gouvernance de l’IA

Le projet Red Cell vise à remettre en question les hypothèses et les idées reçues afin d'encourager des approches alternatives face aux défis de la politique étrangère et de sécurité nationale des...

Politique nationale de l’IA : vers un marché de 2,7 milliards de dollars au Pakistan

Le Pakistan a introduit une politique nationale ambitieuse en matière d'IA visant à créer un marché domestique de 2,7 milliards de dollars en cinq ans. Cette politique repose sur six piliers...

Gouvernance éthique de l’IA : un guide pratique pour les entreprises

Ce guide pratique souligne l'importance de la gouvernance éthique de l'IA pour les entreprises qui souhaitent intégrer l'IA de manière responsable. Il fournit des étapes concrètes pour établir un...

Stratégies IA pour transformer l’enseignement supérieur

L'intelligence artificielle transforme l'apprentissage, l'enseignement et les opérations dans l'enseignement supérieur en offrant des outils personnalisés pour le succès des étudiants et en renforçant...

Gouvernance de l’IA : Vers des normes éthiques en Afrique

L'intelligence artificielle (IA) façonne progressivement les services financiers, l'agriculture, l'éducation et même la gouvernance en Afrique. Pour réussir, les politiques organisationnelles doivent...

L’impact imminent de l’IA sur l’emploi

La transformation économique liée à l'IA a commencé, entraînant des licenciements massifs dans des entreprises comme IBM et Salesforce. Les résultats d'une enquête révèlent que les employés craignent...

Éthique du travail numérique : Qui est responsable de l’IA au sein de la main-d’œuvre ?

Le travail numérique devient de plus en plus courant sur le lieu de travail, mais peu de règles largement acceptées ont été mises en œuvre pour le régir. Les PDG doivent voir l'IA non seulement comme...

Anthropic présente Petri, l’outil d’audit automatisé pour la sécurité des IA

Anthropic a lancé Petri, un outil d'audit de sécurité AI open source conçu pour tester automatiquement les modèles de langage de grande taille (LLM) pour des comportements risqués. Cet outil utilise...

Conflit ou harmonie entre l’IA et la protection des données ?

L'IA est le mot à la mode dans le secteur juridique, et la loi sur l'IA de l'UE est un sujet d'intérêt majeur pour de nombreux professionnels du droit. Cet article examine les interactions...