India dévoile un cadre de gouvernance de l’IA en sept sutras
Dans une annonce politique significative coïncidant avec l’ouverture du Sommet sur l’Impact de l’IA, le gouvernement indien a lancé un cadre de gouvernance de l’IA basé sur des principes ancrés dans sept « sutras », visant à permettre une innovation en intelligence artificielle sûre, fiable et inclusive dans divers secteurs.
Un modèle axé sur les principes
Le cadre souligne la tentative de New Delhi de trouver un équilibre entre l’accélération de l’adoption de l’IA et l’intégration de garanties autour de la responsabilité, de l’équité et de l’impact sociétal plus large, alors que les cas d’utilisation de l’IA se développent rapidement dans les domaines de la santé, de l’agriculture, de l’éducation, de la mobilité et des services publics.
India a choisi une approche axée sur les principes plutôt qu’un régime réglementaire prescriptif. Les sept sutras constituent l’épine dorsale normative du cadre, destinés à guider les décideurs, les développeurs, les entreprises et les institutions publiques déployant des systèmes d’IA.
Les principes soulignent :
- Confiance et sécurité dans les systèmes d’IA
- Responsabilité et transparence, y compris l’explicabilité des décisions menées par l’IA
- Équité et non-discrimination
- Conception et supervision centrées sur l’humain
- Innovation avec responsabilité
- Robustesse et résilience
- Durabilité et bénéfice sociétal à long terme
Le gouvernement positionne le cadre comme un facilitateur de l’innovation, arguant que la clarté réglementaire et les garde-fous éthiques sont essentiels pour instaurer la confiance du public et pour adopter l’IA de manière responsable.
Impact du Sommet sur l’IA
L’annonce intervient alors que l’Inde accueille le Sommet sur l’Impact de l’IA, rassemblant des décideurs, des leaders industriels, des startups et des chercheurs du monde entier.
Lors de l’inauguration du sommet, il a été souligné que l’IA doit servir l’humanité à grande échelle et s’aligner sur l’élan plus large d’infrastructure numérique publique. Le gouvernement a réitéré que l’IA ne doit pas exacerber les inégalités ni concentrer le pouvoir entre les mains de quelques grandes entreprises technologiques mondiales.
Adoption de l’IA dans divers secteurs
Le cadre devrait guider les déploiements d’IA dans des secteurs à forte croissance, notamment :
- Santé : diagnostics, analyses prédictives et télémédecine
- Agriculture : surveillance des cultures, optimisation des rendements et intelligence météorologique
- Éducation : plateformes d’apprentissage adaptatif et technologies linguistiques
- Mobilité : systèmes de transport intelligents et solutions de sécurité routière
- Services publics : systèmes de traitement des plaintes et de livraison de l’aide activés par l’IA
Pour les startups et les entreprises, les principes fournissent une structure de référence pour un design responsable de l’IA, en particulier dans des domaines tels que la documentation, l’atténuation des biais, l’évaluation des risques et l’auditabilité.
Pas de loi sur l’IA autonome – pour l’instant
Un élément clé du cadre repose sur l’utilisation de l’architecture juridique existante plutôt que sur l’introduction d’une législation autonome sur l’IA à ce stade.
Un rapport a noté que de nombreux risques liés à l’IA sont déjà couverts par les lois actuelles, y compris les réglementations sur les technologies de l’information, les lois sur la protection des données et les dispositions criminelles. Au lieu d’adopter une loi spécifique à l’IA, le gouvernement a opté pour une approche calibrée, avec des examens périodiques et des amendements ciblés à mesure que la technologie évolue.
Le cadre propose également la création d’institutions nationales dédiées pour renforcer la supervision, y compris un groupe de gouvernance de l’IA pour la coordination inter-ministérielle et un institut de sécurité de l’IA axé sur les normes de test, la recherche sur la sécurité et l’évaluation des risques.
Les directives appellent également à des rapports de transparence, des divulgations claires lorsque le contenu est généré par l’IA, des mécanismes d’indemnisation accessibles pour ceux qui sont touchés négativement, et une coopération avec les régulateurs. Les applications à haut risque, en particulier celles affectant la sécurité publique, les droits ou les moyens de subsistance, seront soumises à des garanties renforcées et à une supervision humaine.
Ensemble, ces mesures positionnent le pays non seulement comme un adoptant à grande échelle de l’IA, mais aussi comme une voix émergente dans la définition d’une gouvernance de l’IA responsable et inclusive à l’échelle mondiale.