Étude sur la Réglementation de l’IA : Le Projet de Consultation du TEC
Le Centre d’Ingénierie des Télécommunications (TEC) a récemment publié un projet de consultation qui s’inspire de l’Acte sur l’IA de l’UE. Ce document vise à établir des normes pour l’évaluation de la robustesse des systèmes d’intelligence artificielle (IA) dans un contexte où les entreprises doivent garantir la sécurité et l’efficacité de leurs modèles.
Auto-certification et Audit par des Tiers
Les entreprises déployant des technologies d’IA avec interface consommateur devront soit s’auto-certifier leurs modèles, soit faire appel à des agences tierces pour le faire. Les autorités gouvernementales n’interviendront pas pour vérifier la robustesse ou la sécurité des cas d’utilisation développés. Au lieu de cela, elles établiront des normes générales telles que la fiabilité, l’explicabilité, la transparence, la vie privée, et la sûreté que les entreprises devront respecter lors des tests de leurs modèles d’IA.
Développement des Normes
Actuellement, le TEC, le ministère de l’Électronique et des Technologies de l’Information (MeitY) ainsi que les parties prenantes de l’industrie travaillent à l’élaboration de ces normes. Ces normes serviront de base pour les tests internes ou les audits tiers des entreprises qui travaillent sur de grands modèles de langage (LLM) utilisés dans des domaines comme les voitures connectées, les drones, le métavers et les systèmes de santé.
Applications Critiques de l’IA
Pour des applications critiques de l’IA, telles que les voitures autonomes ou le diagnostic médical, il est prévu que les régulateurs sectoriels imposent des niveaux de tolérance comme références pour l’utilisation de la technologie IA.
Le Projet de Consultation
Le projet de consultation sur l’évaluation de la robustesse et la notation des systèmes d’IA est ouvert aux commentaires jusqu’au 15 décembre. Ce projet a été élaboré en consultation avec des responsables de MeitY et des entreprises technologiques. Une copie du projet a été examinée par des experts.
Définition de la Robustesse de l’IA
Selon le projet, la robustesse de l’IA est définie comme le degré auquel un système d’IA maintient sa correction fonctionnelle et reste insensible à des phénomènes adverses spécifiques dans les données, le modèle, ou l’environnement de déploiement. Le TEC recommande une approche basée sur les risques pour évaluer la robustesse des systèmes d’IA, similaire à l’Acte sur l’IA de l’Union Européenne.
Système de Classement à Trois Niveaux
Le document propose un système de classement à trois niveaux — risque élevé, risque moyen, et risque faible — pour la robustesse de l’IA, basé sur des paramètres tels que la portée des systèmes d’IA, les vulnérabilités, et le but de déploiement.
Évolution des Régulations
La démarche actuelle du gouvernement en matière de réglementation de l’IA diffère de ses approches antérieures, où MeitY avait demandé à tous les intermédiaires utilisant des modèles d’IA de demander l’autorisation du gouvernement et de marquer leurs plateformes comme « en cours de test » avant de les rendre accessibles au public. Ce processus a été assoupli, permettant aux entreprises de lancer des modèles d’IA non testés sans autorisation préalable.
Projets d’IA Responsable
Récemment, MeitY a approuvé huit projets d’IA responsable pour garantir une IA sûre et fiable, y compris un cadre de test de gouvernance de l’IA, des outils d’audit d’algorithmes, et un cadre de certification éthique de l’IA.