Cadres de Gestion des Risques de l’IA pour Gérer les Risques dans les Systèmes d’Intelligence Artificielle
La gestion des risques liés à l’intelligence artificielle (IA) est devenue une priorité pour les organisations qui développent et utilisent des systèmes d’IA. Des incidents récents, tels qu’une action en justice intentée par un maire australien contre OpenAI pour la diffusion d’une fausse information, illustrent les dangers potentiels associés à l’utilisation de ces technologies.
En 2023, Gartner a estimé que 85 % de tous les modèles d’IA échoueront, citant des problèmes liés aux données comme la principale cause d’échec. Les systèmes d’IA, qui consomment et traitent des données, présentent des risques importants, notamment en matière de governance responsable et de gestion des risques.
Qu’est-ce que le Risque en IA ?
Le risque en IA peut être exprimé par la formule suivante :
Risque en IA = (les chances qu’un modèle d’IA soit exploité ou donne un résultat erroné) x (les conséquences de l’erreur ou de l’exploitation)
Une réponse générée par l’IA devrait idéalement être précise et impartiale. Si les données d’entraînement sont défectueuses, les résultats seront inévitablement erronés. Les conséquences peuvent varier, allant d’une simple inconvénience à un impact majeur sur la vie des utilisateurs.
Risques Associés à l’IA
Les modèles d’IA partagent quatre ensembles principaux de risques :
- Risques de données
- Risques de modèle
- Risques opérationnels
- Risques éthiques ou juridiques
Risques de Données
La qualité des données utilisées pour développer un modèle d’IA est cruciale. Un accès non autorisé à la base de données peut compromettre l’intégrité des informations, conduisant à des sorties erronées.
Un exemple frappant est celui d’un algorithme de prédiction des risques en santé qui a démontré un biais racial, déterminant que les patients noirs avaient besoin de moins de soins que leurs homologues blancs, alors qu’ils étaient souvent plus malades.
Risques de Modèle
Les risques de modèle concernent les algorithmes d’apprentissage eux-mêmes. Des attaques adversariales peuvent altérer le fonctionnement des modèles, entraînant des décisions biaisées ou erronées.
Par exemple, un outil de recrutement développé par Amazon a dû être abandonné car il favorisait les candidatures masculines en raison d’un biais dans les données d’entraînement.
Risques Opérationnels
Les risques opérationnels incluent des problèmes internes tels que le décalage des données ou des défis d’intégration. Un exemple notable est celui de la carte Apple, qui offrait des limites de crédit différentes pour les hommes et les femmes, en raison d’un manque de transparence et d’un manque de responsabilité dans le processus décisionnel.
Risques Éthiques ou Juridiques
Les violations des réglementations sur la protection des données peuvent entraîner des sanctions sévères. Par exemple, OpenAI a été confrontée à une plainte en raison d’une hallucination de son chatbot, qui a faussement accusé un homme norvégien d’avoir tué ses enfants.
Cadres de Gestion des Risques en IA
Pour atténuer ces risques, il est essentiel d’utiliser un cadre de gestion des risques en IA. Ces cadres fournissent des lignes directrices et des meilleures pratiques pour gérer les problèmes potentiels tout au long du cycle de vie de l’IA.
Le Cadre de Gestion des Risques de l’IA de NIST
Le Cadre de Gestion des Risques de l’IA de NIST définit trois catégories de dommages possibles :
- Dommage aux personnes
- Dommage à l’organisation
- Dommage à l’écosystème
Ce cadre souligne l’importance de la transparence, de la responsabilité et de la mitigation des biais dans le développement des modèles d’IA.
L’Acte de l’IA de l’UE
Adopté en 2024, l’Acte de l’IA de l’UE est la première réglementation mondiale complète sur l’IA. Elle impose des exigences strictes pour les systèmes d’IA à haut risque et définit des mesures de protection des données.
Normes ISO/IEC
Les normes ISO/IEC fournissent des lignes directrices pour la protection des données, la sécurité et la responsabilité dans les systèmes d’IA, favorisant une approche basée sur le risque pour la gestion des vulnérabilités.
En conclusion, la gestion des risques liés à l’IA exige une approche stratégique et proactive. Les organisations doivent s’assurer qu’elles respectent les cadres et réglementations en place pour protéger les données et garantir la fiabilité de leurs systèmes d’IA.