Comment Choisir les Bons Outils de Gouvernance de l’IA : Une Initiative Conjointe avec le Groupe Tokio Marine
Avec l’adoption croissante de l’IA générative, les risques qui y sont associés se multiplient. Les outils de gouvernance de l’IA offrent une solution pour gérer ces risques, mais dans un marché encombré et en constante évolution, choisir la bonne solution est loin d’être simple. Pour relever ce défi, une collaboration a été établie avec Tokio Marine Holdings et Tokio Marine & Nichido Systems afin de concevoir un processus d’évaluation structuré.
Les Risques dans les Applications d’IA Générative
L’IA générative progresse à un rythme remarquable, avec des applications allant du service client à la conception de produits. Cependant, avec cette adoption rapide, de nouveaux risques émergent, dépassant largement les défis traditionnels des systèmes informatiques.
- Risques juridiques : Les questions de responsabilité demeurent floues en ce qui concerne l’IA. Si un système d’IA tombe en panne ou génère des résultats nuisibles, qui est responsable ? Cette ambiguïté représente une préoccupation majeure pour de nombreuses entreprises.
- Risques sociaux : Les modèles qui diffusent involontairement des informations privées ou renforcent des biais peuvent miner la confiance du public et provoquer des crises de réputation.
- Risques techniques : Contrairement aux bogues logiciels conventionnels, les vulnérabilités de l’IA proviennent souvent des données elles-mêmes, rendant leur détection et leur contrôle plus difficiles.
Ces risques peuvent entraîner des pertes financières directes, des dommages à la réputation et une confiance diminuée des parties prenantes. Il est donc essentiel pour les entreprises de concilier les avantages de l’IA générative avec des mesures proactives pour anticiper et atténuer ces risques évolutifs.
Utilisation des Outils de Gouvernance de l’IA pour Gérer les Risques
Les outils de gouvernance de l’IA se divisent principalement en deux catégories :
- Outils de protection : Ces outils surveillent en temps réel les entrées et sorties des systèmes d’IA, empêchant ainsi la diffusion d’informations nuisibles ou biaisées.
- Outils de test : Contrairement aux outils de protection, les outils de test évaluent les modèles dans des conditions contrôlées pour détecter les anomalies avant le déploiement des systèmes.
En choisissant soigneusement et en mettant en œuvre ces outils, les organisations peuvent réduire les risques associés à l’IA générative.
Le Défi de la Sélection des Outils de Gouvernance de l’IA
Choisir le bon outil pour votre organisation n’est pas un processus simple. Le marché est encombré de solutions qui varient largement en termes de portée et de maturité. Cela crée deux défis majeurs :
- Comparaisons fonctionnelles : Les fonctions centrales des outils de gouvernance de l’IA, telles que la détection d’informations nuisibles, sont souvent définies à un niveau très abstrait, rendant les comparaisons justes difficiles.
- Évaluation fonctionnelle : Il est essentiel d’évaluer les outils non seulement sur leurs capacités actuelles, mais aussi sur leur alignement avec les exigences réglementaires les plus récentes.
Approche Conjointe avec le Groupe Tokio Marine
Pour relever ces défis, une approche conjointe a été établie avec Tokio Marine Holdings et Tokio Marine & Nichido Systems pour évaluer et sélectionner les outils de gouvernance de l’IA. Cette approche comprend :
- Établissement de perspectives d’évaluation : En combinant des cadres d’évaluation des organisations externes, un ensemble de critères d’évaluation universels a été élaboré.
- Création de jeux de données d’évaluation : Un vaste ensemble de données a été développé, permettant une évaluation quantitative des performances des outils.
- Comparaison et évaluation des outils : Plus de 20 fournisseurs d’outils de gouvernance de l’IA ont été contactés pour une évaluation fonctionnelle détaillée dans des environnements de preuve de concept.
Conclusion
À travers cette initiative conjointe, l’objectif est d’identifier la solution la plus adaptée et de la mettre en pratique d’ici l’exercice fiscal 2025. Cela permettra non seulement de réduire les risques associés à l’IA générative, mais aussi de favoriser son adoption plus large, renforçant ainsi l’efficacité opérationnelle et la compétitivité des entreprises.