Ce que l’Institut de Sécurité de l’IA du Royaume-Uni signifie pour les acheteurs, pas pour les constructeurs
L’établissement par le gouvernement britannique de l’Institut de Sécurité de l’IA (AISI) a d’abord été perçu par les acheteurs et les équipes d’approvisionnement comme une forme de réassurance, leur fournissant des indicateurs faciles pour savoir quels modèles de pointe en IA ont été soumis à une évaluation de sécurité dirigée par le gouvernement. Cependant, le comportement d’un service d’IA reste sous la responsabilité de celui qui le déploie. Cela signifie que les organisations doivent continuer à mener leur propre diligence raisonnable pour garantir que les modèles et les services associés fonctionnent comme prévu.
Que doivent faire les acheteurs d’IA ?
L’AISI ne teste pas les effets d’un modèle d’IA de pointe sur des organisations, des déploiements et des industries spécifiques. Il ne fournit également pas de conseils sur la manière dont une organisation devrait déployer une IA en toute sécurité, ni sur la manière d’atténuer les risques soulevés dans son évaluation d’un modèle d’IA de pointe. Cela signifie que les déployeurs de systèmes d’IA sont responsables de tout ce qui peut mal tourner lors du déploiement.
Bien que l’AISI puisse fournir un tampon de « fournisseur de confiance » pour ces modèles, son rôle est plus proche de celui d’un émetteur de normes de sécurité pour outils électriques. Si l’acheteur manipule ensuite un câble sous tension ou ne porte pas d’équipement de protection, il est responsable des conséquences de ces actions.
Contrairement à un outil électrique, certains des risques liés au déploiement de l’IA ne sont pas aussi évidents. Les acheteurs doivent être conscients de la conformité réglementaire, en respectant les réglementations et protections régionales et nationales, ainsi que de la confidentialité et du traitement correct des données. Comprendre comment une IA interagira lors d’une panne ou d’une entrée incorrecte peut éviter des dommages réputationnels coûteux. Les organisations doivent également suivre la dérive des modèles pour garantir la stabilité des performances.
Surveillance continue des modèles d’IA
Une partie de cette observation se fait après le déploiement, les régulateurs changeant fréquemment les règles concernant l’IA. La surveillance des pannes et de la dérive des modèles est un processus continu. Les acheteurs doivent être attentifs au cycle de vie de chaque modèle et s’assurer qu’ils ont un fournisseur de modèles d’IA actif qui publie régulièrement des mises à jour pour améliorer la sécurité et la sûreté des modèles.
Pour les acheteurs, la réponse pratique n’est pas de se fier uniquement à l’AISI, mais d’évoluer leurs propres normes d’approvisionnement et de contrat. L’AISI et d’autres instituts de sécurité de l’IA à travers le monde ont qualifié l’IA de logiciel à haut risque, et donc l’approvisionnement de ce logiciel devrait ressembler à d’autres achats de logiciels critiques pour la sécurité plutôt qu’à des processus d’achat SaaS standards.
Comme plusieurs experts juridiques l’ont noté, la responsabilité ne peut pas être externalisée par l’approvisionnement. En discutant de l’utilisation de l’IA dans un tribunal, il a été souligné qu’il est essentiel de s’assurer que l’on procure le bon type d’IA pour une tâche, et que ce type est déterminé en partie par l’importance de la responsabilité humaine.
Conclusion
Bien que l’AISI puisse aider à inciter ces fournisseurs d’IA à fournir plus de retours, de responsabilité et de transparence sur les défauts des modèles et les mises à jour, cela ne supprime pas le risque dans son ensemble. Le point clé est que l’AISI n’a pas réduit la responsabilité, mais a augmenté les attentes de toutes les parties impliquées. L’AISI peut filtrer les modèles d’IA vraiment mauvais des cycles d’approvisionnement, mais cela met également la pression sur les acheteurs pour qu’ils testent correctement les modèles d’IA et s’assurent qu’ils conviennent parfaitement à leur propre déploiement.