AISI : Nouveaux défis pour les acheteurs d’IA

A futuristic, transparent AI-driven smart lock that adapts its security protocols in real-time, symbolizing the dynamic and protective nature of AI security for end-users.

Ce que l’Institut de Sécurité de l’IA du Royaume-Uni signifie pour les acheteurs, pas pour les constructeurs

L’établissement par le gouvernement britannique de l’Institut de Sécurité de l’IA (AISI) a d’abord été perçu par les acheteurs et les équipes d’approvisionnement comme une forme de réassurance, leur fournissant des indicateurs faciles pour savoir quels modèles de pointe en IA ont été soumis à une évaluation de sécurité dirigée par le gouvernement. Cependant, le comportement d’un service d’IA reste sous la responsabilité de celui qui le déploie. Cela signifie que les organisations doivent continuer à mener leur propre diligence raisonnable pour garantir que les modèles et les services associés fonctionnent comme prévu.

Que doivent faire les acheteurs d’IA ?

L’AISI ne teste pas les effets d’un modèle d’IA de pointe sur des organisations, des déploiements et des industries spécifiques. Il ne fournit également pas de conseils sur la manière dont une organisation devrait déployer une IA en toute sécurité, ni sur la manière d’atténuer les risques soulevés dans son évaluation d’un modèle d’IA de pointe. Cela signifie que les déployeurs de systèmes d’IA sont responsables de tout ce qui peut mal tourner lors du déploiement.

Bien que l’AISI puisse fournir un tampon de « fournisseur de confiance » pour ces modèles, son rôle est plus proche de celui d’un émetteur de normes de sécurité pour outils électriques. Si l’acheteur manipule ensuite un câble sous tension ou ne porte pas d’équipement de protection, il est responsable des conséquences de ces actions.

Contrairement à un outil électrique, certains des risques liés au déploiement de l’IA ne sont pas aussi évidents. Les acheteurs doivent être conscients de la conformité réglementaire, en respectant les réglementations et protections régionales et nationales, ainsi que de la confidentialité et du traitement correct des données. Comprendre comment une IA interagira lors d’une panne ou d’une entrée incorrecte peut éviter des dommages réputationnels coûteux. Les organisations doivent également suivre la dérive des modèles pour garantir la stabilité des performances.

Surveillance continue des modèles d’IA

Une partie de cette observation se fait après le déploiement, les régulateurs changeant fréquemment les règles concernant l’IA. La surveillance des pannes et de la dérive des modèles est un processus continu. Les acheteurs doivent être attentifs au cycle de vie de chaque modèle et s’assurer qu’ils ont un fournisseur de modèles d’IA actif qui publie régulièrement des mises à jour pour améliorer la sécurité et la sûreté des modèles.

Pour les acheteurs, la réponse pratique n’est pas de se fier uniquement à l’AISI, mais d’évoluer leurs propres normes d’approvisionnement et de contrat. L’AISI et d’autres instituts de sécurité de l’IA à travers le monde ont qualifié l’IA de logiciel à haut risque, et donc l’approvisionnement de ce logiciel devrait ressembler à d’autres achats de logiciels critiques pour la sécurité plutôt qu’à des processus d’achat SaaS standards.

Comme plusieurs experts juridiques l’ont noté, la responsabilité ne peut pas être externalisée par l’approvisionnement. En discutant de l’utilisation de l’IA dans un tribunal, il a été souligné qu’il est essentiel de s’assurer que l’on procure le bon type d’IA pour une tâche, et que ce type est déterminé en partie par l’importance de la responsabilité humaine.

Conclusion

Bien que l’AISI puisse aider à inciter ces fournisseurs d’IA à fournir plus de retours, de responsabilité et de transparence sur les défauts des modèles et les mises à jour, cela ne supprime pas le risque dans son ensemble. Le point clé est que l’AISI n’a pas réduit la responsabilité, mais a augmenté les attentes de toutes les parties impliquées. L’AISI peut filtrer les modèles d’IA vraiment mauvais des cycles d’approvisionnement, mais cela met également la pression sur les acheteurs pour qu’ils testent correctement les modèles d’IA et s’assurent qu’ils conviennent parfaitement à leur propre déploiement.

Articles

L’EU AI Act et l’avenir des drones

Cet article examine l'impact de la loi sur l'IA de l'UE sur l'utilisation des drones. Il met en lumière les implications réglementaires et les défis auxquels les entreprises doivent faire face dans ce...

L’EU AI Act et l’avenir des drones

Cet article examine l'impact de la loi sur l'IA de l'UE sur l'utilisation des drones. Il met en lumière les implications réglementaires et les défis auxquels les entreprises doivent faire face dans ce...

L’importance incontournable de l’IA responsable

Les entreprises sont conscientes de la nécessité d'une IA responsable, mais beaucoup la considèrent comme une réflexion après coup. En intégrant des pratiques de données fiables dès le départ, les...

Modèle de gouvernance AI : mettez fin à l’ère du Shadow IT

Les outils d'intelligence artificielle (IA) se répandent rapidement dans les lieux de travail, transformant la façon dont les tâches quotidiennes sont effectuées. Les organisations doivent établir des...

L’UE accorde un délai aux entreprises pour se conformer aux règles de l’IA

L'UE prévoit de retarder l'application des règles à haut risque de la loi sur l'IA jusqu'à fin 2027, afin de donner aux entreprises plus de temps pour se conformer. Les groupes de défense des droits...

Tensions autour des restrictions sur les exportations de puces AI et le GAIN AI Act

La Maison Blanche s'oppose au GAIN AI Act, qui vise à donner la priorité aux entreprises américaines pour l'achat de puces AI avancées avant leur vente à des pays étrangers. Cette mesure met en...

Défis de l’IA : Les experts appellent à des réformes pour l’industrie medtech en Europe

Un panel d'experts a exprimé des inquiétudes concernant la législation récemment adoptée sur l'intelligence artificielle (IA) de l'UE, affirmant qu'elle représente un fardeau significatif pour les...

Innover responsablement grâce à l’IA éthique

Les entreprises cherchent à innover avec l'intelligence artificielle, mais souvent sans les garde-fous nécessaires. En intégrant la conformité et l'éthique dans le développement technologique, elles...

Risques cachés de conformité liés à l’IA dans le recrutement

L'intelligence artificielle transforme la façon dont les employeurs recrutent et évaluent les talents, mais elle introduit également des risques juridiques importants en vertu des lois fédérales sur...