Gouvernance de l’IA : Vers des écosystèmes déployés en toute sécurité

A broken chain

Au-delà des modèles sûrs : Pourquoi la gouvernance de l’IA doit s’attaquer aux écosystèmes non sécurisés

Un outil sûr peut devenir dangereux entre de mauvaises mains, tout comme un modèle d’IA bien aligné peut causer des dommages lorsqu’il est déployé dans des systèmes non alignés, opaques ou mal préparés. Bien que l’attention mondiale portée à la gouvernance de l’IA soit en augmentation, une grande partie de l’accent reste mise sur la sûreté des modèles – en veillant à ce que l’outil fonctionne comme prévu. Cependant, certains des risques les plus immédiats ne proviennent pas de l’IA elle-même, mais de la manière dont elle fonctionne dans son contexte, lorsqu’elle est intégrée dans des institutions présentant des incitatifs conflictuels, un supervision faible ou des garanties inadéquates.

La loi AI Act de l’UE jette des bases importantes en introduisant des obligations procédurales et techniques et en restreignant certaines applications à haut risque. Cependant, comme de nombreux efforts actuels, elle se concentre principalement sur les propriétés des modèles d’IA, plutôt que sur les environnements dans lesquels ils sont déployés. Pour gouverner efficacement l’IA, nous devons élargir notre attention des modèles sûrs aux écosystèmes sûrs.

Des risques de déploiement non théoriques

Les systèmes de recommandation sur les plateformes de médias sociaux, par exemple, sont techniquement solides – construits pour optimiser l’engagement des utilisateurs. Cependant, en agissant ainsi, ils ont été trouvés pour amplifier la polarisation et la désinformation. Le mal ne réside pas dans la logique de l’algorithme, mais dans l’incitation de la plateforme à prioriser l’attention à tout prix.

De même, les outils d’IA utilisés dans le recrutement ont montré de la discrimination raciale et de genre malgré le respect des normes techniques. Un système a classé les candidats plus bas pour avoir fréquenté des collèges pour femmes, non pas en raison d’un échec technique, mais parce qu’il a hérité de biais issus des décisions de recrutement passées et a été déployé sans supervision ou contestation significative.

De modèles sûrs à des écosystèmes sûrs

Malgré les risques évidents d’écosystèmes de déploiement non sécurisés, l’approche actuelle de la gouvernance de l’IA met encore fortement l’accent sur des interventions pré-déploiement, telles que la recherche sur l’alignement, les outils d’interprétabilité et les tests de résistance, visant à garantir que le modèle lui-même soit techniquement solide. Les initiatives de gouvernance comme l’AI Act de l’UE, bien que vitales, imposent principalement des obligations aux fournisseurs et aux développeurs pour assurer la conformité par la documentation, la transparence et les plans de gestion des risques.

Cependant, la gouvernance de ce qui se passe après le déploiement, lorsque ces modèles entrent dans des institutions avec leurs propres incitations, infrastructures et supervision, reçoit une attention comparativement moindre. Par exemple, bien que l’AI Act de l’UE introduise une surveillance post-marché et des obligations pour les déployeurs de systèmes d’IA à haut risque, ces dispositions restent limitées en portée. La surveillance se concentre principalement sur la conformité technique et la performance, avec peu d’attention aux impacts institutionnels, sociaux ou systémiques plus larges.

Les écosystèmes de déploiement comme source de risques

Comme l’ont montré les cas d’IA biaisée en matière de recrutement et de systèmes de recommandation polarisants, c’est dans l’écosystème de déploiement que bon nombre des risques se matérialisent. Cet écosystème est un environnement complexe et interconnecté impliquant les institutions qui déploient l’IA, les objectifs qu’elles optimisent (tels que l’efficacité, l’engagement ou le profit), l’infrastructure technique et organisationnelle soutenant son utilisation, et les contextes légaux, réglementaires et sociaux dans lesquels elle opère.

Chaque élément de cet écosystème est interdépendant : les choix faits dans un domaine influencent et sont influencés par d’autres. Par exemple, si les déployeurs manquent de formation adéquate parce que les structures d’incitation privilégient un déploiement rapide plutôt qu’une préparation approfondie, ou si le public n’a pas de recours pour contester les décisions automatisées, alors la sécurité technique seule ne peut pas prévenir les dommages en aval.

Un cadre d’évaluation des risques contextuels

Pour aider à déplacer l’accent au-delà de la gouvernance centrée sur le modèle, il est crucial de mettre en évidence quatre caractéristiques critiques des écosystèmes de déploiement qui peuvent amplifier ou atténuer les risques de l’IA en pratique :

  • Alignement des incitatifs : La gouvernance doit considérer si les institutions déployant des systèmes d’IA privilégient le bien public plutôt que des objectifs à court terme, tels que le profit ou l’engagement.
  • Préparation contextuelle : Tous les écosystèmes de déploiement ne sont pas également équipés pour gérer les risques de l’IA. Des facteurs sous-jacents tels que les protections juridiques, l’infrastructure technique et la résilience institutionnelle influencent la manière dont un modèle peut être utilisé de manière responsable.
  • Responsabilité institutionnelle et transparence du pouvoir : Les institutions déployant des systèmes d’IA doivent être structurées de manière responsable, contestable et équitable, avec des lignes de responsabilité claires et des mécanismes pour contester les décisions.
  • Surveillance adaptative et risques émergents : Les systèmes d’IA interagissent avec des environnements sociaux dynamiques, produisant souvent des effets imprévus. La gouvernance doit donc être itérative, capable de surveiller les résultats du monde réel et de répondre aux nouveaux risques à mesure qu’ils émergent.

Conclusion

En conclusion, nous n’avons pas seulement besoin de modèles sûrs, mais d’écosystèmes de déploiement sûrs. Alors que l’IA devient de plus en plus intégrée dans nos sociétés, les risques ne résident pas seulement dans un code défaillant, mais dans les angles morts de la gouvernance : des incitations que nous n’examinons pas, des contextes que nous n’évaluons pas et des dommages que nous ne remarquons que trop tard. Il est essentiel d’élargir le champ de la gouvernance pour inclure la sécurité de l’écosystème de déploiement de manière systématique.

Articles

L’EU AI Act et l’avenir des drones

Cet article examine l'impact de la loi sur l'IA de l'UE sur l'utilisation des drones. Il met en lumière les implications réglementaires et les défis auxquels les entreprises doivent faire face dans ce...

L’EU AI Act et l’avenir des drones

Cet article examine l'impact de la loi sur l'IA de l'UE sur l'utilisation des drones. Il met en lumière les implications réglementaires et les défis auxquels les entreprises doivent faire face dans ce...

L’importance incontournable de l’IA responsable

Les entreprises sont conscientes de la nécessité d'une IA responsable, mais beaucoup la considèrent comme une réflexion après coup. En intégrant des pratiques de données fiables dès le départ, les...

Modèle de gouvernance AI : mettez fin à l’ère du Shadow IT

Les outils d'intelligence artificielle (IA) se répandent rapidement dans les lieux de travail, transformant la façon dont les tâches quotidiennes sont effectuées. Les organisations doivent établir des...

L’UE accorde un délai aux entreprises pour se conformer aux règles de l’IA

L'UE prévoit de retarder l'application des règles à haut risque de la loi sur l'IA jusqu'à fin 2027, afin de donner aux entreprises plus de temps pour se conformer. Les groupes de défense des droits...

Tensions autour des restrictions sur les exportations de puces AI et le GAIN AI Act

La Maison Blanche s'oppose au GAIN AI Act, qui vise à donner la priorité aux entreprises américaines pour l'achat de puces AI avancées avant leur vente à des pays étrangers. Cette mesure met en...

Défis de l’IA : Les experts appellent à des réformes pour l’industrie medtech en Europe

Un panel d'experts a exprimé des inquiétudes concernant la législation récemment adoptée sur l'intelligence artificielle (IA) de l'UE, affirmant qu'elle représente un fardeau significatif pour les...

Innover responsablement grâce à l’IA éthique

Les entreprises cherchent à innover avec l'intelligence artificielle, mais souvent sans les garde-fous nécessaires. En intégrant la conformité et l'éthique dans le développement technologique, elles...

Risques cachés de conformité liés à l’IA dans le recrutement

L'intelligence artificielle transforme la façon dont les employeurs recrutent et évaluent les talents, mais elle introduit également des risques juridiques importants en vertu des lois fédérales sur...