L’ombre de l’IA sur les décisions gouvernementales britanniques

A light bulb

Le gouvernement britannique et l’utilisation de l’IA : une transparence remise en question

Le Premier ministre britannique, Keir Starmer, aspire à faire du pays un leader mondial en matière d’intelligence artificielle. Cependant, des préoccupations émergent quant à la transparence de l’utilisation de l’IA au sein du gouvernement. Des milliers de fonctionnaires, y compris ceux qui soutiennent directement le Premier ministre, utilisent un chatbot d’IA propriétaire pour mener à bien leur travail. Les responsables gouvernementaux refusent de préciser comment cet outil est utilisé, s’il fournit des conseils au Premier ministre ou comment les risques d’outputs biaisés ou inexacts sont gérés.

Un manque de transparence

Après avoir obtenu la première libération au monde des journaux ChatGPT en vertu de la législation sur la liberté d’information, il a été demandé à 20 départements gouvernementaux des enregistrements de leurs interactions avec Redbox, un outil d’IA générative développé en interne. Ce chatbot, alimenté par un modèle de langage, permet aux utilisateurs d’interroger des documents gouvernementaux et de générer des ébauches de briefings. Des essais préliminaires ont permis à un fonctionnaire d’affirmer avoir synthétisé 50 documents en « quelques secondes », au lieu d’une journée de travail entière.

Tous les départements contactés ont soit déclaré qu’ils n’utilisaient pas Redbox, soit ont refusé de fournir les transcriptions des interactions, qualifiant ces demandes de « vexatoires », un terme officiel utilisé pour répondre aux demandes de FOI qui pourrait causer un niveau de détresse ou d’irritation disproportionné.

Les données fournies par certains départements

Cependant, deux départements ont fourni des informations sur leur utilisation de Redbox. Le Bureau du Cabinet, qui soutient le Premier ministre, a déclaré que 3000 personnes de son département avaient participé à un total de 30 000 échanges avec Redbox. Il a ajouté qu’examiner ces échanges pour supprimer toute information sensible avant leur publication nécessiterait plus d’un an de travail. Le Ministère des Affaires et du Commerce a également décliné, indiquant qu’il détenait « plus de 13 000 invites et réponses » et qu’il ne serait pas faisable de les examiner pour un éventuel partage.

Lorsque des questions de suivi ont été posées sur l’utilisation de Redbox, les deux départements ont renvoyé aux questions au Ministère de la Science, de l’Innovation et de la Technologie (DSIT), qui supervise l’outil. Le DSIT a refusé de répondre à des questions spécifiques sur la façon dont les ministres reçoivent des conseils préparés à l’aide d’outils d’IA.

Les préoccupations des experts

Des experts s’inquiètent de l’utilisation d’outils d’IA générative. Les modèles de langage ont des problèmes bien documentés concernant le biais et l’exactitude difficiles à atténuer, ce qui soulève des questions sur la qualité des informations fournies par Redbox. La porte-parole du DSIT a déclaré que « personne ne devrait passer du temps sur quelque chose que l’IA peut faire mieux et plus rapidement », mais cela soulève des doutes sur la validité des informations utilisées pour influencer les décisions gouvernementales.

Catherine Flick, universitaire à l’Université de Staffordshire, souligne que le gouvernement doit servir le public et que les contribuables ont le droit de comprendre comment les décisions sont prises. La nature « boîte noire » des outils d’IA complique la compréhension de leur fonctionnement, ce qui réduit encore la transparence.

Réponses du Trésor

Un autre département, le Trésor, a répondu à la demande de FOI en affirmant que ses employés n’avaient pas accès à Redbox, et que « les outils GPT disponibles en interne au Trésor de Sa Majesté ne conservent pas l’historique des invites ». Cela suggère que le Trésor utilise des outils d’IA, mais sans tenir de registres complets de leur utilisation.

Selon Jon Baines, juriste au cabinet Mishcon de Reya, il est surprenant que le gouvernement ne puisse pas récupérer les invites utilisées dans ses systèmes internes de GPT. Bien que les tribunaux aient statué que les organismes publics ne sont pas tenus de conserver des documents avant leur archivage, une bonne gouvernance de l’information suggérerait qu’il est important de conserver des enregistrements, surtout s’ils ont été utilisés pour informer des politiques.

En revanche, l’expert en protection des données Tim Turner indique que le Trésor est dans son droit de ne pas conserver les invites d’IA selon les lois FOI, à moins qu’il n’y ait une règle spécifique à ce sujet.

Conclusion

Les préoccupations concernant l’utilisation de l’IA au sein du gouvernement britannique soulignent des questions cruciales sur la transparence et la responsabilité. Alors que les outils d’IA continuent de jouer un rôle croissant dans la prise de décision, il est essentiel que les citoyens aient accès à des informations claires sur la manière dont ces technologies influencent les politiques publiques.

Articles

Réglementations AI : L’Acte historique de l’UE face aux garde-fous australiens

Les entreprises mondiales adoptant l'intelligence artificielle doivent comprendre les réglementations internationales sur l'IA. L'Union européenne et l'Australie ont adopté des approches différentes...

Politique AI du Québec : Vers une éducation supérieure responsable

Le gouvernement du Québec a enfin publié une politique sur l'IA pour les universités et les CÉGEPs, presque trois ans après le lancement de ChatGPT. Bien que des préoccupations subsistent quant à la...

L’alphabétisation en IA : un nouveau défi de conformité pour les entreprises

L'adoption de l'IA dans les entreprises connaît une accélération rapide, mais cela pose un défi en matière de compréhension des outils. La loi sur l'IA de l'UE exige désormais que tout le personnel, y...

L’Allemagne se prépare à appliquer la loi sur l’IA pour stimuler l’innovation

Les régulateurs existants seront responsables de la surveillance de la conformité des entreprises allemandes avec la loi sur l'IA de l'UE, avec un rôle renforcé pour l'Agence fédérale des réseaux...

Urgence d’une régulation mondiale de l’IA d’ici 2026

Des dirigeants mondiaux et des pionniers de l'IA appellent l'ONU à établir des sauvegardes mondiales contraignantes pour l'IA d'ici 2026. Cette initiative vise à garantir la sécurité et l'éthique dans...

Gouvernance de l’IA dans une économie de confiance zéro

En 2025, la gouvernance de l'IA doit s'aligner avec les principes d'une économie de zéro confiance, garantissant que les systèmes d'IA sont responsables et transparents. Cela permet aux entreprises de...

Un nouveau cadre de gouvernance pour l’IA : vers un secrétariat technique

Le prochain cadre de gouvernance sur l'intelligence artificielle pourrait comporter un "secrétariat technique" pour coordonner les politiques de l'IA entre les départements gouvernementaux. Cela...

Innovations durables grâce à la sécurité de l’IA dans les pays du Global Majority

L'article discute de l'importance de la sécurité et de la sûreté de l'IA pour favoriser l'innovation dans les pays de la majorité mondiale. Il souligne que ces investissements ne sont pas des...

Vers une gouvernance de l’IA cohérente pour l’ASEAN

L'ASEAN adopte une approche de gouvernance de l'IA fondée sur des principes volontaires, cherchant à équilibrer l'innovation et la réglementation tout en tenant compte de la diversité des États...