Le gouvernement britannique et l’utilisation de l’IA : une transparence remise en question
Le Premier ministre britannique, Keir Starmer, aspire à faire du pays un leader mondial en matière d’intelligence artificielle. Cependant, des préoccupations émergent quant à la transparence de l’utilisation de l’IA au sein du gouvernement. Des milliers de fonctionnaires, y compris ceux qui soutiennent directement le Premier ministre, utilisent un chatbot d’IA propriétaire pour mener à bien leur travail. Les responsables gouvernementaux refusent de préciser comment cet outil est utilisé, s’il fournit des conseils au Premier ministre ou comment les risques d’outputs biaisés ou inexacts sont gérés.
Un manque de transparence
Après avoir obtenu la première libération au monde des journaux ChatGPT en vertu de la législation sur la liberté d’information, il a été demandé à 20 départements gouvernementaux des enregistrements de leurs interactions avec Redbox, un outil d’IA générative développé en interne. Ce chatbot, alimenté par un modèle de langage, permet aux utilisateurs d’interroger des documents gouvernementaux et de générer des ébauches de briefings. Des essais préliminaires ont permis à un fonctionnaire d’affirmer avoir synthétisé 50 documents en « quelques secondes », au lieu d’une journée de travail entière.
Tous les départements contactés ont soit déclaré qu’ils n’utilisaient pas Redbox, soit ont refusé de fournir les transcriptions des interactions, qualifiant ces demandes de « vexatoires », un terme officiel utilisé pour répondre aux demandes de FOI qui pourrait causer un niveau de détresse ou d’irritation disproportionné.
Les données fournies par certains départements
Cependant, deux départements ont fourni des informations sur leur utilisation de Redbox. Le Bureau du Cabinet, qui soutient le Premier ministre, a déclaré que 3000 personnes de son département avaient participé à un total de 30 000 échanges avec Redbox. Il a ajouté qu’examiner ces échanges pour supprimer toute information sensible avant leur publication nécessiterait plus d’un an de travail. Le Ministère des Affaires et du Commerce a également décliné, indiquant qu’il détenait « plus de 13 000 invites et réponses » et qu’il ne serait pas faisable de les examiner pour un éventuel partage.
Lorsque des questions de suivi ont été posées sur l’utilisation de Redbox, les deux départements ont renvoyé aux questions au Ministère de la Science, de l’Innovation et de la Technologie (DSIT), qui supervise l’outil. Le DSIT a refusé de répondre à des questions spécifiques sur la façon dont les ministres reçoivent des conseils préparés à l’aide d’outils d’IA.
Les préoccupations des experts
Des experts s’inquiètent de l’utilisation d’outils d’IA générative. Les modèles de langage ont des problèmes bien documentés concernant le biais et l’exactitude difficiles à atténuer, ce qui soulève des questions sur la qualité des informations fournies par Redbox. La porte-parole du DSIT a déclaré que « personne ne devrait passer du temps sur quelque chose que l’IA peut faire mieux et plus rapidement », mais cela soulève des doutes sur la validité des informations utilisées pour influencer les décisions gouvernementales.
Catherine Flick, universitaire à l’Université de Staffordshire, souligne que le gouvernement doit servir le public et que les contribuables ont le droit de comprendre comment les décisions sont prises. La nature « boîte noire » des outils d’IA complique la compréhension de leur fonctionnement, ce qui réduit encore la transparence.
Réponses du Trésor
Un autre département, le Trésor, a répondu à la demande de FOI en affirmant que ses employés n’avaient pas accès à Redbox, et que « les outils GPT disponibles en interne au Trésor de Sa Majesté ne conservent pas l’historique des invites ». Cela suggère que le Trésor utilise des outils d’IA, mais sans tenir de registres complets de leur utilisation.
Selon Jon Baines, juriste au cabinet Mishcon de Reya, il est surprenant que le gouvernement ne puisse pas récupérer les invites utilisées dans ses systèmes internes de GPT. Bien que les tribunaux aient statué que les organismes publics ne sont pas tenus de conserver des documents avant leur archivage, une bonne gouvernance de l’information suggérerait qu’il est important de conserver des enregistrements, surtout s’ils ont été utilisés pour informer des politiques.
En revanche, l’expert en protection des données Tim Turner indique que le Trésor est dans son droit de ne pas conserver les invites d’IA selon les lois FOI, à moins qu’il n’y ait une règle spécifique à ce sujet.
Conclusion
Les préoccupations concernant l’utilisation de l’IA au sein du gouvernement britannique soulignent des questions cruciales sur la transparence et la responsabilité. Alors que les outils d’IA continuent de jouer un rôle croissant dans la prise de décision, il est essentiel que les citoyens aient accès à des informations claires sur la manière dont ces technologies influencent les politiques publiques.