L’ombre de l’IA sur les décisions gouvernementales britanniques

A light bulb

Le gouvernement britannique et l’utilisation de l’IA : une transparence remise en question

Le Premier ministre britannique, Keir Starmer, aspire à faire du pays un leader mondial en matière d’intelligence artificielle. Cependant, des préoccupations émergent quant à la transparence de l’utilisation de l’IA au sein du gouvernement. Des milliers de fonctionnaires, y compris ceux qui soutiennent directement le Premier ministre, utilisent un chatbot d’IA propriétaire pour mener à bien leur travail. Les responsables gouvernementaux refusent de préciser comment cet outil est utilisé, s’il fournit des conseils au Premier ministre ou comment les risques d’outputs biaisés ou inexacts sont gérés.

Un manque de transparence

Après avoir obtenu la première libération au monde des journaux ChatGPT en vertu de la législation sur la liberté d’information, il a été demandé à 20 départements gouvernementaux des enregistrements de leurs interactions avec Redbox, un outil d’IA générative développé en interne. Ce chatbot, alimenté par un modèle de langage, permet aux utilisateurs d’interroger des documents gouvernementaux et de générer des ébauches de briefings. Des essais préliminaires ont permis à un fonctionnaire d’affirmer avoir synthétisé 50 documents en « quelques secondes », au lieu d’une journée de travail entière.

Tous les départements contactés ont soit déclaré qu’ils n’utilisaient pas Redbox, soit ont refusé de fournir les transcriptions des interactions, qualifiant ces demandes de « vexatoires », un terme officiel utilisé pour répondre aux demandes de FOI qui pourrait causer un niveau de détresse ou d’irritation disproportionné.

Les données fournies par certains départements

Cependant, deux départements ont fourni des informations sur leur utilisation de Redbox. Le Bureau du Cabinet, qui soutient le Premier ministre, a déclaré que 3000 personnes de son département avaient participé à un total de 30 000 échanges avec Redbox. Il a ajouté qu’examiner ces échanges pour supprimer toute information sensible avant leur publication nécessiterait plus d’un an de travail. Le Ministère des Affaires et du Commerce a également décliné, indiquant qu’il détenait « plus de 13 000 invites et réponses » et qu’il ne serait pas faisable de les examiner pour un éventuel partage.

Lorsque des questions de suivi ont été posées sur l’utilisation de Redbox, les deux départements ont renvoyé aux questions au Ministère de la Science, de l’Innovation et de la Technologie (DSIT), qui supervise l’outil. Le DSIT a refusé de répondre à des questions spécifiques sur la façon dont les ministres reçoivent des conseils préparés à l’aide d’outils d’IA.

Les préoccupations des experts

Des experts s’inquiètent de l’utilisation d’outils d’IA générative. Les modèles de langage ont des problèmes bien documentés concernant le biais et l’exactitude difficiles à atténuer, ce qui soulève des questions sur la qualité des informations fournies par Redbox. La porte-parole du DSIT a déclaré que « personne ne devrait passer du temps sur quelque chose que l’IA peut faire mieux et plus rapidement », mais cela soulève des doutes sur la validité des informations utilisées pour influencer les décisions gouvernementales.

Catherine Flick, universitaire à l’Université de Staffordshire, souligne que le gouvernement doit servir le public et que les contribuables ont le droit de comprendre comment les décisions sont prises. La nature « boîte noire » des outils d’IA complique la compréhension de leur fonctionnement, ce qui réduit encore la transparence.

Réponses du Trésor

Un autre département, le Trésor, a répondu à la demande de FOI en affirmant que ses employés n’avaient pas accès à Redbox, et que « les outils GPT disponibles en interne au Trésor de Sa Majesté ne conservent pas l’historique des invites ». Cela suggère que le Trésor utilise des outils d’IA, mais sans tenir de registres complets de leur utilisation.

Selon Jon Baines, juriste au cabinet Mishcon de Reya, il est surprenant que le gouvernement ne puisse pas récupérer les invites utilisées dans ses systèmes internes de GPT. Bien que les tribunaux aient statué que les organismes publics ne sont pas tenus de conserver des documents avant leur archivage, une bonne gouvernance de l’information suggérerait qu’il est important de conserver des enregistrements, surtout s’ils ont été utilisés pour informer des politiques.

En revanche, l’expert en protection des données Tim Turner indique que le Trésor est dans son droit de ne pas conserver les invites d’IA selon les lois FOI, à moins qu’il n’y ait une règle spécifique à ce sujet.

Conclusion

Les préoccupations concernant l’utilisation de l’IA au sein du gouvernement britannique soulignent des questions cruciales sur la transparence et la responsabilité. Alors que les outils d’IA continuent de jouer un rôle croissant dans la prise de décision, il est essentiel que les citoyens aient accès à des informations claires sur la manière dont ces technologies influencent les politiques publiques.

Articles

L’EU AI Act et l’avenir des drones

Cet article examine l'impact de la loi sur l'IA de l'UE sur l'utilisation des drones. Il met en lumière les implications réglementaires et les défis auxquels les entreprises doivent faire face dans ce...

L’EU AI Act et l’avenir des drones

Cet article examine l'impact de la loi sur l'IA de l'UE sur l'utilisation des drones. Il met en lumière les implications réglementaires et les défis auxquels les entreprises doivent faire face dans ce...

L’importance incontournable de l’IA responsable

Les entreprises sont conscientes de la nécessité d'une IA responsable, mais beaucoup la considèrent comme une réflexion après coup. En intégrant des pratiques de données fiables dès le départ, les...

Modèle de gouvernance AI : mettez fin à l’ère du Shadow IT

Les outils d'intelligence artificielle (IA) se répandent rapidement dans les lieux de travail, transformant la façon dont les tâches quotidiennes sont effectuées. Les organisations doivent établir des...

L’UE accorde un délai aux entreprises pour se conformer aux règles de l’IA

L'UE prévoit de retarder l'application des règles à haut risque de la loi sur l'IA jusqu'à fin 2027, afin de donner aux entreprises plus de temps pour se conformer. Les groupes de défense des droits...

Tensions autour des restrictions sur les exportations de puces AI et le GAIN AI Act

La Maison Blanche s'oppose au GAIN AI Act, qui vise à donner la priorité aux entreprises américaines pour l'achat de puces AI avancées avant leur vente à des pays étrangers. Cette mesure met en...

Défis de l’IA : Les experts appellent à des réformes pour l’industrie medtech en Europe

Un panel d'experts a exprimé des inquiétudes concernant la législation récemment adoptée sur l'intelligence artificielle (IA) de l'UE, affirmant qu'elle représente un fardeau significatif pour les...

Innover responsablement grâce à l’IA éthique

Les entreprises cherchent à innover avec l'intelligence artificielle, mais souvent sans les garde-fous nécessaires. En intégrant la conformité et l'éthique dans le développement technologique, elles...

Risques cachés de conformité liés à l’IA dans le recrutement

L'intelligence artificielle transforme la façon dont les employeurs recrutent et évaluent les talents, mais elle introduit également des risques juridiques importants en vertu des lois fédérales sur...