Les gouvernements utilisent l’IA pour rédiger des législations. Quels risques cela implique-t-il ?
Lorsque des responsables britanniques ont examiné les preuves d’une réforme indépendante du secteur de l’eau l’année dernière, ils ont rencontré un problème familier de la fonction publique : des dizaines de milliers de soumissions, toutes nécessitant une révision rapide avant la fermeture de la fenêtre de réforme. Ils se sont donc tournés vers un outil d’IA interne appelé Consult, qui a trié plus de 50 000 réponses en thèmes en environ deux heures. Cela a coûté 240 £, suivi de 22 heures de vérifications par des experts, une charge de travail qui, à l’échelle du gouvernement, pourrait faire économiser 75 000 jours d’analyse manuelle chaque année.
Un porte-parole du gouvernement britannique déclare que « l’IA a le potentiel de transformer le fonctionnement du gouvernement – en économisant du temps sur les tâches administratives de routine et en libérant les fonctionnaires pour se concentrer sur ce qui compte le plus : fournir de meilleurs services publics pour le peuple britannique. » Ils ajoutent qu’ils veillent à son utilisation responsable dans tout le gouvernement avec des directives et des audits.
Les défis de l’utilisation de l’IA
Chris Schmitz, chercheur, souligne que le véritable défi n’est pas seulement d’analyser le matériel de consultation, mais d’empêcher le processus lui-même d’être manipulé. Il suggère que pour éviter d’inonder la participation publique, il serait judicieux de demander à chaque citoyen d’exprimer une seule chose. Sans cette protection, « le consentement public peut être rapidement délégitimé par l’IA », ajoutant qu’il existe déjà un outil pour s’opposer aux demandes de planification au Royaume-Uni avec l’IA.
Les gouvernements du monde entier utilisent l’IA dans le processus législatif. Le Sénat italien a décrit l’utilisation de l’IA pour gérer un excès d’amendements en regroupant des propositions similaires, en repérant les chevauchements et en signalant les tactiques de filibuster potentielles. La Commission européenne a récemment publié un appel d’offres pour fournir des chatbots multilingues afin d’aider les utilisateurs à naviguer dans les obligations légales.
Les implications de l’IA dans la législation
D’autres pays, comme le Brésil et la Nouvelle-Zélande, explorent également l’utilisation de l’IA pour soutenir le flux de travail impliqué dans la rédaction de législations. Par exemple, le bureau des conseillers parlementaires de Nouvelle-Zélande a testé un concept qui utilise l’IA pour générer des premières ébauches de notes explicatives, liées aux préoccupations concernant la souveraineté des données.
Des préoccupations émergent également quant à l’utilisation de l’IA pour expliquer le langage complexe de la législation. En Estonie, le Premier ministre a suggéré d’utiliser l’IA pour vérifier les projets de loi après qu’une erreur d’IA a révélé des problèmes dans une législation qui permettait aux casinos en ligne d’éviter des impôts, entraînant une perte de deux millions d’euros par mois pour le gouvernement estonien.
Risques et légitimité
Le risque d’une attaque DDoS législative se profile, où des États étrangers pourraient inonder les boîtes de réception gouvernementales avec des soumissions plausibles, étouffant ainsi l’engagement authentique. Cela nuit à la légitimité des gouvernements, surtout dans un contexte où la confiance envers les gouvernements est déjà faible.
Il est essentiel que les outils comme Consult soient utilisés de manière transparente. Les responsables publics doivent rester vigilants face aux risques que les sorties de l’IA deviennent un recours par défaut, soulignant la nécessité d’une validation humaine. Ruth Fox, directrice d’une société d’études, insiste sur la nécessité de la transparence et de la responsabilité dans le processus.
Conclusion
L’intégration de l’IA dans les processus gouvernementaux représente une opportunité pour moderniser les processus démocratiques. Cependant, si les gouvernements utilisent l’IA principalement pour gérer les entrées générées par des machines ou pour économiser des efforts, ils risquent d’approfondir la méfiance qu’ils cherchent à atténuer. La clé réside dans un équilibre entre l’innovation technologique et la préservation de l’engagement du public.