L’essor de la gouvernance algorithmique : Vers une administration par l’IA ?

A digital keycard

Une nouvelle ère de gouvernance algorithmique : sommes-nous prêts à confier les rênes du pouvoir à l’IA ?

Les algorithmes ont longtemps joué un rôle dans la gouvernance. Ils déterminent quelles annonces d’emploi atteignent quels citoyens, quelles déclarations fiscales sont signalées pour audit, quelles affaires d’aide sociale sont prioritaires, et même comment les itinéraires de patrouille de la police sont planifiés.

Une grande partie de cela s’est déroulée discrètement, sous le couvert de l’« aide à la décision », plutôt que comme une prise de décision explicite.

Des avancées notables en Albanie et au Japon

Ce qui rend les récentes évolutions en Albanie et au Japon distinctives, c’est que les systèmes ne sont plus une infrastructure cachée. Le gouvernement albanais a officiellement chargé son assistant numérique Diella de gérer les processus d’approvisionnement, et le petit parti japonais Path to Rebirth a déclaré qu’il nommerait une IA comme son leader.

Ni l’un ni l’autre ne représente un transfert complet de l’autorité aux machines. Diella reste un outil de flux de travail supervisé, et le parti japonais n’a pas de sièges au sein de l’assemblée nationale et doit encore désigner un représentant humain pour les dépôts officiels.

Cependant, ces mouvements sont significatifs. Ils déplacent la prise de décision algorithmique d’une fonction en coulisses vers un rôle institutionnel nommé et publiquement reconnu.

Une gouvernance algorithmique explicite

La gouvernance algorithmique, largement comprise, n’est pas nouvelle. Depuis des décennies, les gouvernements et les entreprises utilisent des formules de notation, des modèles de risque et des arbres de décision pour orienter les résultats.

Ce qui est distinctif aujourd’hui, c’est la discussion autour des systèmes d’IA qui apprennent à partir des données, s’adaptent au fil du temps et fonctionnent à grande échelle.

Ces systèmes font plus que simplement exécuter des règles fixes. Ils génèrent des modèles, classent des alternatives et parfois proposent des actions qui n’avaient pas été envisagées par leurs concepteurs.

Cela les rend puissants, mais aussi plus difficiles à scruter.

Les promesses et les risques de la gouvernance algorithmique

La gouvernance algorithmique moderne promet des décisions exemptes de caprices et de préjugés, livrées avec la régularité d’un appel de fonction. Cependant, elle soulève des questions sur la conception institutionnelle, la légitimité et la responsabilité.

Les systèmes algorithmiques actuels se distinguent des technologies administratives antérieures de trois manières importantes : ils sont adaptatifs, reposent sur des inférences probabilistes plutôt que sur des règles fixes, et fonctionnent à une échelle pouvant affecter simultanément des millions de cas.

Cela permet aux gouvernements de cibler les ressources avec une précision sans précédent tout en anticipant les problèmes avant qu’ils ne s’aggravent. Cependant, cela amplifie également l’impact des erreurs, ancre des biais de manière difficile à détecter, et complique la surveillance.

Vers une gouvernance dynamique

Les systèmes modernes peuvent fonctionner en continu, ingérer des données en temps réel et ajuster les décisions sur le vif. Cela introduit la possibilité d’une gouvernance dynamique, ce qui complique la supervision.

Lorsque les décisions sont constamment mises à jour, sur quoi exactement est-on en train d’évaluer lors d’un audit législatif ou d’une révision judiciaire ? La version du modèle du mois dernier, celle de la semaine dernière, ou celle qui fonctionne ce matin ?

Conclusion

Les récentes nominations publiques de systèmes d’IA en Albanie et au Japon attirent l’attention sur ce changement. Il est crucial de traiter ces développements non pas comme des coups de publicité, mais comme des études de cas précoces qui offrent une chance de concevoir les normes, les pratiques d’audit et les cadres juridiques qui gouverneront la prise de décision algorithmique avant qu’elle ne devienne profondément ancrée.

Il est temps de décider comment maintenir cette gouvernance légitime, contestable et conforme aux principes démocratiques avant que le prochain bureau n’obtienne une plaque signalétique numérique.

Articles

Collaboration et compétition : l’avenir de la gouvernance de l’IA

Le projet Red Cell vise à remettre en question les hypothèses et les idées reçues afin d'encourager des approches alternatives face aux défis de la politique étrangère et de sécurité nationale des...

Politique nationale de l’IA : vers un marché de 2,7 milliards de dollars au Pakistan

Le Pakistan a introduit une politique nationale ambitieuse en matière d'IA visant à créer un marché domestique de 2,7 milliards de dollars en cinq ans. Cette politique repose sur six piliers...

Gouvernance éthique de l’IA : un guide pratique pour les entreprises

Ce guide pratique souligne l'importance de la gouvernance éthique de l'IA pour les entreprises qui souhaitent intégrer l'IA de manière responsable. Il fournit des étapes concrètes pour établir un...

Stratégies IA pour transformer l’enseignement supérieur

L'intelligence artificielle transforme l'apprentissage, l'enseignement et les opérations dans l'enseignement supérieur en offrant des outils personnalisés pour le succès des étudiants et en renforçant...

Gouvernance de l’IA : Vers des normes éthiques en Afrique

L'intelligence artificielle (IA) façonne progressivement les services financiers, l'agriculture, l'éducation et même la gouvernance en Afrique. Pour réussir, les politiques organisationnelles doivent...

L’impact imminent de l’IA sur l’emploi

La transformation économique liée à l'IA a commencé, entraînant des licenciements massifs dans des entreprises comme IBM et Salesforce. Les résultats d'une enquête révèlent que les employés craignent...

Éthique du travail numérique : Qui est responsable de l’IA au sein de la main-d’œuvre ?

Le travail numérique devient de plus en plus courant sur le lieu de travail, mais peu de règles largement acceptées ont été mises en œuvre pour le régir. Les PDG doivent voir l'IA non seulement comme...

Anthropic présente Petri, l’outil d’audit automatisé pour la sécurité des IA

Anthropic a lancé Petri, un outil d'audit de sécurité AI open source conçu pour tester automatiquement les modèles de langage de grande taille (LLM) pour des comportements risqués. Cet outil utilise...

Conflit ou harmonie entre l’IA et la protection des données ?

L'IA est le mot à la mode dans le secteur juridique, et la loi sur l'IA de l'UE est un sujet d'intérêt majeur pour de nombreux professionnels du droit. Cet article examine les interactions...