Les agents d’IA sont prêts pour le travail gouvernemental – si les agences sont prêtes pour eux
Depuis des années, les agences fédérales s’appuient sur l’automatisation pour accélérer le travail de routine. Cependant, dès qu’un événement inattendu se produit, comme un champ de données inconnu ou un fichier manquant, l’automatisation s’arrête jusqu’à ce qu’un humain puisse intervenir.
Actuellement, les systèmes agentiques brisent ce goulot d’étranglement. Les agents d’IA, une couche intelligente construite sur de grands modèles de langage, n’ont pas besoin d’instructions étape par étape. Tout ce dont ils ont besoin, c’est d’un objectif clair. Ensuite, ils peuvent raisonner, s’adapter et agir pour atteindre cet objectif avec un niveau d’autonomie qui reflète la prise de décision humaine.
Le nouveau modèle de travail
Les agents d’IA déterminent les étapes nécessaires pour atteindre un but et réalisent des tâches dynamiques en plusieurs étapes. Au lieu de suivre des « scripts » ou des instructions fournies par des humains, ils assemblent de manière autonome le flux de travail requis pour obtenir le résultat souhaité.
Considérons le processus d’intégration des employés. Traditionnellement, le personnel des ressources humaines ou des scripts logiciels suit une série d’étapes manuelles : création de comptes utilisateurs, planification de formations, mise en place de la paie. Un système agentique pourrait gérer l’ensemble du processus à partir d’une seule instruction, comme « intégrez cet employé », et effectuer les actions nécessaires à travers les systèmes, s’adaptant à l’introduction de nouvelles politiques ou de nouveaux formulaires.
Pour la main-d’œuvre fédérale, la transformation agentique signifie moins d’étapes répétitives et davantage de concentration sur des jugements de valeur et des résolutions de problèmes. Les employés deviennent des superviseurs de systèmes intelligents plutôt que des opérateurs de systèmes rigides. Le résultat est un service plus rapide, moins d’erreurs et plus de temps pour les employés à consacrer à des travaux essentiels.
Dans le domaine de la santé fédérale, les agents d’IA pourraient vérifier des données, préparer des dossiers de cas et trier des demandes de routine, libérant ainsi les travailleurs sociaux humains pour se concentrer sur les exceptions et la supervision. Les cliniciens qui passent des heures à naviguer dans plusieurs systèmes de dossiers de santé pourraient diriger l’agent d’IA pour programmer automatiquement des rendez-vous de suivi, notifier les patients et mettre à jour les plans de soins.
Confiance, transparence et gouvernance
À mesure que les systèmes d’IA prennent plus de responsabilités, les agences auront besoin de règles claires sur la manière dont les décisions sont prises, surveillées et examinées. L’objectif n’est pas de freiner l’innovation, mais de la gérer de manière responsable.
La confiance commence par la visibilité. Les utilisateurs doivent pouvoir voir ce que fait l’agent et pourquoi. Chaque recommandation ou action doit être traçable aux sources de données et aux règles. Pour des résultats à enjeux élevés, comme les déterminations de prestations ou les décisions de santé, l’approbation humaine reste essentielle.
Le cadre fédéral pour une IA digne de confiance existe déjà dans le cadre de gestion des risques de l’IA de l’Institut national des normes et de la technologie et dans les directives exécutives sur l’IA responsable. Ces principes – transparence, sécurité, équité et supervision humaine – doivent ancrer chaque système agentique.
La gouvernance devrait refléter la manière dont nous gérons les employés : les agents agissent dans leurs rôles, suivent les politiques et rendent compte de leur travail. Les agences pourraient même établir des « contrôleurs d’IA », des personnes responsables de l’examen des performances des systèmes et de l’assurance de la conformité.
La transformation agentique peut se dérouler en phases. D’abord, les agences devraient piloter des cas d’utilisation limités dans des environnements à faible risque, comme le support interne ou le tri de données. Ensuite, vient l’expansion contrôlée, où les agents sont déployés dans des flux de travail plus larges avec une surveillance en temps réel et une supervision humaine. À mesure que la confiance grandit, les agences peuvent étendre leur utilisation à travers les départements, développant des normes partagées pour le développement d’agents, l’audit et la gouvernance.
Enfin, les agences peuvent passer à l’optimisation et à l’innovation : peaufiner les modèles, introduire la collaboration entre agents et améliorer en continu sur la base des données de performance et des retours des utilisateurs. Chaque phase devrait inclure des formations, des communications et des indicateurs de succès clairs.
Le moment d’agir
La transformation agentique est autant un défi de leadership qu’un défi technique. Les leaders de l’industrie peuvent soutenir les agences fédérales dans la définition de la vision, l’établissement de garde-fous et la modélisation de la confiance. La transition nécessitera une collaboration entre les équipes IT, politiques et opérationnelles, ainsi qu’une formation pour aider les employés à gérer efficacement les agents d’IA.
Les leaders de l’industrie peuvent commencer par se poser les questions suivantes :
- Où les systèmes agentiques pourraient-ils améliorer la prestation de missions ?
- Quelles normes de gouvernance, de sécurité et de données doivent être en place avant de passer à l’échelle ?
L’industrie peut soutenir les agences dans la mise en place des bases d’une adoption plus large, en suivant des principes tels que : commencer petit mais commencer maintenant, identifier les processus où l’autonomie intelligente peut apporter des gains significatifs, piloter de manière responsable, mesurer les résultats et partager les résultats.
Bien fait, la transformation agentique rendra le gouvernement plus intelligent, plus rapide et plus humain, et renforcera la confiance entre les citoyens et les institutions qui les servent.