Los agentes de IA están listos para el trabajo gubernamental – si las agencias están listas para ellos
Durante años, las agencias federales han recurrido a la automatización para acelerar el trabajo rutinario. Sin embargo, en el momento en que aparecía algo inesperado, como un campo de datos desconocido o un archivo faltante, la automatización se detenía hasta que un humano podía intervenir.
Ahora, los sistemas agentes están rompiendo ese cuello de botella. Los agentes de IA, la capa inteligente construida sobre modelos de lenguaje grandes, no requieren instrucciones paso a paso. Todo lo que necesitan es un objetivo claro. Luego pueden razonar, adaptarse y actuar para lograr ese objetivo con un nivel de autonomía que refleja la toma de decisiones humana.
El nuevo modelo de trabajo
Los agentes de IA determinan los pasos que deben seguir para alcanzar una meta y realizan tareas dinámicas y de múltiples pasos. En lugar de seguir “guiones”, instrucciones proporcionadas por humanos, ensamblan independientemente el flujo de trabajo necesario para alcanzar el resultado.
Consideremos el proceso de incorporación de empleados. Tradicionalmente, el personal de recursos humanos o los scripts de software siguen una serie de pasos manuales: crear cuentas de usuario, programar capacitación, configurar nómina. Un sistema agente podría manejar todo el proceso a partir de una única instrucción, como “incorporar a este empleado”, y llevar a cabo las acciones necesarias a través de los sistemas, adaptándose a medida que se introducen nuevas políticas o formularios.
Para la fuerza laboral federal, la transformación agente significa menos pasos repetitivos y más enfoque en el juicio y la resolución de problemas de mayor valor. Los empleados se convierten en supervisores de sistemas inteligentes en lugar de operadores de sistemas rígidos. El resultado es un servicio más rápido, menos errores y más tiempo para que los empleados se dediquen a trabajos críticos para la misión.
En el ámbito de la salud federal, los agentes de IA podrían verificar datos, preparar archivos de casos y clasificar reclamaciones rutinarias, liberando a los trabajadores humanos para que se concentren en excepciones y supervisión. Los clínicos que pasan horas navegando por múltiples sistemas de registros de salud podrían dirigir al agente de IA para que programe automáticamente citas de seguimiento, notifique a los pacientes y actualice los planes de atención.
Confianza, transparencia y gobernanza
A medida que los sistemas de IA asumen más responsabilidades, las agencias necesitarán reglas claras sobre cómo se toman, monitorean y revisan las decisiones. El objetivo no es frenar la innovación, sino gestionarla de manera responsable.
La confianza comienza con la visibilidad. Los usuarios deben poder ver qué está haciendo el agente y por qué. Cada recomendación o acción debe ser rastreable a fuentes de datos y reglas. Para resultados de alta importancia, como determinaciones de beneficios o decisiones de atención médica, la aprobación humana sigue siendo esencial.
El marco federal para una IA confiable ya existe en el marco de gestión de riesgos de IA del Instituto Nacional de Estándares y Tecnología y la orientación ejecutiva sobre IA responsable. Estos principios —transparencia, seguridad, equidad y supervisión humana— deben anclar cada sistema agente.
La gobernanza debería reflejar la manera en que gestionamos a los empleados: los agentes actúan dentro de sus roles, siguen políticas y reportan sobre su trabajo. Las agencias podrían incluso establecer “controladores de IA”, personas responsables de revisar el rendimiento del sistema y asegurar el cumplimiento.
La transformación agente puede desarrollarse en fases. Primero, las agencias deberían pilotar casos de uso limitados en entornos de bajo riesgo, como soporte de mesa de ayuda interno o clasificación de datos.
A continuación, viene la expansión controlada, donde se despliegan agentes en flujos de trabajo más grandes con monitoreo en tiempo real y supervisión humana. A medida que crece la confianza, las agencias pueden escalar a través de departamentos, desarrollando estándares compartidos para el desarrollo de agentes, registro de auditoría y gobernanza.
Finalmente, las agencias pueden pasar a la optimización e innovación: afinando modelos, introduciendo colaboración entre múltiples agentes y mejorando continuamente en base a datos de rendimiento y retroalimentación de usuarios. Cada fase debe incluir capacitación, comunicación y métricas claras de éxito.
El momento de actuar
La transformación agente es tanto un desafío de liderazgo como técnico. Los líderes de la industria pueden apoyar a las agencias federales en la definición de la visión, el establecimiento de pautas y el modelado de confianza. La transición requerirá colaboración entre equipos de TI, políticas y misión, además de capacitación para ayudar a los empleados a gestionar eficazmente a los agentes de IA.
Las industrias pueden comenzar preguntándose:
- ¿Dónde podrían mejorar los sistemas agentes la entrega de la misión?
- ¿Qué gobernanza, seguridad y estándares de datos deben estar en su lugar antes de escalar?
La industria puede apoyar a las agencias en la creación de la base para una adopción más amplia, siguiendo principios como:
- Comenzar pequeño pero comenzar ahora.
- Identificar procesos donde la autonomía inteligente pueda ofrecer ganancias significativas.
- Pilotar de manera responsable, medir resultados y compartir resultados.
Si se hace correctamente, la transformación agente hará que el gobierno sea más inteligente, rápido y humano, y fortalecerá la confianza entre los ciudadanos y las instituciones que los sirven.