Los gobiernos utilizan IA para redactar legislación. ¿Qué podría salir mal?
Cuando los funcionarios británicos revisaron evidencia para una reforma independiente del sector del agua el año pasado, se encontraron con un problema familiar del servicio civil: decenas de miles de presentaciones, todas necesitadas de revisión rápida antes de que se cerrara la ventana para la reforma. Así que los ministros recurrieron a una herramienta de IA interna llamada Consult, parte de la suite “Humphrey”, que el gobierno del Reino Unido afirmó que clasificó más de 50,000 respuestas en temas en alrededor de dos horas. Costó 240 £, según dijeron, seguidas de 22 horas de verificaciones expertas, una carga de trabajo que, escalada en todo el gobierno, podría ahorrar 75,000 días de análisis manual cada año.
Un portavoz del gobierno británico afirma que “la IA tiene el potencial de transformar cómo funciona el gobierno, ahorrando tiempo en tareas administrativas rutinarias y liberando a los funcionarios para centrarse en lo que más importa: ofrecer mejores servicios públicos para el pueblo británico.” Añadieron que están asegurando su uso responsable en todo el gobierno con directrices y auditorías.
Desafíos en la participación pública
“Los servicios gubernamentales se ven fácilmente inundados de solicitudes”, dice un investigador especializado en el uso de IA en gobiernos. Argumenta que el verdadero desafío no es solo analizar el material de consulta, sino prevenir que el proceso en sí sea manipulado. “Una forma obvia de detener la inundación de la participación pública es hacer que cada ciudadano diga una cosa”, añade. Sin medidas de protección, “el consentimiento público puede ser deslegitimado rápidamente por la IA.”
Los gobiernos de todo el mundo están utilizando IA en el proceso legislativo. El Senado italiano ha descrito su uso para ayudar a lidiar con la sobrecarga de enmiendas agrupando propuestas similares, detectando solapamientos y señalando tácticas de filibusterismo para que el personal pueda comparar el contenido mucho más rápido que a mano. Recientemente, la Comisión Europea publicó una licitación para proporcionar chatbots multilingües que podrían ayudar a los usuarios a navegar por obligaciones legales, definiciones y procedimientos.
Iniciativas globales
La Cámara de Diputados italiana apoya un proyecto que respalda la investigación y redacción legislativa resumiendo enmiendas de comités y verificando proyectos de ley contra estándares de redacción. En Brasil, la Cámara de Diputados está ampliando su programa, que analiza y clasifica material legislativo, lanzando un “Chat Ulysses” interno y facilitando el uso de plataformas externas de IA. Esto se hará prometiendo una sólida seguridad y transparencia.
Otros países están utilizando IA para respaldar el flujo de trabajo involucrado en la redacción de legislación. El año pasado, la Oficina del Consejero Parlamentario de Nueva Zelanda, que redacta las leyes del país, probó un concepto que utiliza IA para generar borradores iniciales de notas explicativas cláusula por cláusula, atada explícitamente a preocupaciones sobre la soberanía de datos y la sobredependencia.
El uso de tecnología para intentar explicar el complicado lenguaje de la legislación —y sus consecuencias— también está siendo considerado en Estonia, donde el Primer Ministro ha sugerido públicamente que el parlamento use IA para verificar proyectos de ley. Esto surge después de que un sistema de detección de errores señalara problemas en legislación que permitía a los casinos en línea eludir sus obligaciones fiscales, causando pérdidas significativas en ingresos fiscales.
Legitimidad legislativa y riesgos
El Primer Ministro cree que la IA puede ser una herramienta útil para identificar lagunas explotables en la legislación y cerrarlas. Sin embargo, usar IA para analizar respuestas de consulta pública y dirigir cambios legislativos podría resultar contraproducente, ya que estados extranjeros podrían sesgar los resultados inundando las bandejas de entrada del gobierno. El riesgo es un ataque DDoS legislativo, no hackeando sistemas, sino abrumándolos con presentaciones plausibles que ahogan el verdadero compromiso.
Esto es problemático para los gobiernos, ya que socava la legitimidad. En varios países, los gobiernos son más desconfiados que confiables. La confianza en la IA es aún más débil; una encuesta reciente encontró que solo una pequeña fracción confía en que su gobierno use la IA de manera precisa y justa.
Teóricamente, herramientas como Consult ayudan a los funcionarios a filtrar y resumir la entrada pública, pero una vez que se utilizan para decisiones significativas, el método de filtrado se convierte en parte del sistema de toma de decisiones, lo que hace que la transparencia sea esencial.
La necesidad de supervisión humana
Los funcionarios públicos ya reconocen el riesgo de que los resultados de la IA se conviertan en un apoyo predeterminado. Es vital la divulgación sobre cómo se utilizarán los datos en el proceso. Esto se debe a que siempre existe el riesgo de que algo salga mal. Los modelos de IA son frágiles; las interrupciones, cambios repentinos o el aprovechamiento por parte de los proveedores pueden alterar decisiones si la IA es central en el proceso democrático.
El objetivo debe ser sistemas que puedan ser auditados y poseídos, es decir, que haya alguien que pueda ser responsabilizado por lo que hizo y cuándo. En Estados Unidos, el gobierno federal planea utilizar IA para acelerar la desregulación, incluyendo la redacción de textos de apoyo para la elaboración de normas, pero esto no siempre es beneficioso.
Los expertos advierten que los gobiernos pueden usar IA, pero no como una excusa para recortar procedimientos necesarios. “No se puede depender de la velocidad a expensas de la calidad”, argumenta un analista, señalando que una vez que la redacción generada por IA se incorpora en un proceso, los errores no siempre son evidentes y el costo de un error puede ser enorme.
Conclusiones
El uso de IA no es inherentemente negativo. Puede modernizar los procesos democráticos, pero si los gobiernos la utilizan principalmente para gestionar entradas generadas por máquinas o ahorrar esfuerzo, corren el riesgo de profundizar la desconfianza que buscan reducir. La interacción del público con el gobierno está disminuyendo rápidamente, lo que presenta una gran oportunidad para recuperar la confianza, si se diseña adecuadamente. Sin embargo, también podría ser muy perjudicial para la confianza si no se maneja correctamente.