El Congreso debe preservar la autoridad estatal en la gobernanza de la IA
La inteligencia artificial está transformando rápidamente la forma en que los gobiernos sirven a sus ciudadanos, desde optimizar las respuestas de emergencia hasta agilizar los procesos de licencias y zonificación. Sin embargo, a medida que los sistemas de IA se vuelven más poderosos y omnipresentes, la pregunta sobre cómo gobernar estas herramientas de manera responsable se vuelve urgente.
Esta urgencia se intensificó el mes pasado. Un pedido ejecutivo filtrado de la administración anterior bloquearía a los estados de hacer cumplir sus propias regulaciones de IA, y los líderes de la Cámara están considerando seriamente incluir un lenguaje similar en la Ley de Autorización de Defensa Nacional. Mientras tanto, la nueva ley de IA de California ha provocado una reacción federal, y se ha anunciado la introducción de legislación que la desafiaría directamente.
Impacto de la IA en la gobernanza estatal
Washington está evaluando si debe despojar a los estados de la autoridad para gobernar los sistemas de IA que despliegan a diario. Creemos que esto sería un grave error. El impacto de la IA en las decisiones a nivel estatal es demasiado amplio, variado y específico en contexto como para que Washington se tome su tiempo para deliberar.
Los funcionarios de los gobiernos federal, estatal y local tienen responsabilidades cívicas únicas: maximizar los beneficios sociales mientras mitigan los posibles daños para sus respectivas comunidades. Por ejemplo, los estados y gobiernos locales tienen requisitos únicos para servir a sus ciudadanos proporcionándoles servicios de planificación, zonificación y licencias.
La IA está impactando muchos servicios locales, pero un enfoque único no funciona para tareas geoespaciales y de detección de objetos, como la planificación de carriles para bicicletas o la detección de baches. Los estados gestionan diversos servicios —emergencia, vivienda, educación, salud, servicios públicos y seguridad pública— donde la IA debe alinearse con las leyes, necesidades y condiciones locales para ser efectiva.
Implicaciones de un marco de gobernanza federal
Un marco de gobernanza federal serviría mejor a las necesidades de las empresas innovadoras, que están desarrollando y desplegando sistemas de IA rápidamente, y al pueblo estadounidense. Este tipo de marco también proporcionaría a las empresas la previsibilidad y consistencia que necesitan para seguir avanzando rápidamente en el despliegue de innovaciones. Sin embargo, el Congreso debe reconocer que un marco nacional necesita incluir más que una moratoria sobre las leyes estatales. La IA no se adapta fácilmente a las regulaciones existentes, y se requieren enfoques innovadores para mitigar los daños y equilibrar la promesa de la IA con su uso indebido. Los estados están trabajando para encontrar este equilibrio.
Los estados deben mantener su autoridad constitucional para gobernar áreas que impactan directamente a sus ciudadanos. Si el Congreso impusiera una congelación en la regulación de IA a nivel estatal, limitaría la capacidad de las agencias estatales para mitigar problemas en salud, zonificación, licencias, educación, transporte y policía. Eliminar esta autoridad podría llevar a varios efectos secundarios no intencionados.
Riesgos de un vacío regulatorio
Uno de los efectos sería la inundación de sistemas no verificados en las licitaciones de adquisiciones. En un vacío regulatorio, los proveedores pueden comercializar «soluciones» de IA no validadas a funcionarios que pueden no tener la capacidad técnica para distinguir entre calidad y exageración, erosionando aún más la confianza pública en la IA. Además, la adquisición promedio de tecnología en las agencias gubernamentales puede tardar hasta 2 años, lo que complica aún más la capacidad de los estados para desplegar sistemas de IA seguros, efectivos y confiables.
Otro efecto sería el aumento de costos y complejidad para las agencias estatales. Sin la autoridad para establecer sus propias regulaciones, los gobiernos estatales y locales tendrían que confiar en soluciones contractuales ad hoc, precisamente el tipo de enfoque fragmentado que el Congreso dice estar tratando de evitar.
Esto también podría sofocar la adopción beneficiosa de la IA. Si los estados no pueden gestionar o mitigar los riesgos de la IA, pueden evitar desplegar herramientas transformadoras por completo, estancando la innovación donde más se necesita.
Empoderar a los estados para un futuro responsable
En lugar de marginar a los estados, el Congreso debería empoderarlos. Como se ha dicho, los estados son laboratorios de democracia. Muchos ya están probando mezclas de incentivos —transparencia, responsabilidad, contestabilidad— con asociaciones públicas y privadas. Más cercanos a las empresas locales, los estados pueden elaborar regulaciones receptivas y actuar rápidamente sobre los daños emergentes de la IA, previniendo crisis nacionales. Apoyar la innovación liderada por los estados adaptada a las condiciones locales puede amplificar el liderazgo de los EE. UU. en IA a nivel global.
Las empresas de IA comprensiblemente desean evitar un mosaico de regulaciones conflictivas, pero la amenaza más grande hoy es la ausencia de salvaguardias claras y aplicables. Sin estándares claros, las empresas pueden exagerar las capacidades de sus productos, etiquetar software como «IA» solo para eludir la supervisión o evitar desplegar IA en áreas críticas debido a preocupaciones de seguridad. Las leyes específicas del sector añaden confusión, dejando los contratos para llenar el vacío, alimentando la incertidumbre y una carrera hacia el abismo en cuanto a supervisión.
Conclusión
El futuro de la gobernanza de la IA depende de la colaboración. El Congreso debería rechazar las propuestas que bloquean las leyes de IA estatales y, en su lugar, trabajar con los estados para desarrollar un modelo de gobernanza compartido que proteja al público mientras fomenta una innovación responsable. Empoderar a los estados no es un obstáculo para el progreso, es la forma de asegurar que la IA fortalezca las comunidades de EE. UU., en lugar de debilitar las instituciones que las sirven.