Regulación de la IA: Desafíos y Oportunidades
Las empresas tecnológicas se oponen constantemente a la regulación de la inteligencia artificial (IA), utilizando la discrepancia entre expertos sobre sus riesgos como argumento en contra de su implementación. Mientras algunos optimistas predicen que la IA traerá prosperidad y progreso sin precedentes, otros, como un laureado con el Nobel que dejó una importante empresa tecnológica debido a preocupaciones de seguridad, advierten que la IA representa una «amenaza existencial para la humanidad».
El nuevo contexto de la competencia global
Las preocupaciones de seguridad nacional sobre la capacidad de combatir el uso extranjero de la IA complican aún más los esfuerzos regulatorios. El aumento de la innovación se racionaliza como una forma de proporcionar más protección contra otros sistemas de IA. Esta situación se asemeja a una nueva Guerra Fría entre potencias, donde la carrera es por inventar el primer sistema de Inteligencia General Artificial (AGI).
A pesar de las preocupaciones sobre los riesgos que la AGI representa, la posibilidad de que este avance caiga en manos rivales es aún más inquietante. Ganar la carrera de la IA significa establecer los estándares de sus características y obtener derechos de presumir durante siglos.
Desafíos regulatorios en EE. UU.
La regulación se ve dificultada por el hecho de que muchas empresas de IA operan en EE. UU., donde los estados individuales promulgan sus propias leyes de IA, creando requisitos regulatorios inconsistentes. La reciente derogación de un decreto ejecutivo que establecía normas de seguridad para el desarrollo de IA ha llevado a una creciente importancia de la regulación a nivel estatal.
El gobernador de California ha abordado algunas de estas lagunas al firmar una ley destinada a aumentar la protección de denunciantes y exigir a las empresas con ingresos anuales superiores a 500 millones de dólares que informen sobre cómo consideran las normas de seguridad federales e internacionales en sus prácticas. Esta legislación es crucial porque las principales empresas de IA tienen su sede en California.
Comparación con Europa y otros mercados
A diferencia de la ley de California, el Acta de IA de Europa es mucho más completa y establece requisitos más estrictos. Mientras que la legislación californiana solo se aplica a empresas de gran tamaño, el Acta de la UE regula todos los sistemas de IA según su clasificación de riesgo. Además, se requieren evaluaciones de conformidad de terceros antes de la implementación de sistemas de IA de alto riesgo en Europa.
Riesgos y consecuencias
La falta de regulación adecuada está creando un contexto peligroso. La amenaza que la IA representa para el empleo ya está en aumento. Se estima que, por cada trabajo que la IA cree en la próxima década, podría igualmente amenazar a tantos otros, especialmente en roles de entrada. Los responsables de políticas necesitan establecer marcos legales que restrinjan el poder de las empresas de IA en el desarrollo y la liberación de sistemas sin la supervisión adecuada.
El impulso por una rápida implementación de la IA prioriza el desarrollo sobre la atención a preocupaciones legítimas de seguridad. Esto es especialmente peligroso a medida que la industria avanza hacia la AGI, un modelo que podría emerger en los próximos años y representar riesgos sin precedentes para la humanidad.
Conclusión
La falta de regulación suficiente de la IA destaca una brecha regulatoria global más amplia: la dificultad de regular a las corporaciones multinacionales. La responsabilidad y la ejecución se convierten en aspectos fundamentales para mantener la democracia y avanzar en la agencia humana. A medida que la carrera hacia la AGI se acelera, la necesidad de rendir cuentas se vuelve aún más crítica.