Exclusivo: Los británicos quieren prohibir la IA ‘más inteligente que los humanos’
A medida que Silicon Valley se apresura a construir modelos de inteligencia artificial más poderosos, la opinión pública al otro lado del Atlántico se mantiene decididamente escéptica sobre la influencia de los CEOs tecnológicos en la regulación del sector. La gran mayoría de los británicos está preocupada por la seguridad de los nuevos sistemas de IA.
Estas preocupaciones, destacadas en una nueva encuesta compartida exclusivamente, surgen justo cuando líderes mundiales y jefes tecnológicos se preparan para reunirse en París la próxima semana para discutir el rápido avance de los desarrollos en IA.
Resultados de la Encuesta
La nueva encuesta muestra que el 87% de los británicos apoyaría una ley que obligue a los desarrolladores de IA a demostrar que sus sistemas son seguros antes de su lanzamiento. Además, el 60% está a favor de prohibir el desarrollo de modelos de IA «más inteligentes que los humanos». Solo un 9% confía en que los CEOs tecnológicos actúen en interés público al discutir la regulación de la IA.
Los resultados reflejan una creciente ansiedad pública sobre el desarrollo de sistemas de IA que podrían igualar o incluso superar a los humanos en la mayoría de las tareas. Aunque esta tecnología aún no existe, es el objetivo expreso de grandes empresas de IA. De hecho, varios CEOs tecnológicos esperan que dichos sistemas se conviertan en una realidad en cuestión de años, si no antes.
Ante este contexto, el 75% de los británicos encuestados afirmaron que las leyes deberían prohibir explícitamente el desarrollo de sistemas de IA que puedan escapar de sus entornos. Más de la mitad (63%) apoyó la idea de prohibir la creación de sistemas de IA que puedan hacerse más inteligentes o poderosos.
Desajuste entre Opinión Pública y Regulación
Las conclusiones de la encuesta británica reflejan los resultados de encuestas recientes en EE.UU. y señalan una creciente brecha entre la opinión pública y la acción regulatoria en relación con la IA avanzada. Incluso la Ley de IA de la Unión Europea, ampliamente considerada como la legislación de IA más completa del mundo, no aborda directamente muchos de los posibles riesgos que plantean los sistemas de IA que cumplen o superan las habilidades humanas.
En Gran Bretaña, donde se realizó la encuesta a 2,344 adultos, no existe un marco regulatorio integral para la IA. Aunque el Partido Laborista había prometido introducir nuevas reglas de IA antes de las últimas elecciones generales en 2024, desde que asumió el poder ha retrasado la introducción de un proyecto de ley de IA mientras lidia con el desafío de restaurar el crecimiento en su economía en dificultades.
En enero, el Primer Ministro británico anunció que la IA sería «introducida en las venas» de la nación para impulsar el crecimiento, un claro cambio de discurso respecto a la regulación.
Un Nuevo Impulso para Nuevas Leyes
La encuesta fue acompañada por una declaración firmada por 16 legisladores británicos de ambos principales partidos políticos, pidiendo al gobierno que introduzca nuevas leyes de IA dirigidas específicamente a sistemas de IA «superinteligentes».
“Las IA especializadas, como aquellas que avanzan en ciencia y medicina, impulsan el crecimiento, la innovación y los servicios públicos. Los sistemas de IA superinteligentes, en cambio, comprometerían la seguridad nacional y global”, dice la declaración.
Miotti, de Control AI, sostiene que el Reino Unido no tiene que sacrificar el crecimiento imponiendo regulaciones abrumadoras como las contenidas en la Ley de IA de la UE. En cambio, argumenta que el Reino Unido podría imponer una “regulación de IA quirúrgica y específica” que solo se aplique a los modelos más poderosos que plantean los mayores riesgos.
“Lo que el público quiere son sistemas que los ayuden, no sistemas que los reemplacen”, afirma Miotti. “No deberíamos perseguir sistemas superinteligentes hasta que sepamos cómo demostrar que son seguros.”
Los datos de la encuesta también muestran que una gran mayoría (74%) de los británicos apoya un compromiso hecho por el Partido Laborista antes de la última elección para consagrar el Instituto de Seguridad de IA del Reino Unido en la ley, dándole poder para actuar como regulador.
Actualmente, el AISI realiza pruebas en modelos privados de IA antes de su lanzamiento, pero no tiene autoridad para obligar a las empresas tecnológicas a realizar cambios o dictaminar que los modelos son demasiado peligrosos para ser lanzados.