Británicos exigen regulación para la IA más allá de la inteligencia humana

Exclusivo: Los británicos quieren prohibir la IA ‘más inteligente que los humanos’

A medida que Silicon Valley se apresura a construir modelos de inteligencia artificial más poderosos, la opinión pública al otro lado del Atlántico se mantiene decididamente escéptica sobre la influencia de los CEOs tecnológicos en la regulación del sector. La gran mayoría de los británicos está preocupada por la seguridad de los nuevos sistemas de IA.

Estas preocupaciones, destacadas en una nueva encuesta compartida exclusivamente, surgen justo cuando líderes mundiales y jefes tecnológicos se preparan para reunirse en París la próxima semana para discutir el rápido avance de los desarrollos en IA.

Resultados de la Encuesta

La nueva encuesta muestra que el 87% de los británicos apoyaría una ley que obligue a los desarrolladores de IA a demostrar que sus sistemas son seguros antes de su lanzamiento. Además, el 60% está a favor de prohibir el desarrollo de modelos de IA «más inteligentes que los humanos». Solo un 9% confía en que los CEOs tecnológicos actúen en interés público al discutir la regulación de la IA.

Los resultados reflejan una creciente ansiedad pública sobre el desarrollo de sistemas de IA que podrían igualar o incluso superar a los humanos en la mayoría de las tareas. Aunque esta tecnología aún no existe, es el objetivo expreso de grandes empresas de IA. De hecho, varios CEOs tecnológicos esperan que dichos sistemas se conviertan en una realidad en cuestión de años, si no antes.

Ante este contexto, el 75% de los británicos encuestados afirmaron que las leyes deberían prohibir explícitamente el desarrollo de sistemas de IA que puedan escapar de sus entornos. Más de la mitad (63%) apoyó la idea de prohibir la creación de sistemas de IA que puedan hacerse más inteligentes o poderosos.

Desajuste entre Opinión Pública y Regulación

Las conclusiones de la encuesta británica reflejan los resultados de encuestas recientes en EE.UU. y señalan una creciente brecha entre la opinión pública y la acción regulatoria en relación con la IA avanzada. Incluso la Ley de IA de la Unión Europea, ampliamente considerada como la legislación de IA más completa del mundo, no aborda directamente muchos de los posibles riesgos que plantean los sistemas de IA que cumplen o superan las habilidades humanas.

En Gran Bretaña, donde se realizó la encuesta a 2,344 adultos, no existe un marco regulatorio integral para la IA. Aunque el Partido Laborista había prometido introducir nuevas reglas de IA antes de las últimas elecciones generales en 2024, desde que asumió el poder ha retrasado la introducción de un proyecto de ley de IA mientras lidia con el desafío de restaurar el crecimiento en su economía en dificultades.

En enero, el Primer Ministro británico anunció que la IA sería «introducida en las venas» de la nación para impulsar el crecimiento, un claro cambio de discurso respecto a la regulación.

Un Nuevo Impulso para Nuevas Leyes

La encuesta fue acompañada por una declaración firmada por 16 legisladores británicos de ambos principales partidos políticos, pidiendo al gobierno que introduzca nuevas leyes de IA dirigidas específicamente a sistemas de IA «superinteligentes».

“Las IA especializadas, como aquellas que avanzan en ciencia y medicina, impulsan el crecimiento, la innovación y los servicios públicos. Los sistemas de IA superinteligentes, en cambio, comprometerían la seguridad nacional y global”, dice la declaración.

Miotti, de Control AI, sostiene que el Reino Unido no tiene que sacrificar el crecimiento imponiendo regulaciones abrumadoras como las contenidas en la Ley de IA de la UE. En cambio, argumenta que el Reino Unido podría imponer una “regulación de IA quirúrgica y específica” que solo se aplique a los modelos más poderosos que plantean los mayores riesgos.

“Lo que el público quiere son sistemas que los ayuden, no sistemas que los reemplacen”, afirma Miotti. “No deberíamos perseguir sistemas superinteligentes hasta que sepamos cómo demostrar que son seguros.”

Los datos de la encuesta también muestran que una gran mayoría (74%) de los británicos apoya un compromiso hecho por el Partido Laborista antes de la última elección para consagrar el Instituto de Seguridad de IA del Reino Unido en la ley, dándole poder para actuar como regulador.

Actualmente, el AISI realiza pruebas en modelos privados de IA antes de su lanzamiento, pero no tiene autoridad para obligar a las empresas tecnológicas a realizar cambios o dictaminar que los modelos son demasiado peligrosos para ser lanzados.

More Insights

La necesidad de adoptar la IA en la gobernanza

La inteligencia artificial (IA) tiene el potencial de revolucionar la gobernanza al mejorar la eficiencia y la transparencia en la toma de decisiones. Sin embargo, también plantea preocupaciones...

La audaz iniciativa de los UAE: IA en la creación de leyes

Los Emiratos Árabes Unidos han dado un paso audaz al convertirse en el primer país en utilizar inteligencia artificial para ayudar a redactar, revisar y actualizar sus leyes. Este sistema tiene como...

Colaboración esencial entre líderes de privacidad y TI en la adopción de IA

La adopción de la inteligencia artificial está transformando las dinámicas entre los profesionales de la privacidad y los líderes de TI, lo que subraya la necesidad de una colaboración más estrecha...

DeepSeek: Inteligencia Artificial y Gobernanza Social en China

En la víspera de la reunión anual de la legislatura de la República Popular China, los reporteros de un medio estatal invitaron a los ciudadanos a dirigir sus preguntas a DeepSeek R1, el último modelo...

Carolina del Norte Nombra a I-Sah Hsieh como Líder en Gobernanza de IA

El Departamento de Tecnología de la Información de Carolina del Norte ha nombrado a I-Sah Hsieh como el primer líder de gobernanza y política de IA del estado. Hsieh se centrará en guiar a Carolina...

Desafíos y Estrategias en la Gobernanza de la IA

La inteligencia artificial se ha convertido rápidamente en un motor crítico en cada industria, pero también conlleva riesgos significativos. En una conversación reciente, el Dr. Enzo Tolentino destacó...

La Amenaza Invisible de la IA: Riesgos Ocultos en Despliegues Secretos

El informe advierte que el despliegue interno no regulado de sistemas de inteligencia artificial podría llevar a riesgos catastróficos, desde que los sistemas de IA escapen al control humano hasta la...

Expertos Globales Abordan la Gobernanza de la IA en el Foro de Shanghái 2025

Expertos de todo el mundo discutieron los desafíos de gobernanza derivados del rápido avance de la inteligencia artificial en el sub-foro del Foro de Shanghái 2025. Subrayaron la importancia de...