Recomendaciones para la regulación de la IA en el Reino Unido

El Reino Unido carece de la capacidad para responder a desastres provocados por la inteligencia artificial, advierte un informe

Un desastre importante habilitado por la inteligencia artificial se vuelve cada vez más probable a medida que avanzan las capacidades de la IA. Sin embargo, un nuevo informe de un grupo de reflexión con sede en Londres advierte que el gobierno británico no tiene los poderes de emergencia necesarios para responder a desastres provocados por la IA, como la interrupción de infraestructura crítica o un ataque terrorista.

El informe, compartido exclusivamente con TIME antes de su publicación, argumenta que el Reino Unido debe otorgar a sus funcionarios nuevos poderes, incluyendo la capacidad de obligar a las empresas tecnológicas a compartir información y restringir el acceso público a sus modelos de IA en una emergencia.

Falta de mecanismos adecuados

Tommy Shaffer Shane, director de políticas de IA del CLTR y autor del informe, menciona: “Confiar en legislaciones de hace 20 o 50 años que nunca fueron diseñadas para esta tecnología no es necesariamente el mejor enfoque”. Además, advierte que si algo sale realmente mal, el gobierno podría encontrarse en una situación caótica, buscando mecanismos que no están disponibles para actuar con la rapidez que la situación requiere.

Las propuestas

El informe, que coincide con la conferencia anual del Partido Laborista, incluye 34 propuestas que el CLTR espera que se incluyan en el muy retrasado proyecto de ley de inteligencia artificial del gobierno. Estas propuestas abarcan desde otorgar al gobierno el poder de obligar a las empresas tecnológicas a compartir información hasta la revocación del acceso a modelos de IA, así como la obligación de informar sobre incidentes graves de seguridad de IA y realizar ejercicios regulares de preparación.

Un nuevo enfoque hacia la regulación de la IA

Si el gobierno británico adopta estas propuestas, esto señalaría un enfoque diferente hacia la regulación de la IA en comparación con la Unión Europea, cuyo extenso AI Act se centra en regular modelos individuales de IA. Esta legislación ha sido criticada por Silicon Valley y Washington, donde figuras influyentes argumentan que ha sofocado la innovación en la industria tecnológica europea y ha impuesto cargas excesivas a las empresas de IA estadounidenses.

El CLTR sugiere que el Reino Unido podría regular la IA sin comprometer el crecimiento económico manteniéndose en buenos términos con Estados Unidos, enfocándose en la preparación para las consecuencias de la IA en lugar de regular los modelos en sí. “Estamos hablando de preparar para un escenario donde los modelos peligrosos están más ampliamente desplegados de lo que quisiéramos”, dice Shaffer Shane.

AI en acción

Un estudio reciente reporta un caso donde un hombre de 60 años buscó consejo en ChatGPT sobre qué sustituir por la sal de mesa para mejorar su dieta. ChatGPT sugirió reemplazarla con bromuro de sodio, resultando en problemas de salud graves. Este caso ilustra cómo la IA puede potencialmente contribuir a resultados adversos prevenibles en la salud.

En respuesta, OpenAI ha afirmado que ChatGPT no está destinado para el tratamiento de condiciones de salud y que sus sistemas están diseñados para alentar a las personas a buscar orientación profesional.

Conclusiones

El informe del CLTR subraya la necesidad urgente de que el gobierno británico se prepare para desastres provocados por la IA, proponiendo cambios significativos en la legislación para garantizar una respuesta efectiva en situaciones de emergencia. Con el crecimiento acelerado de la IA, es fundamental que los gobiernos se adapten y establezcan marcos regulatorios que protejan la seguridad pública mientras fomentan la innovación.

More Insights

La urgencia de adoptar una IA responsable

Las empresas son conscientes de la necesidad de una IA responsable, pero muchas la tratan como un pensamiento posterior. La IA responsable es una defensa fundamental contra riesgos legales...

Modelo de gobernanza de IA que enfrenta el uso oculto

La inteligencia artificial (IA) se está expandiendo rápidamente en los lugares de trabajo, transformando la forma en que se realizan las tareas diarias. Para gestionar los riesgos asociados con el uso...

Europa extiende plazos para cumplir con la normativa de IA

La Unión Europea planea retrasar las obligaciones de alto riesgo en la Ley de IA hasta finales de 2027, proporcionando a las empresas más tiempo para adaptarse a las exigencias. Sin embargo, los...

Innovación Responsable a Través de IA Ética

Las empresas están compitiendo por innovar con inteligencia artificial, pero a menudo sin las medidas de seguridad adecuadas. La ética en la IA no solo es un imperativo moral, sino también una...

Riesgos Ocultos de Cumplimiento en la Contratación con IA

La inteligencia artificial está transformando la forma en que los empleadores reclutan y evalúan talento, pero también introduce riesgos legales significativos bajo las leyes federales de...