El Reino Unido carece de la capacidad para responder a desastres provocados por la inteligencia artificial, advierte un informe
Un desastre importante habilitado por la inteligencia artificial se vuelve cada vez más probable a medida que avanzan las capacidades de la IA. Sin embargo, un nuevo informe de un grupo de reflexión con sede en Londres advierte que el gobierno británico no tiene los poderes de emergencia necesarios para responder a desastres provocados por la IA, como la interrupción de infraestructura crítica o un ataque terrorista.
El informe, compartido exclusivamente con TIME antes de su publicación, argumenta que el Reino Unido debe otorgar a sus funcionarios nuevos poderes, incluyendo la capacidad de obligar a las empresas tecnológicas a compartir información y restringir el acceso público a sus modelos de IA en una emergencia.
Falta de mecanismos adecuados
Tommy Shaffer Shane, director de políticas de IA del CLTR y autor del informe, menciona: “Confiar en legislaciones de hace 20 o 50 años que nunca fueron diseñadas para esta tecnología no es necesariamente el mejor enfoque”. Además, advierte que si algo sale realmente mal, el gobierno podría encontrarse en una situación caótica, buscando mecanismos que no están disponibles para actuar con la rapidez que la situación requiere.
Las propuestas
El informe, que coincide con la conferencia anual del Partido Laborista, incluye 34 propuestas que el CLTR espera que se incluyan en el muy retrasado proyecto de ley de inteligencia artificial del gobierno. Estas propuestas abarcan desde otorgar al gobierno el poder de obligar a las empresas tecnológicas a compartir información hasta la revocación del acceso a modelos de IA, así como la obligación de informar sobre incidentes graves de seguridad de IA y realizar ejercicios regulares de preparación.
Un nuevo enfoque hacia la regulación de la IA
Si el gobierno británico adopta estas propuestas, esto señalaría un enfoque diferente hacia la regulación de la IA en comparación con la Unión Europea, cuyo extenso AI Act se centra en regular modelos individuales de IA. Esta legislación ha sido criticada por Silicon Valley y Washington, donde figuras influyentes argumentan que ha sofocado la innovación en la industria tecnológica europea y ha impuesto cargas excesivas a las empresas de IA estadounidenses.
El CLTR sugiere que el Reino Unido podría regular la IA sin comprometer el crecimiento económico manteniéndose en buenos términos con Estados Unidos, enfocándose en la preparación para las consecuencias de la IA en lugar de regular los modelos en sí. “Estamos hablando de preparar para un escenario donde los modelos peligrosos están más ampliamente desplegados de lo que quisiéramos”, dice Shaffer Shane.
AI en acción
Un estudio reciente reporta un caso donde un hombre de 60 años buscó consejo en ChatGPT sobre qué sustituir por la sal de mesa para mejorar su dieta. ChatGPT sugirió reemplazarla con bromuro de sodio, resultando en problemas de salud graves. Este caso ilustra cómo la IA puede potencialmente contribuir a resultados adversos prevenibles en la salud.
En respuesta, OpenAI ha afirmado que ChatGPT no está destinado para el tratamiento de condiciones de salud y que sus sistemas están diseñados para alentar a las personas a buscar orientación profesional.
Conclusiones
El informe del CLTR subraya la necesidad urgente de que el gobierno británico se prepare para desastres provocados por la IA, proponiendo cambios significativos en la legislación para garantizar una respuesta efectiva en situaciones de emergencia. Con el crecimiento acelerado de la IA, es fundamental que los gobiernos se adapten y establezcan marcos regulatorios que protejan la seguridad pública mientras fomentan la innovación.