Recomendaciones para la regulación de la IA en el Reino Unido

El Reino Unido carece de la capacidad para responder a desastres provocados por la inteligencia artificial, advierte un informe

Un desastre importante habilitado por la inteligencia artificial se vuelve cada vez más probable a medida que avanzan las capacidades de la IA. Sin embargo, un nuevo informe de un grupo de reflexión con sede en Londres advierte que el gobierno británico no tiene los poderes de emergencia necesarios para responder a desastres provocados por la IA, como la interrupción de infraestructura crítica o un ataque terrorista.

El informe, compartido exclusivamente con TIME antes de su publicación, argumenta que el Reino Unido debe otorgar a sus funcionarios nuevos poderes, incluyendo la capacidad de obligar a las empresas tecnológicas a compartir información y restringir el acceso público a sus modelos de IA en una emergencia.

Falta de mecanismos adecuados

Tommy Shaffer Shane, director de políticas de IA del CLTR y autor del informe, menciona: “Confiar en legislaciones de hace 20 o 50 años que nunca fueron diseñadas para esta tecnología no es necesariamente el mejor enfoque”. Además, advierte que si algo sale realmente mal, el gobierno podría encontrarse en una situación caótica, buscando mecanismos que no están disponibles para actuar con la rapidez que la situación requiere.

Las propuestas

El informe, que coincide con la conferencia anual del Partido Laborista, incluye 34 propuestas que el CLTR espera que se incluyan en el muy retrasado proyecto de ley de inteligencia artificial del gobierno. Estas propuestas abarcan desde otorgar al gobierno el poder de obligar a las empresas tecnológicas a compartir información hasta la revocación del acceso a modelos de IA, así como la obligación de informar sobre incidentes graves de seguridad de IA y realizar ejercicios regulares de preparación.

Un nuevo enfoque hacia la regulación de la IA

Si el gobierno británico adopta estas propuestas, esto señalaría un enfoque diferente hacia la regulación de la IA en comparación con la Unión Europea, cuyo extenso AI Act se centra en regular modelos individuales de IA. Esta legislación ha sido criticada por Silicon Valley y Washington, donde figuras influyentes argumentan que ha sofocado la innovación en la industria tecnológica europea y ha impuesto cargas excesivas a las empresas de IA estadounidenses.

El CLTR sugiere que el Reino Unido podría regular la IA sin comprometer el crecimiento económico manteniéndose en buenos términos con Estados Unidos, enfocándose en la preparación para las consecuencias de la IA en lugar de regular los modelos en sí. “Estamos hablando de preparar para un escenario donde los modelos peligrosos están más ampliamente desplegados de lo que quisiéramos”, dice Shaffer Shane.

AI en acción

Un estudio reciente reporta un caso donde un hombre de 60 años buscó consejo en ChatGPT sobre qué sustituir por la sal de mesa para mejorar su dieta. ChatGPT sugirió reemplazarla con bromuro de sodio, resultando en problemas de salud graves. Este caso ilustra cómo la IA puede potencialmente contribuir a resultados adversos prevenibles en la salud.

En respuesta, OpenAI ha afirmado que ChatGPT no está destinado para el tratamiento de condiciones de salud y que sus sistemas están diseñados para alentar a las personas a buscar orientación profesional.

Conclusiones

El informe del CLTR subraya la necesidad urgente de que el gobierno británico se prepare para desastres provocados por la IA, proponiendo cambios significativos en la legislación para garantizar una respuesta efectiva en situaciones de emergencia. Con el crecimiento acelerado de la IA, es fundamental que los gobiernos se adapten y establezcan marcos regulatorios que protejan la seguridad pública mientras fomentan la innovación.

More Insights

Colaboración y Competencia en la Gobernanza de la IA

La carrera por la inteligencia artificial está redefiniendo nuestra ética y la geopolítica, desafiando la noción de que se puede "ganar" esta competencia. La innovación en IA debe ser colaborativa y...

Política Nacional de IA en Pakistán: Un Futuro Innovador

Pakistán ha introducido una ambiciosa Política Nacional de IA destinada a construir un mercado de IA doméstico de 2.7 mil millones de dólares en cinco años. Esta política se basa en seis pilares...

Implementación de la ética en la IA: Guía práctica para empresas

La nueva guía de Capgemini destaca la importancia de la gobernanza ética de la IA como una prioridad estratégica para las organizaciones que buscan escalar la inteligencia artificial de manera...

Estrategia Integral de IA para la Educación Superior

La inteligencia artificial está transformando la educación superior al mejorar la experiencia académica y abordar problemas como la salud mental de los estudiantes. Las instituciones deben equilibrar...

Gobernanza de IA: Alineando políticas organizacionales con estándares globales

La inteligencia artificial (IA) está moldeando los servicios financieros, la agricultura y la educación en África, pero también trae riesgos significativos como sesgos y violaciones de privacidad...

El Resurgir del Descontento ante la IA

La transformación económica impulsada por la inteligencia artificial ha comenzado a causar despidos masivos en empresas como IBM y Salesforce, lo que ha llevado a una creciente preocupación entre los...

Ética laboral digital: Responsabilidad en la era de la IA

La mano de obra digital se está volviendo cada vez más común en el lugar de trabajo, pero se han implementado pocas reglas aceptadas para gobernarla. Los directores ejecutivos enfrentan el desafío de...

Anthropic lanza Petri, herramienta para auditorías automatizadas de seguridad en IA

Anthropic ha presentado Petri, una herramienta de auditoría de seguridad de IA de código abierto que utiliza agentes autónomos para probar modelos de lenguaje grande (LLMs) en busca de comportamientos...

El Acta de IA de la UE y el GDPR: ¿Choque o Sinergia?

La Ley de IA de la UE y el RGPD tienen interacciones significativas y similitudes en sus principios, como la transparencia y la gestión de riesgos. Ambos marcos requieren que se implementen medidas de...