Falta de recursos: el mayor obstáculo para regular la IA
Se requiere una cooperación más cercana entre los reguladores y un aumento en la financiación para que el Reino Unido pueda abordar efectivamente los daños a los derechos humanos asociados con la proliferación de sistemas de inteligencia artificial (IA).
En una reunión del Comité Conjunto de Derechos Humanos, se discutió si los reguladores del Reino Unido cuentan con los recursos, la experiencia y los poderes necesarios para garantizar que los derechos humanos estén protegidos frente a los nuevos daños emergentes causados por la IA.
Recursos y enfoque regulatorio
A pesar de que existen al menos 13 reguladores en el Reino Unido con competencias relacionadas con la IA, no hay un regulador único dedicado a esta tarea. El gobierno ha declarado que la IA debería ser regulada bajo el marco existente, pero testigos de diferentes comisiones advirtieron que el enfoque actual, desconectado, corre el riesgo de quedar rezagado sin una coordinación y recursos más sólidos.
La presidenta de una de las comisiones enfatizó que los recursos son el mayor obstáculo para regular la tecnología. La congelación del presupuesto de esta comisión desde 2012 se traduce en una reducción significativa en su capacidad para abordar temas críticos.
Los reguladores señalaron que el marco legal para abordar la discriminación y los daños a los derechos relacionados con la IA está en gran medida establecido. Sin embargo, la limitación está en la capacidad y los recursos, no en la falta de poderes legales. Como resultado, la mayor parte de la aplicación de la ley es reactiva en lugar de proactiva.
Propuestas para mejorar la regulación
Se sugirió que el primer paso del gobierno debería ser asegurar que los reguladores existentes reciban la financiación suficiente para trabajar juntos y responder rápidamente cuando se identifiquen vacíos en la regulación.
Además, se expresó un fuerte interés en contar con un regulador dedicado a la IA, haciendo una comparación con la industria farmacéutica. Los reguladores apoyaron la idea de un cuerpo coordinador para establecer mecanismos de colaboración más sólidos en lugar de un único superregulador, dado que la IA es una tecnología de propósito general.
Desafíos en la regulación de la desinformación
Se planteó la necesidad de una mayor cooperación internacional en la regulación de la desinformación generada por la IA. Sin embargo, se aclaró que, bajo la Ley de Seguridad en Línea del Reino Unido, no se tiene el poder de regular la difusión de desinformación en las redes sociales.
Conclusiones sobre la regulación de la IA
Los reguladores también abordaron el escepticismo en torno a las salvaguardias de edad en relación con las restricciones de acceso a las redes sociales y la pornografía en línea. Se destacó que no existe una defensa infalible en Internet contra usuarios determinados, ya sean adultos o niños.
En resumen, el enfoque del gobierno hacia la IA y la falta de recursos adecuados para los reguladores podrían llevar a un daño significativo a los derechos humanos si no se actúa con rapidez y coordinación.