¿Está el Gobierno del Reino Unido utilizando inteligencia artificial para asesorar a Keir Starmer?

¿Está Keir Starmer siendo asesorado por IA? El gobierno del Reino Unido no nos lo dirá

El primer ministro del Reino Unido, Keir Starmer, busca convertir al país en un líder mundial en inteligencia artificial. Sin embargo, la falta de transparencia en el uso de herramientas de IA por parte del gobierno ha generado preocupaciones sobre la precisión y la calidad de la información utilizada en la toma de decisiones gubernamentales.

Uso de un chatbot de inteligencia artificial

Se ha revelado que miles de funcionarios públicos, incluidos aquellos que trabajan directamente con el primer ministro, están utilizando un chatbot de IA propietario llamado Redbox para llevar a cabo su trabajo. Aunque se ha confirmado su uso, las autoridades se han negado a proporcionar detalles sobre cómo se utiliza y si el primer ministro está recibiendo asesoramiento basado en información generada por IA.

Después de obtener registros de uso de ChatGPT a través de la legislación de libertad de información, se solicitó a 20 departamentos gubernamentales que compartieran sus interacciones con Redbox. Este chatbot, impulsado por un modelo de lenguaje grande, permite a los usuarios interrogar documentos gubernamentales y generar borradores de informes. En las pruebas iniciales, un funcionario afirmó haber sintetizado 50 documentos en cuestión de segundos, en lugar de un día completo de trabajo.

Respuestas de los departamentos gubernamentales

Todos los departamentos contactados afirmaron no utilizar Redbox o se negaron a proporcionar los registros de interacción, catalogando las solicitudes como “vexatious”, un término oficial que indica que la solicitud podría causar un nivel desproporcionado de estrés o irritación.

Sin embargo, dos departamentos ofrecieron información sobre su uso de Redbox. La Oficina del Gabinete, que apoya al primer ministro, informó que 3000 personas en su departamento habían participado en un total de 30,000 chats con Redbox. Revisar estos chats para eliminar información sensible antes de liberarlos bajo la legislación de libertad de información llevaría más de un año de trabajo. El Departamento de Comercio y Comercio también se negó, afirmando que tenía “más de 13,000 prompts y respuestas” y que revisarlos para su liberación no sería factible.

Preocupaciones sobre la transparencia

Cuando se hicieron preguntas de seguimiento sobre el uso de Redbox, ambos departamentos remitieron a New Scientist al Departamento de Ciencia, Innovación y Tecnología (DSIT), que supervisa la herramienta. Este departamento se negó a responder preguntas específicas sobre si el primer ministro o otros ministros del gabinete están recibiendo asesoramiento basado en herramientas de IA.

Un portavoz del DSIT declaró: “Nadie debería pasar tiempo en algo que la IA puede hacer mejor y más rápido. Desarrollado en Whitehall, Redbox nos está ayudando a aprovechar el poder de la IA de manera segura y práctica, facilitando a los funcionarios resumir documentos, redactar agendas y más.”

Preocupaciones sobre la calidad de la información

Sin embargo, el uso de herramientas de IA generativa preocupa a algunos expertos. Los modelos de lenguaje grande tienen problemas bien documentados relacionados con el sesgo y la precisión, lo que complica la mitigación de estos problemas. Esto plantea dudas sobre si Redbox está proporcionando información de buena calidad.

“Mi problema aquí es que el gobierno debe servir al público, y parte de ese servicio es que nosotros -como contribuyentes y votantes- deberíamos tener acceso a cómo se toman las decisiones y cuáles son los procesos implicados en la toma de decisiones”, afirma un experto en ética de la IA.

La falta de registros en el Tesoro

La falta de transparencia también afecta a un tercer departamento gubernamental, el Tesoro. En respuesta a la solicitud de libertad de información, el Tesoro informó que su personal no tiene acceso a Redbox y que “las herramientas de GPT disponibles internamente dentro del Tesoro de Su Majestad no retienen el historial de prompts”. Esta respuesta sugiere que el Tesoro está utilizando herramientas de IA, pero no mantiene registros completos de su uso.

“Si no están reteniendo los prompts utilizados, es difícil obtener una idea de cómo replicar los procesos de toma de decisiones”, agrega el experto.

Conclusión

La falta de información sobre el uso de herramientas de IA en el gobierno del Reino Unido plantea serias preocupaciones sobre la transparencia y la rendición de cuentas en el proceso de toma de decisiones. A medida que la IA se convierte en una herramienta cada vez más común en la administración pública, es crucial establecer políticas que garanticen la calidad y la precisión de la información utilizada para guiar las decisiones gubernamentales.

More Insights

Colaboración y Competencia en la Gobernanza de la IA

La carrera por la inteligencia artificial está redefiniendo nuestra ética y la geopolítica, desafiando la noción de que se puede "ganar" esta competencia. La innovación en IA debe ser colaborativa y...

Política Nacional de IA en Pakistán: Un Futuro Innovador

Pakistán ha introducido una ambiciosa Política Nacional de IA destinada a construir un mercado de IA doméstico de 2.7 mil millones de dólares en cinco años. Esta política se basa en seis pilares...

Implementación de la ética en la IA: Guía práctica para empresas

La nueva guía de Capgemini destaca la importancia de la gobernanza ética de la IA como una prioridad estratégica para las organizaciones que buscan escalar la inteligencia artificial de manera...

Estrategia Integral de IA para la Educación Superior

La inteligencia artificial está transformando la educación superior al mejorar la experiencia académica y abordar problemas como la salud mental de los estudiantes. Las instituciones deben equilibrar...

Gobernanza de IA: Alineando políticas organizacionales con estándares globales

La inteligencia artificial (IA) está moldeando los servicios financieros, la agricultura y la educación en África, pero también trae riesgos significativos como sesgos y violaciones de privacidad...

El Resurgir del Descontento ante la IA

La transformación económica impulsada por la inteligencia artificial ha comenzado a causar despidos masivos en empresas como IBM y Salesforce, lo que ha llevado a una creciente preocupación entre los...

Ética laboral digital: Responsabilidad en la era de la IA

La mano de obra digital se está volviendo cada vez más común en el lugar de trabajo, pero se han implementado pocas reglas aceptadas para gobernarla. Los directores ejecutivos enfrentan el desafío de...

Anthropic lanza Petri, herramienta para auditorías automatizadas de seguridad en IA

Anthropic ha presentado Petri, una herramienta de auditoría de seguridad de IA de código abierto que utiliza agentes autónomos para probar modelos de lenguaje grande (LLMs) en busca de comportamientos...

El Acta de IA de la UE y el GDPR: ¿Choque o Sinergia?

La Ley de IA de la UE y el RGPD tienen interacciones significativas y similitudes en sus principios, como la transparencia y la gestión de riesgos. Ambos marcos requieren que se implementen medidas de...