Los trabajadores financieros del Reino Unido adoptan la IA, pero temen brechas de cumplimiento

Los trabajadores financieros del Reino Unido adoptan la IA, pero temen brechas de cumplimiento

Una nueva encuesta ha revelado que, aunque las herramientas de IA están siendo adoptadas rápidamente en los servicios financieros del Reino Unido, muchos empleados siguen preocupados por la supervisión y el cumplimiento.

Adopción de herramientas de IA

Más de un tercio de los trabajadores están utilizando herramientas como ChatGPT o Microsoft 365 Copilot de manera regular, sin embargo, el 55% afirma que no ha recibido formación formal al respecto.

El estudio, que encuestó a 2,000 empleados en los sectores de servicios financieros y seguros, muestra una creciente dependencia de la IA sin una gobernanza adecuada. Casi el 70% de los encuestados afirmaron que se sentirían más seguros utilizando IA si los resultados se capturaran y supervisaran de forma transparente. Sin embargo, el 38% no sabe si su empresa rastrea el uso de la IA, y el 21% dice que su firma no lo hace.

Responsabilidad en la adopción de IA

El presidente de la división empresarial de Smarsh, Tom Padgett, comentó: “La adopción de IA en los servicios financieros se ha acelerado rápidamente, con los empleados adoptando estas herramientas para aumentar la productividad. Pero con la innovación viene la responsabilidad. Las empresas deben establecer las guardrails adecuadas para prevenir filtraciones de datos y conductas indebidas. La buena noticia es que los empleados están a bordo, dando la bienvenida a un entorno de IA seguro y en cumplimiento que genera confianza y desbloquea el crecimiento a largo plazo.”

Preocupaciones sobre los Agentes de IA

El informe también reveló preocupaciones en torno al uso de Agentes de IA, herramientas automatizadas que manejan tareas de atención al cliente e inversiones. Casi la mitad de los encuestados afirmaron que su empresa utiliza Agentes de IA en las comunicaciones con los clientes, y el 22% dijo que se utilizan para decisiones de inversión. Sin embargo, un tercio cuestionó la capacidad de su empresa para aplicar regulaciones a estas herramientas, y el 29% no estaba seguro de a dónde termina la información sensible.

Advertencias sobre el uso de herramientas públicas de IA

El vicepresidente de producto de Smarsh, Paul Taylor, advirtió: “Usar herramientas de IA públicas sin controles es negligencia digital. Estás alimentando efectivamente tus joyas de la corona en una caja negra que no posees, donde los datos no pueden ser eliminados y la lógica no puede ser explicada. Es imprudente. Herramientas privadas como Microsoft 365 Copilot y ChatGPT Enterprise son un paso en la dirección correcta. Sin embargo, si las empresas no están capturando y auditando activamente el uso, no están asegurando la innovación, están caminando dormidas hacia una pesadilla de cumplimiento.”

Respuestas a las necesidades del cumplimiento

Smarsh está respondiendo a esta necesidad ofreciendo herramientas de cumplimiento habilitadas por IA, como Capture para Microsoft 365 Copilot y ChatGPT Enterprise. Estas soluciones ayudan a las empresas a utilizar la IA de manera segura mientras mantienen el cumplimiento.

More Insights

África y la Gobernanza de la IA: Hacia un Futuro Soberano

Los líderes africanos en el Foro de Gobernanza de Internet (IGF) 2025 en Oslo pidieron acciones urgentes para construir sistemas de IA soberanos y éticos adaptados a las necesidades locales. Se...

Regulaciones y Desafíos en la IA: Claves para la Cumplimiento

A medida que la IA se desarrolla en todo el mundo, se vuelve cada vez más difícil implementar regulaciones efectivas. La UE lidera con su Ley de IA, que impone obligaciones estrictas a las...

La Ruta Divergente de la IA en China

La competencia entre EE. UU. y China en inteligencia artificial se considera la rivalidad tecnológica definitoria de nuestro tiempo, con la posibilidad de que ambos países desarrollen "variedades"...

Ética de IA en medio de la rivalidad tecnológica EE.UU.-China

A medida que la rivalidad tecnológica entre Estados Unidos y China se profundiza, una agencia de la ONU está impulsando estándares globales sobre la ética de la inteligencia artificial. UNESCO...

Ley de AI Adversarial: Prohibición de Tecnología China en Agencias Federales

Un grupo bipartidista de legisladores de EE. UU. ha presentado un nuevo proyecto de ley, el "No Adversarial AI Act", que busca prohibir el uso de herramientas de inteligencia artificial desarrolladas...

Niveles de Protección para una IA Responsable en Amazon Bedrock

Amazon Bedrock Guardrails ofrece salvaguardias configurables para ayudar a construir aplicaciones de IA generativa confiables a gran escala. La introducción de niveles de salvaguardia permite a las...

Ley de Gobernanza de IA en Texas: Un Paso Hacia la Regulación Responsable

El 22 de junio de 2025, el gobernador de Texas, Greg Abbott, firmó la Ley de Gobernanza Responsable de IA de Texas (TRAIGA). Esta ley busca facilitar el desarrollo responsable de sistemas de...