Trabalhadores Financeiros do Reino Unido Acolhem a IA, mas Temem Lacunas de Conformidade

Trabalhadores Financeiros do Reino Unido Abraçam a IA, Mas Temem Lacunas de Conformidade

Um novo estudo revelou que, embora as ferramentas de IA estejam sendo rapidamente adotadas nos serviços financeiros do Reino Unido, muitos funcionários ainda estão preocupados com a supervisão e a conformidade.

Adoção de Ferramentas de IA

Mais de um terço dos trabalhadores está utilizando ferramentas como ChatGPT ou Microsoft 365 Copilot regularmente. No entanto, 55% afirmam que não receberam nenhum treinamento formal sobre o uso dessas tecnologias.

Desafios de Governança

O estudo, que entrevistou 2.000 funcionários dos setores de serviços financeiros e seguros, mostra uma crescente dependência da IA sem uma governança correspondente. Quase 70% dos entrevistados disseram que se sentiriam mais confiantes usando IA se as saídas fossem capturadas e monitoradas de forma transparente. Entretanto, 38% desconhecem se suas empresas rastreiam o uso da IA, e 21% afirmam que suas empresas não o fazem.

Responsabilidade na Adoção de IA

O presidente da Smarsh para negócios empresariais, Tom Padgett, comentou: “A adoção de IA nos serviços financeiros acelerou rapidamente, com os funcionários abraçando essas ferramentas para aumentar a produtividade.”

“Mas com a inovação vem a responsabilidade. As empresas devem estabelecer as guardrails adequadas para prevenir vazamentos de dados e condutas impróprias. A boa notícia é que os funcionários estão a bordo—desejando um ambiente seguro e compliant que construa confiança e desbloqueie o crescimento a longo prazo.”

Preocupações com Agentes de IA

O relatório também revelou preocupações em torno do uso de Agentes de IA—ferramentas automatizadas que lidam com atendimento ao cliente e tarefas de investimento. Quase metade dos entrevistados disse que suas empresas usam Agentes de IA nas comunicações com clientes, e 22% afirmaram que são utilizados para decisões de investimento. No entanto, um terço questionou a capacidade de suas empresas de aplicar regulamentações a essas ferramentas, e 29% estavam inseguros sobre onde os dados sensíveis acabam.

Advertência sobre o Uso de Ferramentas Públicas de IA

O vice-presidente de produto da Smarsh, Paul Taylor, alertou: “Usar ferramentas de IA públicas sem controles é negligência digital. Você está efetivamente alimentando suas joias da coroa em uma caixa-preta que você não possui, onde os dados não podem ser excluídos e a lógica não pode ser explicada. É reckless.

Ferramentas privadas como Microsoft 365 Copilot e ChatGPT Enterprise são um passo na direção certa. No entanto, se as empresas não estão ativamente capturando e auditando o uso, elas não estão segurando a inovação—estão caminhando para um pesadelo de conformidade.”

Soluções da Smarsh

A Smarsh está respondendo a essa necessidade oferecendo ferramentas de conformidade habilitadas para IA, como o Capture for Microsoft 365 Copilot e ChatGPT Enterprise. Essas soluções ajudam as empresas a usar a IA com segurança, enquanto mantêm a conformidade.

More Insights

A Importância da IA Responsável: Riscos e Soluções

As empresas estão cientes da necessidade de uma IA responsável, mas muitas a tratam como um pensamento secundário ou um fluxo de trabalho separado. Isso pode levar a riscos legais, financeiros e de...

Modelo de Governança de IA que Combate o Shadow IT

As ferramentas de inteligência artificial (IA) estão se espalhando rapidamente pelos locais de trabalho, mudando a forma como as tarefas diárias são realizadas. A adoção da IA está ocorrendo de forma...

Acelerando Inovação com IA Ética

As empresas estão correndo para inovar com inteligência artificial, mas muitas vezes sem as diretrizes adequadas. A conformidade pode se tornar um acelerador da inovação, permitindo que as empresas se...

Riscos Ocultos da IA na Contratação

A inteligência artificial está transformando a forma como os empregadores recrutam e avaliam talentos, mas também introduz riscos legais significativos sob as leis federais de anti-discriminação. A...