Riscos da IA Sombra no Ambiente de Trabalho

O Uso de Shadow AI pelos Trabalhadores Apresenta Riscos de Conformidade e Reputação

Com a crescente adoção de ferramentas de IA, um novo problema está emergindo: quando os empregadores não fornecem ferramentas de IA sancionadas, muitos trabalhadores optam por usar aquelas que preferem.

Em setores como saúde, manufatura e serviços financeiros, o uso das chamadas ferramentas de shadow AI no local de trabalho aumentou mais de 200% ano após ano, de acordo com o relatório CX Trends 2025 da Zendesk. Entre os funcionários de empresas que utilizam IA generativa no trabalho, quase sete em cada dez acessam assistentes públicos de GenAI como o ChatGPT. Além disso, uma pesquisa da Ivanti mostrou que 46% dos trabalhadores de escritório – incluindo profissionais de TI que compreendem os riscos – utilizam ferramentas de IA que seus empregadores não forneceram.

Como a Shadow AI Torna as Organizações Vulneráveis

Paralelo à shadow IT, a shadow AI refere-se ao uso de ferramentas de inteligência artificial não aprovadas ou não sancionadas. Exemplos incluem o uso do Microsoft Copilot com uma conta pessoal em um dispositivo de trabalho ou a inserção de dados empresariais em uma versão pública do ChatGPT. As ferramentas de shadow AI abrangem copilotos, agentes, automatizadores de fluxo de trabalho, chatbots e aplicações generativas, como identificado pela Zendesk.

Embora as ferramentas de shadow AI possam aumentar a produtividade ou a satisfação dos trabalhadores que as adotam, seu uso apresenta consideráveis desvantagens organizacionais.

Um dos principais riscos é a ameaça direta à privacidade e à segurança dos dados. Inserir dados como informações de clientes ou registros financeiros em ferramentas de IA públicas pode acionar violações de regulamentações como o GDPR ou o HIPAA, ou vazar dados proprietários. Os riscos de conformidade e reputação do uso não autorizado de aplicações de IA de terceiros são especialmente agudos em setores altamente regulamentados como finanças e saúde.

Preocupações de Segurança com Shadow AI

Qualquer software não aprovado pode introduzir vulnerabilidades em redes ou sistemas, e as ferramentas de IA não são exceção. O uso da shadow AI pode resultar em códigos maliciosos, tentativas de phishing ou outras brechas de segurança que passam despercebidas até que seja tarde demais.

Além disso, as ferramentas de IA apresentam considerações importantes em torno da confidencialidade e uso de dados. A maioria da shadow AI utilizada baseia-se em versões gratuitas da ferramenta de IA, que provavelmente possui termos permissivos em relação ao uso dos inputs e outputs, permitindo que esses dados sejam utilizados para treinar ou melhorar os modelos.

Como Dissuadir o Uso de Shadow AI

A shadow AI não é apenas uma questão de um ambiente tecnológico relaxado ou lacunas na segurança de TI – é um sinal de que os funcionários têm uma necessidade que não está sendo atendida pelas ferramentas e políticas de IA existentes. Para combater o uso de shadow AI, é essencial permitir que os funcionários sejam parceiros ativos no desenvolvimento da governança de IA.

Fomentar um diálogo aberto no local de trabalho sobre o uso de IA e ferramentas permite que os trabalhadores discutam quais ferramentas os ajudam a ter sucesso e permite que a TI compartilhe como utilizar ferramentas de IA de forma segura. Pesquisas, auditorias e conversas podem revelar por que essas ferramentas são populares entre os trabalhadores e fornecer informações para a seleção de alternativas aprovadas pela empresa.

Uma abordagem centrada em riscos para a adoção da IA, que se concentra em como a empresa lida com os dados, é essencial. Essa abordagem permite que as organizações aproveitem práticas e processos estabelecidos, ajustados para questões focadas em IA. A adoção oficial e a integração de copilotos de IA são uma maneira de combater o uso de shadow AI.

As empresas devem garantir que as ferramentas escolhidas sejam integradas de forma eficaz, entendendo quais dados podem ser acessados e para quais propósitos. Essa integração é fundamental para maximizar os benefícios da IA sem comprometer a segurança e a conformidade.

More Insights

Aliança Escocesa de IA Destaca Ética em Inteligência Artificial

A Scottish AI Alliance lançou seu Relatório de Impacto 2024/2025, destacando um ano transformador de progresso na promoção de inteligência artificial confiável, ética e inclusiva na Escócia. O...

Controles de IA de Trump: Oportunidades e Desafios para o Mercado

A administração Trump está se preparando para novas restrições nas exportações de chips de IA para a Malásia e Tailândia, visando impedir que processadores avançados cheguem à China por meio de...

LLMOps: Potencializando IA Responsável com Python

Neste ambiente altamente competitivo, não é suficiente apenas implantar Modelos de Linguagem de Grande Escala (LLMs) — é necessário um robusto framework LLMOps para garantir a confiabilidade e o...

Fortalecendo a Proteção de Dados e a Governança de IA em Cingapura

Cingapura está respondendo proativamente aos desafios evolutivos impostos pelo uso de dados na era da inteligência artificial (IA), afirmou a Ministra de Comunicações e Informação, Josephine Teo. O...

Vigilância por IA e a Lacuna de Governança na Ásia-Pacífico

A tecnologia de vigilância alimentada por IA, especialmente o reconhecimento facial, é um exemplo clássico de tecnologias de uso duplo, promovidas como ferramentas de prevenção ao crime, mas...