Riscos da IA na Conformidade: Desafios e Oportunidades

AI e Conformidade: Quais são os Riscos?

A rápida evolução da inteligência artificial (IA), especialmente da IA generativa (GenAI) e dos chatbots, oferece às empresas uma infinidade de oportunidades para melhorar a forma como trabalham com os clientes, aumentar a eficiência e acelerar tarefas que exigem muito trabalho manual.

No entanto, a GenAI também trouxe problemas. Esses problemas variam desde falhas de segurança e preocupações com privacidade até questões sobre viés, exatidão e até mesmo alucinações, onde a resposta da IA é completamente falsa.

Compreensivelmente, isso chamou a atenção de legisladores e reguladores. Enquanto isso, as funções internas de conformidade dos clientes se viram correndo atrás de uma tecnologia em rápida evolução e complexidade.

Riscos Potenciais da IA para a Conformidade

Este artigo examina a IA e os potenciais riscos que ela representa para a conformidade com os ambientes legais e regulatórios. Isso significa que as equipes de conformidade organizacional precisam avaliar detalhadamente seu uso da GenAI para localizar fraquezas e vulnerabilidades, além de avaliar quão confiáveis são as fontes de dados e os resultados.

Os projetos mais comuns de IA nas empresas geralmente envolvem GenAI ou modelos de linguagem de grande porte (LLMs). Esses modelos funcionam como chatbots, respondem a consultas ou fornecem recomendações de produtos aos clientes. A busca, a resumação ou a tradução de documentos é outro caso de uso popular.

Entretanto, a IA também é utilizada em áreas como detecção de fraudes, vigilância e imagem médica e diagnóstico; todas áreas em que os riscos são muito maiores. Isso gerou questionamentos sobre como ou se a IA deve ser utilizada.

As organizações descobriram que os sistemas de IA podem produzir erros, além de resultados imprecisos ou enganosos.

Dados Confidenciais

As ferramentas de IA também vazaram dados confidenciais, seja diretamente ou porque os funcionários carregaram documentos confidenciais em uma ferramenta de IA.

Além disso, existe o viés. Os algoritmos mais recentes de IA, especialmente nos LLMs, são altamente complexos. Isso dificulta a compreensão de como um sistema de IA chegou a suas conclusões. Para uma empresa, isso torna difícil explicar ou até mesmo justificar o que uma ferramenta de IA, como um chatbot, fez.

Isso cria uma gama de riscos, especialmente para empresas em indústrias regulamentadas e no setor público. Os reguladores atualizam rapidamente as estruturas de conformidade existentes para cobrir os riscos da IA, além da legislação, como a Lei de IA da União Europeia (EU).

A Questão dos Dados de Origem da IA

A primeira área que as empresas devem controlar é como utilizam os dados com a IA. Isso se aplica ao treinamento de modelos e à fase de inferência ou produção da IA.

As empresas devem verificar se têm os direitos para usar dados para fins de IA. Isso inclui direitos autorais, especialmente para dados de terceiros. As informações pessoais identificáveis usadas para IA estão cobertas pelo Regulamento Geral sobre a Proteção de Dados (GDPR) e regulamentos da indústria. As organizações não devem presumir que o consentimento para o processamento de dados existentes cobre aplicações de IA.

Há também a questão da qualidade dos dados. Se uma organização usar dados de baixa qualidade para treinar um modelo, os resultados serão imprecisos ou enganadores. Isso, por sua vez, cria riscos de conformidade – e esses riscos podem não ser removidos, mesmo que uma organização utilize dados anonimizados.

O dados de origem permanecem uma das áreas de risco mais negligenciadas na IA empresarial, alerta um especialista. Essas práticas não atendem às normas de privacidade do GDPR do Reino Unido e da UE. Existe também uma falsa sensação de segurança na anonimização; muitos desses dados podem ser reidentificados ou carregar viés sistêmico.

Saídas da IA e Conformidade

Um conjunto adicional de questões de conformidade e regulatórias se aplica às saídas dos modelos de IA. O risco mais óbvio é que resultados confidenciais da IA sejam vazados ou roubados. À medida que as empresas conectam seus sistemas de IA a documentos internos ou fontes de dados, esse risco aumenta.

Houve casos em que usuários de IA expuseram informações confidenciais, seja maliciosamente ou inadvertidamente, por meio de seus prompts. Uma das causas é o uso de dados confidenciais para treinar modelos, sem as devidas salvaguardas.

Além disso, existe o risco de que a saída do modelo de IA seja simplesmente errada. Os resultados da IA podem parecer confiantes, mas serem totalmente falsos, tendenciosos ou até mesmo violadores da privacidade. As empresas muitas vezes subestimam quão danoso um resultado falho pode ser, desde contratações discriminatórias até orientações legais ou financeiras incorretas.

As empresas podem e utilizam a IA de maneira conforme, mas os diretores de informação e os diretores digitais precisam considerar cuidadosamente os riscos de conformidade no treinamento, inferência e como utilizam os resultados da IA.

More Insights

AI Responsável no Governo: A Importância da Aquisição

Em 2018, o público descobriu que o Departamento de Polícia de Nova Orleans estava usando um software de policiamento preditivo da Palantir para decidir onde enviar oficiais. Esse caso expôs uma grande...

A Explosão da IA Sombra e a Necessidade de Governança

A Inteligência Artificial Generativa (GenAI) está profundamente integrada nas empresas, muitas vezes sem aprovação formal ou supervisão. Isso é conhecido como Shadow AI, o uso não aprovado e não...

A Política da Fragmentação e da Captura na Regulação da IA

A pesquisa recente explora como a economia política da regulamentação de inteligência artificial (IA) é moldada pelo comportamento estratégico de governos, empresas de tecnologia e outros agentes. À...