Conformidade com a Lei de IA da UE: O Início de uma Nova Era

A Conformidade com a Lei de IA da UE

A inteligência artificial alcançou um marco significativo no início de fevereiro de 2025, especialmente relevante para os oficiais de conformidade corporativa: em 2 de fevereiro de 2025, os primeiros cinco artigos da Lei de IA da UE entraram em vigor.

Isso significa que a era da conformidade em IA começou formalmente. Se sua empresa utiliza IA e opera na Europa, ou desenvolve e vende sistemas de IA que são usados na Europa, então ela pode estar sujeita à aplicação regulatória. Portanto, é essencial começar a incorporar políticas e procedimentos voltados para a conformidade na estratégia de adoção de IA da sua empresa, quanto mais cedo, melhor.

O que é o Artigo 4 da Lei de IA da UE?

Começando pelo Artigo 4, ele afirma que todos os provedores e implementadores de sistemas de IA devem:

“Tomar medidas para garantir, na melhor extensão possível, um nível suficiente de alfabetização em IA de seus funcionários e outras pessoas que lidam com a operação e uso de sistemas de IA em seu nome, considerando seu conhecimento técnico, experiência, educação e treinamento, bem como o contexto em que os sistemas de IA serão utilizados, e considerando as pessoas ou grupos de pessoas sobre os quais os sistemas de IA serão utilizados.”

A definição de “alfabetização em IA” na Lei da UE

“Alfabetização em IA” refere-se às habilidades, conhecimentos e entendimentos que permitem aos provedores, implementadores e pessoas afetadas, levando em conta seus respectivos direitos e obrigações no contexto deste Regulamento, fazer uma implantação informada de sistemas de IA, bem como adquirir consciência sobre as oportunidades e riscos da IA e os possíveis danos que ela pode causar.

Em outras palavras, sua empresa deve treinar os funcionários para que eles entendam os riscos que a IA pode causar – e a partir desse requisito aparentemente simples, surgem uma série de desafios práticos.

A conformidade em IA começa com a governança em IA

Fundamentalmente, o desafio é o seguinte: você não pode desenvolver a necessária alfabetização em IA em sua organização se não souber como a empresa está usando a IA. Isso se torna cada vez mais problemático, pois agora é muito fácil para os funcionários incorporarem inteligência artificial em seus fluxos de trabalho e rotinas diárias.

Um exemplo é o DeepSeek, um aplicativo de IA generativa da China que aparentemente surgiu do nada para se tornar um dos aplicativos mais populares da internet. Quais são os riscos de privacidade do DeepSeek? Quais riscos cibernéticos ele pode introduzir em sua organização? Ninguém sabe. (Embora praticamente todos os reguladores de privacidade na Europa estejam tentando descobrir.)

Portanto, antes mesmo de considerar as políticas, procedimentos e treinamentos que podem ser necessários em seu negócio para alcançar a alfabetização em IA que você deve ter, sua equipe de gestão precisa primeiro estabelecer algum tipo de mecanismo de governança para orientar como os funcionários usam a IA.

Por exemplo, uma grande empresa poderia estabelecer um “conselho de uso de IA” de algum tipo, onde os chefes de várias funções operacionais da Primeira Linha se reúnem com funções de gestão de risco da Segunda Linha (conformidade, privacidade, RH, jurídico, segurança de TI) para definir as regras para que os funcionários adotem a IA. Eles podem usar certos sistemas de IA, mas não outros; talvez utilizem IA para certas tarefas, mas não para outras; talvez todos os sistemas de IA voltados para o cliente comecem com uma interface de “você está usando IA”, e assim por diante.

Onde se encaixam a ética, o tom no topo e a cultura corporativa em tudo isso? Idealmente, eles devem permeiar toda a discussão. Ou seja, a alta administração precisa demonstrar um compromisso com o uso ético da IA – mesmo quando a empresa não tem clareza sobre todas as preocupações éticas para casos de uso específicos de IA; é para isso que seu conselho de governança em IA existe.

Uma vez que a alta administração deixe claro para todos que (a) sim, usar IA é ótimo, mas (b) a adotaremos de maneira cuidadosa, ética e em conformidade – essa forte cultura de ética impulsionará uma cultura de uso responsável da IA. Assim, sua busca para encontrar o nível apropriado de alfabetização em IA se tornará muito mais fácil de alcançar.

O que é o Artigo 5 da Lei de IA da UE?

Temos também o Artigo 5, que introduz práticas de IA proibidas. Este é um aspecto crucial da Lei de IA da UE porque estabelece a ideia de “níveis” de uso aceitável de IA – começando pelos casos de uso mais severos, que não serão permitidos de forma alguma.

Many desses casos de uso proibidos não surpreenderão os executivos ocidentais. Por exemplo, a lei proíbe IA que:

  • Implanta “técnicas subliminares além da consciência de uma pessoa ou técnicas manipulativas ou enganosas intencionalmente” com o objetivo de “distorcer materialmente o comportamento de uma pessoa ao prejudicar apreciavelmente sua capacidade de tomar uma decisão informada.”
  • Monitora uma pessoa e, em seguida, prevê o risco de essa pessoa cometer um crime, “com base unicamente na perfilagem de uma pessoa natural ou na avaliação de suas características e traços de personalidade.”
  • Inferir as emoções de uma pessoa no trabalho ou na escola, exceto por razões médicas ou de segurança.

Não precisamos revisar todos os usos proibidos aqui. O ponto para os oficiais de conformidade é que sua organização precisará de políticas claras sobre quais usos de IA você não irá abraçar, apoiadas por procedimentos para garantir que ninguém os esteja adotando.

Por exemplo, não é exagero imaginar que algum contratante ou parceiro comercial de sua empresa utiliza IA de forma proibida em nome de sua empresa; portanto, você precisará de políticas claras, bem como de um forte gerenciamento de contratos e capacidades de monitoramento de terceiros. E para enfatizar nosso ponto sobre alfabetização em IA mencionado anteriormente, você precisará de um forte treinamento de seus próprios funcionários para garantir que eles entendam que esse é um risco de IA de terceiros, e a empresa precisará de sua ajuda para evitá-lo.

No decorrer do tempo, a Lei de IA da UE introduzirá outros níveis de uso de IA; quanto menor o risco que o caso de uso apresenta, menos supervisão você precisará exercer. Isso exigirá que as equipes de ética e conformidade corporativa enfrentem novos desafios, à medida que desenvolvem processos para avaliar os riscos desses casos de uso e implementar controles apropriados.

Em alguns aspectos, seu programa de conformidade em IA ainda se baseará nos fundamentos de um forte programa de ética e conformidade, como sempre. Em outros aspectos, é um novo mundo corajoso – e pronto ou não, esse mundo já está aqui.

More Insights

Sistema de Gestão de Risco na Lei de IA da UE

O Ato de Inteligência Artificial da União Europeia (UE) estabelece um sistema de gestão de riscos obrigatório para provedores de IA de alto risco, visando proteger a saúde, a segurança e os direitos...

Riscos Ocultos dos Agentes de IA na Governança

Dalen acredita que agora é necessária uma governança específica para a IA para essa nova geração de ferramentas, a fim de garantir que sejam implantadas de forma responsável e tragam valor...