A Lei de IA da UE Está Em Vigor: O Que as Empresas Globais Precisam Saber
A Lei de IA da UE entrou em vigor com um alcance global. As empresas dos EUA enfrentam novas regras, riscos e penalidades severas. Aqui está o que os líderes precisam saber agora.
Os dois primeiros capítulos da Lei de IA da UE entraram em vigor em 2 de fevereiro de 2025. Essas disposições abordam práticas de IA e alfabetização em IA. O restante das disposições da lei será implementado ao longo do tempo.
O Alcance Global da Lei de IA
Embora as maiores implicações da lei sejam para as empresas baseadas na UE, aquelas fora da União Europeia também são afetadas. A lei se aplica a todos os provedores de sistemas de IA no mercado da UE, independentemente de operarem dentro da UE ou não.
Segundo Enza Iannopollo, analista principal da Forrester, “o alcance global da Lei de IA da UE, as penalidades significativas por não conformidade e os extensos requisitos que abrangem toda a cadeia de valor da IA garantem que organizações em todo o mundo que utilizam tecnologias de IA devem cumprir a regulamentação”.
A lei terá um impacto significativo na governança de IA global, acrescentou Iannopollo. “Com essas regulamentações, a UE estabeleceu o padrão de facto para IA confiável e gestão de riscos de IA.”
Entendendo a Estrutura de Risco da Lei de IA da UE
O núcleo da Lei de IA da UE é sua abordagem baseada em risco. Quanto maior o risco do uso da IA ou do uso de IA de propósito geral (GPAI), mais requisitos deve cumprir e mais rigorosa será a aplicação desses requisitos. À medida que o risco diminui, também diminuem o número e a complexidade dos requisitos que uma empresa deve seguir.
Yingbo Ma, professor assistente de IA e aprendizado de máquina da Universidade Purdue Northwest, explicou os quatro níveis de risco:
- IA de Risco Inaceitável: Proibida. Exemplos: pontuação social, IA manipulativa e identificação biométrica em tempo real em espaços públicos.
- IA de Alto Risco: Rigorosamente Regulada. Exemplos: IA em saúde, contratação, finanças e aplicação da lei, exigindo conformidade com transparência, governança de dados e supervisão humana.
- IA de Risco Limitado: Exigindo Transparência. Exemplos: chatbots e deep fakes, garantindo que os usuários estejam cientes de que estão interagindo com IA.
- IA de Risco Mínimo: Não Regulada. Exemplos: motores de recomendação e IA de jogos.
Os provedores de sistemas de IA têm obrigações diferentes dos implementadores, mas a conformidade de cada ator depende do outro, segundo Iannopollo. Os provedores devem fornecer aos implementadores documentação detalhada sobre o sistema (por exemplo, capacidades, limitações, uso pretendido) para que possam implementar os sistemas corretamente e entender seus resultados de forma adequada.
A Mandato sobre Alfabetização em IA
A Lei de IA exige que provedores e implementadores tomem medidas para garantir, na melhor extensão possível, que os funcionários e outras pessoas que lidam com sistemas de IA em seu nome (incluindo consultores) tenham um nível suficiente de alfabetização em IA.
Para essas pessoas, o treinamento em alfabetização deve levar em conta seu conhecimento técnico, experiência, educação, treinamento e o contexto em que os sistemas de IA são utilizados. Também deve considerar as pessoas ou grupos sobre os quais os sistemas de IA são utilizados.
Esse requisito se aplica a todos os sistemas de IA e não apenas àqueles considerados de alto risco sob a Lei.
O Que Mais as Empresas Precisam se Preparar
Além dos níveis de risco e alfabetização, a Lei de IA da UE introduz responsabilidades abrangentes que tocam em modelos fundamentais, cadeias de suprimento e o ecossistema mais amplo de IA. Essas considerações adicionais adicionam camadas de complexidade — e conformidade — para as empresas que navegam pela regulamentação.
Novos Padrões para Sistemas de IA de Propósito Geral
A Lei faz grandes avanços para abordar as obrigações de sistemas de IA de propósito geral para implementadores, segundo Jeff Le, principal consultor da 100 Mile Strategies.
“Um passo importante é o reconhecimento além das regras de transparência da UE para estabelecer um limiar mais alto sobre modelos fundamentais que poderiam levar a riscos muito maiores e afetar toda a cadeia de suprimento de software, o que poderia ter implicações diretas para consumidores/usuários”, disse Le.
Prepare-se para Auditorias, Avaliações e Mais
As empresas devem passar por auditorias, atender a padrões de transparência e realizar avaliações, tornando mais difícil para startups competir com grandes empresas de tecnologia, observou Amir Barsoum, fundador e sócio-gerente da InVitro Capital.
A Comissão Europeia pode multar provedores de modelos de IA de propósito geral em até 3% de seu faturamento total global anual do ano financeiro anterior, ou €15.000.000 — o que for maior. Essas multas podem ser aplicadas se a Comissão constatar que o provedor intencionalmente ou negligentemente:
- Infringiu as disposições relevantes da Lei.
- Não atendeu a solicitações de documentação ou forneceu informações incorretas, incompletas ou enganosas.
- Não cumpriu as medidas solicitadas sob o Artigo 93, que inclui a implementação de medidas de mitigação, restrição de acesso ao modelo e mais.
- Não disponibilizou o acesso ao modelo de IA de propósito geral à Comissão.
Desenhando Sistemas de IA para Explicabilidade
A lei exige transparência na tomada de decisões de IA, o que deve reduzir os riscos de IA caixa-preta em áreas como contratação, pontuação de crédito e saúde, segundo Barsoum.
“Os consumidores em várias regiões esperam que as empresas sejam explícitas sobre seu uso de qualquer IA”, disse Iannopollo. “A Lei exige que você informe claramente as pessoas expostas a um sistema de IA e GPAI de uma forma que seja fácil de identificar e entender e que cumpra os requisitos de acessibilidade.”
Principais Disposições da Lei de IA da UE Ainda por Vir
A Lei de IA da UE está sendo implementada em etapas. Outras regras, como as sobre modelos GPAI, entrarão em vigor em junho de 2025. Os requisitos sobre casos de uso de alto risco entrarão em vigor após 24 a 36 meses. A Forrester apontou que, embora alguns requisitos entrem em vigor em datas posteriores, eles exigirão um esforço e tempo substanciais para que uma empresa atenda às regras da lei, como no caso dos casos de uso de alto risco.
“Ainda existem questões significativas quanto a potenciais consequências não intencionais e desafios de implementação”, disse Le. O cronograma para plena eficácia antes de agosto de 2026 pode ser visto como um desafio para a indústria, especialmente à medida que os avanços futuros continuam a se desenvolver.