A UE como Pioneira: O Impacto da Lei de IA

A UE é uma Pioneira, e a Lei de IA Prova Isso

Em 2 de agosto de 2025, entrou em vigor a segunda fase da Lei de IA da UE, que inclui obrigações para modelos de propósito geral. Esta legislação é a primeira abrangente sobre inteligência artificial no mundo, sendo implementada em etapas graduais, semelhante ao que foi o GDPR para a privacidade de dados na década de 2010. A Lei de IA se tornará o modelo global para a governança da tecnologia transformadora da IA nas próximas décadas.

Recentemente, um novo caso de ação legal contra a OpenAI, movido pelos pais de Adam Raine, um adolescente que faleceu após meses de uso intensivo do ChatGPT, destacou a necessidade de regulamentação dessa tecnologia e os riscos que ela pode trazer.

Estratégia de Gestão de Risco

A Lei de IA adota uma abordagem de gestão de riscos; seu objetivo é regular a transparência e a responsabilidade para sistemas de IA e seus desenvolvedores. Embora tenha sido promulgada em 2024, a primeira onda de aplicação foi implementada em fevereiro de 2025, abordando riscos considerados inaceitáveis, incluindo sistemas de IA que representam uma ameaça clara à segurança social. A segunda onda, que entrou em vigor em agosto de 2025, abrange modelos de IA de propósito geral (GPAI), sendo esta a mais importante em termos de escopo.

A partir de 2 de agosto de 2025, os fornecedores de GPAI devem cumprir obrigações de transparência e direitos autorais ao disponibilizar seus modelos no mercado da UE. Isso se aplica não apenas a empresas baseadas na UE, mas a qualquer organização que opere na região. Modelos de GPAI já disponíveis antes dessa data deverão estar em conformidade até 2 de agosto de 2027.

Definição de Modelos GPAI

Para fins legais, os modelos GPAI incluem aqueles treinados com mais de 10^23 operações de ponto flutuante (FLOP) e que são capazes de gerar linguagem (texto ou áudio), texto-para-imagem ou texto-para-vídeo. Os provedores de sistemas GPAI devem manter documentação técnica sobre o modelo, incluindo um resumo detalhado de seu corpus de treinamento. Além disso, eles devem implementar uma política para cumprir com a lei de direitos autorais da UE.

Dentro do grupo de modelos GPAI, existe um nível especial considerado de risco sistêmico, que abrange modelos muito avançados desenvolvidos por um número reduzido de fornecedores. As empresas nesse nível enfrentam obrigações adicionais, como notificar a Comissão Europeia ao desenvolver um modelo considerado de risco sistêmico e tomar medidas para garantir a segurança do modelo. A classificação de quais modelos representam riscos sistêmicos pode mudar conforme a tecnologia evolui.

Exceções e Críticas

Existem exceções: IA utilizada para segurança nacional, militar e defesa está isenta da lei. Alguns sistemas de código aberto também estão fora do alcance da legislação, assim como modelos de IA desenvolvidos usando código publicamente disponível.

A Comissão Europeia publicou um modelo para ajudar os fornecedores a resumir os dados utilizados para treinar seus modelos, o Código de Prática GPAI, desenvolvido por especialistas independentes como uma ferramenta voluntária para que os provedores de IA demonstrem conformidade com a Lei de IA. Assinantes incluem Amazon, Google, IBM, Microsoft e OpenAI, mas algumas ausências notáveis foram observadas, como a Meta.

A Lei de IA recebeu críticas devido ao seu impacto desproporcional em startups e pequenas e médias empresas, com alguns especialistas argumentando que ela deveria incluir exceções para tecnologias que ainda não têm um impacto generalizado ou potencial de dano. Outros afirmam que isso pode atrasar o progresso entre as organizações europeias no treinamento de seus modelos de IA e que as regras são confusas. Em julho passado, vários grupos de tecnologia, incluindo a CCIA Europa, pediram à UE que interrompesse a implementação da lei, argumentando que a implementação foi muito apressada.

Perspectivas Futuras

No entanto, a Lei de IA foi desenvolvida com a colaboração de milhares de partes interessadas do setor privado, em um momento em que as empresas buscam orientação regulatória. Ela também está introduzindo práticas de segurança padrão em toda a UE, em um período crítico de adoção. A Lei de IA está estabelecendo um referencial global para que outros sigam em um momento de grande turbulência. Após a implementação da Lei de IA, EUA e outros países acharão cada vez mais difícil ignorar os chamados por uma IA mais responsável, um esforço louvável que fará história.

More Insights

Governança da IA na Economia de Zero Confiança

Em 2025, a governança da IA deve alinhar-se com a mentalidade de "nunca confie, sempre verifique" da economia de zero confiança. Isso significa que a governança não deve ser vista como um obstáculo à...

A Segurança da IA como Catalisador para Inovação em Países em Desenvolvimento

Investimentos em segurança e proteção da IA não devem ser vistos como obstáculos, mas sim como facilitadores da inovação sustentável e do desenvolvimento a longo prazo, especialmente em países da...

Rumo à Governança da IA no ASEAN

Quando se trata de IA, a ASEAN adota uma abordagem de governança baseada em consenso. Este modelo voluntário e baseado em princípios pode ser uma solução temporária, mas corre o risco de fragmentação...

Implementação Ética da IA na Ucrânia

Em junho, 14 empresas de TI ucranianas criaram uma organização de autorregulamentação para apoiar abordagens éticas na implementação da inteligência artificial na Ucrânia. As empresas se comprometeram...

A Itália Aprova Lei Abrangente de IA Focada em Privacidade e Segurança

O Parlamento da Itália aprovou uma nova lei sobre inteligência artificial, tornando-se o primeiro país da União Europeia com regulamentações abrangentes. A legislação estabelece princípios centrais de...