A UE é uma Pioneira, e a Lei de IA Prova Isso
Em 2 de agosto de 2025, entrou em vigor a segunda fase da Lei de IA da UE, que inclui obrigações para modelos de propósito geral. Esta legislação é a primeira abrangente sobre inteligência artificial no mundo, sendo implementada em etapas graduais, semelhante ao que foi o GDPR para a privacidade de dados na década de 2010. A Lei de IA se tornará o modelo global para a governança da tecnologia transformadora da IA nas próximas décadas.
Recentemente, um novo caso de ação legal contra a OpenAI, movido pelos pais de Adam Raine, um adolescente que faleceu após meses de uso intensivo do ChatGPT, destacou a necessidade de regulamentação dessa tecnologia e os riscos que ela pode trazer.
Estratégia de Gestão de Risco
A Lei de IA adota uma abordagem de gestão de riscos; seu objetivo é regular a transparência e a responsabilidade para sistemas de IA e seus desenvolvedores. Embora tenha sido promulgada em 2024, a primeira onda de aplicação foi implementada em fevereiro de 2025, abordando riscos considerados inaceitáveis, incluindo sistemas de IA que representam uma ameaça clara à segurança social. A segunda onda, que entrou em vigor em agosto de 2025, abrange modelos de IA de propósito geral (GPAI), sendo esta a mais importante em termos de escopo.
A partir de 2 de agosto de 2025, os fornecedores de GPAI devem cumprir obrigações de transparência e direitos autorais ao disponibilizar seus modelos no mercado da UE. Isso se aplica não apenas a empresas baseadas na UE, mas a qualquer organização que opere na região. Modelos de GPAI já disponíveis antes dessa data deverão estar em conformidade até 2 de agosto de 2027.
Definição de Modelos GPAI
Para fins legais, os modelos GPAI incluem aqueles treinados com mais de 10^23 operações de ponto flutuante (FLOP) e que são capazes de gerar linguagem (texto ou áudio), texto-para-imagem ou texto-para-vídeo. Os provedores de sistemas GPAI devem manter documentação técnica sobre o modelo, incluindo um resumo detalhado de seu corpus de treinamento. Além disso, eles devem implementar uma política para cumprir com a lei de direitos autorais da UE.
Dentro do grupo de modelos GPAI, existe um nível especial considerado de risco sistêmico, que abrange modelos muito avançados desenvolvidos por um número reduzido de fornecedores. As empresas nesse nível enfrentam obrigações adicionais, como notificar a Comissão Europeia ao desenvolver um modelo considerado de risco sistêmico e tomar medidas para garantir a segurança do modelo. A classificação de quais modelos representam riscos sistêmicos pode mudar conforme a tecnologia evolui.
Exceções e Críticas
Existem exceções: IA utilizada para segurança nacional, militar e defesa está isenta da lei. Alguns sistemas de código aberto também estão fora do alcance da legislação, assim como modelos de IA desenvolvidos usando código publicamente disponível.
A Comissão Europeia publicou um modelo para ajudar os fornecedores a resumir os dados utilizados para treinar seus modelos, o Código de Prática GPAI, desenvolvido por especialistas independentes como uma ferramenta voluntária para que os provedores de IA demonstrem conformidade com a Lei de IA. Assinantes incluem Amazon, Google, IBM, Microsoft e OpenAI, mas algumas ausências notáveis foram observadas, como a Meta.
A Lei de IA recebeu críticas devido ao seu impacto desproporcional em startups e pequenas e médias empresas, com alguns especialistas argumentando que ela deveria incluir exceções para tecnologias que ainda não têm um impacto generalizado ou potencial de dano. Outros afirmam que isso pode atrasar o progresso entre as organizações europeias no treinamento de seus modelos de IA e que as regras são confusas. Em julho passado, vários grupos de tecnologia, incluindo a CCIA Europa, pediram à UE que interrompesse a implementação da lei, argumentando que a implementação foi muito apressada.
Perspectivas Futuras
No entanto, a Lei de IA foi desenvolvida com a colaboração de milhares de partes interessadas do setor privado, em um momento em que as empresas buscam orientação regulatória. Ela também está introduzindo práticas de segurança padrão em toda a UE, em um período crítico de adoção. A Lei de IA está estabelecendo um referencial global para que outros sigam em um momento de grande turbulência. Após a implementação da Lei de IA, EUA e outros países acharão cada vez mais difícil ignorar os chamados por uma IA mais responsável, um esforço louvável que fará história.