Ato de IA da UE: Último rascunho do Código para fabricantes de modelos de IA caminha em direção a uma orientação mais suave para as grandes empresas de IA
Com um prazo em maio para finalizar as orientações para os provedores de modelos de IA de propósito geral (GPAI) sobre como cumprir as disposições do Ato de IA da UE, um terceiro rascunho do Código de Prática foi publicado na terça-feira. O Código está em desenvolvimento desde o ano passado, e este rascunho é esperado para ser o último.
Um site também foi lançado com o objetivo de aumentar a acessibilidade do Código. O feedback escrito sobre o último rascunho deve ser enviado até 30 de março de 2025.
Regras Baseadas em Risco
O regulamento baseado em risco da UE para IA inclui um subconjunto de obrigações que se aplicam apenas aos fabricantes de modelos de IA mais poderosos — cobrindo áreas como transparência, direitos autorais e mitigação de riscos. O Código visa ajudar os fabricantes de GPAI a entender como atender às obrigações legais e evitar o risco de sanções por não conformidade. As penalidades do Ato de IA por violações dos requisitos de GPAI podem chegar a até 3% da receita global anual.
Estrutura Simplificada
A última revisão do Código é anunciada como tendo “uma estrutura mais sintetizada com compromissos e medidas refinadas” em comparação com iterações anteriores, com base no feedback do segundo rascunho publicado em dezembro.
Mais feedback, discussões de grupos de trabalho e workshops alimentarão o processo de transformação do terceiro rascunho em orientações finais. Especialistas esperam alcançar maior “clareza e coerência” na versão final adotada do Código.
Compromissos e Orientações
O rascunho é dividido em uma série de seções que cobrem compromissos para GPAIs, juntamente com orientações detalhadas para medidas de transparência e direitos autorais. Há também uma seção sobre obrigações de segurança que se aplicam aos modelos mais poderosos (com o chamado risco sistêmico, ou GPAISR).
Em relação à transparência, as orientações incluem um exemplo de um formulário de documentação do modelo que os GPAIs podem ser obrigados a preencher para garantir que os desdobradores de sua tecnologia tenham acesso a informações chave para ajudar em sua própria conformidade.
Questões de Direitos Autorais
Em outro lugar, a seção de direitos autorais provavelmente continua a ser a área mais contenciosa para as grandes empresas de IA.
O rascunho atual está repleto de termos como “melhores esforços”, “medidas razoáveis” e “medidas apropriadas” quando se trata de cumprir compromissos, como respeitar requisitos de direitos ao raspar a web para adquirir dados para treinamento de modelos, ou mitigar o risco de modelos produzirem saídas que infringem direitos autorais.
A utilização de tal linguagem mediada sugere que os gigantes da IA que fazem mineração de dados podem sentir que têm bastante margem de manobra para continuar capturando informações protegidas para treinar seus modelos e “pedir desculpas depois” — mas ainda não se sabe se a linguagem será endurecida na versão final do Código.
Segurança e Risco
Quando se trata de segurança e risco, os requisitos do Ato de IA da UE de avaliar e mitigar riscos sistêmicos já se aplicam apenas a um subconjunto dos modelos mais poderosos (aqueles treinados com um total de poder computacional superior a 10^25 FLOPs) — mas este último rascunho viu algumas medidas anteriormente recomendadas sendo ainda mais reduzidas em resposta ao feedback.
Pressão dos EUA
Não mencionados no comunicado de imprensa da UE sobre o último rascunho estão os ataques contundentes à legislação europeia em geral, e as regras da bloco para IA especificamente, que surgem da administração dos EUA liderada pelo presidente Donald Trump.
No cúpula de ação de IA em Paris no mês passado, o vice-presidente dos EUA, JD Vance, descartou a necessidade de regulamentar para garantir que a IA seja aplicada de forma segura — a administração de Trump, em vez disso, se inclinaria para “oportunidade de IA”. E ele alertou a Europa que a super-regulamentação poderia matar a galinha dos ovos de ouro.
Desde então, o bloco se moveu para eliminar uma iniciativa de segurança de IA — colocando a Diretiva de Responsabilidade de IA na linha de corte. Os legisladores da UE também traçaram um pacote “omnibus” de reformas simplificadoras das regras existentes que dizem ter como objetivo reduzir a burocracia e o tráfego de papel para os negócios, com foco em áreas como relatórios de sustentabilidade.
Enquanto isso, o Ato de IA ainda está em processo de implementação, há claramente pressão sendo aplicada para diluir os requisitos.
Enquanto este Código de GPAI está sendo elaborado por especialistas independentes, a Comissão Europeia — por meio do Escritório de IA que supervisiona a aplicação e outras atividades relacionadas à lei — está, em paralelo, produzindo algumas orientações “esclarecedoras” que também moldarão como a lei se aplica, incluindo definições para GPAIs e suas responsabilidades.
Portanto, fique atento a mais orientações, “em devido tempo”, do Escritório de IA — que a Comissão diz que irá “esclarecer … o escopo das regras” — pois isso pode oferecer um caminho para legisladores que estão perdendo a coragem responder ao lobby dos EUA para desregular a IA.