A Nova Diretriz da UE para Modelos de IA: Um Caminho Suave para a Grande IA

Ato de IA da UE: Último rascunho do Código para fabricantes de modelos de IA caminha em direção a uma orientação mais suave para as grandes empresas de IA

Com um prazo em maio para finalizar as orientações para os provedores de modelos de IA de propósito geral (GPAI) sobre como cumprir as disposições do Ato de IA da UE, um terceiro rascunho do Código de Prática foi publicado na terça-feira. O Código está em desenvolvimento desde o ano passado, e este rascunho é esperado para ser o último.

Um site também foi lançado com o objetivo de aumentar a acessibilidade do Código. O feedback escrito sobre o último rascunho deve ser enviado até 30 de março de 2025.

Regras Baseadas em Risco

O regulamento baseado em risco da UE para IA inclui um subconjunto de obrigações que se aplicam apenas aos fabricantes de modelos de IA mais poderosos — cobrindo áreas como transparência, direitos autorais e mitigação de riscos. O Código visa ajudar os fabricantes de GPAI a entender como atender às obrigações legais e evitar o risco de sanções por não conformidade. As penalidades do Ato de IA por violações dos requisitos de GPAI podem chegar a até 3% da receita global anual.

Estrutura Simplificada

A última revisão do Código é anunciada como tendo “uma estrutura mais sintetizada com compromissos e medidas refinadas” em comparação com iterações anteriores, com base no feedback do segundo rascunho publicado em dezembro.

Mais feedback, discussões de grupos de trabalho e workshops alimentarão o processo de transformação do terceiro rascunho em orientações finais. Especialistas esperam alcançar maior “clareza e coerência” na versão final adotada do Código.

Compromissos e Orientações

O rascunho é dividido em uma série de seções que cobrem compromissos para GPAIs, juntamente com orientações detalhadas para medidas de transparência e direitos autorais. Há também uma seção sobre obrigações de segurança que se aplicam aos modelos mais poderosos (com o chamado risco sistêmico, ou GPAISR).

Em relação à transparência, as orientações incluem um exemplo de um formulário de documentação do modelo que os GPAIs podem ser obrigados a preencher para garantir que os desdobradores de sua tecnologia tenham acesso a informações chave para ajudar em sua própria conformidade.

Questões de Direitos Autorais

Em outro lugar, a seção de direitos autorais provavelmente continua a ser a área mais contenciosa para as grandes empresas de IA.

O rascunho atual está repleto de termos como “melhores esforços”, “medidas razoáveis” e “medidas apropriadas” quando se trata de cumprir compromissos, como respeitar requisitos de direitos ao raspar a web para adquirir dados para treinamento de modelos, ou mitigar o risco de modelos produzirem saídas que infringem direitos autorais.

A utilização de tal linguagem mediada sugere que os gigantes da IA que fazem mineração de dados podem sentir que têm bastante margem de manobra para continuar capturando informações protegidas para treinar seus modelos e “pedir desculpas depois” — mas ainda não se sabe se a linguagem será endurecida na versão final do Código.

Segurança e Risco

Quando se trata de segurança e risco, os requisitos do Ato de IA da UE de avaliar e mitigar riscos sistêmicos já se aplicam apenas a um subconjunto dos modelos mais poderosos (aqueles treinados com um total de poder computacional superior a 10^25 FLOPs) — mas este último rascunho viu algumas medidas anteriormente recomendadas sendo ainda mais reduzidas em resposta ao feedback.

Pressão dos EUA

Não mencionados no comunicado de imprensa da UE sobre o último rascunho estão os ataques contundentes à legislação europeia em geral, e as regras da bloco para IA especificamente, que surgem da administração dos EUA liderada pelo presidente Donald Trump.

No cúpula de ação de IA em Paris no mês passado, o vice-presidente dos EUA, JD Vance, descartou a necessidade de regulamentar para garantir que a IA seja aplicada de forma segura — a administração de Trump, em vez disso, se inclinaria para “oportunidade de IA”. E ele alertou a Europa que a super-regulamentação poderia matar a galinha dos ovos de ouro.

Desde então, o bloco se moveu para eliminar uma iniciativa de segurança de IA — colocando a Diretiva de Responsabilidade de IA na linha de corte. Os legisladores da UE também traçaram um pacote “omnibus” de reformas simplificadoras das regras existentes que dizem ter como objetivo reduzir a burocracia e o tráfego de papel para os negócios, com foco em áreas como relatórios de sustentabilidade.

Enquanto isso, o Ato de IA ainda está em processo de implementação, há claramente pressão sendo aplicada para diluir os requisitos.

Enquanto este Código de GPAI está sendo elaborado por especialistas independentes, a Comissão Europeia — por meio do Escritório de IA que supervisiona a aplicação e outras atividades relacionadas à lei — está, em paralelo, produzindo algumas orientações “esclarecedoras” que também moldarão como a lei se aplica, incluindo definições para GPAIs e suas responsabilidades.

Portanto, fique atento a mais orientações, “em devido tempo”, do Escritório de IA — que a Comissão diz que irá “esclarecer … o escopo das regras” — pois isso pode oferecer um caminho para legisladores que estão perdendo a coragem responder ao lobby dos EUA para desregular a IA.

More Insights

Inteligência Artificial: Revolucionando a Governança e Segurança no Setor de Risco

A inteligência artificial e as tecnologias de IA são essenciais para o sucesso da função de risco. Os diretores de risco (CROs) podem implantar IA para abordar a conformidade e navegar pelos riscos de...

AI e Cibersegurança: Desafios da Responsabilidade

À medida que as organizações adotam a inteligência artificial (IA) para impulsionar a inovação e transformar operações, devem também lidar com a realidade de que a IA está rapidamente moldando o...

Abordagem Inteligente para a Governança da IA

O Sr. Sak afirma que a legislação iminente visa proteger os usuários de riscos potenciais da IA e remover barreiras legais que as leis existentes não conseguem abordar. A Tailândia elaborou princípios...

Inteligência Artificial e Governança: Desafios e Oportunidades

Gillian K. Hadfield foi nomeada Professora Distinta Bloomberg de Alinhamento e Governança de IA na Universidade Johns Hopkins. Ela é reconhecida internacionalmente por sua pesquisa pioneira em...