Newsletter da Lei de IA da UE #78: Cortando a Burocracia
Data de Criação: 28 de maio de 2025 10:52 AM
Bem-vindo à Newsletter da Lei de IA da UE, uma breve newsletter quinzenal que oferece desenvolvimentos e análises atualizadas sobre a legislação de inteligência artificial da União Europeia.
Processo Legislativo
Feedback das partes interessadas sobre definições de IA e práticas proibidas: A Comissão Europeia publicou um relatório preparado pelo Centro de Estudos de Políticas Europeias (CEPS) para o Escritório de IA da UE, analisando o feedback das partes interessadas de duas consultas públicas sobre as obrigações regulatórias da Lei de IA. Essas consultas examinaram a definição de sistemas de IA e práticas de IA proibidas, que estão em vigor desde 2 de fevereiro de 2025. O relatório analisa as respostas a 88 perguntas de consulta em nove seções. Os stakeholders da indústria dominaram a participação, com 47,2% de quase 400 respostas, enquanto o engajamento dos cidadãos permaneceu limitado a 5,74%. Os respondentes solicitaram definições mais claras de termos técnicos como “adaptabilidade” e “autonomia”, alertando contra a regulação inadvertida de software convencional. O relatório destaca preocupações significativas sobre práticas proibidas, incluindo reconhecimento de emoções, pontuação social e identificação biométrica em tempo real. As partes interessadas pediram exemplos concretos que distinguissem o que é proibido do que permanece permissível sob as regulamentações.
Perguntas e respostas sobre alfabetização em IA: A Comissão Europeia publicou um extenso Q&A sobre alfabetização em IA. O Artigo 4 da Lei de IA tornou-se aplicável em 2 de fevereiro de 2025, exigindo que provedores e implementadores de sistemas de IA garantam alfabetização suficiente em IA entre seus funcionários e outras pessoas que manuseiam sistemas de IA em seu nome. Ao estabelecer níveis adequados de alfabetização, provedores e implementadores devem considerar o conhecimento técnico, experiência, educação e treinamento dos indivíduos, juntamente com o contexto em que os sistemas de IA serão utilizados, incluindo as pessoas alvo desses sistemas. O Escritório de IA publicou orientações abrangentes sobre alfabetização em IA, cobrindo áreas-chave, incluindo definições dentro do Artigo 4 e da Lei de IA mais ampla, requisitos de conformidade com o Artigo 4, mecanismos de aplicação, a abordagem do Escritório de IA para a implementação da alfabetização em IA e recursos adicionais úteis para as partes interessadas que buscam entender e cumprir essas novas obrigações.
Sem conselheiro científico principal em IA ainda, apesar de dezenas de candidaturas: De acordo com informações, a Comissão Europeia ainda não nomeou um conselheiro científico principal para seu Escritório de IA, apesar de ter recebido “dezenas de candidaturas” e com as regulamentações de IA de uso geral entrando em vigor em 2 de agosto. O processo de recrutamento continua, apesar da vaga ter sido aberta entre novembro e dezembro do ano passado, segundo um oficial sênior do Escritório de IA. O papel do conselheiro envolve garantir um nível avançado de compreensão científica sobre IA de uso geral e liderar a abordagem científica em todo o trabalho do Escritório de IA, mantendo o rigor científico e a integridade das iniciativas de IA. Eles se concentrarão particularmente na testagem e avaliação de modelos de IA de uso geral, em estreita colaboração com a Unidade de Segurança do Escritório de IA. A Comissão indicou que preferiria nomear um candidato de um país europeu para essa posição.
Análises
A UE deve cortar a burocracia real, não as salvaguardas de IA: Um artigo de opinião defende que o caminho da Europa para a competitividade em IA reside em cortar a burocracia real, não em remover as salvaguardas de IA. Especialistas independentes colaboram com o Escritório de IA da UE para desenvolver diretrizes práticas para empresas de IA de uso geral, transformando princípios regulatórios em práticas unificadas em todos os estados-membros para evitar regras nacionais fragmentadas. Esse trabalho afeta principalmente gigantes globais como Meta e Google, que estão entre cerca de dez empresas em todo o mundo construindo os modelos mais capazes, em vez de startups europeias. Os autores afirmam que essas corporações bem financiadas podem facilmente gerenciar requisitos como avaliações de terceiros, onde entidades independentes avaliam sob certas condições se um modelo de IA é seguro. Essas avaliações garantem que modelos como Llama da Meta ou Gemini do Google não apresentem riscos sistêmicos, incluindo ciberataques, riscos biológicos ou perda de controle. Afirmar que tais testes são muito onerosos ou inviáveis é ridículo, dado os recursos sem precedentes dessas empresas. Essas salvaguardas refletem práticas estabelecidas em setores como farmacêutico, aviação e finanças, onde a verificação independente constrói confiança pública e confiança dos investidores. Para o crescimento econômico europeu, o foco deve ser na redução da burocracia empresarial tradicional, em vez de nas regulamentações de segurança em IA.
O valor do Código de Prática para segurança e proteção: Um boletim destaca alguns dos principais argumentos a favor do Código. Primeiramente, o Código de Prática traduz os requisitos vagos da Lei de IA em orientações acionáveis para provedores de IA de uso geral, abordando obrigações como avaliação de modelos e mitigação de riscos sistêmicos. Em segundo lugar, o Código compila as melhores práticas de segurança das principais empresas de IA em um só lugar. Pesquisas recentes analisaram como o Código se compara com práticas existentes de empresas de IA líderes, visando estabelecer melhores práticas centralizadas na indústria. O terceiro aspecto é que a Comissão Europeia incentiva a adoção do Código, oferecendo benefícios como aumento da confiança e aplicação simplificada para os signatários, enquanto não signatários enfrentam escrutínio adicional e solicitações de informações. Quarto, o Código visa principalmente aproximadamente onze provedores globais com modelos excedendo 10^25 FLOPs – empresas altamente capacitadas como a OpenAI, que recentemente garantiu um financiamento de 40 bilhões de dólares. Finalmente, o Código está sendo desenvolvido através de um processo democrático exemplar que começou em outubro de 2024, envolvendo cerca de mil partes interessadas em três rascunhos, liderados por treze presidentes independentes, contrastando favoravelmente com o desenvolvimento típico de padrões técnicos dominados por empresas.
A lenda do ABBA alerta contra direitos diluídos no código de IA da UE: Um membro do ABBA alertou recentemente os MEPs em Bruxelas sobre “propostas impulsionadas pelas grandes tecnologias” que enfraquecem os direitos criativos sob a Lei de IA. Falando ao Comitê de Cultura e Educação do Parlamento Europeu, expressou preocupações sobre o Código de Prática voluntário sobre IA de Uso Geral. “O argumento de que a IA só pode ser alcançada se os direitos autorais forem enfraquecidos é falso e perigoso. A IA não deve ser construída sobre roubo”, afirmou, chamando essa abordagem de “um abandono histórico de princípios”. Ele criticou o Código por ignorar os apelos do setor criativo por transparência, instando a UE a liderar a regulamentação em IA em vez de retroceder, assegurando que a implementação permaneça fiel ao objetivo original da Lei.
Feedback
Estamos buscando feedback de 2 minutos sobre o site da Lei de IA, para que possamos construir os recursos mais úteis para você. Produzimos muitos dos recursos em nosso site em resposta direta ao feedback dos usuários, às vezes em apenas uma a duas semanas. Este site existe com o objetivo de fornecer informações úteis e objetivas sobre desenvolvimentos relacionados à Lei de IA da UE; é utilizado por mais de 150.000 usuários todos os meses. Agradecemos antecipadamente pelo seu tempo e esforço. Esperamos retribuir com informações de alta qualidade e personalizadas que atendam às suas necessidades.