A Lei de IA do Brasil Enfrenta Futuro Incerto à Medida que Grandes Empresas de Tecnologia se Atraem para Trump
Nos últimos dois anos, os legisladores brasileiros debateram como regular a inteligência artificial. Após meses de discussão, o Senado votou um projeto de lei em dezembro, que agora segue para a câmara baixa do Congresso. No entanto, o mundo, e particularmente o cenário tecnológico em que o Senado aprovou o projeto, era bastante diferente apenas dois meses atrás.
Nos Estados Unidos, Donald Trump ainda não havia assumido o cargo, não havia revogado uma ordem executiva de 2023 sobre IA do ex-presidente Biden e não havia colocado em seu lugar uma nova ordem com o objetivo principal de “sustentar e aumentar a dominância global da IA americana.” Mais significante ainda, líderes do Vale do Silício, como o fundador e CEO da Meta, Mark Zuckerberg, ainda não haviam concordado publicamente com a visão da administração que estava por vir para a tecnologia e os EUA. Esses eventos, que ocorreram nas últimas semanas, podem impactar significativamente as perspectivas do projeto de lei de IA do Brasil se tornar lei.
A Estrutura de IA “Diluição” do Senado
O Brasil começou seus esforços para regular a IA em fevereiro de 2022, quando o presidente do Senado, Rodrigo Pacheco, formou um comitê de especialistas jurídicos encarregado de redigir um relatório para orientar o desenvolvimento de legislação sobre IA. Em dezembro daquele ano, os especialistas entregaram a Pacheco um relatório recomendando uma abordagem baseada em riscos para a regulamentação da IA.
Elementos desse relatório foram incorporados em um projeto de lei proposto por Pacheco em maio de 2023. Para revisar o projeto, os senadores criaram uma comissão temporária para a inteligência artificial que, ao longo de 19 meses, discutiu rascunhos, realizou 24 reuniões e 14 audiências públicas, e coletou contribuições de dezenas de especialistas externos.
Em dezembro de 2024, a comissão aprovou uma versão diluição do projeto de lei, que foi aprovada pelo Senado no dia seguinte. A Data Privacy Brazil, uma organização focada na proteção de dados e direitos digitais, observou que “a legislação continua a proteger os direitos fundamentais e avança em padrões cruciais para um ecossistema informativo justo nos próximos anos.”
A legislação favorece um modelo regulatório baseado em riscos, impondo obrigações a desenvolvedores, distribuidores e aplicadores de sistemas de alto risco. Sob este regime, essas entidades teriam que produzir avaliações de risco que abordassem viéses e discriminação potencial, assim como criar canais para que indivíduos afetados por decisões automatizadas pudessem recorrer a revisores humanos.
O framework regulatório classifica certas aplicações — como controle de tráfego, admissões de estudantes, contratação e promoção de funcionários, e controle de fronteiras e imigração — como de alto risco. No entanto, a pressão de lobby da indústria de tecnologia levou a várias concessões importantes. Por exemplo, algoritmos que curam, recomendam e distribuem conteúdo nas redes sociais foram removidos da categoria de alto risco, protegendo plataformas de maiores requisitos de transparência e fiscalização.
A característica mais distintiva do projeto pode ser uma disposição que obriga as empresas a compensar os detentores de direitos autorais quando seu conteúdo ou dados são usados para treinar sistemas de IA. Também cria uma exceção, permitindo que instituições acadêmicas e outras públicas utilizem conteúdo de terceiros para treinar sistemas de IA para fins de pesquisa.
Nossas atualizações. Entregues.
Além de remover os sistemas de recomendação da lista de alto risco, outras omissões notáveis apareceram na versão final que foi aprovada pelo Senado. Os legisladores removeram a maioria das referências à “integridade da informação” ou “liberdade de expressão” após pressão de grandes empresas de tecnologia e membros da oposição do Congresso que alegaram que tais disposições poderiam dar margem à censura.
O projeto brasileiro apresenta algumas semelhanças com o AI Act da União Europeia, aprovado em março de 2024. Ambos adotam um modelo regulatório baseado em riscos estruturado em diferentes níveis de risco. No entanto, uma análise de um think tank encontrou que impõe obrigações mais amplas do que a legislação da UE. Ao contrário da abordagem da UE, que coloca responsabilidades específicas em um grupo seleto de atores, o projeto do Brasil aplica obrigações a mais atores na cadeia de suprimento da IA.
Mais da metade das 56 obrigações estabelecidas no projeto se aplicam igualmente a provedores, aplicadores e distribuidores, enquanto na Lei de IA da UE, a maioria das obrigações se aplica apenas aos desenvolvedores da tecnologia. Também foi identificado que o projeto brasileiro possui obrigações especificamente sobre o uso de IA no setor público, enquanto a UE não menciona esse uso.
Alguns especialistas levantaram preocupações sobre a inadequação da lei da UE em abordar “danos que já foram causados pela rápida proliferação dessas tecnologias.” Eles também criticaram o cronograma escalonado de implementação – replicado na legislação brasileira – argumentando que, quando as regulamentações entrarem em vigor, pode ser tarde demais para mitigar os impactos negativos da IA.
O Lobby das Grandes Empresas de Tecnologia Muda?
Embora o projeto de lei de IA enfrentasse uma oposição previsível de políticos de direita que rapidamente aplicaram o rótulo de censura, mesmo que não regule conteúdo nem discurso, o lobby das empresas de tecnologia não seguiu esse script.
De fato, as empresas de tecnologia adotaram uma abordagem notavelmente diferente em comparação com suas ações relacionadas ao fracassado projeto de lei de “Fake News”, uma lei abrangente para regular plataformas que passou pelo Congresso a partir de 2020, mas foi finalmente arquivada em 2024. Durante o debate sobre o projeto, grandes empresas de tecnologia lançaram uma campanha agressiva para bloqueá-lo. Elas fizeram lobby com membros do Congresso e buscaram apoio público para parar a votação da legislação, utilizando táticas problemáticas.
No entanto, a reputação das grandes empresas de tecnologia foi manchada, levando a uma mudança de estratégia quando se trata do projeto de lei de IA. Desta vez, as empresas não se opuseram publicamente ao projeto. Em vez disso, seus argumentos contra o projeto apareceram nas vozes de senadores simpáticos a uma abordagem regulatória mais branda ou nas observações de especialistas externos da comissão temporária de IA que estavam conectados a organizações financiadas por grandes empresas de tecnologia.
À medida que o projeto de lei de IA do Brasil agora segue para a câmara baixa do Congresso, grupos da sociedade civil já esperam uma pressão ainda maior de políticos opositores e do setor privado, particularmente das grandes empresas de tecnologia. Com Trump novamente no poder, muitos bilionários do Vale do Silício abraçaram totalmente e publicamente a presidência de Trump. Além disso, Mark Zuckerberg prometeu que a Meta retornará às suas raízes e restaurará a “liberdade de expressão”, anunciando que a empresa “trabalhará com o Presidente Trump para resistir a governos ao redor do mundo” que estão “indo atrás de empresas americanas e promovendo mais censura.”
Os próximos meses revelarão a nova abordagem ousada das grandes empresas de tecnologia em resistir à regulamentação. A experiência do Brasil pode servir como um exemplo chave de até onde os gigantes da tecnologia dos EUA, agora apoiados pelo governo dos EUA, irão para moldar a regulamentação global de IA a seu favor.