Congress e tribunais enfrentam os desafios legais da inteligência artificial

O Congresso e os tribunais enfrentam as áreas cinzentas legais da IA

A inteligência artificial está se tornando rapidamente uma parte integral da vida cotidiana. No entanto, à medida que a tecnologia avança, o debate sobre como utilizá-la de maneira adequada e ética se intensifica. A série “A Era da Integração” examina como a IA está sendo utilizada de forma responsável no Congresso, os desafios que sua utilização causa nas escolas e como o Congresso e os tribunais estão abordando abusos que visam pessoas vulneráveis e ameaças à propriedade intelectual.

À medida que mais vítimas de imagens explícitas deepfake emergem e disputas de direitos autorais nos tribunais aumentam, os ramos legislativo e judicial correm para traçar limites em torno dos modelos de linguagem grandes (LLMs). Enquanto isso, essas tecnologias têm reescrito os padrões da sociedade antes que as instituições governamentais tenham a chance de reagir.

A questão de regular a IA através do Congresso e dos tribunais se tornou controversa: quando as leis coíbem abusos e quando ultrapassam os direitos da Primeira Emenda?

O Congresso se aproxima da primeira lei criminal sobre IA com o Take It Down Act

A legislação mais avançada relacionada à IA no Congresso é a Tools to Address Known Exploitation by Immobilizing Technological Deepfakes on Websites and Networks Act, mais conhecida como Take It Down Act. Patrocinada pelos senadores Ted Cruz (R-TX) e Amy Klobuchar (D-MN), o projeto foi aprovado pelo Senado por consentimento unânime em fevereiro. Na terça-feira, o Comitê de Energia e Comércio da Câmara aprovou o projeto com um voto de 49 a 1, abrindo caminho para uma votação completa na Câmara.

A legislação criminalizaria a distribuição não consensual de imagens explícitas, reais ou geradas por IA, e exigiria que sites e plataformas removesse esse conteúdo dentro de 48 horas após um pedido válido. O rápido impulso do projeto se deve em parte ao apoio de alto perfil da primeira-dama Melania Trump, que fez disso uma causa central de sua iniciativa “Be Best”.

Os apoiadores argumentam que isso é muito necessário. “À medida que indivíduos mal-intencionados continuam a explorar novas tecnologias como a inteligência artificial generativa”, afirmou Cruz, “o Take It Down Act é crucial para acabar com a disseminação de material sexualmente exploratório online, responsabilizar a Big Tech e empoderar as vítimas de pornografia de vingança e deepfake.”

Defensores de políticas afirmam que o projeto aborda um problema urgente que superou a legislação existente. “A única coisa que impede que ele seja assinado como lei é o tempo de uma votação no plenário da Câmara”, disse uma analista de políticas. “É uma questão de quando, não se, uma vez que o Presidente da Câmara e o Líder da Maioria prometeram seu apoio quando a primeira-dama realizou uma mesa-redonda sobre o projeto em março.”

Medos sobre liberdade de expressão e lacunas de aplicação levantam bandeiras vermelhas

Comentários feitos durante um discurso por Trump, que pretendia gerar risadas, alimentaram preocupações de grupos de liberdade civil. A Electronic Frontier Foundation alertou que o sistema de notificação e retirada do projeto poderia ser facilmente explorado por aqueles que buscam silenciar críticas ou controlar a fala. “Não há nada na lei, como está escrita, para impedir que alguém — especialmente aqueles com recursos significativos — abuse do sistema para remover falas que os criticam”, escreveu a EFF em resposta.

Até mesmo apoiadores dos objetivos do projeto se preocupam com sua implementação prática. Um membro do comitê advertiu que uma FTC (Comissão Federal de Comércio) com poucos recursos poderia tornar a aplicação quase impossível. “Não haverá aplicação de nada relacionado à privacidade das crianças”, afirmou.

A Lei NO FAKES aborda a impersonação digital por IA, mas pode entrar em conflito com leis estaduais

Simultaneamente ao Take It Down Act, há um impulso renovado para o NO FAKES Act (Nurture Originals, Foster Art, and Keep Entertainment Safe), um projeto de lei projetado para proteger contra impersonações digitais não autorizadas usando IA, particularmente de artistas, intérpretes e figuras públicas.

A versão recentemente expandida do projeto estabeleceria um direito federal de publicidade para processar por réplicas não autorizadas da voz e da aparência; exigiria impressão digital para bloquear reuploads de conteúdo removido; estenderia proteções de porto seguro para plataformas que cumprissem pedidos de retirada; e imporia penalidades civis de até $750.000 por violação para plataformas que não agissem de boa-fé.

Conflito de direitos autorais pode reconfigurar a indústria de IA

Enquanto isso, uma grande batalha judicial pode ser tão transformadora quanto qualquer nova lei. No caso New York Times v. OpenAI, um juiz federal decidiu recentemente que o veículo pode continuar sua ação judicial acusando a OpenAI e a Microsoft de violação de direitos autorais.

O New York Times alega que seus artigos foram usados sem permissão para treinar o ChatGPT e que o chatbot produziu material que se assemelha ao seu jornalismo. Um juiz encontrou exemplos “numerosos” e “amplamente divulgados” de possível infração, mantendo as principais alegações vivas.

Este caso é monumental e pode ter grandes ramificações para a competitividade da IA nos Estados Unidos. Se os tribunais decidirem a favor do New York Times, a OpenAI e a Microsoft poderão ser forçadas a re-treinar seus modelos, alterar suas saídas ou compensar os titulares de direitos — resultados que repercutiriam em toda a indústria.

More Insights

Aliança Escocesa de IA Destaca Ética em Inteligência Artificial

A Scottish AI Alliance lançou seu Relatório de Impacto 2024/2025, destacando um ano transformador de progresso na promoção de inteligência artificial confiável, ética e inclusiva na Escócia. O...

Controles de IA de Trump: Oportunidades e Desafios para o Mercado

A administração Trump está se preparando para novas restrições nas exportações de chips de IA para a Malásia e Tailândia, visando impedir que processadores avançados cheguem à China por meio de...

LLMOps: Potencializando IA Responsável com Python

Neste ambiente altamente competitivo, não é suficiente apenas implantar Modelos de Linguagem de Grande Escala (LLMs) — é necessário um robusto framework LLMOps para garantir a confiabilidade e o...

Fortalecendo a Proteção de Dados e a Governança de IA em Cingapura

Cingapura está respondendo proativamente aos desafios evolutivos impostos pelo uso de dados na era da inteligência artificial (IA), afirmou a Ministra de Comunicações e Informação, Josephine Teo. O...

Vigilância por IA e a Lacuna de Governança na Ásia-Pacífico

A tecnologia de vigilância alimentada por IA, especialmente o reconhecimento facial, é um exemplo clássico de tecnologias de uso duplo, promovidas como ferramentas de prevenção ao crime, mas...