Desafios da Moratória sobre a Lei de IA no Senado e Limites da Liberdade de Expressão dos Chatbots

Moratória sobre a Lei de IA Enfrenta Desafios no Senado e Juiz Federal Limita a Liberdade de Expressão dos Chatbots

A proposta de moratória de 10 anos sobre as regulamentações estaduais de inteligência artificial (IA), que foi aprovada pela Câmara dos Representantes, agora está a caminho do Senado, onde enfrenta um futuro incerto. Vários senadores republicanos se opuseram à moratória proposta com base em questões políticas, argumentando que ela representa uma “doação para as grandes tecnologias” e que os estados devem poder regular a IA até que as regulamentações federais sejam aprovadas.

Além disso, alguns legisladores estão preocupados que a moratória possa não sobreviver à Regra Byrd, uma norma do Senado que limita pacotes de reconciliação a questões orçamentárias apenas. Em 21 de maio, um juiz federal de um tribunal distrital na Flórida decidiu pela primeira vez que a saída de um modelo de IA não constitui discurso protegido sob a Primeira Emenda, negando o pedido de uma empresa de IA para arquivar uma reclamação sobre danos alegados causados por seu chatbot.

Proposta de Moratória sobre a Lei de IA Rumo ao Senado

Após passar pela Câmara como parte do pacote de reconciliação, a proposta de moratória de 10 anos sobre as leis estaduais de IA agora segue para o Senado, onde enfrenta desafios potenciais. Vários republicanos se manifestaram contra a moratória proposta por motivos políticos e, dado o slim Republican majority no Senado, os republicanos só podem perder alguns votos para aprovar a medida.

Por outro lado, a Regra Byrd pode ser um obstáculo à passagem da medida. Alguns senadores republicanos apoiam a proposta, pois ela se alinha ao poder constitucional do Congresso de “regular o comércio interestadual”, segundo o Senador Todd Young (R-IN). O Senador Mike Rounds (R-SD) também afirmou que “o conceito e a necessidade da moratória são importantes”.

No entanto, outros republicanos são céticos quanto à moratória. A Senadora Marsha Blackburn (R-TN) argumentou que a regulamentação estadual da IA é necessária para “proteger os consumidores até que a legislação federal seja aprovada”, citando uma recente lei no Tennessee que protege artistas contra o uso não autorizado de IA. Essa provisão levanta a preocupação de que medidas protetivas não podem ser interrompidas com a preempção das leis estaduais de IA.

Preocupações dos Democratas e Apoio de Grupos de Defesa

Os democratas não apoiam a moratória de 10 anos, independentemente de ela ser aprovada como parte da reconciliação ou como legislação independente. Vários legisladores democratas expressaram preocupação sobre a conformidade da moratória com a Regra Byrd, que impede a inclusão de quaisquer questões consideradas “extravagantes” em um pacote de reconciliação que não esteja diretamente relacionado ao orçamento.

Fora do Senado, a moratória recebeu apoio geral de vários grupos de defesa da privacidade e empresas de tecnologia. Uma grande empresa de IA observou que “é impossível ignorar que oficialmente cruzamos o limite de mil projetos de leis estaduais sobre IA”.

Decisão do Tribunal Federal Sobre a Proteção da Primeira Emenda

Em 21 de maio, um juiz de um tribunal distrital federal decidiu pela primeira vez que a saída de um modelo de IA não constitui discurso protegido sob a Primeira Emenda. A juíza do Tribunal Distrital dos EUA, Anne C. Conway, do Middle District of Florida, rejeitou o pedido da empresa de IA para arquivar a reclamação, permitindo que a queixa do autor sobre danos alegados causados pelas saídas do modelo de IA da empresa prosseguisse.

O caso surgiu a partir da morte de um adolescente de 14 anos que morreu por suicídio após interagir com a plataforma de chatbot Character.AI, que supostamente gerou mensagens abusivas e sexualmente exploratórias dirigidas à criança. A mãe do garoto, autora do processo, alegou que as saídas da Character.AI “causaram a morte de seu filho”, conforme declarado na ordem do tribunal.

A Character Technologies, desenvolvedora da Character.AI, argumentou em seu pedido para arquivar que “a Primeira Emenda protege os direitos dos ouvintes de receber discurso, independentemente de sua fonte”, e apontou “vários casos em que tribunais arquivaram reclamações de responsabilidade semelhantes contra empresas de mídia e tecnologia para proteger os direitos da Primeira Emenda dos ouvintes e espectadores”.

Na sua ordem, a juíza do tribunal decidiu que “o Tribunal não está preparado para afirmar que a saída da Character.AI é discurso”, observando que “os réus não conseguiram articular por que palavras unidas por um modelo de linguagem de IA são discurso”. O caso agora avança para a fase de descoberta, e os réus podem refazer seu pedido na Queixa Alterada dentro de 90 dias. Todos os réus devem responder à queixa alterada até 10 de junho de 2025.

A juíza Conway apoiou sua decisão sobre as proteções de liberdade de expressão do modelo de IA citando a concordância da Suprema Corte com a decisão em Moody v. NetChoice, na qual o juiz sugere que as decisões de moderação de conteúdo feitas por IA podem receber menos proteção constitucional do que aquelas feitas por humanos.

A decisão da juíza ocorre em um momento em que os tribunais em todo o país enfrentam novas questões legais levantadas pelo surgimento da IA. Enquanto a maioria dos casos federais envolvendo IA diz respeito a questões de direitos autorais para trabalhos gerados por IA, este caso de liberdade de expressão se destaca porque toca nos limites da Primeira Emenda sobre as saídas da IA.

Continuaremos a monitorar, analisar e emitir relatórios sobre esses desenvolvimentos.

More Insights

Engenheiros de IA e Ética: Construindo Sistemas Inteligentes e Responsáveis

A Inteligência Artificial (IA) explodiu em capacidade, com avanços em aprendizado de máquina, processamento de linguagem natural e visão computacional. Este crescimento coloca os engenheiros de IA na...

A Imperativa da IA Responsável

A Dra. Anna Zeiter, vice-presidente de privacidade e responsabilidade de dados da eBay, afirma que a IA responsável não é apenas uma palavra da moda, mas uma imperativa fundamental. Ela destaca a...

Preservação de Dados em Inteligência Artificial Generativa

Ferramentas de inteligência artificial generativa (GAI) levantam preocupações legais, como privacidade de dados e segurança, e podem ser consideradas informações únicas que devem ser preservadas para...

Inteligência Artificial Responsável: Princípios e Benefícios

A inteligência artificial (IA) está mudando a maneira como vivemos e trabalhamos, tornando essencial seu uso responsável. Isso significa criar e utilizar sistemas de IA que sejam justos, transparentes...

Adotando IA Confiável para o Sucesso Empresarial

Nos últimos anos, a inteligência artificial (IA) se tornou uma ferramenta essencial para a tomada de decisões críticas nos negócios. No entanto, para operar efetivamente com a IA, as organizações...

Inteligência Artificial e o Futuro do Jogo: Desafios e Oportunidades

A aplicação da Inteligência Artificial (IA) na indústria do jogo apresenta oportunidades de eficiência, mas também traz crescentes expectativas regulatórias e riscos de responsabilidade. A...