Moratória sobre a Lei de IA Enfrenta Desafios no Senado e Juiz Federal Limita a Liberdade de Expressão dos Chatbots
A proposta de moratória de 10 anos sobre as regulamentações estaduais de inteligência artificial (IA), que foi aprovada pela Câmara dos Representantes, agora está a caminho do Senado, onde enfrenta um futuro incerto. Vários senadores republicanos se opuseram à moratória proposta com base em questões políticas, argumentando que ela representa uma “doação para as grandes tecnologias” e que os estados devem poder regular a IA até que as regulamentações federais sejam aprovadas.
Além disso, alguns legisladores estão preocupados que a moratória possa não sobreviver à Regra Byrd, uma norma do Senado que limita pacotes de reconciliação a questões orçamentárias apenas. Em 21 de maio, um juiz federal de um tribunal distrital na Flórida decidiu pela primeira vez que a saída de um modelo de IA não constitui discurso protegido sob a Primeira Emenda, negando o pedido de uma empresa de IA para arquivar uma reclamação sobre danos alegados causados por seu chatbot.
Proposta de Moratória sobre a Lei de IA Rumo ao Senado
Após passar pela Câmara como parte do pacote de reconciliação, a proposta de moratória de 10 anos sobre as leis estaduais de IA agora segue para o Senado, onde enfrenta desafios potenciais. Vários republicanos se manifestaram contra a moratória proposta por motivos políticos e, dado o slim Republican majority no Senado, os republicanos só podem perder alguns votos para aprovar a medida.
Por outro lado, a Regra Byrd pode ser um obstáculo à passagem da medida. Alguns senadores republicanos apoiam a proposta, pois ela se alinha ao poder constitucional do Congresso de “regular o comércio interestadual”, segundo o Senador Todd Young (R-IN). O Senador Mike Rounds (R-SD) também afirmou que “o conceito e a necessidade da moratória são importantes”.
No entanto, outros republicanos são céticos quanto à moratória. A Senadora Marsha Blackburn (R-TN) argumentou que a regulamentação estadual da IA é necessária para “proteger os consumidores até que a legislação federal seja aprovada”, citando uma recente lei no Tennessee que protege artistas contra o uso não autorizado de IA. Essa provisão levanta a preocupação de que medidas protetivas não podem ser interrompidas com a preempção das leis estaduais de IA.
Preocupações dos Democratas e Apoio de Grupos de Defesa
Os democratas não apoiam a moratória de 10 anos, independentemente de ela ser aprovada como parte da reconciliação ou como legislação independente. Vários legisladores democratas expressaram preocupação sobre a conformidade da moratória com a Regra Byrd, que impede a inclusão de quaisquer questões consideradas “extravagantes” em um pacote de reconciliação que não esteja diretamente relacionado ao orçamento.
Fora do Senado, a moratória recebeu apoio geral de vários grupos de defesa da privacidade e empresas de tecnologia. Uma grande empresa de IA observou que “é impossível ignorar que oficialmente cruzamos o limite de mil projetos de leis estaduais sobre IA”.
Decisão do Tribunal Federal Sobre a Proteção da Primeira Emenda
Em 21 de maio, um juiz de um tribunal distrital federal decidiu pela primeira vez que a saída de um modelo de IA não constitui discurso protegido sob a Primeira Emenda. A juíza do Tribunal Distrital dos EUA, Anne C. Conway, do Middle District of Florida, rejeitou o pedido da empresa de IA para arquivar a reclamação, permitindo que a queixa do autor sobre danos alegados causados pelas saídas do modelo de IA da empresa prosseguisse.
O caso surgiu a partir da morte de um adolescente de 14 anos que morreu por suicídio após interagir com a plataforma de chatbot Character.AI, que supostamente gerou mensagens abusivas e sexualmente exploratórias dirigidas à criança. A mãe do garoto, autora do processo, alegou que as saídas da Character.AI “causaram a morte de seu filho”, conforme declarado na ordem do tribunal.
A Character Technologies, desenvolvedora da Character.AI, argumentou em seu pedido para arquivar que “a Primeira Emenda protege os direitos dos ouvintes de receber discurso, independentemente de sua fonte”, e apontou “vários casos em que tribunais arquivaram reclamações de responsabilidade semelhantes contra empresas de mídia e tecnologia para proteger os direitos da Primeira Emenda dos ouvintes e espectadores”.
Na sua ordem, a juíza do tribunal decidiu que “o Tribunal não está preparado para afirmar que a saída da Character.AI é discurso”, observando que “os réus não conseguiram articular por que palavras unidas por um modelo de linguagem de IA são discurso”. O caso agora avança para a fase de descoberta, e os réus podem refazer seu pedido na Queixa Alterada dentro de 90 dias. Todos os réus devem responder à queixa alterada até 10 de junho de 2025.
A juíza Conway apoiou sua decisão sobre as proteções de liberdade de expressão do modelo de IA citando a concordância da Suprema Corte com a decisão em Moody v. NetChoice, na qual o juiz sugere que as decisões de moderação de conteúdo feitas por IA podem receber menos proteção constitucional do que aquelas feitas por humanos.
A decisão da juíza ocorre em um momento em que os tribunais em todo o país enfrentam novas questões legais levantadas pelo surgimento da IA. Enquanto a maioria dos casos federais envolvendo IA diz respeito a questões de direitos autorais para trabalhos gerados por IA, este caso de liberdade de expressão se destaca porque toca nos limites da Primeira Emenda sobre as saídas da IA.
Continuaremos a monitorar, analisar e emitir relatórios sobre esses desenvolvimentos.