Desafios da Moratória sobre a Lei de IA no Senado e Limites da Liberdade de Expressão dos Chatbots

Moratória sobre a Lei de IA Enfrenta Desafios no Senado e Juiz Federal Limita a Liberdade de Expressão dos Chatbots

A proposta de moratória de 10 anos sobre as regulamentações estaduais de inteligência artificial (IA), que foi aprovada pela Câmara dos Representantes, agora está a caminho do Senado, onde enfrenta um futuro incerto. Vários senadores republicanos se opuseram à moratória proposta com base em questões políticas, argumentando que ela representa uma “doação para as grandes tecnologias” e que os estados devem poder regular a IA até que as regulamentações federais sejam aprovadas.

Além disso, alguns legisladores estão preocupados que a moratória possa não sobreviver à Regra Byrd, uma norma do Senado que limita pacotes de reconciliação a questões orçamentárias apenas. Em 21 de maio, um juiz federal de um tribunal distrital na Flórida decidiu pela primeira vez que a saída de um modelo de IA não constitui discurso protegido sob a Primeira Emenda, negando o pedido de uma empresa de IA para arquivar uma reclamação sobre danos alegados causados por seu chatbot.

Proposta de Moratória sobre a Lei de IA Rumo ao Senado

Após passar pela Câmara como parte do pacote de reconciliação, a proposta de moratória de 10 anos sobre as leis estaduais de IA agora segue para o Senado, onde enfrenta desafios potenciais. Vários republicanos se manifestaram contra a moratória proposta por motivos políticos e, dado o slim Republican majority no Senado, os republicanos só podem perder alguns votos para aprovar a medida.

Por outro lado, a Regra Byrd pode ser um obstáculo à passagem da medida. Alguns senadores republicanos apoiam a proposta, pois ela se alinha ao poder constitucional do Congresso de “regular o comércio interestadual”, segundo o Senador Todd Young (R-IN). O Senador Mike Rounds (R-SD) também afirmou que “o conceito e a necessidade da moratória são importantes”.

No entanto, outros republicanos são céticos quanto à moratória. A Senadora Marsha Blackburn (R-TN) argumentou que a regulamentação estadual da IA é necessária para “proteger os consumidores até que a legislação federal seja aprovada”, citando uma recente lei no Tennessee que protege artistas contra o uso não autorizado de IA. Essa provisão levanta a preocupação de que medidas protetivas não podem ser interrompidas com a preempção das leis estaduais de IA.

Preocupações dos Democratas e Apoio de Grupos de Defesa

Os democratas não apoiam a moratória de 10 anos, independentemente de ela ser aprovada como parte da reconciliação ou como legislação independente. Vários legisladores democratas expressaram preocupação sobre a conformidade da moratória com a Regra Byrd, que impede a inclusão de quaisquer questões consideradas “extravagantes” em um pacote de reconciliação que não esteja diretamente relacionado ao orçamento.

Fora do Senado, a moratória recebeu apoio geral de vários grupos de defesa da privacidade e empresas de tecnologia. Uma grande empresa de IA observou que “é impossível ignorar que oficialmente cruzamos o limite de mil projetos de leis estaduais sobre IA”.

Decisão do Tribunal Federal Sobre a Proteção da Primeira Emenda

Em 21 de maio, um juiz de um tribunal distrital federal decidiu pela primeira vez que a saída de um modelo de IA não constitui discurso protegido sob a Primeira Emenda. A juíza do Tribunal Distrital dos EUA, Anne C. Conway, do Middle District of Florida, rejeitou o pedido da empresa de IA para arquivar a reclamação, permitindo que a queixa do autor sobre danos alegados causados pelas saídas do modelo de IA da empresa prosseguisse.

O caso surgiu a partir da morte de um adolescente de 14 anos que morreu por suicídio após interagir com a plataforma de chatbot Character.AI, que supostamente gerou mensagens abusivas e sexualmente exploratórias dirigidas à criança. A mãe do garoto, autora do processo, alegou que as saídas da Character.AI “causaram a morte de seu filho”, conforme declarado na ordem do tribunal.

A Character Technologies, desenvolvedora da Character.AI, argumentou em seu pedido para arquivar que “a Primeira Emenda protege os direitos dos ouvintes de receber discurso, independentemente de sua fonte”, e apontou “vários casos em que tribunais arquivaram reclamações de responsabilidade semelhantes contra empresas de mídia e tecnologia para proteger os direitos da Primeira Emenda dos ouvintes e espectadores”.

Na sua ordem, a juíza do tribunal decidiu que “o Tribunal não está preparado para afirmar que a saída da Character.AI é discurso”, observando que “os réus não conseguiram articular por que palavras unidas por um modelo de linguagem de IA são discurso”. O caso agora avança para a fase de descoberta, e os réus podem refazer seu pedido na Queixa Alterada dentro de 90 dias. Todos os réus devem responder à queixa alterada até 10 de junho de 2025.

A juíza Conway apoiou sua decisão sobre as proteções de liberdade de expressão do modelo de IA citando a concordância da Suprema Corte com a decisão em Moody v. NetChoice, na qual o juiz sugere que as decisões de moderação de conteúdo feitas por IA podem receber menos proteção constitucional do que aquelas feitas por humanos.

A decisão da juíza ocorre em um momento em que os tribunais em todo o país enfrentam novas questões legais levantadas pelo surgimento da IA. Enquanto a maioria dos casos federais envolvendo IA diz respeito a questões de direitos autorais para trabalhos gerados por IA, este caso de liberdade de expressão se destaca porque toca nos limites da Primeira Emenda sobre as saídas da IA.

Continuaremos a monitorar, analisar e emitir relatórios sobre esses desenvolvimentos.

More Insights

Governança da IA na Economia de Zero Confiança

Em 2025, a governança da IA deve alinhar-se com a mentalidade de "nunca confie, sempre verifique" da economia de zero confiança. Isso significa que a governança não deve ser vista como um obstáculo à...

A Segurança da IA como Catalisador para Inovação em Países em Desenvolvimento

Investimentos em segurança e proteção da IA não devem ser vistos como obstáculos, mas sim como facilitadores da inovação sustentável e do desenvolvimento a longo prazo, especialmente em países da...

Rumo à Governança da IA no ASEAN

Quando se trata de IA, a ASEAN adota uma abordagem de governança baseada em consenso. Este modelo voluntário e baseado em princípios pode ser uma solução temporária, mas corre o risco de fragmentação...

Implementação Ética da IA na Ucrânia

Em junho, 14 empresas de TI ucranianas criaram uma organização de autorregulamentação para apoiar abordagens éticas na implementação da inteligência artificial na Ucrânia. As empresas se comprometeram...

A Itália Aprova Lei Abrangente de IA Focada em Privacidade e Segurança

O Parlamento da Itália aprovou uma nova lei sobre inteligência artificial, tornando-se o primeiro país da União Europeia com regulamentações abrangentes. A legislação estabelece princípios centrais de...