O Papel dos Tribunais na Regulação da Inteligência Artificial

Além da Regulação: O Que 500 Casos Revelam Sobre o Futuro da IA nos Tribunais

A regulação da inteligência artificial (IA) ao redor do mundo é desigual. Enquanto algumas jurisdições já possuem regulamentações abrangentes, outras se concentram apenas em regras setoriais específicas, e outras ainda resistem ou atrasam a regulação completamente. Por exemplo, o recém-aprovado AI Act da União Europeia fornece um modelo horizontal e baseado em risco que abrange setores e tecnologias. Em contraste, nos Estados Unidos, a resistência a legislações vinculativas persiste, incluindo chamadas para um moratório sobre a regulação estadual de IA que se estenderia por mais de uma década.

Essas dinâmicas moldaram a conversa global em torno da governança da IA como uma questão de legislação e design de políticas prospectivas. No entanto, essa ênfase obscurece um fato crítico e pouco examinado: os tribunais já estão regulando a IA. Em todo o mundo, juízes, autoridades de proteção de dados e tribunais administrativos estão resolvendo ativamente disputas nas quais os sistemas de IA desempenham um papel central, seja em decisões de imigração automatizadas, vigilância biométrica ou processamento de dados para treinamento de modelos. Ao fazer isso, eles estão estabelecendo regras, limites e precedentes de facto que afetam diretamente como as tecnologias de IA são desenvolvidas, implantadas e contestadas.

O Projeto “IA em Julgamento”

Este artigo apresenta os achados do projeto empírico original chamado “IA em Julgamento”, que visa destacar este domínio negligenciado. O projeto rastreia e categoriza litígios envolvendo tecnologias de IA em diferentes jurisdições, destacando as maneiras como os órgãos judiciais e administrativos funcionam como atores normativos na governança da IA. Isso abrange contextos onde os tribunais estão interpretando a própria regulação, até aqueles em que as respostas legislativas ou regulatórias são inexistentes, fragmentadas, lentas ou contestadas.

A versão atual do conjunto de dados “IA em Julgamento” inclui 500 casos de 39 países e jurisdições, englobando decisões judiciais e deliberações administrativas. Esses casos são extraídos de uma ampla gama de domínios legais e envolvem atores que vão de indivíduos privados e corporações a agências governamentais e plataformas transnacionais. Para ser incluído no conjunto de dados, um caso deve envolver o uso direto ou materialmente significativo de IA, em vez de mera menção. Cada caso foi classificado e codificado manualmente por jurisdição, autoridade judicial ou administrativa, questão relacionada à IA (por exemplo, preconceito, transparência, PI, etc.) e ano. Um breve resumo do caso e trechos das principais decisões também foram anotados.

Categorias de Litígios

Nos 500 casos analisados no conjunto de dados “IA em Julgamento”, três categorias de questões concentram 39,4% de todas as disputas: casos que concernem à profissão jurídica (92 casos), propriedade intelectual (56 casos) e uso administrativo da IA (49 casos). Essas categorias não são apenas quantitativamente dominantes; elas representam os pontos de fricção mais visíveis entre os sistemas de IA e os frameworks legais que buscam governá-los.

O crescimento do litígio na categoria da profissão jurídica é particularmente impressionante. De apenas três casos registrados em 2021, o número saltou para 32 em 2024, com mais 28 já documentados no início de 2025. Esses casos envolvem tanto o uso de IA por atores jurídicos quanto sua citação no raciocínio judicial. Um exemplo claro é o caso “Ross v. United States” (2025), no qual o Tribunal de Apelações de DC citou o ChatGPT da OpenAI em opiniões tanto da maioria quanto da dissidência para ajudar a interpretar o conceito de “conhecimento comum” em um caso de crueldade animal.

No Brasil, um advogado apresentou uma petição contendo 43 precedentes fabricados por um modelo de IA generativa, levando ao arquivamento do caso e a uma investigação disciplinar. Esses exemplos ilustram como as ferramentas de IA estão remodelando a autoridade epistêmica e as normas profissionais dentro da prática jurídica, às vezes de maneira sutil, outras vezes problemática.

Disputas de Propriedade Intelectual

As disputas de propriedade intelectual também aumentaram. De menos de cinco casos anualmente antes de 2022, a questão atingiu o pico de 27 casos em 2024, principalmente ligada ao surgimento da IA generativa. Essas disputas comumente envolvem alegações de que dados de treinamento foram coletados sem autorização, infringindo direitos autorais ou direitos morais. No caso “Getty Images v. Stability AI”, atualmente pendente em múltiplas jurisdições, os reclamantes argumentam que o uso de milhões de imagens protegidas por direitos autorais no treinamento de modelos viola a legislação de PI.

Uso Administrativo da IA

O uso administrativo da IA representa uma área de litígios que já existe há mais tempo, mas não menos importante. Casos nesta categoria remontam a 2014, mas houve um aumento significativo entre 2019 e 2023, atingindo o pico de 13 casos em 2023. Esses casos frequentemente dizem respeito à automação em serviços públicos, como imigração, benefícios ou aplicação regulatória. No caso “Haghshenas v. Canada” (2023), o reclamante contestou uma negação de visto influenciada pela ferramenta Chinook usada para agilizar o processamento de imigração. Embora o tribunal tenha mantido o processo com base no fato de que um oficial humano ainda tinha a discrição final, o caso revelou a obscuridade da tomada de decisão híbrida e a dificuldade de identificar a responsabilidade em sistemas onde humanos dependem fortemente de resumos gerados por máquinas.

Conclusão

Essas tendências revelam não apenas onde o litígio está acontecendo, mas também como os sistemas judiciais estão sendo puxados para as linhas de frente da governança da IA. Em cada uma das três categorias principais, os tribunais não estão meramente reagindo a danos; eles estão construindo novos limites legais para tecnologias emergentes, definindo o que conta como um processo justo ou inovação legal em contextos onde a orientação legal anterior é muitas vezes ambígua ou inexistente. Se quisermos governar a IA de uma maneira que reflita as realidades sociais em vez de princípios abstratos, não podemos tratar o tribunal como uma nota de rodapé. A lei já está falando. A tarefa agora é ouvir atentamente e garantir que seus julgamentos façam parte da conversa que estamos construindo sobre o futuro da tecnologia e da democracia.

More Insights

Governo Britânico Sob Crítica pela Implementação de Reconhecimento Facial

O governo do Reino Unido tem sido criticado pela implementação de tecnologia de reconhecimento facial sem um quadro legal abrangente. O Instituto Ada Lovelace alertou que o uso crescente do...

A Explosão de Startups de Governança na Era da Inteligência Artificial

Com o crescimento da tecnologia de inteligência artificial (IA), as soluções de governança estão em alta demanda. A indústria global de governança de IA, avaliada em 890 milhões de dólares no ano...

O Papel dos Tribunais na Regulação da Inteligência Artificial

A regulação da inteligência artificial (IA) é desigual em todo o mundo, com algumas jurisdições já possuindo regulamentações abrangentes, enquanto outras resistem à legislação vinculativa. Os...

A Liderança Legal na Governança da IA: Agindo Antes que seja Tarde

Neste artigo da Help Net Security, Brooke Johnson, Conselheira Jurídica Chefe da Ivanti, discute as responsabilidades legais na governança da IA e a importância da colaboração entre departamentos para...

Mudança nas Regras da IA: Implicações e Desafios

A Câmara dos Representantes recentemente aprovou um grande projeto de lei que impede os estados de regular modelos de inteligência artificial por 10 anos. Isso preocupa os legisladores estaduais, que...