Os Riscos das Alucinações e do Mau Uso da Inteligência Artificial nos Tribunais Franceses

Os Riscos das Alucinações e do Uso Indevido da Inteligência Artificial Generativa em Tribunais Franceses

Os tribunais franceses estão começando a enfrentar alucinações geradas por inteligência artificial (IA), que se manifestam na forma de referências jurisprudenciais errôneas produzidas nas alegações das partes, ou no uso indevido da IA para suas reivindicações. Embora, até o momento, nenhuma sanção tenha sido imposta na França, ao contrário de várias decisões proferidas nos Estados Unidos, o uso irresponsável ou irracional da IA pode ter consequências significativas para advogados e seus clientes.

O Uso da IA no Sistema Jurídico

Com as funcionalidades da IA em constante evolução, a transformação resultante desses avanços tecnológicos é visível entre os envolvidos no sistema jurídico. Existem diversas ferramentas jurídicas de IA projetadas para a elaboração de documentos contratuais ou processuais, análise e resumo de documentos, e pesquisa de jurisprudência. Em 2026, uma pesquisa revelou que mais de 90% dos profissionais jurídicos utilizam pelo menos uma ferramenta de IA em suas atividades.

Alucinações da IA e Referências Falsas

Os tribunais franceses começaram a destacar o uso indevido da IA em suas decisões. Os juízes têm expressado preocupação com o uso de referências jurisprudenciais imprecisas ou inexistentes nas submissões das partes. Isso pode ocorrer em casos onde não existe jurisprudência com o número de referência indicado, onde a decisão não foi proferida na data indicada, ou onde o escopo da jurisprudência não está relacionado ao argumento para o qual foi invocada.

Os juízes podem chamar a atenção da parte envolvida e/ou de seus advogados, incentivando-os a verificar no futuro se as referências encontradas em mecanismos de busca ou inteligência artificial não são “alucinações”. Em algumas ocasiões, os tribunais têm responsabilizado apenas os advogados pelo uso da IA, conforme evidenciado em uma decisão onde foi solicitado ao advogado que verificasse a jurisprudência citada antes de levar o assunto ao juiz.

Documentos Elaborados por Ferramentas de IA

Os tribunais também têm enfrentado petições e alegações elaboradas por ferramentas de IA generativa. Os tribunais administrativos foram os primeiros a ser impactados por esse fenômeno, uma vez que a representação por um advogado nem sempre é obrigatória. Em algumas situações, os juízes têm sido menos rigorosos com os requerentes que utilizam a IA sem a supervisão de um profissional legal.

Um tribunal administrativo notou a “falta de clareza” nas alegações, provavelmente resultante da redação por uma ferramenta de IA, a qual é inadequada para tal propósito, sem que isso tenha influenciado a decisão do tribunal.

Consequências do Uso da IA na Argumentação Judicial

O uso de ferramentas de IA generativa não é punível por si só, pois não há uma norma que proíba sua utilização no suporte a argumentos jurídicos. No entanto, alucinações da IA podem levar os requerentes a apresentar argumentos errôneos ou infundados, que serão rejeitados pelo juiz.

Em várias ocasiões, tribunais administrativos têm rejeitado alegações geradas pela IA, destacando a necessidade de verificação por parte de um ser humano, especialmente um profissional jurídico, para evitar erros nos argumentos dos requerentes.

Risco de Evidências Falsas

Embora os tribunais franceses ainda não tenham lidado com casos de evidências falsas geradas por IA, o risco aumenta à medida que as ferramentas de IA se tornam mais sofisticadas. Casos de produção de documentos falsos para enganar advogados podem emergir, levando a sanções mais severas, incluindo condenações criminais por falsificação.

Responsabilidade dos Advogados

Até o momento, os tribunais franceses não impuseram sanções a advogados que confiaram em alucinações da IA em seus argumentos, limitando-se a advertências. No entanto, os advogados permanecem sujeitos às regulamentações nacionais da profissão, que exigem competência, diligência e prudência. O uso de IA deve ser acompanhado de uma verificação da confiabilidade dos resultados obtidos.

A associação de advogados de Paris destaca a importância da verificação adequada das informações geradas por sistemas de IA, afirmando que a responsabilidade civil profissional do advogado pode ser comprometida por informações errôneas provenientes da IA. Em um desenvolvimento recente, uma nova diretriz foi adotada, confirmando que advogados que utilizam conteúdo gerado por IA sem verificação adequada estão sujeitos a processos disciplinares.

Assim, os advogados devem lembrar que, embora a IA seja uma ferramenta eficaz, ela nunca pode substituir completamente a supervisão humana.

More Insights

A Importância da IA Responsável: Riscos e Soluções

As empresas estão cientes da necessidade de uma IA responsável, mas muitas a tratam como um pensamento secundário ou um fluxo de trabalho separado. Isso pode levar a riscos legais, financeiros e de...

Modelo de Governança de IA que Combate o Shadow IT

As ferramentas de inteligência artificial (IA) estão se espalhando rapidamente pelos locais de trabalho, mudando a forma como as tarefas diárias são realizadas. A adoção da IA está ocorrendo de forma...

Acelerando Inovação com IA Ética

As empresas estão correndo para inovar com inteligência artificial, mas muitas vezes sem as diretrizes adequadas. A conformidade pode se tornar um acelerador da inovação, permitindo que as empresas se...

Riscos Ocultos da IA na Contratação

A inteligência artificial está transformando a forma como os empregadores recrutam e avaliam talentos, mas também introduz riscos legais significativos sob as leis federais de anti-discriminação. A...