IA, Alucinações, Sanções e Contexto: O Que um Caso Disciplinar na Flórida Realmente Ensina
Não há dúvida de que a inteligência artificial agora oferece uma poderosa vantagem para o trabalho jurídico de alto nível. Desde a disponibilidade generalizada da IA generativa, estudiosos do direito, tecnólogos e desenvolvedores demonstraram como essas ferramentas, quando usadas corretamente, podem aprimorar o desempenho humano. A IA se destaca em acessar, organizar e processar grandes volumes de informação; advogados e juízes contribuem com juízo, experiência, empatia e responsabilidade ética. Juntas, a combinação pode ser extraordinariamente eficaz.
Mas, ao longo do caminho, muitos profissionais ocupados perderam uma verdade óbvia e implacável: a IA pode errar; o usuário humano permanece totalmente responsável; e a verificação não é opcional. Advogados responsáveis devem verificar cada citação e afirmação em um documento judicial contra fontes originais e autoritativas. Não há atalho para essa obrigação.
A falta dessa disciplina básica resultou em um crescente número de casos envolvendo “alucinações” de IA — citações e afirmações fabricadas ou imprecisas em submissões judiciais. Apesar da publicidade, advertências judiciais, orientações éticas e sanções, o problema não diminuiu.
Um banco de dados público que rastreia decisões judiciais relacionadas a alucinações de IA reporta mais de 500 casos nos tribunais dos Estados Unidos até o momento. Para enfrentar as violações repetidas, os tribunais intensificaram sanções, passando de advertências e reprimendas para penalidades monetárias, desqualificação da representação, divulgação obrigatória das ordens de sanção a clientes e tribunais, e encaminhamentos a autoridades disciplinares.
O Caso em Contexto: O Que Neusom É — E O Que Não É
O caso disciplinar não é um exemplo limpo de um erro isolado de IA que levou a suspensão. A ordem do tribunal é breve e em grande parte procedural; a reclamação da Ordem dos Advogados e o relatório do árbitro trazem as conclusões substantivas. Eles descrevem um advogado que ignorou repetidamente ordens judiciais, reiterou argumentos já rejeitados pelo tribunal, distorceu autoridade legal e falhou em corrigir citações fabricadas, mesmo após serem apontadas pela parte contrária.
As citações alucinatórias no caso corroboraram uma conduta mais ampla; não foram a causa principal.
O registro mostra um padrão amplo de má conduta. Além das citações imprecisas e fabricadas, o árbitro identificou violações repetidas de regras locais, rotulagem inadequada de arquivos, tentativas impróprias de relitigar questões jurisdicionais, pedido de falência de má-fé para evitar uma evacuação e ausência na audiência disciplinar. O advogado havia recebido sanções anteriores por má conduta e deturpação. Como um todo, o árbitro concluiu que a conduta mostrou uma quebra fundamental de candura, diligência e respeito pelo tribunal.
Nesse contexto, as alucinações geradas por IA não foram o gatilho para a disciplina. Funcionaram como evidência corroborativa de uma inadequação profissional já estabelecida. Essa distinção é importante. Se sanções baseadas em má conduta cumulativa servirem de precedente para suspender advogados por erros isolados de alucinação, a doutrina disciplinar poderá migrar de uma avaliação baseada em culpabilidade para uma punição desvinculada da intenção ou proporcionalidade.
Consequências Não Intencionais: Alfabetização em IA, Deterrência e o Risco de Correção Excessiva
As associações de advogados publicam resumos de casos disciplinares para lembrar as obrigações profissionais, identificar condutas abaixo dos padrões éticos e promover educação e dissuasão. Para o sucesso, a mensagem educacional deve refletir com precisão a natureza da má conduta em questão.
Juízes e órgãos sancionadores atuam sob mandatos que pedem que as sanções sejam adequadas, justas e proporcionais. As decisões disciplinares exigem calibração, diferenciação e fundamentação em intenção, grau de culpabilidade e dano real ou potencial. Sem contexto, o risco é a correção excessiva, e não a sub-aplicação.
O caso mostra que tribunais e autoridades disciplinares examinarão cuidadosamente o uso inadequado da IA generativa. Essa supervisão é apropriada e necessária. Contudo, uma caracterização imprecisa do caso pode gerar desconfiança ou evitar completamente o uso de IA, o que seria contraproducente. Advogados e juízes que entendem o funcionamento da IA generativa e aplicam verificação básica podem usar essas ferramentas de forma segura e eficaz. A lição deve ser competência, não medo.
O Que os Juízes Devem Aprender com Neusom
A principal lição não é que o uso da IA generativa na redação jurídica justifica suspensão por erros. Em vez disso, é que tribunais e autoridades disciplinares examinarão atentamente a conduta de um advogado quando os erros de IA fizerem parte de um padrão mais amplo de desrespeito às obrigações profissionais.
Neusom não estabelece que uma alucinação isolada justifica sanções severas. As falhas repetidas de candura, diligência e cumprimento de ordens judiciais, combinadas com a falta de correção dos erros, foram determinantes. Assim, as citações alucinatórias serviram apenas como evidência corroborativa, não como base única para disciplina.
A Encruzilhada para Sanções Futuras
O caso Neusom servirá de referência para tribunais e órgãos disciplinares em casos futuros envolvendo alucinações de IA. A profissão está numa encruzilhada.
Um caminho trata as citações alucinatórias principalmente como um problema de resultado, em que a presença de autoridade falsa guia sanções mais severas. O outro foca na culpabilidade, investigando como e por que o erro ocorreu, o conhecimento do advogado, sua resposta ao erro e se houve negligência, imprudência ou má conduta intencional.
Se Neusom for interpretado como apoio à sanção pelo resultado, poderá gerar sanções inconsistentes e desestimular o uso responsável de IA. Se for visto como reforço da análise por culpabilidade, ajudará a aplicar sanções firmes e justas em casos necessários, equilibrando proporcionalidade e justiça em erros isolados.
Um Quadro baseado em Culpabilidade para Sanções de Alucinações de IA
Para evitar sanções motivadas por resultados e disciplina inconsistente, os tribunais precisam de um método principiado e repetível para avaliar má conduta relacionada à IA. Esse quadro baseado em culpabilidade possibilita respostas firmes onde necessário, preservando também justiça e proporcionalidade.
Sanções severas são justificadas em casos de alucinação que apresentam citações falsas ou afirmações legais imprecisas, pois desperdiçam recursos, impõem custos e ameaçam resultados justos. Os deveres éticos de competência, candura e diligência são claros, e a verificação prévia das citações é obrigatória. O problema evolui, desde citações fabricadas até erros em relatórios, exposições e ordens judiciais. Assim, há amplo suporte para sanções sérias como meio de dissuasão.
Mas as sanções devem depender da culpabilidade, não apenas do resultado. Nem toda alucinação tem o mesmo grau de culpa: algumas decorrem de descuido, outras de falhas na supervisão ou treinamento, e outras ainda de deturpação consciente ou desrespeito persistente. Tratar todos os casos como moralmente iguais colapsa essas diferenças e pode transformar negligência em má-fé presumida.
Educação, Competência e o Caminho a Seguir
Sanções por alucinações de IA devem ser acompanhadas de educação adequada. A profissão jurídica ainda enfrenta desafios na alfabetização em IA, que não é passageira. Instituições como faculdades de direito e associações de advogados têm o dever de garantir que profissionais compreendam essas ferramentas, seus limites e seu uso responsável.
A tarefa é complexa, pois a tecnologia evolui rápido e advogados e juízes lidam com restrições de tempo e recursos. A educação deve ser prática, acessível e focada em riscos reais. Apesar do aumento da oferta de cursos, determinar fontes confiáveis e eficazes permanece um desafio.
Na Flórida, medidas importantes foram adotadas: a Opinião Ética 24-1, emendas às regras sobre competência e supervisão relacionadas à IA, e orientações práticas refletem o reconhecimento de que alfabetização em IA é parte da competência profissional. Outras jurisdições seguem o mesmo caminho.
Contudo, a persistência de conteúdo alucinatório indica que a mensagem ainda precisa ser mais absorvida. A solução é combinar sanções proporcionais com educação e expectativas claras. Evitar alucinações exige entender os limites da IA, manter o humano envolvido e verificar todas as informações antes da apresentação, independentemente do autor do trabalho, seja associado, paralegal ou ferramenta de IA.
Sanções reforçam a disciplina; a educação torna seu cumprimento possível.
Conclusão
A ascensão das alucinações geradas por IA em documentos judiciais apresenta um desafio sério para a advocacia. Tribunais e autoridades disciplinares devem responder firmemente a condutas que comprometam candura, competência e integridade do processo judicial. Sanções são ferramentas essenciais para dissuasão e correção.
Entretanto, a disciplina é mais eficaz quando ancorada em contexto e culpabilidade. Neusom reforça esse princípio ao mostrar que erros de IA podem evidenciar má conduta mais ampla. Tratá-los isoladamente pode gerar sanções desproporcionais, desvinculadas da intenção e da proporcionalidade.
À medida que a IA generativa se integra à prática jurídica, a profissão tem dupla tarefa: impor obrigações éticas com clareza e garantir que advogados e juízes estejam preparados para cumpri-las através de educação e supervisão contínuas. Sanções devem dissuadir má conduta sem desencorajar o uso responsável dessas ferramentas que, quando bem compreendidas e verificadas, podem aprimorar a administração da justiça.