O uso indiscriminado da inteligência artificial (IA) no Judiciário brasileiro é umaameaça grave ao cerne do processo judicial: a fundamentação legal-racional das decisões, exigência que, aliás, consta na Constituição brasileira e que vem sendo deixada de lado dia a dia. Recentemente, o juiz auxiliar da presidência do Conse-Iho Nacional de Justiça (CNJ) Dorotheo Barbosa Neto chamou a atenção para esse risco, ao afirmar que a IA tende a “alu-cinar” (gerar informações falsas ou incoerentes) em mais de 70% dos casos quando solicita-da a desenvolver primeiro a fundamentação e só depois chegar à conclusão. Em contrapartida, se o magistrado (ou o estagiá-rio!) fornece para a IA previamente a decisão desejada (um prompt com “condenar”, “defe-rir”, “negar provimento”, “não conhecer o recurso”), a ferramenta “entregará” uma fundamentação aparentemente coc-rente e fluida, invertendo, po-rém, o fluxo lógico do raciocínio jurídico.
O problema é que essainver-são, proporcionada pelo “deci-dir primeiro e fundamentar de-pois”, é absolutamente inconcebível do ponto de vista constitucional e processual. Ora, o juiz deve analisar as razões das partes, os fatos e o direito para, só então, chegar a uma conclu-são. Partir da conclusão prévia transforma a decisão em produto de engenharia de prompt, em que o comando do usuário molda a narrativa para encaixar no resultado pretendido. Um ferrolho hermenêutico. Isso terceiriza a cognição: a “aplicação da lei” é delegada a um sistema que não apura verdade, mas gera texto plausível baseado em padrões estatísticos.
Isso lembra o que chamo de “Dilema da Ponte”: atravessar o abismo do conhecimento e, depois, construir a ponte re-troativamente. Já em 2004, critiquei ministros que admitiam decidir primeiro e justificar de-pois. Hoje, a IA amplifica esse vício, tornando-o sistêmico. E natural. Sobpressão de volume processual, a tentação é gran-de: ordenar à ferramenta o dispositivo e deixar que ela “arru-me” os fundamentos. O resultado é uma motivação pós-fabri-cada, elegante na forma, mas frágil na substância. Grave.
A Resolução CNJ n.° 615/2025 busca mitigar isso, No Judiciário, a inversão proporcionada pelo decidir primeiro e fundamentar depois’ é absolutamente inconcebível do ponto de vista constitucional e processual
com diretrizes de governança.
Proíbe que a IA substitua integralmente o magistrado ou fundamente decisões de forma automática, sem controle.
Exige rastreabilidade, validação de citações e separação entre análise e decisão. Na práti-ca, porém, as salvaguardas viram letra morta quando o “pi-loto automático” é acionado após definir o destino: condenar ou absolver, deferir ou in-deferir. O “oceano do conhecimento real” evapora; resta a chegada ao porto escolhido, sem saber o caminho percorri-do. Como se o caminho não im-portasse. Só que o caminho se chama “processo”. Processo é protocolo. Estão matando o processo.
O queestáem jogo são o cog-nitive offloading – terceirização doato deconhecer-e o automa-tionbias: tratar a lAcomo verdade prima facie. Quando o julgador ratifica texto gerado por máquina, vira chancela auto-mática. Isso viola o art. 93, IX, da Constituição federal (dever de fundamentar), o art. 489 do Código de Processo Civil e o art. 315 do Código de Processo Penal, que exigem motivação exaustiva, com análise das questões relevantes e enfrentamento dos argumentos.
A caixa-preta da IA agrava o problema. Modelos com trilhões de parâmetros operam de modo opaco; nem os desenvolvedores compreendem plenamente como chegam a certas saídas (exemplo: AlphaGo).
Sem explicabilidade (XAI), como garantir justiça e responsa-bilidade? Se uma alucinação leva a erro grave? O sistema?
Enquanto houver bambu, vai haver flecha. O Tribunal de Justiça de São Paulo aprovou o Gerador de Ementas com Azu-re OpenAl, que produz ementas que logo são usadas como “precedentes”, fazendo desaparecer os casos concretos. Nas redes sociais, advogados jáensi-nam a “clonar juiz”: alimentar a IA com jurisprudência do magistrado para prever ou moldar TERÇA-FEIRA, 17 DE MARÇO DE 2026
desfechos favoráveis. Vídeos no Instagram prometem: “O advogado que não souber clonar juiz não vai ter espaço”. Es-pantoso, não? A “academia” não escapa: “mentores” mostram como gerar capítulos de teseem minutos. Trabalhos es-colares? Tudo feito por IA. O brain rot (cérebro apodrecido) avança a passos largos.
Mas há resistência. Em Por-tugal, professores lançaram manifesto contra a IA dizendo que os alunos se convertem em
“cretinos digitais”. Na França, há criminalização de usos indevidos (pena de até cinco anos).
Por aqui, o encantamento per-siste: a IA funciona como inevi-rável, um “mito do dado”, gerando respostas antes das per-guntas, numa espécie de retorno à pré-modernidade. Não se trata de rejeitar atec-nologia, mas de desencantá-la.
Não quero a volta do lápis ou do ábaco. Mas precisamos, ur-gentemente, de governança real, transparência algorítmica e supervisão humana efetiva.
Caso contrário, o Judiciário-e, comele, a advocacia, o Ministério Público e a Defensoria, que também já terceirizam o traba-lho- sucumbirá à essa verdadeira terceirização da mente, proporcionando um delíriosintéti-co e o fim da profissão como a conhecemos. Como disse Gustavo Rabay, especialista na área: “Só os humanos têm direito a delirar. Delírio sintético é empulhação”.
Indignemo-nos. Ou seremos clonados pelo futuro. •
PROFESSOR E ADVOGADO, É AUTOR DE ROBÔ
NAO DESCE ESCADA E TRAPEZISTA NÃO VOA – OS LIMITES DOS APRENDIZES DE FEITICEIRO’ (ED. CONTRACORRENTE, 2025)
ABD – Academia Brasileira de Direito Direito, Patrono, Livros, Eventos