Tempo de leitura: 5 minutos
Enquanto a Inteligência Artificial acelera processos no Judiciário brasileiro, a urgência por avaliações e transparência dos algoritmos se destaca para a validade das decisões.
O Judiciário brasileiro tem se consolidado como uma referência internacional na utilização de sistemas de Inteligência Artificial (IA). Com mais de 80 milhões de processos em tramitação, a adoção dessas tecnologias visa desafogar um sistema sobrecarregado e otimizar a capacidade de resposta.
Em 2025, levantamentos do Conselho Nacional de Justiça (CNJ) indicaram que mais de 45% dos tribunais já empregavam ferramentas baseadas em IA, muitas delas com componentes generativos. Esses avanços, contudo, trazem consigo um debate crucial sobre a necessidade de avaliações e transparência.
Apesar dos ganhos evidentes em eficiência, a ausência de critérios claros e auditorias regulares para esses algoritmos levanta sérias preocupações sobre a segurança jurídica e a conformidade com preceitos constitucionais, conforme matéria publicada em 8 de janeiro de 2026.
Aceleração com IA: o impacto nos tribunais brasileiros
Exemplos notáveis da aplicação da Inteligência Artificial são vistos em diversas esferas do Judiciário. No Supremo Tribunal Federal (STF), o sistema Victor 2.0, integrado ao Projeto Corpus e à Plataforma Digital do Poder Judiciário (PDPJ), conseguiu reduzir em 42% o tempo médio de triagem de recursos no segundo semestre de 2025.
Já no Superior Tribunal de Justiça (STJ), o sistema Sócrates desempenha um papel ainda mais estratégico. Ele é fundamental para o filtro de relevância, um debate central em 2026, sendo capaz de agrupar processos semelhantes em menos de 15 minutos, em um universo de 100 mil casos.
Além disso, o Sócrates realiza buscas em cerca de 8 milhões de peças processuais em pouco mais de 20 segundos, influenciando diretamente a seleção de casos que serão apreciados pela Corte. Essa agilidade é um fator transformador para a produtividade judicial.
Tribunais estaduais também colhem os frutos da IA. O Poti, no Tribunal de Justiça do Rio Grande do Norte, acelerou a triagem de execuções fiscais repetitivas. Em Minas Gerais, o Bernoulli, do Tribunal de Justiça local, apoia a identificação de temas de repercussão geral e recursos repetitivos, demonstrando a versatilidade dessas ferramentas.
Nacionalmente, a plataforma Sinapses, coordenada pelo CNJ, centraliza modelos desenvolvidos pelos tribunais. Ela cria um ambiente mínimo para integração, governança e auditoria, buscando harmonizar o uso da Inteligência Artificial em todo o sistema judicial brasileiro.
O dilema da fundamentação e a reprodução de desigualdades por algoritmos
Apesar da resolutividade alcançada, a Inteligência Artificial não pode sobrepor-se às exigências constitucionais. O artigo 93, inciso IX, da Constituição Federal impõe o dever de fundamentação das decisões judiciais. Quando um algoritmo influencia o julgador sem revelar seus critérios, pesos ou limites, essa fundamentação se fragiliza, transformando uma falha técnica em jurídica.
Pesquisas conduzidas por Danilo Doneda e Rafael Zanatta, da Fundação Getulio Vargas Direito São Paulo, revelaram em 2025 que modelos treinados com dados históricos do Judiciário tendem a reproduzir desigualdades decisórias. Isso é especialmente preocupante em matérias penal e previdenciária, onde o risco não decorre de intenção discriminatória, mas da lógica estatística que transforma padrões passados em recomendações futuras.
O problema se agrava com a disseminação de modelos de linguagem grande, os chamados LLMs, no ecossistema jurídico. Em 2026, corregedorias estaduais já lidam com "alucinações jurídicas", fenômeno onde petições automatizadas apresentam jurisprudência inexistente, confusão normativa e citações fabricadas. A incorporação indireta dessa tecnologia na dinâmica decisória afeta diretamente a segurança jurídica.
Regulamentação e a busca por segurança jurídica
O arcabouço regulatório brasileiro tem evoluído para mitigar esses riscos. A Resolução nº 332 de 2020 do CNJ estabeleceu fundamentos éticos, proibindo a substituição do magistrado por algoritmos na decisão de mérito e vedando a discriminação algorítmica. Essa medida reforça a centralidade humana no processo judicial.
Em 2025, a Resolução nº 615 do CNJ aprofundou essa diretriz ao disciplinar o uso de IA generativa no Judiciário. Ela exige governança baseada em risco, transparência, rastreabilidade e supervisão humana, garantindo que a tecnologia seja uma ferramenta de apoio, e não um substituto da cognição humana.
Este modelo regulatório brasileiro, focado na validade do ato jurisdicional e conectado ao devido processo legal, contraditório e fundamentação das decisões, difere do Regulamento Europeu de Inteligência Artificial (AI Act). Na União Europeia, o foco está na segurança do mercado e na proteção do consumidor, enquanto no Brasil a preocupação é com a integridade do processo judicial.
O Marco Legal da Inteligência Artificial, com texto base no Projeto de Lei nº 2338 de 2023, complementa essa arquitetura. Ele classifica os sistemas usados na Justiça como de alto risco, exigindo avaliações de impacto, auditorias regulares, direito à explicação e a manutenção da centralidade humana, reafirmando que a responsabilidade final permanece com juízes e servidores.
O futuro da Justiça: mais avaliação e responsabilidade
A resposta institucional para a Inteligência Artificial no Judiciário deve ir além da retórica. O CNJ precisa estruturar ambientes controlados de teste, conhecidos como "sandboxes regulatórios", para a avaliação da IA jurisdicional, permitindo um controle mais rigoroso antes da implementação em larga escala.
É crucial que relatórios de impacto algorítmico antecedam a homologação de qualquer sistema que interfira em atos decisórios. Além disso, a perícia algorítmica deve integrar o contraditório, possibilitando que as partes questionem tecnicamente a lógica e os resultados gerados pela máquina.
A Justiça não pode ser vista como uma linha de produção, nem o processo como um ativo a ser otimizado a qualquer custo. Em 2026, a Inteligência Artificial só será compatível com o Estado de direito se aceitar a prestação de contas. Onde não há explicação clara, não há decisão válida; onde não há responsabilidade, não há justiça.