Pular para o conteúdo

Como a Inteligência Artificial acelera processos, mas necessita de avaliações adequadas

Banner Aleatório


Opinião

Banner Aleatório

O Judiciário brasileiro tornou-se referência internacional no uso de inteligência artificial. Levantamentos do Conselho Nacional de Justiça indicam que mais de 45% dos tribunais já utilizavam ferramentas baseadas em inteligência artificial em 2025, muitas delas com componentes generativos. A adoção responde a um sistema sobrecarregado, com mais de 80 milhões de processos em tramitação, e a ganhos concretos de capacidade de resposta.

No Supremo Tribunal Federal, o Victor 2.0, integrado ao Projeto Corpus e à Plataforma Digital do Poder Judiciário (PDPJ), reduziu em 42% o tempo médio de triagem de recursos no segundo semestre de 2025. No Superior Tribunal de Justiça, o sistema Sócrates ocupa papel ainda mais sensível.

Ele se consolidou como pilar do chamado “Tribunal da Cidadania”, ao sustentar tecnicamente o filtro de relevância, tema central do debate institucional em 2026. A ferramenta consegue agrupar processos semelhantes em um universo de 100 mil casos em menos de 15 minutos e realizar buscas em cerca de 8 milhões de peças processuais em pouco mais de 20 segundos, influenciando diretamente a seleção do que será ou não apreciado pela Corte.

Tribunais estaduais aceleram processos

Outros exemplos reforçam esse cenário. O Poti, no Tribunal de Justiça do Rio Grande do Norte, acelerou a triagem de execuções fiscais repetitivas. O Bernoulli, no Tribunal de Justiça de Minas Gerais, passou a apoiar a identificação de temas de repercussão geral e recursos repetitivos. Em nível nacional, a plataforma Sinapses, coordenada pelo CNJ, centraliza modelos desenvolvidos pelos tribunais e cria um ambiente mínimo de integração, governança e auditoria.

A resolutividade alcançada por esses sistemas, contudo, não pode eclipsar exigências constitucionais básicas. O artigo 93, inciso IX, da Constituição impõe o dever de fundamentação das decisões judiciais. Quando um algoritmo influencia o convencimento do julgador sem revelar critérios, pesos ou limites, a fundamentação se fragiliza. Nesse ponto, a falha deixa de ser técnica e passa a ser jurídica.

Spacca

opiniao

Pesquisas conduzidas por Danilo Doneda e Rafael Zanatta, na Fundação Getulio Vargas Direito São Paulo, demonstraram em 2025 que modelos treinados com dados históricos do Judiciário tendem a reproduzir desigualdades decisórias, sobretudo em matéria penal e previdenciária. O risco não decorre de intenção discriminatória, mas da lógica estatística que transforma padrões passados em recomendações futuras.

Sem explicação auditável, a decisão perde validade constitucional

O problema se agrava com a disseminação de modelos de linguagem grande, conhecidos como LLMs no ecossistema jurídico. Em 2026, corregedorias estaduais já lidam com petições automatizadas que apresentam jurisprudência inexistente, confusão normativa e citações fabricadas, fenômeno conhecido como alucinação jurídica. Quando esse tipo de tecnologia é incorporado, ainda que de forma indireta, à dinâmica decisória, a segurança jurídica é afetada.

O arcabouço regulatório brasileiro evoluiu para enfrentar esse risco a partir da lógica do rito processual. A Resolução nº 332 de 2020 do CNJ estabeleceu os fundamentos éticos, proibindo a substituição do magistrado por algoritmos na decisão de mérito e vedando discriminação algorítmica. Em 2025, a Resolução nº 615 do CNJ aprofundou esse caminho ao disciplinar o uso de IA generativa no Judiciário, com governança baseada em risco, exigência de transparência, rastreabilidade e supervisão humana.

Esse modelo difere, em natureza e finalidade, do Regulamento Europeu de Inteligência Artificial (AI Act). Na União Europeia, o foco do regulamento está na segurança do mercado, na proteção do consumidor e na circulação de sistemas de alto risco. No Brasil, as resoluções do CNJ operam diretamente sobre a validade do ato jurisdicional, conectando tecnologia ao devido processo legal, ao contraditório e à fundamentação das decisões. A distinção é relevante e revela uma escolha institucional.

Avaliações e auditorias para sistemas de IA utilizados

O Marco Legal da Inteligência Artificial, cujo texto base é o Projeto de Lei nº 2338 de 2023, dialoga com essa arquitetura. Ao classificar sistemas usados na Justiça como de alto risco, o projeto exige avaliações de impacto, auditorias regulares, direito à explicação e centralidade humana. A tecnologia atua como apoio técnico. A responsabilidade permanece com juízes e servidores.

A resposta institucional precisa ir além da retórica. O CNJ deve estruturar ambientes controlados de teste, conhecidos como sandboxes regulatórios, para a avaliação de IA jurisdicional. Relatórios de impacto algorítmico precisam anteceder à homologação de qualquer sistema que interfira em atos decisórios. A perícia algorítmica deve integrar o contraditório, permitindo que as partes questionem tecnicamente a lógica da máquina.

A Justiça não é linha de produção. O processo não é ativo a ser otimizado a qualquer custo. Em 2026, a inteligência artificial só será compatível com o Estado de direito se aceitar prestação de contas. Onde não há explicação, não há decisão válida. Onde não há responsabilidade, não há justiça.

Os sistemas de inteligência artificial estão cada vez mais presentes em nosso cotidiano, acelerando processos e facilitando diversas tarefas. No entanto, é importante ressaltar a importância das avaliações constantes desses sistemas, garantindo sua eficácia e confiabilidade.

Como servidor público há mais de 16 anos, tenho acompanhado de perto o avanço da tecnologia e a incorporação da IA em diversos setores. É inegável o potencial desses sistemas para melhorar nossa sociedade e obter uma melhor qualidade de vida.

Por isso, é fundamental que sejam realizadas avaliações regulares para garantir que os sistemas de IA estejam de fato cumprindo seu propósito e não gerando impactos negativos. A transparência e a ética são essenciais nesse processo, garantindo a confiabilidade e a segurança dos dados e processos automatizados.

Portanto, devemos estar atentos e participar ativamente desse processo de avaliação, buscando sempre o melhor proveito da inteligência artificial para o bem comum. Afinal, a tecnologia só será verdadeiramente útil se estiver a serviço da sociedade e contribuindo para um mundo mais justo e eficiente.

Créditos Para a Fonte Original

Join the conversation

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *