Opinião
A 5ª Turma do Superior Tribunal de Justiça, no julgamento do HC 1.059.475/SP, suspendeu uma ação penal por crime de racismo cuja denúncia havia sido fundamentada em “laudo técnico” produzido pelas plataformas Gemini e Perplexity.
Freepik

A decisão do ministro Reynaldo Soares da Fonseca é inédita, relevante e, ao mesmo tempo, incompleta. Entenda por que isso vai definir se esse julgado se torna um marco ou uma armadilha para o processo penal brasileiro — e o que advogados precisam compreender antes de juntar qualquer prova digital ou peça elaborada com auxílio de IA nos autos.
O que o STJ acertou no HC 1.059.475
O ministro identificou com precisão que o caso não se enquadra na discussão corrente sobre a quebra de cadeia de custódia. Há algo estruturalmente diferente quando o output de um sistema de IA generativa substitui integralmente a perícia humana. Essa distinção importa porque cria uma categoria nova no direito probatório: não é falha no procedimento de coleta de prova legítima — é a ausência da própria prova pericial, como o ordenamento exige.
Os artigos 158-A, 158-B e 159 do Código de Processo Penal são claros. A perícia exige perito oficial, metodologia verificável, possibilidade de contraditório e responsabilidade jurídica de quem subscreve o laudo. O Gemini não presta compromisso. A Perplexity não pode ser inquirida. Nenhuma das duas responde por falso. Ao reconhecer isso, o STJ sinalizou que a questão não é tecnológica, e sim epistemológica.
Erro que ninguém está identificando
O ponto mais grave do HC 1.059.475 não está na decisão — está nos autos. O laudo de IA não apenas substituiu a perícia oficial, como também chegou a uma conclusão oposta à do Instituto de Criminalística. O IC afastou a imputação feita ao réu. A plataforma de IA “encontrou” o que o perito oficial não encontrou. E o Ministério Público ofereceu denúncia com base na versão da IA, sem fundamentar a contradição.
Esse é o erro mais grave do caso — e é um erro de análise crítica, não de processo. Qualquer operador do direito que utilize ferramentas de IA como elemento de convicção tem obrigação técnica de verificar se o output contradiz elementos já produzidos nos autos. A ausência dessa análise transforma o uso da IA em imprudência jurídica com consequências processuais diretas.
O que a decisão não disse. E que fragiliza o precedente
Há um pressuposto técnico implícito na fundamentação do HC 1.059.475 que precisa ser questionado: não há meio técnico robusto e cientificamente validado para identificar com certeza se um documento foi gerado exclusivamente por inteligência artificial. As ferramentas de detecção de IA — GPTZero, Originality.ai e similares — apresentam taxas significativas de falsos positivos e falsos negativos, sem validade científica consolidada para uso judicial.
Spacca

Se o raciocínio for lido como “identificamos que era IA e, por isso, invalidamos”, abre-se o argumento inverso: “neste caso, não há como detectar; logo, a prova é válida.” Ou seja, se um tribunal invalida uma prova dizendo implicitamente “sabemos que isso foi feito por IA” — esse raciocínio é tecnicamente indefensável, porque não existe ferramenta capaz de comprovar isso com segurança.
Mas o risco está do outro lado: a mesma fragilidade técnica pode ser usada pela parte contrária para defender uma prova. Por exemplo, o advogado diz: “vocês não conseguem provar que isso foi feito por IA, então é válido.” E, tecnicamente, ele estaria certo pelo mesmo argumento.
Por isso, a decisão do STJ no HC 1.059.475 precisaria ter blindado esse flanco: o problema não é detectar ou não a IA — é que o documento não atende aos requisitos legais de validade pericial, independentemente de como foi produzido.
Isto vale tanto para peças elaboradas pelas partes quanto para decisões dos magistrados. O critério correto não é a origem tecnológica. É a ausência dos requisitos legais de validade da prova pericial — e essa fundamentação, no HC 1.059.475, poderia ter sido mais precisa.
O que advogados precisam observar a partir de agora
O julgamento de mérito do HC 1.059.475/SP tem potencial para se tornar um leading case. Enquanto ele não vem, há requisitos que já decorrem do ordenamento vigente e que qualquer advogado deve observar ao juntar provas digitais ou peças com auxílio de IA nos autos:
Identificação da ferramenta e da versão. Documento produzido com auxílio de IA, sem identificação da ferramenta, da versão utilizada e da data de uso, não possui metodologia verificável. Modelos são atualizados continuamente — o mesmo prompt pode gerar resultados diferentes em versões distintas. Sem esse registro, a reprodutibilidade é impossível e o contraditório efetivo torna-se inviável.
Distinção entre IA assistida e IA substitutiva. Perito que usa IA como ferramenta declara o processo, assina o laudo com responsabilidade integral e produz prova válida. Output de IA apresentado diretamente como laudo ou fundamento técnico, sem responsável identificado, não é prova pericial — é output de software. Essa linha será o centro do debate sobre o mérito do HC 1.059.475.
Confronto obrigatório com outros elementos técnicos. Antes de juntar qualquer análise produzida com auxílio de IA, o advogado deve verificar ativamente se há outros laudos ou perícias sobre o mesmo objeto. Se houver divergência, a contradição precisa ser enfrentada — não ignorada. O HC 1.059.475 é o exemplo mais claro do que acontece quando essa etapa é omitida.
Cadeia de custódia do objeto submetido à IA. O arquivo ou conteúdo submetido à ferramenta deve ter sua integridade verificável — com um hash calculado antes e após o processamento. O prompt utilizado deve ser registrado. O output integral deve ser preservado, não apenas o trecho selecionado. Sem esses elementos, a parte contrária tem fundamento sólido para impugnar a admissibilidade da prova.
Declaração das limitações. Toda análise produzida com IA tem limitações técnicas conhecidas. Omiti-las do laudo ou da peça não as elimina — apenas suprime informação relevante ao julgador e expõe o documento à impugnação por excesso de afirmação.
O que vem pela frente
O mérito do HC 1.059.475/SP forçará o STJ a responder perguntas mais difíceis: quais são os requisitos mínimos para o uso de IA como instrumento auxiliar de perícia? Como garantir o contraditório diante de um sistema cujo funcionamento interno não é auditável? Qual o peso probatório de análises produzidas por modelos que variam seus resultados a cada consulta?
Essas respostas não estarão apenas nos autos. Exigem que o debate jurídico absorva o que a forense digital já sabe e que os advogados deixem de tratar a inteligência artificial como um recurso neutro. A IA é uma ferramenta com capacidades específicas, limitações documentadas e riscos que precisam ser gerenciados com rigor metodológico antes de qualquer juntada aos autos.
O STJ deu o primeiro passo no HC 1.059.475. A responsabilidade de dar o segundo é dos advogados que lidam com provas digitais com o suporte da IA.
A recente decisão do STJ apontando erros no uso da Inteligência Artificial como auxiliar de perícia levanta questões importantes sobre a utilização dessa tecnologia em serviços públicos. Como servidor público há mais de 16 anos, entendo a importância de utilizar ferramentas modernas para otimizar processos, porém, é fundamental garantir que essas tecnologias sejam utilizadas de forma correta e responsável. É imprescindível refletirmos sobre como podemos aproveitar o melhor das inovações tecnológicas sem comprometer a qualidade e a imparcialidade dos serviços prestados à sociedade. Cabe a cada um de nós, profissionais do setor público, buscar sempre aprimorar nossas práticas e garantir que estejamos oferecendo o melhor serviço possível para obter resultados cada vez mais eficientes e transparentes.

