É inquestionável que a inteligência artificial vem ganhando cada vez mais espaço como mecanismo auxiliar do desenvolvimento de tarefas cotidianas, inclusive no âmbito forense, em que observamos a utilização dessas ferramentas para otimização dos atos repetitivos em matéria administrativa e processual.
Reprodução
Apesar do aparente progresso representado pela ampla disseminação desses mecanismos, é igualmente certo que o atual estágio de desenvolvimento das ferramentas de IA generativas não permite a abdicação de supervisão humana, especialmente diante da insegurança havida pela falta de controle das fontes utilizadas e, consequentemente, da possibilidade de alucinação dos resultados apresentados.
Nesse contexto, sabemos que o controle da operacionalização dessas ferramentas em largo espectro é uma das maiores preocupações da comunidade internacional, que se organiza na edição de normativas voltadas à ao controle de sua fabricação, circulação e implementação, inclusive de forma a evitar que sejam utilizadas como meio auxiliar de governos totalitários, de circulação de informações falsas e preconceituosas, de forma a representar um perigo aos direitos e garantias fundamentais.
Regulação na Europa
A nível europeu, a principal normativa existente é o regulamento do Parlamento Europeu nº 2024/ 1689, que adota um sistema de classificação de inteligência artificial baseado em riscos. Como modelos de risco elevado, a normativa identifica aqueles que representam um potencial impacto nos direitos fundamentais, na segurança e no bem estar dos cidadãos.
Para o debate que aqui nos compete, é importante destacar que o considerando número 59 desse mesmo regulamento que o uso de certos mecanismos de inteligência artificial por autoridades “pode causar um desequilíbrio significativo de poder e pode resultar na vigilância, detenção ou privação de liberdade de uma pessoa física, bem como ter outros efeitos negativos sobre direitos fundamentais, como o direito à proteção judicial efetiva e a um julgamento imparcial, especialmente quando tais sistemas de IA não são suficientemente transparentes e explicáveis ou suficientemente bem documentados”.
Da mesma sorte, o considerando 60 da normativa prevê que a utilização desses métodos não pode se tornar um instrumento de desigualdade, especialmente para dificultar a obtenção de informação sobre esses sistemas ou a impugnação de sua utilização dentro dos próprios tribunais.
Justamente por isso, é que o regulamento do Parlamento Europeu nº 2024/ 1689 classifica diretamente como de risco elevado os mecanismos utilizados “para a administração da justiça ou para auxiliar as autoridades judiciais na investigação e interpretação dos fatos e da lei”.
Spacca
Assim, dentro da lógica do regulamento 1689, a indicação de um mecanismo como de risco elevado tem como consequência a tomada de diversas medidas de segurança e transparência por parte dos desenvolvedores e implementadores, inclusive através do desenvolvimento de uma avaliação prévia de impacto sobre o direito e as garantias fundamentais dos cidadãos.
Realidade brasileira
Apesar de no Brasil não possuirmos uma legislação nacional voltada à regulamentação de ferramentas de inteligência artificial — sejam elas gerais ou de uso restrito —, a realidade brasileira caminha no mesmo sentido, à medida em que o projeto de lei nº 2338/2023 (atualmente em tramitação) também classifica como de alto risco aqueles utilizados para a “administração da justiça, no que se refere à utilização de sistemas que auxiliem as autoridades judiciárias na investigação dos factos e na aplicação da lei quando exista risco para as liberdades individuais e para o Estado Democrático de Direito, excluindo-se os sistemas que auxiliem os atos e actividades administrativas”.
Pois bem.
O problema é que, ao analisarmos o cotidiano forense dos tribunais brasileiros e, em especial, dos tribunais superiores, identifica-se um cenário em que ferramentas nessas exatas condições são atualmente utilizadas como auxiliares do desenvolvimento de decisões judiciais, ou, como descrito no próprio site do Superior Tribunal de Justiça, como “aceleradores na análise e na elaboração de documentos” sem a menor transparência sobre as os vetores utilizados para a filtragem e análise recursal.
A heterogeneidade da implementação de mecanismos de inteligência artificial nos tribunais brasileiros já é acompanhada por institutos e universidades, mas, especificamente quanto a uma delas, qual seja, o recém implantado STJ Logos, relevante é destacar que se trata de um mecanismo desenvolvido de dentro para fora, ou seja, dentro do próprio STJ, que não só permite a elaboração de relatórios e resumos processuais, como também oferece a oportunidade de o usuário consultar um chat de amplo aspecto, questionar a existência de determinadas teses no recurso interposto e apontar eventuais precedentes aplicáveis ao caso.
Trata-se, portanto, de um instrumento claramente amplificador da jurisprudência defensiva (comportamento que por si só já representa um comprometimento do acesso à Justiça), ainda mais agora, operacionalizado de forma automatizada e às escuras, sem qualquer transparência sobre os vetores analíticos ou palavras-chave sob as quais essa filtragem argumentativa é utilizada. Mais do que isso, é possível se questionar, inclusive, a (in)compatibilidade da utilização dessa ferramenta com a ampla defesa e o princípio da paridade de armas, à medida que a leitura principal dos elementos constantes dos autos será feita por uma máquina e sendo que o recorrente naturalmente não dispõe de um arsenal ou mecanismo artificial equivalente para filtrar ou desenvolver argumentos a serem apresentados, sobretudo em relação aos requisitos de admissibilidade.
Nessas condições, nem é possível se dizer que tal descompasso seria anulado por se tratar de uma questão de escolha pela utilização de IA, uma vez que sequer se conhece a arquitetura do mecanismo para se desenvolver algo próximo ou equivalente.
Homem x máquina
Em outras palavras, a situação que enfrentamos hoje nos tribunais é literalmente de homem x máquina, sendo a priori tolhida a possibilidade de as partes apresentarem seus argumentos de maneira igualitária, uma vez que a parte recorrente, necessariamente, sempre estará em desvantagem discursiva.
Tal disparidade tampouco é sanada pela recente aprovação da Resolução nº 615/ 2025 pelo CNJ, que, surpreendentemente e à revelia das proposições nacionais e internacionais, delega aos próprios tribunais a responsabilidade pela classificação dos riscos, ou seja, dá ao próprio implementador a escolha pela necessidade ou não de tomada de mecanismos de proteção e transparência adicionais.
Todo esse contexto nos explicita que já é passada a hora de revisitarmos esse obsoleto conceito de eficiência processual focada em números quantitativos (que desconsidera a axiologia e principiologia constitucional secularmente consagrada) para adotarmos uma ideia fundamentada em parâmetros qualitativos sobre a fundamentação jurisdicional apresentada.
Mais do que isso, de maneira urgente, é necessário que esses instrumentos “auxiliares” sejam desde logo classificados de maneira condizente com o risco que representam e, por decorrência, que a sua implementação seja supervisionada pela sociedade de maneira adequada, inclusive de forma a atender as determinações internacionais a respeito da matéria.

