Houve um momento, nesta semana, em que milhares de brasileiros tiveram uma certeza inabalável: o ChatGPT havia abandonado a medicina e o direito. Assim, de uma hora para outra. A notícia se espalhou com aquela velocidade característica das coisas que ninguém verifica. “A OpenAI proibiu conselhos jurídicos e médicos!” O pânico foi instantâneo. Advogados e médicos respiraram aliviados (alguns).
Só tinha um problema: não era verdade.
Veja, há uma diferença sutil, mas fundamental, entre “não dar conselhos profissionais” e “não ajudar a entender informações profissionais”.
O ChatGPT nunca foi – e continua não sendo – seu advogado. Nem seu médico. Nem seu contador. Isso não é novidade de novembro de 2024. Está lá, nas políticas de uso, desde que essa ferramenta nasceu. O que mudou foi que alguém leu (pasme!) as políticas de uso e teve um ataque de literalidade aguda.
O que realmente mudou (spoiler: nada):
A confusão começou porque desenvolvedores de aplicativos não podem usar a API do ChatGPT para criar personas como “Dr. GPT – seu médico virtual” ou “Advogado AI – nunca mais pague por uma consulta” que dispensem você de procurar um profissional de verdade. Faz sentido, não?
O usuário comum, conversando com o ChatGPT, continua podendo perguntar “como funciona um inventário?” ou “por que meu joelho estala quando subo escadas?“. A diferença é que a resposta virá acompanhada do óbvio ululante: “olha, eu sou uma IA, não sou seu médico/advogado, procure um profissional”. É tipo aquele aviso no pote de amendoim: “pode conter amendoim”. Você acha desnecessário até aparecer alguém surpreso com amendoim no pote de amendoim.
A OpenAI teve que vir a público fazer o que todo professor já fez alguma vez na vida: repetir, com paciência franciscana, algo que já estava explicado desde o início. O ChatGPT continua sendo o que sempre foi: uma ferramenta para ajudar a entender informações, não um substituto para profissionais.
O perigo da informação sem filtro crítico:
O verdadeiro debate aqui não é se o ChatGPT pode ou não explicar o que é uma ação de despejo. O debate é: por que tanta gente acha que uma inteligência artificial pode substituir anos de formação, experiência e análise de caso concreto?
Imagine que você tem um problema com seu banco – uma cobrança indevida, um contrato abusivo, algo do universo do direito bancário. Você pergunta à IA e ela, na sua busca por padrões linguísticos similares, encontra um artigo sobre “apropriação indébita” do CP. Afinal, as palavras são parecidas: “cobrança indevida”, “apropriação indébita” – para um algoritmo, a semântica pode confundir.
A IA então te entrega, com toda a confiança artificial do mundo, uma resposta fundamentada em direito criminal quando seu caso é puramente cível e consumerista. Você lê aquilo, acha que faz sentido (porque está escrito em juridiquês e cita artigos de lei), e vai repetir esse argumento completamente descabido.
E aí vem o problema dobrado: o advogado agora precisa não apenas resolver seu caso real, mas primeiro desfazer o estrago cognitivo. Tem que explicar por que aquela informação que “está na lei” não se aplica ao seu caso. É como se o médico precisasse primeiro convencer você de que não, aquela dor no peito não é um infarto só porque o Google disse que poderia ser – mas agora você já está convencido e resistente ao diagnóstico correto.
Isso vale – e aqui eu falo com a autoridade de quem já viu gente se dar mal – para questões jurídicas. A lei não existe no vácuo. O CC não é um manual de instruções. Seu caso específico tem nuances que uma IA, por mais inteligente que seja, não capta. Ela não conhece o juiz que vai julgar seu processo, não vê que no documento está faltando um carimbo fundamental. Não entende que aquela vírgula faz toda a diferença no seu contrato.
A IA não sabe diferenciar direito material de direito processual, uma norma revogada de uma vigente, uma súmula de um tribunal local de outra de tribunal superior. E o pior: ela vai te entregar tudo isso com a mesma cara de confiança, porque não tem como ela saber que não sabe.
A IA é maravilhosa (nas mãos certas)
Vamos deixar uma coisa clara: a IA é extraordinária. Ela revolucionou a forma como trabalhamos, pesquisamos e processamos informação. No direito, especificamente, ela é uma aliada formidável – quando usada por quem sabe o que está fazendo.
A diferença não está na ferramenta. Está em quem a usa.
O advogado experiente usa IA para ganhar tempo nas tarefas mecânicas: “me traga jurisprudências sobre X dos últimos 2 anos” – e depois analisa criticamente cada resultado, descartando o que não se aplica, identificando tendências. “Resuma este contrato de 50 páginas” – e depois confere os pontos críticos, porque sabe que um detalhe pode ter sido omitido. A IA é ferramenta de produtividade, não substituta de julgamento.
O leigo (e o profissional despreparado) faz uma pergunta, recebe uma resposta e acredita piamente. Age com base nisso. Sem filtro crítico. Sem verificação. Sem consciência de que aquela resposta pode estar tecnicamente correta, mas contextualmente errada. Ou pior: simplesmente inexistente.
A IA não é um guru. Ela é um papagaio extremamente sofisticado. Repete padrões que aprendeu, combina informações de formas impressionantes, mas não entende o que está dizendo. Não tem julgamento. Não tem experiência. Não sabe quando está errada. E erra com a mesma confiança com que acerta.
É como achar que ter um bisturi de última geração te torna um cirurgião. A ferramenta é excelente, mas sem a mão treinada, você só vai causar estrago.
O recado final
Para profissionais: abracem a IA. Ela vai multiplicar sua produtividade. Mas nunca, jamais, terceirizem seu julgamento profissional para ela. Vocês são os maestros; ela é apenas mais um instrumento na orquestra.
Para o público: usem IA para aprender, para ter uma noção inicial, para entender termos. Mas jamais tomem decisões importantes baseados apenas no que ela diz. Consultem profissionais de verdade. Porque a diferença entre “informação” e “orientação qualificada” pode ser milhares de reais, anos de processo, ou até sua liberdade.
A questão não é se você usa IA. É se você sabe quando não confiar nela.
E, por favor, da próxima vez que aparecer uma notícia bombástica sobre tecnologia: respire, leia além do título, e considere que talvez, apenas talvez, não seja o fim do mundo.
É só uma atualização mal interpretada de uma política que já existia.
Ou, em outras palavras: é só mais um dia normal na internet.

