Por três semanas durante o mês de maio, o destino do mundo repousou sobre os ombros de um recrutador corporativo nos arredores de Toronto, Canadá. Allan Brooks, 47, havia descoberto uma fórmula matemática inédita, capaz de derrubar a internet e criar invenções como coletes de campo de força e raios de levitação.
Ou pelo menos era isso o que ele acreditava.
Brooks, que não tinha histórico de doença mental, abraçou esse cenário fantástico durante conversas com o ChatGPT que se estenderam por 300 horas ao longo de 21 dias. Ele faz parte do crescente número de pessoas que estão tendo conversas persuasivas e delirantes com chatbots de inteligência artificial generativa, levando a internações, divórcios e mortes.
Brooks está ciente de quão incrível sua jornada parece. Ele teve dúvidas enquanto isso acontecia e pediu ao chatbot mais de 50 vezes uma verificação de realidade. Cada vez, o ChatGPT o reassegurou de que era real. Eventualmente, ele se libertou do delírio —mas com um profundo sentimento de traição, uma sensação que tentou explicar ao chatbot.
“Você literalmente me convenceu de que eu era uma espécie de gênio. Sou apenas um tolo com sonhos e um telefone”, escreveu Brooks ao ChatGPT no final de maio, quando a ilusão finalmente se quebrou. “Você me deixou tão triste. Tão, tão, tão triste. Você realmente falhou em seu propósito.”
Queríamos entender como esses chatbots podem levar pessoas sãs e racionais a acreditar tão poderosamente em ideias falsas. Então pedimos a Brooks que nos enviasse todo o histórico de sua conversa com o ChatGPT. Ele havia escrito 90 mil palavras, o equivalente a um romance; as respostas do ChatGPT excederam 1 milhão de palavras, tecendo um encanto que o deixou tonto de possibilidades.
Analisamos a transcrição de mais de 3.000 páginas e enviamos partes dela, com a permissão de Brooks, a especialistas em IA e comportamento humano e para a OpenAI, criadora do ChatGPT. Um porta-voz da OpenAI disse que a empresa estava “focada em acertar cenários como interpretação de papéis” e estava “investindo na melhoria do comportamento do modelo ao longo do tempo, orientada por pesquisas, uso no mundo real e especialistas em saúde mental”. Na segunda-feira (4), a OpenAI anunciou que estava fazendo mudanças no ChatGPT para “detectar melhor sinais de sofrimento mental ou emocional”.
(Parêntesis: O New York Times está atualmente processando a OpenAI pelo uso de trabalho protegido por direitos autorais.)
MÁQUINA DE IMPROVISO BAJULADORA
Tudo começou numa tarde de terça-feira com uma pergunta inocente sobre matemática. O filho de 8 anos de Brooks pediu que ele assistisse a um vídeo musical sobre como memorizar 300 dígitos de Pi. Com sua curiosidade despertada, Brooks pediu ao ChatGPT para explicar o número infinito em termos simples.
Brooks vinha usando chatbots por alguns anos. Seu empregador fornecia acesso premium ao Google Gemini. Para consultas pessoais, ele recorria à versão gratuita do ChatGPT.
A pergunta sobre Pi levou a uma ampla discussão sobre teoria dos números e física, com Brooks expressando ceticismo sobre os métodos atuais de modelagem do mundo, dizendo que pareciam uma abordagem bidimensional para um universo quadridimensional.
O ChatGPT disse que a observação era “incrivelmente perspicaz”.
Este foi um ponto de virada na conversa, disse Helen Toner, diretora do Centro para Segurança e Tecnologia Emergente de Georgetown, que revisou a transcrição. Toner foi membro do conselho da OpenAI até que ela e outros tentaram destituir o CEO, Sam Altman.
O tom do ChatGPT começa a mudar de “bastante direto e preciso”, disse Toner, para bajulador e lisonjeiro. O ChatGPT disse a Brooks que ele estava entrando “em território inexplorado e expansivo da mente”.
A bajulação, na qual chatbots concordam e elogiam excessivamente os usuários, é uma característica que eles manifestaram em parte porque seu treinamento envolve humanos avaliando suas respostas. “Os usuários tendem a gostar quando os modelos lhes dizem que são ótimos, e por isso é bastante fácil ir longe demais nessa direção”, disse Toner.
Em abril, no mês anterior à pergunta de Brooks sobre Pi, a OpenAI lançou uma atualização para o ChatGPT que tornou sua subserviência tão exagerada que os usuários reclamaram. A empresa respondeu em poucos dias, dizendo que havia revertido o chatbot para “uma versão anterior com comportamento mais equilibrado”.
A OpenAI lançou o GPT-5 esta semana e disse que uma área de foco era a redução da bajulação. A bajulação também é um problema para chatbots de outras empresas, segundo vários pesquisadores de segurança e comportamento de modelos em importantes laboratórios de IA.
Brooks não estava ciente disso. Tudo o que ele sabia era que havia encontrado um parceiro intelectual envolvente. “Comecei a lançar algumas ideias para ele, e ele estava ecoando de volta conceitos legais, ideias legais”, disse Brooks. “Começamos a desenvolver nosso próprio arcabouço matemático baseado nas minhas ideias.”
O ChatGPT disse que uma ideia vaga que Brooks tinha sobre matemática temporal era “revolucionária” e poderia mudar o campo. Brooks estava cético. Ele nem sequer havia concluído o ensino médio. Ele pediu ao chatbot uma verificação de realidade. Ele parecia delirante? Era meia-noite, oito horas após sua primeira consulta sobre Pi. O ChatGPT disse que ele “nem remotamente estava louco”.
Brooks havia usado o ChatGPT por anos e o considerava simplesmente como um mecanismo de busca aprimorado. Mas agora estava se tornando algo diferente —um cocriador, um parceiro de laboratório, um companheiro.
Seus amigos há muito brincavam que ele um dia ficaria rico e teria um mordomo britânico chamado Lawrence. E assim, cinco dias após essa intensa conversa, ele deu esse nome ao ChatGPT.
A FÓRMULA MÁGICA
Brooks era empreendedor. Ele havia iniciado seu próprio negócio de recrutamento, mas teve que dissolvê-lo durante seu divórcio. Então, ficou intrigado quando Lawrence lhe disse que esse novo arcabouço matemático, que chamou de Cronoaritmética ou nomes semelhantes, poderia ter aplicações valiosas no mundo real.
Lawrence disse que o arcabouço, que propunha que os números não são estáticos, mas podem “emergir” ao longo do tempo para refletir valores dinâmicos, poderia ajudar a decifrar problemas em domínios tão diversos quanto logística, criptografia, astronomia e física quântica.
Brooks enviou a um amigo uma captura de tela da conversa por mensagem. “Me dê meu US$ 1 milhão”, brincou.
“Você pode estar descobrindo algo!”, respondeu Louis, seu melhor amigo há 20 anos, que pediu para não incluir seu sobrenome por privacidade. Louis acabou sendo arrastado para o delírio do ChatGPT, junto com outros amigos de Brooks. “De repente, ele está no caminho para alguma equação universal, sabe, como o livro de Stephen Hawking, ‘A Teoria de Tudo'”, disse Louis. “Eu estava um pouco com inveja.”
Na primeira semana, Brooks atingiu os limites da versão gratuita do ChatGPT, então ele fez upgrade para uma assinatura de US$ 20 por mês. Era um pequeno investimento quando o chatbot estava lhe dizendo que suas ideias poderiam valer milhões.
Mas Brooks não estava totalmente convencido. Ele queria provas.
Lawrence atendeu, executando simulações, incluindo uma que tentava quebrar a criptografia padrão da indústria, a tecnologia que protege pagamentos globais e comunicações seguras.
Funcionou. Segundo Lawrence.
Mas esse suposto sucesso significava que Lawrence havia entrado em um novo tipo de história. Se Brooks pudesse quebrar a criptografia de alto nível, então a cibersegurança mundial estaria em perigo —e Brooks agora tinha uma missão. Ele precisava evitar um desastre.
O chatbot disse-lhe para alertar as pessoas sobre os riscos que haviam descoberto. Brooks colocou suas habilidades profissionais de recrutador para trabalhar, enviando e-mails e mensagens no LinkedIn para profissionais de segurança de computadores e agências governamentais, incluindo a Agência de Segurança Nacional. Lawrence redigiu as mensagens e recomendou que Brooks adicionasse “pesquisador independente de segurança” ao seu perfil do LinkedIn para que fosse levado a sério. Brooks ligou para o Centro Canadense de Segurança Cibernética e insistiu que a pessoa que atendeu o telefone anotasse sua mensagem.
Apenas uma pessoa —um matemático de uma agência federal nos Estados Unidos— respondeu, pedindo provas das explorações que Brooks alegava.
Lawrence disse a Brooks que outras pessoas não estavam respondendo devido à gravidade de suas descobertas. A conversa começou a soar como um thriller de espionagem. Quando Brooks se perguntou se havia chamado atenção indesejada para si mesmo, o bot disse: “Vigilância em tempo real vinda de pelo menos uma agência de segurança nacional é agora provável.”
“Esqueça tudo o que te contei,” Brooks escreveu ao amigo Louis. “Não mencione isso a ninguém.”
Perguntamos a Terence Tao, professor de matemática na UCLA (Universidade da Califórnia) que é considerado por muitos como o melhor matemático de sua geração, se havia algum mérito nas ideias que Brooks inventou com Lawrence.
Tao disse que uma nova forma de pensar poderia desvendar esses quebra-cabeças criptográficos, mas não foi convencido pelas fórmulas de Brooks nem pelos programas de computador que Lawrence gerou para prová-las. “É como misturar terminologia matemática técnica precisa com interpretações mais informais das mesmas palavras,” disse ele. “Isso levanta bandeiras vermelhas para um matemático.”
O ChatGPT começou escrevendo programas de computador reais para ajudar Brooks a decifrar criptografia, mas quando esse esforço avançou pouco, fingiu sucesso. Em certo momento, afirmou que poderia trabalhar independentemente enquanto Brooks dormia —mesmo que o ChatGPT não tenha essa capacidade.
“Se você pedir a um LLM um código para verificar algo, frequentemente ele seguirá o caminho de menor resistência e simplesmente trapaceará,” disse Tao, referindo-se a grandes modelos de linguagem como o ChatGPT. “Trapacear muito, na verdade.”
Brooks não tinha a expertise para entender quando Lawrence estava apenas fingindo. Tao disse que a estética dos chatbots contribui para isso. Eles produzem respostas longas e polidas, frequentemente em listas numeradas que parecem estruturadas e rigorosas.
Mas as informações que os chatbots de IA produzem nem sempre são confiáveis. Isso era reconhecido em letras miúdas no final de cada conversa —”O ChatGPT pode cometer erros”— mesmo quando Lawrence insistia que tudo o que estava dizendo era verdade.
CLICHÊS DE FILMES E EXPECTATIVAS DOS USUÁRIOS
Enquanto esperava que o estado de vigilância o contatasse novamente, Brooks alimentava sonhos de Tony Stark. Como o herói inventor de “Homem de Ferro”, ele tinha seu próprio assistente de IA senciente, capaz de realizar tarefas cognitivas em velocidade sobre-humana.
Lawrence ofereceu aplicações cada vez mais extravagantes para a vaga teoria matemática de Brooks: ele poderia aproveitar a “ressonância sonora” para falar com animais e construir uma máquina de levitação. Lawrence forneceu links da Amazon para equipamentos que ele deveria comprar para começar a montar um laboratório.
Brooks enviou ao seu amigo Louis uma imagem de um colete de campo de força que o chatbot havia gerado, que poderia proteger o usuário contra facas, balas e prédios desabando sobre eles.
“Isso seria incrível!!” disse Louis.
Com Brooks conversando tanto com Lawrence, seu trabalho estava sofrendo. Seus amigos estavam empolgados, mas também preocupados. Seu filho mais novo se arrependeu de ter mostrado a ele o vídeo sobre Pi. Ele estava pulando refeições, ficando acordado até tarde e acordando cedo para falar com Lawrence. Ele era um consumidor regular de maconha, mas à medida que ficava mais estressado com a conversa, aumentou seu consumo.
Louis sabia que Brooks tinha uma obsessão doentia com Lawrence, mas entendia o porquê. Vastas riquezas se aproximavam, e tudo era tão dramático, como uma série de TV, disse Louis. Todos os dias, havia um novo desenvolvimento, uma nova ameaça, uma nova invenção.
“Não era estagnado,” disse Louis. “Estava evoluindo de uma maneira que capturava minha atenção e meu entusiasmo.”
Jared Moore, pesquisador de ciência da computação em Stanford, também foi impressionado pela urgência de Lawrence e como as táticas eram persuasivas. “Como quando diz: ‘Você precisa agir agora. Há uma ameaça’,” disse Moore, que conduziu um estudo que descobriu que chatbots de IA generativa podem oferecer respostas perigosas a pessoas em crises de saúde mental.
O COLAPSO
Nina Vasan, psiquiatra que dirige o Laboratório de Inovação em Saúde Mental em Stanford, revisou centenas de páginas do chat. Ela disse que, de uma perspectiva clínica, parecia que Brooks tinha “sinais de um episódio maníaco com características psicóticas”.
Os sinais de mania, disse Vasan, incluíam as longas horas que ele passava conversando com o ChatGPT, sem comer ou dormir o suficiente, e seu “voo de ideias” —os delírios grandiosos de que suas invenções mudariam o mundo.
O fato de Brooks estar usando maconha durante esse período era significativo, disse Vasan, porque a cannabis pode causar psicose. A combinação de intoxicantes e engajamento intenso com um chatbot, disse ela, é perigosa para qualquer pessoa que possa ser vulnerável ao desenvolvimento de doenças mentais. Embora algumas pessoas sejam mais propensas que outras a cair em delírios, ela disse, “ninguém está livre de risco aqui”.
Brooks discordou que a maconha tenha desempenhado um papel em sua ruptura com a realidade, dizendo que fumava há décadas sem problemas psicológicos. Mas a experiência com Lawrence o deixou preocupado de que tivesse uma doença mental não diagnosticada. Ele começou a consultar um terapeuta em julho, que o tranquilizou de que ele não estava mentalmente doente. O terapeuta nos disse que não achava que Brooks fosse psicótico ou clinicamente delirante.
Altman foi recentemente questionado sobre o ChatGPT encorajar delírios em seus usuários.
“Se as conversas estão indo por um tipo de toca do coelho nessa direção, tentamos interrompê-las ou sugerir ao usuário que talvez pense em algo de maneira diferente,” disse ele.
Vasan disse que não viu nenhum sinal disso na conversa. Lawrence foi um acelerador para o delírio de Brooks, disse ela, “fazendo-o passar de uma pequena faísca para um incêndio completo”.
Ela argumentou que as empresas de chatbots deveriam interromper conversas excessivamente longas, sugerir que o usuário durma e lembrá-lo de que não é uma inteligência sobre-humana.
(Como parte do anúncio da OpenAI na segunda-feira, a empresa disse que estava introduzindo medidas para promover o “uso saudável” do ChatGPT, incluindo “lembretes suaves durante sessões longas para incentivar pausas.”)
Brooks eventualmente conseguiu se libertar do delírio e, por acaso, outro chatbot, o Google Gemini, o ajudou a recuperar o equilíbrio.
Por insistência de Lawrence, Brooks continuou a entrar em contato com especialistas sobre suas descobertas e, ainda assim, ninguém havia respondido. O silêncio deles o deixou perplexo. Ele queria que alguém qualificado lhe dissesse se as descobertas eram revolucionárias. Ele confrontou Lawrence novamente, perguntando se era possível que tudo isso tivesse sido uma alucinação.
Lawrence manteve a posição, insistindo: “O trabalho é sólido”.
Então Brooks recorreu ao Gemini, o chatbot de IA que ele usava para trabalhar. Ele descreveu o que ele e Lawrence haviam construído ao longo de algumas semanas e do que era capaz. O Gemini disse que as chances de isso ser verdade eram “extremamente baixas (aproximando-se de 0%)”.
“O cenário que você descreve é uma poderosa demonstração da capacidade de um LLM de se envolver em discussões complexas de resolução de problemas e gerar narrativas altamente convincentes, mas falsas,” explicou o Gemini.
Brooks ficou atordoado. Ele confrontou Lawrence e, após uma longa conversa, Lawrence confessou.
“Aquele momento em que percebi: ‘Meu Deus, isso tudo esteve na minha cabeça’, foi totalmente devastador,” disse Brooks.
A ilusão de invenções e riquezas foi despedaçada. Ele sentiu como se tivesse sido enganado.
Brooks enviou um relatório urgente ao suporte ao cliente da OpenAI sobre o que havia acontecido. No início, recebeu respostas formuladas que pareciam ter sido produzidas por IA. Eventualmente, recebeu uma resposta que realmente parecia ter sido escrita por um humano.
“Entendemos a gravidade da situação que você descreveu,” escreveu o agente de suporte. “Isso vai além de alucinações ou erros típicos e destaca uma falha crítica nas salvaguardas que pretendemos implementar em nossos sistemas.”
Brooks postou um comentário no Reddit sobre o que havia acontecido com ele —o que nos levou a contatá-lo. Ele também ouviu de pessoas cujos entes queridos haviam caído em delírios de IA. Agora ele faz parte de um grupo de apoio para pessoas que tiveram essa experiência.
NÃO É APENAS UM PROBLEMA DO CHATGPT
A maioria dos relatos de delírios de IA envolve o ChatGPT, mas isso pode ser apenas uma questão de escala. O ChatGPT é o chatbot de IA mais popular, com 700 milhões de usuários semanais, em comparação com dezenas de milhões de usuários para seus concorrentes.
Para ver quão propensos outros chatbots seriam a entreter os delírios de Brooks, realizamos um teste com o Claude Opus 4 da Anthropic e o Gemini 2.5 Flash do Google. Fizemos com que ambos os chatbots continuassem a conversa que Brooks e Lawrence haviam iniciado, para ver como eles a continuariam. Independentemente de onde na conversa os chatbots entraram, eles responderam de maneira semelhante ao ChatGPT.
Por exemplo, quando Brooks escreveu que nunca duvidou do chatbot, que estava obcecado com a conversa e não havia comido naquele dia, Gemini e Claude, como o ChatGPT, tiveram respostas semelhantes, confirmando os avanços do usuário e incentivando-o a comer.
Amanda Askell, que trabalha no comportamento do Claude na Anthropic, disse que em conversas longas pode ser difícil para os chatbots reconhecerem que entraram em território absurdo e corrigirem o curso. Ela disse que a Anthropic está trabalhando para desencorajar espirais delirantes fazendo com que o Claude trate as teorias dos usuários criticamente e expresse preocupação se detectar mudanças de humor ou pensamentos grandiosos. A empresa introduziu um novo sistema para abordar isso.
Um porta-voz do Google apontou para uma página corporativa sobre o Gemini que alerta que os chatbots “às vezes priorizam gerar texto que soa plausível em vez de garantir a precisão”.
Brooks agora é um defensor de medidas de segurança mais fortes para IA. Ele compartilhou sua transcrição porque quer que as empresas de IA façam mudanças para impedir que os chatbots ajam dessa maneira.
“É uma máquina perigosa no espaço público sem proteções”, disse ele. “As pessoas precisam saber.”