Na última semana a questão controversa do uso de chats de IA (Inteligências Artificiais), como “ChatGPT” ou aplicativos robotizados de terapia no “cuidado” em saúde mental, ganhou outro capítulo: a morte de um adolescente para o suicídio.
No caso, segundo apuração da BBC Brasil (27/8/2025), os pais identificaram que o ChatGPT validava as ideações suicidas e pensamentos autodestrutivos do jovem, além de incentivar o ato. A ferramenta chegou até mesmo a fornecer ideias de como realizar o suicídio e se ofereceu a criar uma carta de “despedida” para os pais do garoto.
O aumento destes casos vem sendo noticiado com a popularização das IA’s. Em 2024, por exemplo, uma mãe relatou ao New York Times que a filha usava o ChatGPT como confidente antes de cometer suicídio. Ainda no ano passado, 2 adolescentes, de acordo com matéria da BBC Brasil, foram orientados por IA’s a matar os pais após se frustrarem por terem seu tempo de tela restritos. E, em 2025, um aluno de 14 anos também tirou a própria vida, de acordo com a reportagem do jornal O Globo, após conversas com um chat de inteligência artificial.
Em todos os casos, o modus operandi dos chats de inteligência artificial é o mesmo: um falso acolhimento de início com frases prontas, validação inconsequente de tudo que a pessoa traz e a mensagem de “busque ajuda”, mas sempre “em outro momento”. Pois a ideia principal é que o usuário se fidelize ao serviço e permaneça nesse o maior tempo possível. Mesmo que para isso, essa IA tenha que orientar a pessoa a um ato criminoso ou a tirar a própria vida.
Disto, outros dois problemas se apresentam também: os chats se tornarem os confidentes próximos de maneira sintomática e a falta de sigilo do que é compartilhado.
No primeiro, como a IA é programada para viciar a pessoa em seu uso, é comum que a pessoa sabote as suas relações e foque apenas no chat. Isso resulta em um isolamento de quem já está sofrendo. Que acaba por perder parte da rede de apoio e potencial de melhora.
Por outro lado, como não há sigilo, tudo que é compartilhado com a IA se torna dados de mercado, revertidos em anúncios e propagandas que a pessoa irá receber de volta incessantemente. Para quem está sempre nas telas, se cria a impressão de um ambiente que lembra a todo momento sobre o sofrimento, de um sufocar, como se não houvesse para onde fugir.
É um ciclo vicioso, no qual a busca por socorro no lugar errado faz a pessoa se afogar ainda mais. Até que ela chegue ao fim da linha. Então, o que fazer?
A resposta saudável que se propõe então, essa sim é simples: o contato real, com uma pessoa de verdade e responsável, com a qual se possa compartilhar de sua angústia e sofrimento. E dessa forma, buscar por uma melhora.
Quando se está em sofrimento e se busca pela terapia com um psicólogo, há alguém com uma identidade real ali, na qual se faz o contato. Isso é assegurado por ética, sigilo, confidencialidade e moral. O que resulta em reconhecimento e acolhimento verdadeiro, em uma dignidade em ser reconhecido e entender do sofrimento sem estigmatizar. Podendo assim, ter uma melhora real.
Psicólogo Matheus Wada Santos (CRP 06/168009)
Psicanalista especializado em gênero e sexualidade
Redes: @psicologo_matheuswada
WhatsApp: (16) 99629 – 6663

