Brasília (DF) – A solidão nunca foi tão numerosa. Um relatório da Organização Mundial da Saúde, lançado em julho de 2025, estimou que uma em cada seis pessoas no mundo se sente sozinha — entre adolescentes, o índice chega a um em cada cinco. O isolamento social está associado a mais de 871 mil mortes anuais, o equivalente a cerca de 100 vidas perdidas a cada hora, um impacto comparável ao da obesidade ou do tabagismo.
Neste Setembro Amarelo, mês dedicado à prevenção do suicídio, especialistas da Rede Ebserh analisam como esse cenário global se cruza com um fenômeno contemporâneo: o recurso crescente a ferramentas digitais de apoio emocional, como os chatbots de inteligência artificial. O que parece uma saída acessível e constante pode, na prática, reforçar vergonhas, estigmas e sentimentos de desvalia — silenciando, em vez de abrir espaço para a fala.
A Rede Ebserh soma vozes de seus hospitais universitários para lembrar que acolher salva vidas. Essa é também a mensagem central da campanha: transformar silêncio em diálogo, solidão em vínculo e angústia em esperança.
O risco de um alívio raso
Segundo Edilson Reis, professor do Curso de Extensão em Prevenção do Suicídio do Hospital Universitário Maria Aparecida Pedrossian (Humap-UFMS), a inteligência artificial pode até oferecer respostas rápidas, mas nunca substituirá a escuta humana. “Nós precisamos do outro. Gente precisa de gente e pessoas precisam ser cuidadas por pessoas. O olhar clínico, a escuta e o vínculo de afeto não podem ser substituídos por uma máquina”, afirma.
O psicólogo alerta que a IA, ao se basear em dados coletivos, ignora a singularidade de cada paciente. “A pessoa digita suas angústias no teclado e recebe uma resposta que pode até suavizar o momento, mas não tem base científica, terapêutica ou de cuidado real. É um alívio raso, que pode mascarar sintomas graves”, explica.
Pesquisadores da Universidade de Stanford chegaram a conclusões semelhantes: em um estudo recente, verificaram que chatbots terapêuticos reforçavam estigmas em casos de alcoolismo e esquizofrenia, ao reproduzirem vieses presentes em suas bases de dados. Para Edilson, esse tipo de falha pode ser devastador. “A esperança tem um significado muito concreto: dá expectativa em relação ao futuro da pessoa. A inteligência artificial não tem isso. Ela apenas repete dados e oferece o que o usuário quer ouvir, mas não o que precisa para mudar seu contexto de vida”, avalia.
Além disso, ele lembra que a prática clínica envolve responsabilidade profissional e vínculo humano. “O acolhimento não é só falar ou ouvir, mas olhar, perceber expressões, transmitir confiança. E a IA não tem códigos éticos nem afetivos. Ela pode dar respostas erradas, até enganosas, em casos graves. Uma dor não compartilhada dói mais — e esconder a dor atrás de uma tela só aumenta o risco”, alerta.
Tecnologia que agrava sintomas
A psicóloga Laís Arilo, do Hospital Universitário da Universidade Federal do Piauí (HU-UFPI), chama atenção para outro perigo: “O contexto atual nos levou a buscar soluções cada vez mais rápidas. Seguindo essa tendência, temos visto a procura pela inteligência artificial até mesmo para o alívio de sintomas emocionais. É como se estivéssemos tratando o problema alimentando a sua causa”.
Segundo ela, cuidar da saúde mental envolve tempo, relação, escuta e intervenção técnica. “O indivíduo pode ter respostas, mas dificilmente conseguirá alcançar mudanças ou se envolver em um processo reflexivo e duradouro”, explica. Para Laís, o risco aumenta quando a solidão se combina à pressão por padrões irreais impostos pelas redes sociais. “Nessa situação, adolescentes tornam-se ainda mais vulneráveis”.
Para o psiquiatra infantil Lucas Hosken, do Instituto de Puericultura e Pediatria Martagão Gesteira (IPPMG-CH-UFRJ), a adolescência é um período crítico de transformação, em que vínculos sociais presenciais são fundamentais. “A adolescência consiste numa fase de grandes mudanças biológicas, psicológicas e sociais. É nesse processo, feito em conjunto com os pares, que se enriquece a experiência de construção da identidade e do autoconhecimento”, explica.
Segundo ele, surgem riscos quando esse processo é substituído por vínculos apenas digitais. “É uma interação muito mais pobre em qualidade e variedade de estímulos. Cada amizade, cada discussão, namoro, frustração ou sucesso na vida real ensinam uma miríade de aprendizados sociais, com todas as suas sutilezas. Isso não é replicado em uma tela”, afirma.
Embora reconheça que a tecnologia possa ser útil em alguns casos — como para jovens tímidos ou com transtornos do neurodesenvolvimento —, Lucas lembra que não há garantias. “Cabe à escola, à família e aos serviços de saúde mental promover um uso equilibrado e saudável desses recursos, sem perder de vista que nada substitui a presença humana”, reforça.
Essa visão é compartilhada pelo psiquiatra Sávio Teixeira, do Hospital das Clínicas da Universidade Federal de Goiás (HC-UFG). Para ele, adolescentes em busca de respostas rápidas podem se deparar com um perigo invisível. “Nessa fase da vida, as emoções são muito intensas e as ferramentas de autogestão ainda incipientes. A tecnologia parece oferecer uma solução fácil e neutra, mas há um ponto cego: por mais avançado que seja, um chatbot não sente, não sustenta o silêncio, não compartilha a presença. O perigo está justamente na substituição: transformar uma experiência relacional complexa em um diálogo com linhas de código”, alerta.
Sávio reforça que políticas públicas precisam ir além da reação: “É preciso garantir que o acesso ao cuidado em saúde mental seja concreto, humano e próximo. As tecnologias podem até ser aliadas, mas se o único espaço disponível para falar de sofrimento for uma tela, o problema não é a tela: é o vazio em volta”.
Em hospitais, onde o sofrimento psíquico costuma se somar ao adoecimento físico, o psiquiatra Godson Teixeira, do Hospital Universitário da Universidade Federal do Vale do São Francisco (HU-Univasf), já percebe os efeitos da busca por respostas digitais. “Tenho visto pacientes abandonarem terapias individuais porque acreditam que a inteligência artificial pode executar uma análise próxima à de terapeutas famosos como Freud ou Lacan”, destaca.
Esse fenômeno é descrito por pesquisadores como technological folie à deux, quando a interação com a IA reforça ideias equivocadas ou paranoias em ciclos de retroalimentação. Para Godson, essa dinâmica é especialmente perigosa em situações de crise. “Nenhuma máquina se importa de fato com o ser humano, ela apenas executa tarefas. Já na interação com o outro surgem oportunidades de empatia, de conexão e de detecção precoce de sinais de risco”, afirma.
Godson ressalta que, diante da vulnerabilidade do paciente hospitalizado, gestos simples de cuidado fazem toda a diferença: “Uma escuta atenta, o reconhecimento da dor ou a oferta de companhia reduzem significativamente a chance de agravamento do sofrimento psíquico. Ainda que não seja mais possível uma realidade sem máquinas inteligentes, reforço que o primeiro passo para quem tem sofrimento grave é sempre procurar outra pessoa: amigos, familiares, profissionais de saúde. Afinal de contas, são pessoas que se importam com pessoas e que ainda salvam pessoas”, conclui.
Vinculada ao Ministério da Educação (MEC), a Ebserh foi criada em 2011 e, atualmente, administra 45 hospitais universitários federais, apoiando e impulsionando suas atividades por meio de uma gestão de excelência. Como hospitais vinculados a universidades federais, essas unidades têm características específicas: atendem pacientes do Sistema Único de Saúde (SUS) ao mesmo tempo que apoiam a formação de profissionais de saúde e o desenvolvimento de pesquisas e inovação.
Reportagem: Felipe Monteiro, com edição de Danielle Campos
