Pular para o conteúdo

o silêncio das máquinas e a urgência da escuta humana — Empresa Brasileira de Serviços Hospitalares

Banner Aleatório

Brasília (DF) A solidão nunca foi tão numerosa. Um relatório da Organização Mundial da Saúde, lançado em julho de 2025, estimou que uma em cada seis pessoas no mundo se sente sozinha — entre adolescentes, o índice chega a um em cada cinco. O isolamento social está associado a mais de 871 mil mortes anuais, o equivalente a cerca de 100 vidas perdidas a cada hora, um impacto comparável ao da obesidade ou do tabagismo. 

Banner Aleatório

Neste Setembro Amarelo, mês dedicado à prevenção do suicídio, especialistas da Rede Ebserh analisam como esse cenário global se cruza com um fenômeno contemporâneo: o recurso crescente a ferramentas digitais de apoio emocional, como os chatbots de inteligência artificial. O que parece uma saída acessível e constante pode, na prática, reforçar vergonhas, estigmas e sentimentos de desvalia — silenciando, em vez de abrir espaço para a fala. 

A Rede Ebserh soma vozes de seus hospitais universitários para lembrar que acolher salva vidas. Essa é também a mensagem central da campanha: transformar silêncio em diálogo, solidão em vínculo e angústia em esperança. 

O risco de um alívio raso 

Segundo Edilson Reis, professor do Curso de Extensão em Prevenção do Suicídio do Hospital Universitário Maria Aparecida Pedrossian (Humap-UFMS), a inteligência artificial pode até oferecer respostas rápidas, mas nunca substituirá a escuta humana. “Nós precisamos do outro. Gente precisa de gente e pessoas precisam ser cuidadas por pessoas. O olhar clínico, a escuta e o vínculo de afeto não podem ser substituídos por uma máquina”, afirma. 

O psicólogo alerta que a IA, ao se basear em dados coletivos, ignora a singularidade de cada paciente. “A pessoa digita suas angústias no teclado e recebe uma resposta que pode até suavizar o momento, mas não tem base científica, terapêutica ou de cuidado real. É um alívio raso, que pode mascarar sintomas graves”, explica. 

Pesquisadores da Universidade de Stanford chegaram a conclusões semelhantes: em um estudo recente, verificaram que chatbots terapêuticos reforçavam estigmas em casos de alcoolismo e esquizofrenia, ao reproduzirem vieses presentes em suas bases de dados. Para Edilson, esse tipo de falha pode ser devastador. “A esperança tem um significado muito concreto: dá expectativa em relação ao futuro da pessoa. A inteligência artificial não tem isso. Ela apenas repete dados e oferece o que o usuário quer ouvir, mas não o que precisa para mudar seu contexto de vida”, avalia. 

Além disso, ele lembra que a prática clínica envolve responsabilidade profissional e vínculo humano. “O acolhimento não é só falar ou ouvir, mas olhar, perceber expressões, transmitir confiança. E a IA não tem códigos éticos nem afetivos. Ela pode dar respostas erradas, até enganosas, em casos graves. Uma dor não compartilhada dói mais — e esconder a dor atrás de uma tela só aumenta o risco”, alerta. 

Tecnologia que agrava sintomas 

A psicóloga Laís Arilo, do Hospital Universitário da Universidade Federal do Piauí (HU-UFPI), chama atenção para outro perigo: “O contexto atual nos levou a buscar soluções cada vez mais rápidas. Seguindo essa tendência, temos visto a procura pela inteligência artificial até mesmo para o alívio de sintomas emocionais. É como se estivéssemos tratando o problema alimentando a sua causa. 

Segundo ela, cuidar da saúde mental envolve tempo, relação, escuta e intervenção técnica. “O indivíduo pode ter respostas, mas dificilmente conseguirá alcançar mudanças ou se envolver em um processo reflexivo e duradouro”, explica. Para Laís, o risco aumenta quando a solidão se combina à pressão por padrões irreais impostos pelas redes sociais. “Nessa situação, adolescentes tornam-se ainda mais vulneráveis. 

Para o psiquiatra infantil Lucas Hosken, do Instituto de Puericultura e Pediatria Martagão Gesteira (IPPMG-CH-UFRJ), a adolescência é um período crítico de transformação, em que vínculos sociais presenciais são fundamentais. “A adolescência consiste numa fase de grandes mudanças biológicas, psicológicas e sociais. É nesse processo, feito em conjunto com os pares, que se enriquece a experiência de construção da identidade e do autoconhecimento”, explica. 

Segundo ele, surgem riscos quando esse processo é substituído por vínculos apenas digitais. “É uma interação muito mais pobre em qualidade e variedade de estímulos. Cada amizade, cada discussão, namoro, frustração ou sucesso na vida real ensinam uma miríade de aprendizados sociais, com todas as suas sutilezas. Isso não é replicado em uma tela”, afirma. 

Embora reconheça que a tecnologia possa ser útil em alguns casos — como para jovens tímidos ou com transtornos do neurodesenvolvimento —, Lucas lembra que não há garantias. “Cabe à escola, à família e aos serviços de saúde mental promover um uso equilibrado e saudável desses recursos, sem perder de vista que nada substitui a presença humana”, reforça. 

Essa visão é compartilhada pelo psiquiatra Sávio Teixeira, do Hospital das Clínicas da Universidade Federal de Goiás (HC-UFG). Para ele, adolescentes em busca de respostas rápidas podem se deparar com um perigo invisível. “Nessa fase da vida, as emoções são muito intensas e as ferramentas de autogestão ainda incipientes. A tecnologia parece oferecer uma solução fácil e neutra, mas há um ponto cego: por mais avançado que seja, um chatbot não sente, não sustenta o silêncio, não compartilha a presença. O perigo está justamente na substituição: transformar uma experiência relacional complexa em um diálogo com linhas de código”, alerta. 

Sávio reforça que políticas públicas precisam ir além da reação: “É preciso garantir que o acesso ao cuidado em saúde mental seja concreto, humano e próximo. As tecnologias podem até ser aliadas, mas se o único espaço disponível para falar de sofrimento for uma tela, o problema não é a tela: é o vazio em volta”. 

Em hospitais, onde o sofrimento psíquico costuma se somar ao adoecimento físico, o psiquiatra Godson Teixeira, do Hospital Universitário da Universidade Federal do Vale do São Francisco (HU-Univasf), já percebe os efeitos da busca por respostas digitais. “Tenho visto pacientes abandonarem terapias individuais porque acreditam que a inteligência artificial pode executar uma análise próxima à de terapeutas famosos como Freud ou Lacan”, destaca. 

Esse fenômeno é descrito por pesquisadores como technological folie à deux, quando a interação com a IA reforça ideias equivocadas ou paranoias em ciclos de retroalimentação. Para Godson, essa dinâmica é especialmente perigosa em situações de crise. “Nenhuma máquina se importa de fato com o ser humano, ela apenas executa tarefas. Já na interação com o outro surgem oportunidades de empatia, de conexão e de detecção precoce de sinais de risco”, afirma. 

Godson ressalta que, diante da vulnerabilidade do paciente hospitalizado, gestos simples de cuidado fazem toda a diferença:Uma escuta atenta, o reconhecimento da dor ou a oferta de companhia reduzem significativamente a chance de agravamento do sofrimento psíquico. Ainda que não seja mais possível uma realidade sem máquinas inteligentes, reforço que o primeiro passo para quem tem sofrimento grave é sempre procurar outra pessoa: amigos, familiares, profissionais de saúde. Afinal de contas, são pessoas que se importam com pessoas e que ainda salvam pessoas”, conclui. 

Vinculada ao Ministério da Educação (MEC), a Ebserh foi criada em 2011 e, atualmente, administra 45 hospitais universitários federais, apoiando e impulsionando suas atividades por meio de uma gestão de excelência. Como hospitais vinculados a universidades federais, essas unidades têm características específicas: atendem pacientes do Sistema Único de Saúde (SUS) ao mesmo tempo que apoiam a formação de profissionais de saúde e o desenvolvimento de pesquisas e inovação.  

Reportagem: Felipe Monteiro, com edição de Danielle Campos 



Source link

Join the conversation

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *