Pular para o conteúdo

Brasileiros recorrem ao ChatGPT para realizarem sessões de “terapia” online

Banner Aleatório

sghchatsssg

O ChatGPT é um chatbot alimentado por inteligência artificial (IA) de geração de texto. (Foto: Reprodução)

Enfrentando crises de ansiedade desde a pré-adolescência, a estudante paulista Carolina Moura Lima, de 25 anos, encontrou recentemente um aliado pouco convencional: o ChatGPT, um chatbot alimentado por inteligência artificial (IA) de geração de texto. “Não sei como essa ideia veio, mas acho que foi em um momento de desespero. Pensei nele em uma crise, por falta de opção”, conta ela, que faz acompanhamento psiquiátrico e usa remédio controlado. Carolina também se consultava regularmente com uma psicóloga até agosto, quando precisou cessar as sessões por falta de dinheiro.

A estudante diz ter consciência de que o chatbot traz respostas prontas e, por vezes, extremamente genéricas – e aponta que um terapeuta humano será sempre sua principal escolha –, mas avalia que a tecnologia funciona em momentos de crise. “Quando ele me lembra de coisas básicas, como ‘faça algo que você gosta’ ou ‘escreva o que está sentindo’, isso ajuda. Porque, na hora da ansiedade, você não consegue raciocinar direito e lembrar delas.”

Carolina conta que, em geral, abre um chat e explica a situação que, na avaliação dela, causou a crise. “Pergunto se faz sentido eu me sentir assim. No fundo, sei que não faz. Mesmo assim, preciso de uma confirmação, de alguém que diga: ‘Tudo bem se sentir assim. Você tem toda razão.’ Ou que pelo menos entenda a minha dor. Mesmo sabendo que não é uma pessoa de verdade, ler isso me acalma.”

Ela está longe de ser a única a usar as opções de inteligência artificial – que se popularizaram de forma expressiva após o lançamento do ChatGPT no final de 2022 – na busca de suporte emocional. De acordo com o levantamento “A Inteligência Artificial na Vida Real”, da empresa de pesquisa de comportamento e mercado Talk Inc, que ouviu mil brasileiros, um a cada 10 indivíduos relatou usar ferramentas baseadas em IA como amigo/conselheiro para conversar sobre e resolver questões pessoais e emocionais.

Especialistas ouvidos pelo jornal O Estado de S. Paulo reforçam que a IA não é terapeuta e se mostram preocupados, em especial com o uso de modelos generativos, como o ChatGPT. Os principais receios são com a segurança do compartilhamento de informações pessoais e com os impactos de respostas imprevisíveis, às vezes até indevidas, que são dadas a uma pessoa vulnerável. Eles não condenam a IA e avaliam que, talvez, no futuro, ela possa ser uma importante aliada.

O uso de chatbots na área de saúde mental, inclusive, não é exatamente uma novidade. O primeiro chatbot da história, o Eliza, criado em 1966 por Joseph Weizenbaum, no Massachusetts Institute of Technology (MIT), simulava justamente uma conversa com um psicoterapeuta. De lá para cá, novos modelos surgiram, com resultados promissores, mas insuficientes para sustentar uma indicação ampla de uso clínico.

O avanço nos estudos nessa área é visto com bons olhos, já que há quem considere que estamos diante de uma crise global de saúde mental somada a um cenário de subfinanciamento dos serviços de apoio a pacientes no mundo todo – de acordo com a Organização Mundial da Saúde (OMS), só 2% dos orçamentos públicos de saúde dos países são direcionados ao bem-estar mental. Mas os especialistas deixam claro: muito dificilmente profissionais como psicólogos e psiquiatras serão substituídos por máquinas, porém, podem tê-las como aliadas.

Em redes sociais como o X (ex-Twitter) e a plataforma de vídeos curtos TikTok, somam-se relatos de pessoas que dizem fazer “terapia” com o chatbot. Enquanto alguns adotam o tom de piada, outros definitivamente estão empenhados na tarefa, usando prompts (comandos para o ChatGPT) para especificar qual linha terapêutica ele deve seguir.

A psicóloga Talita Fabiano de Carvalho, conselheira presidenta do Conselho Regional de Psicologia de São Paulo (CRP-SP), destaca que o terapeuta analisa muitas coisas além do que o paciente diz. Enquanto chatbot está programado para responder àquilo que o usuário escreve, o terapeuta olha no olho, e está interessado em coisas como as reações e o tom da voz do paciente. Nesse sentido, afirma que psicoterapia não se trata apenas de aplicar métodos e o conhecimento científico, mas envolve também interação humana. “Você traz uma situação que está vivenciando, e eu utilizo todo o conhecimento e as técnicas que tenho para te ajudar. Mas, além disso, também sou um ser humano te ouvindo”, diz.

“(Com isso) Essa escuta passa por filtros como empatia, solidariedade, compaixão, e uma percepção que vai além das palavras. Quando você me diz algo como ‘estou sentindo isso’, eu compreendo não só as palavras, mas também o que está por trás delas, por meio desse filtro de sentimento e a percepção que tenho enquanto ser humano”, completa. Ou seja, não dá para chamar as consultas à máquina de terapia, afirma. As informações são do jornal O Estado de S. Paulo.