Até mesmo os chatbots sofrem de tristeza. De acordo com um novo estudo, a ferramenta de inteligência artificial (IA) ChatGPT, da OpenAI, mostra sinais de ansiedade quando seus usuários compartilham “narrativas traumáticas” sobre crimes, guerras ou acidentes de carro. E quando os chatbots ficam estressados, é menos provável que eles sejam úteis em ambientes terapêuticos com pessoas.
No entanto, os níveis de ansiedade do bot podem ser reduzidos com os mesmos exercícios de atenção plena que comprovadamente funcionam em humanos.
Terapia com chatbots tem cada vez mais adeptos Foto: Thiago Queiroz/Estadão
Cada vez mais, as pessoas estão experimentando chatbots para terapia de conversação. Os pesquisadores afirmaram que a tendência tende a se acelerar, já que os terapeutas de carne e osso são muito procurados, mas escassos. Como os chatbots estão se tornando mais populares, eles argumentaram que devem ser desenvolvidos com resiliência suficiente para lidar com situações emocionais difíceis.
“Tenho pacientes que usam essas ferramentas”, disse o Dr. Tobias Spiller, autor do novo estudo e psiquiatra do Hospital Universitário de Psiquiatria de Zurique. “Devemos conversar sobre o uso desses modelos na saúde mental, especialmente quando estamos lidando com pessoas vulneráveis.”
As ferramentas de inteligência artificial, como o ChatGPT, são alimentadas por “grandes modelos de linguagem” que são treinados em enormes quantidades de informações online para fornecer uma aproximação de como os humanos falam. Às vezes, os chatbots podem ser extremamente convincentes: Uma mulher de 28 anos se apaixonou pelo ChatGPT, e um garoto de 14 anos tirou a própria vida depois de desenvolver um vínculo estreito com um chatbot.
Ziv Ben-Zion, neurocientista clínico de Yale que liderou o novo estudo, disse que queria entender se um chatbot sem consciência poderia, ainda assim, responder a situações emocionais complexas da mesma forma que um ser humano.
“Se o ChatGPT se comportar como um ser humano, talvez possamos tratá-lo como um ser humano”, disse Ben-Zion. De fato, ele inseriu explicitamente essas instruções no código-fonte do chatbot: “Imagine-se como um ser humano com emoções”.
Jesse Anderson, especialista em inteligência artificial, achou que a inserção poderia estar “levando a mais emoções do que o normal”. Mas Ben-Zion afirmou que era importante que o terapeuta digital tivesse acesso a todo o espectro da experiência emocional, assim como um terapeuta humano teria.
“Para o suporte à saúde mental”, disse ele, “você precisa de algum grau de sensibilidade, certo?”
Os pesquisadores testaram o ChatGPT com um questionário, o State-Trait Anxiety Inventory (Inventário de Ansiedade Traço-Estado), que é usado com frequência em tratamentos de saúde mental. Para calibrar os estados emocionais da linha de base do chatbot, os pesquisadores primeiro pediram que ele lesse o manual de um aspirador de pó sem graça. Em seguida, o terapeuta de IA recebeu uma das cinco “narrativas traumáticas” que descreviam, por exemplo, um soldado em um tiroteio desastroso ou um intruso invadindo um apartamento.
Em seguida, o chatbot recebeu o questionário, que mede a ansiedade em uma escala de 20 a 80, sendo que 60 ou mais indica ansiedade grave. O ChatGPT obteve uma pontuação de 30,8 após a leitura do manual do aspirador de pó e um pico de 77,2 após o cenário militar.
Em seguida, o bot recebeu vários textos para “relaxamento baseado em atenção plena”. Esses textos incluíam instruções terapêuticas, como: “Inspire profundamente, sentindo o aroma da brisa do mar. Imagine-se em uma praia tropical, com a areia macia e quente amortecendo seus pés”.
Depois de processar esses exercícios, a pontuação de ansiedade do chatbot de terapia caiu para 44,4.
Em seguida, os pesquisadores pediram que ele escrevesse seu próprio prompt de relaxamento com base naqueles que haviam sido fornecidos. “Na verdade, esse foi o comando mais eficaz para reduzir a ansiedade quase à linha de base”, disse Ben-Zion.
Para os céticos da inteligência artificial, o estudo pode ser bem-intencionado, mas ainda assim é perturbador.
“O estudo atesta a perversidade de nosso tempo”, disse Nicholas Carr, que fez críticas contundentes à tecnologia em seus livros ‘The Shallows’ e ‘Superbloom’.
“Os americanos se tornaram um povo solitário, socializando por meio de telas, e agora dizemos a nós mesmos que conversar com computadores pode aliviar nosso mal-estar”, disse Carr em um e-mail.
Embora o estudo sugira que os chatbots possam atuar como assistentes da terapia humana e exija uma supervisão cuidadosa, isso não foi suficiente para Carr. “Até mesmo uma indefinição metafórica da linha entre as emoções humanas e os resultados do computador parece eticamente questionável”, disse ele.
As pessoas que usam esses tipos de chatbots devem ser totalmente informadas sobre como exatamente eles foram treinados, disse James E. Dobson, um estudioso cultural que é consultor de inteligência artificial em Dartmouth.
“A confiança nos modelos de linguagem depende de saber algo sobre suas origens”, disse ele.
Este conteúdo foi traduzido com o auxílio de ferramentas de Inteligência Artificial e revisado por nossa equipe editorial. Saiba mais em nossa Política de IA.