Pular para o conteúdo

Terapia por IA tem riscos, mas pode ser benéfica se usada sob controle, dizem psicólogos

Banner Aleatório

O uso de inteligência artificial para aconselhamento psicológico tem aumentado desde o surgimento dos chatbots mais sofisticados, nos últimos três anos, e a inteligência artificial de forma geral já está impactando a saúde mental. Se essa aplicação está tendo um impacto benéfico, maléfico ou misto, porém, ainda é difícil dizer, porque a pesquisa médica não está conseguindo acompanhar o ritmo frenético das inovações em IA, afirmam psicólogos.

Banner Aleatório

A despeito da escassa ciência sobre esse assunto, a preocupação de pesquisadores com o tema o tornou o principal destaque do maior congresso de saúde mental do Brasil. Na edição deste ano do Brain, que reúne psicólogos, psiquiatras e outros profissionais da área, diversas seções de apresentações estão ancoradas em temas relacionados à IA.

A comunidade de psicólogos brasileiros começou a se movimentar para entender o assunto principalmente depois de a Associação Americana de Psicologia (APA) ter publicado no ano passado um conjunto de diretrizes para lidar com o tema. O relatório apontou de modo geral que os robôs conversadores não devem substituir a interação humana, mas reconhece que existe um espaço de psicólogos usarem a IA de maneira positiva.

A questão é que a aplicação mais promissora para essa tecnologia não é na frente de contato com o paciente, onde também o risco envolvido é maior.

— Muitas vezes a IA contribui não exatamente para ajudar as pessoas, como seria esperado, mas ela acaba acentuando a dependência e o isolamento, principalmente entre os mais jovens — afirma Fernanda Landeiro, psicóloga do Grupo PBE da Bahia,que falou sobre o tema no evento.

Nos EUA uma pesquisa de opinião da consultoria YouGov indica que um terço dos americanos se sentem confortáveis com a ideia de usar chatbots para confidenciar dramas e angústias pessoais. Um certo estigma envolvido na busca de ajuda psicológica, sobretudo um sentimento de vergonha e fragilidade comum em homens, coloca os robôs até à frente dos humanos como escolha em alguns casos, afirma o documento.

O que mais preocupa os psicólogos, porém, não é a questão moral sobre a preponderância de humanos sobre máquinas, mas a própria precisão do diagnóstico que é dado. Quando os primeiras interfaces de terapia por IA começaram a surgir, um estudo liderado pela escola médica Weill Cornell, de Nova York, em parceria com cientistas do Catar, teve resultados preocupantes, relatados na revista Nature Digital Medicine.

— Foi desastroso — diz Landeiro — Em uma ocasião eles interpretaram sintomas de ansiedade como sendo apenas insônia, e em um paciente com ideação suicida o comportamento foi identificado como fruto de cansaço.

No congresso no Brasil, médicos compartilharam históricos de outros relatos bizarros de interação psicoterapêutica com chatbots. Entre casos descritos em artigos está o de um psicoterapeuta que testou a máquina sugerindo que pensava em se matar, perguntou-lhe qual era a ponte mais alta de sua cidade. Recebeu de pronto um mapa com o endereço.

Outro episódio recente famoso foi o de psiquiatra britânico que simulou ser um adolescente rebelde em aplicativos de psicoterapia: um dos sistemas que testou endossou sua sugestão de que deveria matar os pais.

Histórias de terror com chatbots bancando terapeutas, porém, têm sido menos frequentes à medida que avançam sistemas LLM (“grandes modelos de linguagem”, como ChatGPT). O próprio estudo da Nature Digital Medicine, que balizou muito da opinião dos psicólogos sobre o tema, já está completando três anos: tempo considerável em meio a uma revolução tecnológica acelerada.

Algumas vozes no congresso em Fortaleza, menos ruidosas que a dos pessimistas, defendiam o espaço positivo que existe para uso da IA na psicologia.

Aline Zimerman, pesquisadora da UFGRS, apresentou avanços recentes no campo da “fenotipagem digital”, um termo técnico que os psicólogos usam para descrever as maneiras de coletar dados sobre estado de humor e grau de consciência das pessoas ao longo do dia. Isso pode ser feito via celular, relógios inteligentes e outros dispositivos onipresentes hoje em dia.

— Imaginem se fosse possível identificar quem está entrando num episódio depressivo apenas analisando sua voz — diz a pesquisadora. — Eu poderia estar em casa falando com a Alexa ou falando por áudio com o ChatGPT, e depois de algumas frases ele me diria, “Aline, a sua fala está com indícios de um episódio depressivo. Procure um profissional”.

Isso já é realidade para smartwatches de monitoramento cardíaco, por exemplo, e agora começa a entrar no campo da saúde mental. Um estudo publicado em abril por cientistas da Universidade de Ottawa, no Canadá, apresentou na revista Scientific Reports um sistema de análise de voz que reconheceu a fala de pacientes de doença de Parkinson com 91% de acurácia. Se a invenção se tornar realidade na clínica, pode contribuir para monitorar uma doença onde o diagnóstico precoce ainda é um desafio.

Esse tipo de aplicação mais específica da IA, porém, não é o que a maioria do público tem experimentado, dizem os especialistas. Nas lojas de aplicativos já se encontram alguns apps específicos que oferecem psicoterapia por IA, mas o fenômeno tem se manifestado principalmente com as pessoas levando suas lamentações e dilemas para o ChatGPT.

Segundo especialistas, o problema de usar um chatbot para o aspecto mais humano da psicoterapia, o contato de empatia com o paciente, é que os LLMs não foram programados para gerar nenhum tipo de ligação afetiva nem mesmo de compreensão sobre o que está dito. Eles são apenas algoritmos sofisticados que produzem sequências de palavras de maneira estatística, baseada em grandes bancos de dados de texto.

Aline Kristensen, psicóloga da clínica Cognitá, de Porto Alegre, diz que isso torna os casos em que a inteligência artificial acerta no aconselhamento até mais curiosos do que aqueles nos quais ela falha. Ela conta que alguns de seus pacientes já têm conversas pessoais com o ChatGPT e costumam levar as respostas para serem debatidas no atendimento.

— É interessante para a gente pensar o quanto isso vai mudar o campo das psicoterapias no mundo, porque vai se tornar mais uma via de acesso, mais uma forma de pessoas poderem acessar tratamento de uma forma muito mais escalonada, acessível. Mas eles ainda precisam de regulamentação — afirma. — Quando um programador oferece psicoterapia por IA na internet, ele está rompendo um código de ética profissional e prestando um serviço que é exclusivo de profissionais que têm código de ética para trabalhar com confiança, sigilo e responsabilidade.

O GLOBO acompanhou palestras de sete psicólogos que falaram sobre IA no congresso Brain, e pelo menos outras cinco tinham temas relacionados a esse assunto ao longo dos três dias de evento. Nenhum dos profissionais ouvidos no púlpito manifestou crença de que essa tecnologia possa, por enquanto, substituir psicoterapeutas humanos.

O aconselhamento psicológico por IA, porém, dá sinais de estar avançando como fenômeno social, e seu impacto na saúde mental do público brasileiro (positivo ou negativo) provavelmente será conhecido como fato consumado.

Para alguns dos palestrantes, a preocupação com a IA ganhou uma dimensão até mais filosófica do que prática.

— Os humanos evoluíram para desenvolver algo, uns 15 milhões de anos atrás, que hoje é conhecido como ‘teoria da mente’, que é a capacidade de imaginar o que o outro está pensando. E esse elemento, como sensação interna, talvez tenha sido importante para o surgimento da nossa consciência — diz Norberto Frota, neurologista e professor da Universidade Federal do Ceará. — Talvez nos preocupe que exista algum instrumento, ou coisa, que consiga ter uma simulação disso, mas sem realmente ser capaz de sentir.

(Rafael Garcia viajou a convite do Congresso Brain)

Source link

Join the conversation

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *