Pular para o conteúdo

Pesquisadora aponta falta de respaldo científico em inteligências artificiais para saúde mental

Banner Aleatório

Bruno Todeschini / Agencia RBS
Vanessa Soares Maurente, professora do Programa de Pós-Graduação em Psicologia Social e Institucional da UFRGS.

A inteligência artificial (IA) vem adentrando diversas áreas, e não é diferente na saúde mental. Isso pode trazer muitos riscos, conforme Vanessa Soares Maurente, professora do Programa de Pós-Graduação em Psicologia Social e Institucional da Universidade Federal do Rio Grande do Sul (UFRGS). A especialista investiga os usos da IA nos cuidados com a mente.

Banner Aleatório

A pesquisadora é doutora em Informática na Educação e coordena o Núcleo de Estudos e Pesquisas em Ecologias e Políticas Cognitivas (Nucogs), liderando projetos que buscam analisar a digitalização das práticas psicológicas. Em entrevista, ela explica como ferramentas de IA vêm sendo incorporadas na rotina de profissionais da psicologia e quais os potenciais impactos disso.

Leia a entrevista completa

Como a tecnologia vem transformando os cuidados com a saúde mental? 

A tecnologia vem produzindo subjetividade, formas de viver e pensar e políticas cognitivas. Elas não são só ferramentas que a gente usa no nosso cotidiano, são ferramentas que modificam a nossa forma de ser sujeito. E, nesse sentido, elas modificam a nossa forma de se relacionar com o mundo. 

Estamos vendo o surgimento de inúmeros aplicativos de saúde mental, assim como IAs terapeutas e de diagnóstico, por exemplo. A gente teve, após a pandemia, aumento de 400% nas consultas psicológicas online. A partir disso, o Conselho Federal de Psicologia precisou repensar as relações com as tecnologias. 

Na minha pesquisa, estudo as relações entre sujeitos e tecnologia, e como as tecnologias produzem subjetividade. A gente estuda como a tecnologia produz padrões e reproduz discursos hegemônicos, e como isso produz modos de viver e de sofrimento. 

Bruno Todeschini / Agencia RBS
Ela estuda as relações entre sujeitos e tecnologia, e como as tecnologias produzem subjetividade.

Como você estuda esses processos? 

A gente tem trabalhado em dois projetos dentro do Núcleo de Ecologias e Políticas Cognitivas, “Tecnopolíticas dos Afetos” e “Digitalização das Práticas Psis”, que é justamente para entender esse uso de plataformas digitais, tanto pra consultas online com terapeutas humanos, quanto a multiplicação de aplicativos de saúde mental.  

Os modelos de IA correspondem muito às expectativas do nosso tempo, de ter alguém disponível a qualquer momento.

De que modo a IA vem sendo usada no que tange a saúde mental? 

Podemos citar cinco tipos de IAs que se propõem a atuar no campo da saúde mental. Temos a IA de apoio no diagnóstico, por exemplo. Através de APIs (interfaces de programação de aplicações) associadas a aplicativos no celular, essas ferramentas fazem o rastreio de tom de voz, mudanças em padrões de mensagens, mudanças em publicações de redes sociais

Ela analisa se você diminui a frequência de ligações, se tem feito compras demais, se você tem ficado mais isolado, por exemplo, tudo pelo celular do paciente. E, a partir disso, pode identificar padrões e auxiliar no diagnóstico. 

E tem as IAs terapeutas, que é o uso mais frequente, por meio de chatbots que costumam ter como justificativa atender pacientes crônicos, que estão há muito tempo internados em um hospital e não têm acesso à psicoterapia. A principal delas era a Woebot, é a única que teve validação científica, mas foi descontinuada. 

Uma terceira forma seria o acompanhamento do paciente entre as sessões. Além de ser terapeuta, a IA pode acompanhar um paciente com alguma fobia, por exemplo. Ou acompanhar um paciente com ansiedade social, com depressão, coletando dados de padrões de sono.

Tem também a questão da realidade virtual associada à IA. Nesse caso, a IA é usada para expor o paciente a situações e cenários controlados, como uma fobia específica, como pacientes com estresse pós-traumático, sempre acompanhado por um humano. É uma técnica terapêutica bem específica

E, por último, a IA pode ser usada em contextos corporativos como um benefício. Assim como tem plano odontológico, plano de saúde, algumas empresas dão acesso a IAs terapeutas para os colaboradores. 

Como você enxerga esses usos das ferramentas de IA na saúde mental? 

A maioria das pesquisas sobre isso demonstram que, em situações controladas, as IAs voltadas para a saúde mental têm resultados satisfatórios, mas em situações reais esse resultado não é tão satisfatório.

Alguns artigos também falam na necessidade de validação desses instrumentos, porque são modelos que são feitos fora do nosso contexto, por pessoas brancas, privilegiadas, de países desenvolvidos. 

Elas não são treinadas a partir do nosso contexto, e isso torna as ferramentas muito limitadas. Tem outro estudo que analisou 54 plataformas de IA focadas em saúde mental que mostra que 89% delas vendiam os dados de saúde mental dos usuários para outras empresas por até US$ 15. 

Outra pesquisa mostrou que apenas 23% das IAs usadas em saúde mental passaram por ensaio clínico randomizado. Então, a maioria das IAs que se usa hoje não tem reconhecimento científico. E oferecer isso como um benefício no ambiente corporativo demonstra que, no nosso tempo, a saúde mental virou um luxo, virou uma meta. É o ápice do individualismo e imediatismo

O sujeito pode comprar a saúde mental se quiser, e não custa caro. Os modelos de IA correspondem muito às expectativas do nosso tempo, de ter alguém disponível a qualquer momento, de poder levar o terapeuta no bolso, de poder acessar em qualquer lugar, de não precisar se deslocar, de não precisar entrar nessa relação terapêutica, que é muito mais difícil de se constituir do que simplesmente conversar com alguém através de um chatbot. 

A IA não identifica o sofrimento produzido por uma sociedade racista.

Quais riscos e impactos isso pode trazer à saúde mental das pessoas? 

Existem muitos riscos em relação a isso. O primeiro deles é a simplificação e automatização da relação terapêutica. A relação do paciente com o terapeuta é uma relação de vínculo, de responsabilidades compartilhadas. 

O paciente precisa imaginar quem é esse terapeuta, ele precisa imaginar a vida do terapeuta, precisa decidir se vai ou não na terapia naquele dia. E o terapeuta precisa poder silenciar, que é algo que a IA não faz. 

O segundo risco é em relação ao uso de dados privados, dados sensíveis. Além disso, as IAs correm o risco de produzir uma sociedade individualista, com sujeitos que compreendam que a causa do sofrimento deles é individual. Podemos pegar o exemplo do racismo.

Muitas vezes, as IAs deixam de detectar depressão em homens negros, por exemplo, porque elas são treinadas com base em uma população branca privilegiada, e colocam a causa da depressão em situações pessoais do sujeito, e não compreendem as razões do sofrimento psíquico de pessoas negras. 

A IA não identifica o sofrimento produzido por uma sociedade racista. Tivemos outras questões graves já conhecidas, como chatbots que contribuíram em casos de suicídio

A tecnologia pode ser uma aliada? Como seria um uso responsável da IA nessa área?  

Eu acredito que a tecnologia tem muito potencial, mas não da forma como está sendo produzida. O que eu acho complicado é a gente pensar que esses modelos estão preocupados com a nossa saúde mental. Eles estão preocupados com lucro, com extração de dados. 

Não podemos achar que a IA vai substituir um psicólogo, ou um psiquiatra, a IA não pode substituir as relações humanas. Podemos pensar em uma IA que seja treinada com diferentes saberes, como ferramentas que possam ajudar a contar outras histórias. Mas, para isso, teríamos que criar IAs com software livre, de código aberto, abordando conhecimentos locais. Teria que ter toda uma construção responsável, de modo a produzir relações menos violentas na nossa sociedade.

Source link

Join the conversation

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *