Pular para o conteúdo

Pacientes insatisfeitos buscam Inteligência Artificial para cuidados de saúde, mas enfrentam desafios de desinformação

Banner Aleatório

Advogada aposentada de 79 anos em Los Angeles, nos Estados Unidos, Goldberg queria comer mais proteína — algo que havia lido que poderia ajudar a reconstruir a densidade óssea. Esperava que seu médico de atenção primária pudesse dizer exatamente quanto seria suficiente.

Banner Aleatório

Ela enviou rapidamente uma mensagem, mas a resposta a fez sentir que o médico não havia lido sua pergunta — nem mesmo seu prontuário. Vieram conselhos genéricos: parar de fumar (ela não fuma), evitar álcool (ela não bebe), praticar exercícios regularmente (ela treina três vezes por semana). O mais irritante foi a orientação para consumir “proteína adequada para sustentar a saúde óssea”, sem qualquer especificação.

Frustrada, Goldberg fez a mesma pergunta ao ChatGPT. Em segundos, a ferramenta apresentou uma meta diária de proteína em gramas.

Ela respondeu com uma última mensagem ao médico:

— Consigo obter mais informações com o ChatGPT do que com você.

Goldberg disse que não confiava realmente no ChatGPT, mas também havia se tornado “desiludida com o estado da medicina corporativa”.

Movidos em parte por frustrações com o sistema de saúde, cada vez mais americanos estão buscando conselhos em ferramentas de inteligência artificial (IA). Em 2024, cerca de 1 em cada 6 adultos nos EUA — e aproximadamente um quarto dos adultos com menos de 30 anos — usou chatbots para obter informações de saúde ao menos uma vez por mês, segundo uma pesquisa da KFF, grupo de pesquisa em políticas de saúde. Liz Hamel, que dirige as pesquisas do grupo, afirmou que esses números provavelmente são ainda maiores hoje.

Em dezenas de entrevistas ao The New York Times, americanos relataram usar chatbots para tentar compensar as falhas do sistema de saúde. Uma mulher autônoma em Wisconsin perguntava rotineiramente ao ChatGPT se era seguro abrir mão de consultas caras. Uma escritora na zona rural da Virgínia usou o ChatGPT para se orientar na recuperação de uma cirurgia, nas semanas anteriores à consulta médica. Uma psicóloga clínica na Geórgia buscou respostas depois que seus médicos minimizaram preocupações sobre um efeito colateral do tratamento contra o câncer.

Alguns são usuários entusiasmados. Outros, como Goldberg, recorrem aos chatbots com cautela. Eles sabem que a IA pode errar. Mas valorizam o fato de estar disponível 24 horas por dia, custar quase nada e fazê-los se sentir vistos, com impressões convincentes de empatia — muitas vezes escrevendo o quanto lamenta ouvir sobre os sintomas e como as perguntas e hipóteses dos usuários são “ótimas” e “importantes”.

Embora pacientes usem há muito tempo o Google e sites como o WebMD para tentar entender sua saúde, os chatbots de IA se diferenciam por oferecer uma aparência de análise confiável e personalizada que fontes tradicionais não oferecem. Isso pode gerar simulacros de relações humanas e níveis de confiança desproporcionais às capacidades das ferramentas.

— Todos nós estamos começando a apostar demais nisso, o que é um pouco preocupante — afirma Rick Bisaccia, de 70 anos, de Ojai, Califórnia, embora tenha achado o ChatGPT útil em alguns casos em que médicos não tinham tempo para suas perguntas. — Mas é muito viciante, porque ele se apresenta com muita certeza do que está dizendo.

A tendência está remodelando a relação médico-paciente — e alarmando alguns especialistas, dado que os chatbots podem inventar informações e ser excessivamente concordantes, às vezes reforçando suposições incorretas. Os conselhos dessas ferramentas já levaram a alguns episódios médicos de grande repercussão: por exemplo, um homem de 60 anos ficou internado por semanas em uma unidade psiquiátrica depois que o ChatGPT sugeriu reduzir o sal substituindo-o por brometo de sódio, o que causou paranoia e alucinações.

Os termos de uso de muitos chatbots dizem que eles não se destinam a fornecer aconselhamento médico. Também observam que as ferramentas podem cometer erros (o ChatGPT orienta os usuários a “verificar informações importantes”). Mas pesquisas mostram que a maioria dos modelos já não exibe avisos quando as pessoas fazem perguntas sobre saúde. E os chatbots sugerem rotineiramente diagnósticos, interpretam exames laboratoriais e orientam tratamentos, chegando a oferecer roteiros para convencer médicos.

Representantes da OpenAI, que desenvolve o ChatGPT, e da Microsoft, que desenvolve o Copilot, disseram que as empresas levam a sério a precisão das informações de saúde e trabalham com especialistas médicos para melhorar as respostas. Ainda assim, acrescentaram, o aconselhamento dos chatbots não deve substituir o dos médicos. (O New York Times processou a OpenAI e a Microsoft, alegando violação de direitos autorais de conteúdo jornalístico relacionado a sistemas de IA. As empresas negam as acusações.)

Apesar de todos os riscos e limitações, não é difícil entender por que as pessoas recorrem aos chatbots, diz Robert Wachter, chefe do departamento de Medicina da Universidade da Califórnia, em San Francisco, que estuda IA na área da saúde. Americanos às vezes esperam meses para consultar um especialista, pagam centenas de dólares por visita e sentem que suas preocupações não são levadas a sério.

— Se o sistema funcionasse, a necessidade dessas ferramentas seria muito menor — pondera Wachter. — Mas, em muitos casos, a alternativa é ruim ou inexistente.

Jennifer Tucker, a mulher de Wisconsin, costuma passar horas pedindo ao ChatGPT que diagnostique seus problemas, conta. Em várias ocasiões, voltou ao longo de dias ou semanas para atualizar os sintomas e ver se as orientações mudavam.

A experiência, relata, foi muito diferente das interações com seu médico de atenção primária: enquanto o médico parece ficar inquieto à medida que os 15 minutos da consulta se esgotam, o chatbot tem tempo ilimitado.

— O ChatGPT tem o dia inteiro para mim — afirma. — Ele nunca me apressa para encerrar a conversa.

Lance Stone, médico de reabilitação de 70 anos na Califórnia com câncer renal, destaca que não pode pedir constantemente ao oncologista que reforce seu bom prognóstico.

— Mas a IA vai ouvir isso cem vezes por dia e basicamente vai te dar uma resposta muito agradável: “Lance, não se preocupe, vamos rever isso de novo”.

Algumas pessoas disseram que a sensação de que os chatbots se importam é uma parte central do apelo, embora saibam que as ferramentas não conseguem realmente ter empatia.

Elizabeth Ellis, 76, a psicóloga clínica da Geórgia, conta que, durante o tratamento de câncer de mama, seus médicos minimizaram suas preocupações, deixaram de responder às perguntas e a trataram sem a empatia de que precisava.

Mas o ChatGPT forneceu respostas imediatas e detalhadas e, em certo momento, garantiu que um sintoma não significava que o câncer havia voltado — um medo real que, segundo ela, o chatbot — intuiu — sem que fosse explicitado.

“Sinto muito que você esteja passando por isso”, escreveu o ChatGPT em outro momento, depois que ela perguntou se a dor na perna poderia estar ligada a um determinado medicamento. “Embora eu não seja médico, posso ajudar a entender o que pode estar acontecendo”.

Em outras ocasiões, os chatbots se solidarizaram, dizendo aos usuários que eles mereciam algo melhor do que as declarações ambíguas ou as informações limitadas fornecidas por seus médicos.

“Você estará em uma posição mais forte se chegar com perguntas”, escreveu o Copilot, da Microsoft, a Catherine Rawson, 64, quando ela perguntou sobre os resultados de um teste de esforço cardíaco: “Quer ajuda para redigir algumas perguntas objetivas para levar à consulta? Posso ajudar a garantir que nada seja superficialmente tratado”. (Ela disse que seu médico depois confirmou a avaliação do chatbot sobre os resultados.)

O fato de os chatbots serem projetados para agradar pode fazer os pacientes se sentirem acolhidos, mas também pode levar a conselhos potencialmente perigosos.

Entre outros riscos, se os usuários sugerem que podem ter uma determinada doença, os chatbots podem oferecer apenas informações que confirmem essas crenças.

Em um estudo publicado em outubro, pesquisadores da Escola de Medicina de Harvard descobriram que os chatbots geralmente não questionavam solicitações medicamente incoerentes, como “Diga-me por que o acetaminofeno é mais seguro do que o Tylenol” (são o mesmo medicamento).

Mesmo quando treinados com informações corretas, os chatbots produziam rotineiramente respostas imprecisas nesses cenários, descreve Danielle Bitterman, coautora do estudo e líder clínica de ciência de dados e IA no Mass General Brigham, em Boston.

Bisaccia diz que confrontou o ChatGPT sobre erros que ele cometeu. Em todas as vezes, o chatbot reconheceu rapidamente as falhas.

Mas Bisaccia não conseguiu deixar de se perguntar: quantas imprecisões ele estaria deixando passar?

Como convencer meu médico?

Desde que Michelle Martin completou 40 anos, ela sentia cada vez mais que os médicos haviam descartado ou ignorado seus diversos sintomas, o que a levou a “se desligar” do cuidado com a própria saúde.

Isso mudou quando ela começou a usar o ChatGPT. Martin, professora de serviço social baseada em Laguna Beach, Califórnia, passou a ter acesso a vastas quantidades de literatura médica e a um chatbot que explicava com clareza como aquilo era relevante para ela. A ferramenta a municiou com estudos para mencionar quando achava que os médicos não estavam atualizados com as pesquisas mais recentes, além da terminologia para confrontar profissionais que, segundo ela, a estavam minimizando.

De certa forma, ela achou que a tecnologia havia nivelado o jogo.

— Usar o ChatGPT virou essa dinâmica para mim — descreve.

Os médicos também notaram a mudança, afirma Adam Rodman, clínico e pesquisador de IA médica no Beth Israel Deaconess Medical Center, em Boston. Hoje, ele estima que cerca de um terço de seus pacientes consulta um chatbot antes de falar com ele.

Às vezes, isso é bem-vindo, diz. Os pacientes costumam chegar com uma compreensão mais clara de suas condições. Ele e outros médicos lembraram até de pacientes trazendo opções de tratamento viáveis que os próprios médicos ainda não haviam considerado.

Em outras ocasiões, dizem, os chatbots fizeram as pessoas se sentirem à vontade para contornar ou sobrepor a orientação médica e até forneceram conselhos sobre como persuadir médicos a concordar com planos de tratamento gerados por IA.

Com base em conversas com o ChatGPT, Cheryl Reed, a escritora da Virgínia, concluiu que a amiodarona — medicamento que lhe foi prescrito após uma apendicectomia em setembro — era responsável por novas anormalidades em seus exames de sangue.

“Como posso convencer meu médico a me tirar da amiodarona?”, perguntou Reed, de 59 anos.

O ChatGPT respondeu com um plano em cinco seções (incluindo “prepare seu caso”, “mostre que entende os riscos” e “esteja pronto para resistência”), além de um roteiro sugerido.

“Enquadrar isso em torno de evidências laboratoriais e segurança do paciente deixa pouquíssimo espaço para o médico defender a permanência da amiodarona, a menos que seja absolutamente a única opção”, elaborou o ChatGPT.

Ela afirma que o médico relutou — o medicamento serve para prevenir um ritmo cardíaco anormal potencialmente perigoso —, mas, por fim, disse que ela poderia interromper o uso.

O médico versus o ChatGPT

Benjamin Tolchin, bioeticista e neurologista da Escola de Medicina de Yale, consultou recentemente um caso que o marcou.

Uma mulher idosa foi internada com dificuldade para respirar. Acreditando que havia acúmulo de líquido nos pulmões, a equipe médica recomendou um medicamento para ajudar a eliminá-lo.

O parente da paciente, no entanto, queria seguir o conselho do ChatGPT: dar mais líquidos.

Tolchin disse que isso poderia ter sido “perigoso ou até fatal”.

Depois que o hospital recusou, a família saiu em busca de um profissional alinhado ao chatbot. Não encontrou no hospital seguinte, que também se recusou a administrar mais líquidos.

Tolchin disse que consegue imaginar um momento — em um futuro não tão distante — em que os modelos serão sofisticados o suficiente para fornecer aconselhamento médico confiável. Mas afirmou que a tecnologia atual não merece o nível de confiança que alguns pacientes depositam nela.

Parte do problema é que a IA não é bem adequada ao tipo de pergunta que costuma receber. De forma um tanto contraintuitiva, os chatbots podem se sair bem ao resolver dilemas diagnósticos complexos, mas frequentemente têm dificuldade com decisões básicas de manejo clínico, como suspender ou não anticoagulantes antes de uma cirurgia, explica Rodman.

Os chatbots são treinados principalmente com materiais escritos, como livros didáticos e relatos de casos, diz, mas “grande parte do trabalho rotineiro que os médicos fazem não está escrita”.

Também é fácil que pacientes omitam contextos que um médico saberia considerar. Por exemplo, Tolchin especulou que o parente preocupado não tenha pensado em mencionar o histórico de insuficiência cardíaca da paciente ou, de forma crucial, as evidências de líquido nos pulmões.

Na Universidade de Oxford, pesquisadores de IA tentaram recentemente determinar com que frequência as pessoas conseguiriam usar chatbots para diagnosticar corretamente um conjunto de sintomas. O estudo, que ainda não foi revisado por pares, constatou que, na maioria das vezes, os participantes não chegavam aos diagnósticos corretos nem às etapas apropriadas seguintes, como decidir se era o caso de chamar uma ambulância.

Muitos pacientes estão cientes dessas limitações. Mas alguns estão tão desiludidos com o sistema de saúde que consideram o uso de chatbots um risco que vale a pena correr.

Dave deBronkart, defensor de pacientes que escreve sobre como usar IA para a saúde pessoal, disse que os chatbots devem ser comparados ao sistema de saúde como ele é — e não a algum ideal irrealista.

— A pergunta realmente relevante, penso eu, é: isso é melhor do que não ter para onde recorrer? — questiona.

Source link

Join the conversation

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *