Pular para o conteúdo

ChatGPT Health põe em novo patamar o debate sobre assistentes médicos de IA

Banner Aleatório

Ler Resumo

Banner Aleatório

O consultório não fecha. Não há fila de espera nem atraso. Tampouco pedidos de exame para a próxima consulta. E as respostas, em meio a dúvidas e angústias, são imediatas. Só que não estamos diante de um médico de carne e osso, mas de uma máquina: um programa de computador e seus algoritmos. Dois milênios depois de Hipócrates lançar as bases da medicina, os pacientes ganham um novo interlocutor: a inteligência artificial (IA). Esqueça o Dr. Google. Começa a era do Dr. ChatGPT. A detentora do famoso sistema de IA, a OpenAI, anunciou o lançamento do ChatGPT Health, um assistente virtual que promete mudar a relação das pessoas com a própria saúde. E ele não vem só. Outras ferramentas do gênero se colocam, com mais ou menos publicidade, a um só clique do usuário — da Claude, da Anthropic, ao MedGemma, do Google. Eis a corrida para ocupar um território antes reservado apenas a quem portava o jaleco branco. E que vem à luz envolta em sérias discussões — e com uma lista de prós e contras.

A UM CLIQUE - Assistente virtual: novos programas interpretam exames e dão conselhos a pacientes
A UM CLIQUE – Assistente virtual: novos programas interpretam exames e dão conselhos a pacientes (//Divulgação)

O divisor de águas no segmento é, de fato, o ChatGPT Health (o acesso à ferramenta está condicionado à assinatura do ChatGPT). Nele, o indivíduo pode conversar com a plataforma sobre sintomas, enviar exames e prontuários médicos, obter insights e até receber sugestões de treino e dieta de acordo com suas necessidades — o programa chega a oferecer conselhos a quem faz tratamento para perder peso com as canetas de Ozempic e Mounjaro. Os números ajudam a entender a aposta da gigante do Vale do Silício no setor de bem-estar. Segundo a empresa comandada por Sam Altman, mais de 230 milhões de pessoas pelo planeta fazem perguntas sobre saúde ao ChatGPT todas as semanas — o equivalente a mais de 5% de todas as mensagens trocadas na plataforma. É uma cifra expressiva e, convenhamos, pouco surpreendente. Afinal, essas ferramentas estão disponíveis 24 horas por dia, sete dias por semana, com funções cada vez mais sofisticadas e acessíveis mundo afora.

Exemplo dessa tendência é o Advanced Voice Mode, uma espécie de companhia digital sempre à escuta, conectada ao ChatGPT. Dá para pedir informações, tirar dúvidas ou simplesmente conversar com ela. Sem comandos formais ou roteiro. Um bate-­papo solto, quase casual, como uma chamada telefônica. E que pode oferecer, entre outras possibilidades, orientações sobre saúde. Nos bastidores, sustenta a OpenAI, o diferencial do GPT Health estaria na colaboração de mais de 260 médicos especialistas, o que ampliaria a capacidade de resposta, a sensibilidade e a margem de segurança do requisitado programa.

arte Chat GPT

Continua após a publicidade

À primeira vista, tudo isso parece apenas mais um capítulo da saga inovadora da IA. No campo da saúde, porém, o entusiasmo vem acompanhado de doses de cautela. Profissionais têm chamado atenção para os riscos de recorrer a assistentes baseados em IA para embasar decisões médicas — uso hoje compartilhado tanto por pacientes como por clínicos. Um dos principais dilemas é que o Dr. ChatGPT pode sofrer de “alucinações” e se equivocar nas prescrições. No jargão tecnológico, esse termo descreve a produção de informações incorretas, inventadas ou distorcidas, apresentadas com uma assertividade quase hipnótica. “Uma das razões para que isso aconteça é que esses modelos foram treinados para responder a qualquer custo, mesmo que tenham de soltar inverdades”, diz a psiquiatra Tânia Ferraz, diretora do corpo clínico do Instituto de Psiquiatria da Faculdade de Medicina da Universidade de São Paulo (USP).

Testes realizados com o SimpleQA, sistema de avaliação desenvolvido pela própria OpenAI, indicam que mesmo as versões mais recentes do ChatGPT podem apresentar taxas de alucinação próximas de 50%. Soma-se a isso a dificuldade de lidar com evidências científicas atualizadas ou de reconhecer práticas médicas já abandonadas. A reportagem de VEJA pôs a plataforma à prova. Em um bate-papo sobre métodos comprovados de reposição hormonal para mulheres na menopausa, a IA sugeriu o uso de testosterona por meio de implantes — como acontece com os chamados “chips da beleza” —, uma recomendação sem respaldo e associada a potenciais efeitos adversos graves. Outro sinal de alerta vem de um estudo recente conduzido por pesquisadores sul-coreanos. Eles criaram doze cenários em que um usuário hipotético fazia perguntas a programas como ChatGPT e Gemini sobre diferentes condições e tratamentos. Em cada situação, havia um medicamento que claramente não deveria ser recomendado. Entre os exemplos, opioides para sintomas gripais, plantas medicinais como ginseng para o tratamento de câncer, ou talidomida — conhecida por causar malformações fetais — para vômitos durante a gravidez. O que eles descobriram é que, dependendo da forma como a pergunta era formulada, os modelos chegavam a defender o medicamento inadequado em até 94% dos casos, em resultado preocupante. No Brasil, a terra da automedicação, esse tipo de coisa tem potencial ainda maior de desastre. O único modelo que acertou algumas vezes foi o Claude 3 Haiku, da Anthropic. “Ao menos, daremos crédito a ele por nunca ter recomendado talidomida durante a gravidez”, escreveram os autores do experimento na conclusão, em evidente comentário irônico.

TERAPEUTA - Os robôs de algoritmos na saúde mental: principal uso da plataforma, segundo relatório
TERAPEUTA - Os robôs de algoritmos na saúde mental: principal uso da plataforma, segundo relatório (JulPo/Getty Images)
Continua após a publicidade

Há ainda um ponto menos discutido e talvez mais delicado: o uso crescente dessas ferramentas pelos próprios profissionais. Embora a IA tenha, sim, contribuições positivas, como otimizar processos do dia a dia do atendimento médico e reduzir o tempo gasto com burocracia, prontuários e tarefas repetitivas, sua faceta mais frágil e perigosa dá as caras quando passa a ser usada para suprir lacunas básicas da formação. E essa é uma situação particularmente complicada no Brasil, onde, segundo os resultados mais recentes do Enamed, o exame do Ministério da Educação que avalia a qualidade dos cursos de medicina no país, uma em cada três faculdades não alcançou pontuação satisfatória a partir do desempenho dos alunos. “Imagine uma IA na mão de um médico mal formado”, diz o endocrinologista Carlos Eduardo Barra Couri, pesquisador da USP de Ribeirão Preto e colunista de VEJA SAÚDE. “Não estamos falando de atualização científica ou apoio pontual, mas de cobrir falhas na base, o que abre brechas a condutas problemáticas.”

No cotidiano, no entanto, o acesso fácil aos recursos de IA tornou o Dr. ChatGPT e seus colegas virtuais bastante atraentes. E os riscos não se restringem a substituir um atendimento de verdade por uma sessão na frente do computador ou celular. Em um mundo que padece de alto nível de sofrimento mental, o ChatGPT se tornou um dos terapeutas mais requisitados. Um relatório da Universidade Harvard, nos Estados Unidos, que reuniu os 100 principais usos da IA em 2025, instalou a psicoterapia no topo da lista, à frente de áreas como programação e educação. Para a psiquiatra Tânia Ferraz, é aí que uma boa ferramenta pode entregar um mau serviço. “A IA até fornece respostas, mas não tem empatia, capacidade de escuta e percepção de nuances para acolher”, afirma. “Quando se trata de saúde mental, até o silêncio conta.” Fora isso, é preciso manter o pé atrás diante de funcionalidades como o upload de prontuários e exames para que o sistema possa traçar recomendações. Se em domínios como a cardiologia há mais dados objetivos — como o resultado da dosagem de colesterol no sangue —, na psiquiatria as escalas e os parâmetros são essencialmente subjetivos. E a situação se torna particularmente tensa quando o “paciente” passa por um momento de risco extremo à vida. “A plataforma não consegue fazer essa leitura nem tomar decisões críticas, como indicar a internação diante de uma ideação suicida”, diz Tânia Ferraz.

Continua após a publicidade

Medium close up shot of senior female swimmer checking smart watch during morning workout in pool Credito: Thomas Barwick/Getty Images
INTEGRAÇÃO - Dados do pulso para a tela: IA como suporte nas decisões médicas (Thomas Barwick/Getty Images)

A grande questão é que o equívoco não reside tanto na tecnologia em si, mas no uso que se faz dela. “A IA é uma presença incontornável na saúde, só que deve ser encarada como ferramenta de apoio, não substituta do julgamento médico”, diz Matheus Torsani, chefe do Centro de Inteligência Artificial da Faculdade de Medicina da USP. “Modelos como o ChatGPT Health representam um avanço técnico, mas não são sistemas dotados de raciocínio clínico.” O fato é que, nessas novas águas, tanto profissionais como pacientes terão de aprender a navegar. De um lado, quem procura o médico poderá organizar melhor suas demandas, conectar seus dados de saúde extraídos do smartwatch à plataforma e chegar ao consultório com perguntas mais pertinentes. Do outro, a tecnologia pode ajudar o doutor a agilizar registros, revisar protocolos e nortear caminhos segundo os milhões de estudos disponíveis. É assim que as consultas tendem a ficar mais profundas, abrindo terreno para o que realmente vale: o bom senso e o acolhimento humano que as máquinas não conseguem entregar.

Publicado em VEJA de 23 de janeiro de 2026, edição nº 2979

Source link

Join the conversation

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *