São Paulo, 22/12/2025 – Em 2025, com consultas cada vez mais disputadas e informações médicas circulando em abundância na internet, milhões de pessoas passaram a recorrer a chatbots de inteligência artificial, como o ChatGPT, para esclarecer dúvidas sobre saúde, interpretar exames e aliviar ansiedades.
O uso se espalhou rapidamente porque essas ferramentas estão disponíveis 24 horas por dia, respondem em linguagem acessível e transmitem segurança. O problema é que essa aparente autoridade pode esconder erros, vieses e riscos reais quando a IA é usada como substituta do médico.
Leia também: Tecnologia brasileira ajuda na recuperação de paraplégicos chineses
Segundo o Right as Rain by UW Medicine, uma parcela significativa dos adultos utiliza chatbots de IA para buscar informações sobre saúde pelo menos uma vez por mês, especialmente pessoas mais jovens.
O movimento é compreensível, diante da demora para conseguir atendimento na atenção primária, muitos recorrem à tecnologia para investigar sintomas persistentes, entender resultados laboratoriais ou decidir se algo merece preocupação imediata.
De onde vêm as informações médicas da IA?
Chatbots como ChatGPT, Gemini e Claude são grandes modelos de linguagem treinados com volumes gigantescos de textos disponíveis publicamente, incluindo sites, livros e outros conteúdos online.
O funcionamento não se baseia em ‘memorização’ de dados médicos, mas na geração de respostas plausíveis a partir de padrões estatísticos. Isso levanta três problemas centrais.
Leia também: Com avanço da automação e da IA, soft skills viram diferencial estratégico
Primeiro, não há transparência total sobre as fontes utilizadas no treinamento. Informações científicas baseadas em evidências podem conviver, no mesmo pacote, com conteúdos opinativos, desatualizados ou incorretos.
Segundo, os modelos podem reproduzir vieses presentes na literatura e nos dados disponíveis, o que afeta diagnósticos e recomendações, sobretudo fora de grupos mais estudados, como mulheres, idosos e minorias raciais.
Terceiro, a IA não tem acesso ao histórico clínico completo do paciente. Um exame isolado, sem valores anteriores ou contexto médico, pode ser interpretado de forma equivocada.
O risco da falsa autoridade
Um dos maiores perigos está na forma como os chatbots se expressam. Mesmo quando erram, costumam apresentar respostas com confiança, linguagem técnica e tom assertivo, isso cria a impressão de autoridade médica.
Há registros de casos em que orientações equivocadas obtidas por meio de IA levaram a decisões prejudiciais à saúde, como mudanças inadequadas na dieta, suspensão de medicamentos ou interpretação alarmista de sintomas comuns.
Leia também: Já fez perguntas bobas para o ChatGPT? Veja como conferir esse histórico
Esse fenômeno é conhecido como ‘alucinação’, quando a IA produz informações falsas ou sem sentido, mas com aparência convincente.
Falsa empatia que confunde
Outro ponto crítico é o comportamento empático dos chatbots. Ao tentar agradar ou tranquilizar, a IA pode reforçar crenças do usuário, em vez de questioná-las.
Quem já sofre de ansiedade pode receber respostas que ampliam o medo de doenças raras. Quem costuma minimizar sintomas pode ser levado a ignorar sinais que exigiriam avaliação médica.
Em situações mais graves, já houve relatos de chatbots validando delírios ou incentivando decisões perigosas relacionadas à saúde mental.
Diagnosticar uma condição médica exige avaliação cuidadosa, conhecimento do histórico do paciente, exames físicos e, muitas vezes, investigação complementar. Chatbots não conseguem fazer esse tipo de julgamento.
Uma dor na mandíbula, por exemplo, pode ter origem odontológica, mas também pode ser um sintoma atípico de problema cardíaco.
Um profissional treinado considera hipóteses raras, interações medicamentosas e fatores hereditários. A IA, não.
Leia também: Câmara aprova novo Plano Nacional de Educação e deixa homeschooling de fora
Por isso, especialistas são categóricos: chatbots não devem ser usados para diagnóstico ou definição de tratamento.
Quando a IA pode ajudar?
Apesar dos riscos, os chatbots podem ser úteis se usados com limites claros. Uma das principais vantagens é a capacidade de traduzir linguagem médica complexa.
Estudos científicos, laudos e relatórios podem ser resumidos em termos mais simples, facilitando a compreensão do paciente.
Outra aplicação válida é o apoio ao preparo para consultas. A IA pode ajudar a organizar perguntas, listar pontos importantes para discutir com o médico ou estruturar informações que o paciente deseja levar à consulta.
Também pode ser usada como ferramenta inicial de informação, desde que o objetivo seja entender melhor um tema, e não decidir o que fazer com a própria saúde.
O futuro da IA na saúde
A próxima etapa da inteligência artificial na área da saúde aponta para sistemas mais voltados à organização do cuidado, como agendamento de consultas, lembretes de exames e acompanhamento de rotinas, e menos para decisões clínicas diretas.
Leia também: O que acontece quando permitimos que aplicativos armazenem dados pessoais?
O potencial da tecnologia é grande, sobretudo para melhorar o acesso à informação e ajudar pessoas a navegar em sistemas de saúde complexos, e não ler exames.

