Útil, mas também impreciso: ChatGPT Health divide opinião de médicos e especialistas
A OpenAI lançou no início de janeiro o ChatGPT Health, que permite aos usuários tirararem dúvidas específicas sobre saúde. Entre médicos e especialistas em inteligência artificial ouvidos pela reportagem, porém, não há consenso sobre os impactos do uso da ferramenta. Alguns consideram a novidade promissora. Outros dizem acreditar que as respostas do chatbot podem ser imprecisas, o que acende um alerta sobre a qualidade das informações e a responsabilização em caso de falhas.
Segundo a OpenAI, o ChatGPT Health tem caráter informativo e educacional e não é destinado para diagnóstico ou tratamento médico, tampouco para substituir o atendimento profissional de saúde. “A ferramenta pode ajudar a pessoa a organizar dúvidas, interpretar informações e se sentir mais preparada para conversas com profissionais de saúde”, diz a empresa, em nota.
O CFM (Conselho Federal de Medicina) afirma, também em nota, que o ChatGPT Health pode ser útil como instrumento adicional para orientar pacientes, mas “jamais deve substituir o exame clínico, o julgamento médico ou a responsabilidade profissional”.
Veja também

Entre o digital e o tradicional: como o investidor pode diversificar seus ganhos?
Vazamento expõe 149 milhões de senhas de usuários de grandes plataformas e serviços públicos
O médico André Costa, especialista em clínica médica e diretor de operações da Rede Mater Dei de Saúde, alerta para os riscos de as pessoas substituírem uma consulta profissional por uma análise feita por IA. “Hoje, 90% do diagnóstico clínico aparece durante a anamnese. Na consulta, usamos diversas técnicas para confirmar ou afastar a suspeita de um diagnóstico.”

Foto: Reprodução
Segundo Lara Salvador, diretora de inovação e experiência na mesma rede, o uso da ferramenta pode levar a interpretações incorretas de sintomas e exames. Ela também cita os riscos de se confiar excessivamente em respostas automatizadas. “A IA não tem acesso ao contexto clínico completo, não faz exame físico nem acompanha a evolução do quadro, elementos essenciais para tomadas de decisões”, afirma. Gustavo Zaniboni, fundador da empresa de consultoria em inteligência artificial Redcore, questiona quem será responsabilizado em caso de erros.
Curtiu? Siga o PORTAL DO ZACARIAS no Facebook, Twitter e no Instagram
Entre no nosso Grupo de WhatApp, Canal e Telegram
“Se um médico erra e o paciente morre, ele sofrerá um tipo de punição. Agora, se a IA erra e o paciente vai a óbito, de quem é a responsabilidade? Ela continua em operação? E se o erro for uma característica, como é o caso da alucinações nos algoritmos de IA generativa?” Alucinações ocorrem quando a inteligência artificial “inventa” ou distorce fatos para criar respostas que soam lógicas e fluidas.

