Pular para o conteúdo

Notícias | Útil, mas também impreciso: ChatGPT Health divide opinião de médicos e especialistas | Portal do Zacarias

Banner Aleatório

Útil, mas também impreciso: ChatGPT Health divide opinião de médicos e especialistas

Banner Aleatório

A OpenAI lançou no início de janeiro o ChatGPT Health, que permite aos usuários tirararem dúvidas específicas sobre saúde. Entre médicos e especialistas em inteligência artificial ouvidos pela reportagem, porém, não há consenso sobre os impactos do uso da ferramenta. Alguns consideram a novidade promissora. Outros dizem acreditar que as respostas do chatbot podem ser imprecisas, o que acende um alerta sobre a qualidade das informações e a responsabilização em caso de falhas.

 

Segundo a OpenAI, o ChatGPT Health tem caráter informativo e educacional e não é destinado para diagnóstico ou tratamento médico, tampouco para substituir o atendimento profissional de saúde. “A ferramenta pode ajudar a pessoa a organizar dúvidas, interpretar informações e se sentir mais preparada para conversas com profissionais de saúde”, diz a empresa, em nota.

 

O CFM (Conselho Federal de Medicina) afirma, também em nota, que o ChatGPT Health pode ser útil como instrumento adicional para orientar pacientes, mas “jamais deve substituir o exame clínico, o julgamento médico ou a responsabilidade profissional”.

 

Veja também 

 

20260125005147young successful confident woman with glasses holds gold bitcoin her hand isolated black wall

Entre o digital e o tradicional: como o investidor pode diversificar seus ganhos?

 

Vazamento expõe 149 milhões de senhas de usuários de grandes plataformas e serviços públicos

O médico André Costa, especialista em clínica médica e diretor de operações da Rede Mater Dei de Saúde, alerta para os riscos de as pessoas substituírem uma consulta profissional por uma análise feita por IA. “Hoje, 90% do diagnóstico clínico aparece durante a anamnese. Na consulta, usamos diversas técnicas para confirmar ou afastar a suspeita de um diagnóstico.”

 

Útil, mas também impreciso: ChatGPT Health divide opinião de médicos e  especialistas | Jornal de Brasília

Foto: Reprodução

 

Segundo Lara Salvador, diretora de inovação e experiência na mesma rede, o uso da ferramenta pode levar a interpretações incorretas de sintomas e exames. Ela também cita os riscos de se confiar excessivamente em respostas automatizadas. “A IA não tem acesso ao contexto clínico completo, não faz exame físico nem acompanha a evolução do quadro, elementos essenciais para tomadas de decisões”, afirma. Gustavo Zaniboni, fundador da empresa de consultoria em inteligência artificial Redcore, questiona quem será responsabilizado em caso de erros.

 

Curtiu? Siga o PORTAL DO ZACARIAS no FacebookTwitter e no Instagram

Entre no nosso Grupo de WhatAppCanal e Telegram

 

“Se um médico erra e o paciente morre, ele sofrerá um tipo de punição. Agora, se a IA erra e o paciente vai a óbito, de quem é a responsabilidade? Ela continua em operação? E se o erro for uma característica, como é o caso da alucinações nos algoritmos de IA generativa?” Alucinações ocorrem quando a inteligência artificial “inventa” ou distorce fatos para criar respostas que soam lógicas e fluidas. 



Source link

Join the conversation

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *