Pular para o conteúdo

IA médica do Google comete erro em diagnóstico e cita órgão que não existe

Banner Aleatório

Um caso preocupante envolvendo inteligência artificial na medicina foi revelado recentemente: a ferramenta Med-Gemini do Google, desenvolvida para auxiliar diagnósticos médicos, diagnosticou uma condição cerebral usando um termo anatômico que simplesmente não existe. O erro, que passou despercebido pela equipe da gigante de tecnologia, levanta sérias questões sobre a confiabilidade desses sistemas em aplicações críticas de saúde.

Banner Aleatório

A falha ocorreu quando a IA identificou o que chamou de “old left basilar ganglia infarct” (antigo infarto do gânglio basilar esquerdo) em uma imagem de exame cerebral. O problema é que “gânglio basilar” não é uma estrutura real do cérebro humano. O termo correto seria “basal ganglia” (gânglios basais), uma região cerebral bem documentada pela ciência médica.

Você também pode gostar dos artigos abaixo:

O caso foi revelado inicialmente pelo portal The Verge, que destacou como este tipo de erro representa um exemplo clássico de “alucinação” em sistemas de inteligência artificial – quando o modelo gera informações plausíveis na forma, mas factualmente incorretas. Para especialistas em IA médica, o incidente serve como um alerta importante sobre os riscos de confiar cegamente em diagnósticos automatizados.

Em resposta à descoberta, o Google reconheceu o erro, mas tentou minimizar sua gravidade. A empresa afirmou que a IA de fato identificou corretamente uma lesão cerebral nas imagens analisadas, mas falhou ao aplicar a terminologia médica adequada. A explicação mais provável é que o sistema tenha confundido “basal ganglia” com “basilar artery” (artéria basilar), duas estruturas cerebrais completamente diferentes.

Interface digital mostrando análise cerebral com sobreposição de elementos tecnológicos médicosInterface digital mostrando análise cerebral com sobreposição de elementos tecnológicos médicos
A combinação de tecnologia e medicina requer extrema precisão – erros terminológicos podem levar a tratamentos inadequados e consequências graves para pacientes.

Implicações sérias para a medicina digital

Apesar de parecer um erro simples de terminologia, as consequências potenciais são graves. Diagnósticos médicos incorretos podem levar a tratamentos inadequados, procedimentos desnecessários ou atrasos em intervenções críticas. No Brasil, onde sistemas de IA médica começam a ser implementados em instituições de saúde, o caso serve como um importante alerta para médicos e gestores.

O episódio do Med-Gemini não é um caso isolado. Testes recentes com a versão atualizada da IA, chamada MedGemma, revelaram outras fragilidades preocupantes. Profissionais de saúde observaram que pequenas mudanças na formulação das perguntas resultavam em diagnósticos completamente diferentes para o mesmo exame de imagem, revelando inconsistências fundamentais no funcionamento do sistema.

Para especialistas em medicina digital que atuam no Brasil, o caso reforça a necessidade de protocolos rigorosos que mantenham médicos humanos como supervisores finais de qualquer diagnóstico assistido por IA. “Sistemas como o Med-Gemini devem ser vistos como ferramentas auxiliares, nunca como substitutos do julgamento clínico de um profissional treinado”, argumentam pesquisadores da área.

O ocorrido também destaca uma questão crítica para o avanço da inteligência artificial na saúde: a transparência. Diferentemente de médicos humanos, que podem explicar seu raciocínio diagnóstico, muitos sistemas de IA funcionam como “caixas-pretas”, onde o processo de decisão não é facilmente auditável. Esta característica torna ainda mais importante o estabelecimento de mecanismos rigorosos de verificação e validação antes que tais tecnologias sejam implementadas em larga escala.

Source link

Join the conversation

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *