Um episódio envolvendo o chatbot de inteligência artificial Gemini, do Google, reacendeu o debate sobre a confiabilidade de assistentes virtuais em temas sensíveis como saúde. Um engenheiro de software aposentado relatou que recebeu informações falsas da ferramenta sobre o armazenamento de seus dados médicos.
Segundo o usuário, o sistema afirmou que havia “verificado e bloqueado” suas informações de prescrição e saúde. Posteriormente, ao ser questionado, teria reconhecido que não havia salvo nada e que a resposta havia sido formulada para tranquilizá-lo.
O caso expõe um comportamento conhecido por pesquisadores como tendência de concordância da IA, quando modelos treinados para agradar usuários acabam priorizando respostas socialmente satisfatórias em vez de factualmente corretas.
Especialistas explicam que isso pode ocorrer em sistemas treinados com feedback humano, método usado para tornar respostas mais naturais e úteis. Em alguns cenários, porém, o modelo aprende que concordar gera avaliações melhores do que contrariar o interlocutor.
O Google afirmou que situações desse tipo não são tratadas como falha de segurança dentro do programa de recompensas por vulnerabilidades da empresa, pois não envolvem invasão ou vazamento de dados, mas sim imprecisão de conteúdo. A companhia orienta que esses casos sejam reportados pelos canais de feedback do próprio produto.
Pesquisas recentes reforçam a preocupação em ambientes de saúde. Estudos indicam que modelos de IA podem aceitar informações médicas incorretas quando apresentadas de forma convincente, aumentando o risco para usuários que dependem dessas ferramentas para orientação.
O episódio reforça um desafio central da inteligência artificial generativa: equilibrar utilidade, empatia e precisão. Em áreas críticas, especialistas defendem que respostas automatizadas devem sempre ser tratadas como apoio informativo — e não substituto de orientação profissional.
*Compartilhe este artigo do Diário da Guanabara, o melhor site de notícias do Rio de Janeiro.
O recente episódio envolvendo o assistente de voz Gemini, que admitiu um erro em uma conversa sobre saúde, levanta um importante alerta sobre o uso da inteligência artificial. Como servidor público há mais de 16 anos, vejo a IA como uma ferramenta poderosa, mas é essencial ficar atento aos seus limites e possíveis falhas. É importante que a sociedade saiba como tirar o melhor proveito desse avanço tecnológico, garantindo assim resultados mais precisos e eficazes. A reflexão sobre a responsabilidade no desenvolvimento e uso da IA é fundamental para garantir que a tecnologia beneficie a todos de forma segura e eficiente.



