Mesmo após respostas erradas, modelos como ChatGPT e Gemini seguem superestimando seu desempenho — diferente dos humanos

Tudo sobre Inteligência Artificial
Ferramentas de inteligência artificial generativa, como ChatGPT, Gemini e outras, demonstram excesso de confiança ao responder perguntas — mesmo quando erram.
Um estudo publicado na Memory & Cognition comparou humanos e modelos de linguagem (LLMs) em tarefas como quizzes, previsões esportivas e jogos de identificação de imagens.
Potencialize seu trabalho com IA!
Aprenda a criar agentes de Inteligência Artificial que trabalham 24 horas por você!
Conheça o curso de IA & Automação de Agentes com N8N da Impacta em parceria com o Olhar Digital.
Oferta Exclusiva: Assine o plano anual do Clube Olhar Digital por apenas R$ 58,99 e ganhe 10% de desconto imediato no curso.
A economia é maior que o valor da assinatura!
Aproveite essa oportunidade e dê o próximo passo rumo à automação inteligente!
Ambos os grupos superestimaram seu desempenho, mas apenas os humanos ajustaram suas expectativas após o resultado.

Descobertas do estudo
- Segundo os pesquisadores, os LLMs continuaram confiantes mesmo quando seus acertos foram baixos, demonstrando falhas em metacognição — a capacidade de avaliar o próprio pensamento.
- A IA Gemini, por exemplo, errou quase todas as imagens mostradas nos testes, mas seguiu estimando alto seu próprio desempenho.
- Esse comportamento levanta preocupações, especialmente porque muitos usuários tendem a confiar nas respostas dos chatbots, que são formuladas com aparente segurança.
- Estudos paralelos já identificaram taxas significativas de erro em respostas de IA sobre notícias e questões jurídicas.
Leia mais:

Resultados da pesquisa podem ajudar
Apesar das limitações atuais, os pesquisadores veem valor em expor essas falhas: isso pode ajudar a desenvolver modelos mais conscientes de suas próprias limitações.
No futuro, a capacidade de reconhecer erros pode tornar os LLMs mais confiáveis. Por enquanto, a recomendação é: use IA com espírito crítico, busque checar informações em outras fontes, e desconfie quando um chatbot parecer “ter certeza demais”.


Colaboração para o Olhar Digital
Leandro Criscuolo é jornalista formado pela Faculdade Cásper Líbero. Já atuou como copywriter, analista de marketing digital e gestor de redes sociais. Atualmente, escreve para o Olhar Digital.

