Pular para o conteúdo

estudo revela que IA não sabe quando erra

Banner Aleatório

Mesmo após respostas erradas, modelos como ChatGPT e Gemini seguem superestimando seu desempenho — diferente dos humanos

Banner Aleatório
Pessoa teclando em um notebook com uma tela flutuando à sua frente
(Imagem: SuPatMaN/Shutterstock)

Compartilhe esta matéria

Ferramentas de inteligência artificial generativa, como ChatGPT, Gemini e outras, demonstram excesso de confiança ao responder perguntas — mesmo quando erram.

Um estudo publicado na Memory & Cognition comparou humanos e modelos de linguagem (LLMs) em tarefas como quizzes, previsões esportivas e jogos de identificação de imagens.


Potencialize seu trabalho com IA!


Aprenda a criar agentes de Inteligência Artificial que trabalham 24 horas por você!

Conheça o curso de IA & Automação de Agentes com N8N da Impacta em parceria com o Olhar Digital.


Oferta Exclusiva: Assine o plano anual do Clube Olhar Digital por apenas R$ 58,99 e ganhe 10% de desconto imediato no curso.

A economia é maior que o valor da assinatura!


Aproveite essa oportunidade e dê o próximo passo rumo à automação inteligente!


Assine Agora e Economize!

Ambos os grupos superestimaram seu desempenho, mas apenas os humanos ajustaram suas expectativas após o resultado.

IA 1
Estudo mostra que LLMs mantêm excesso de confiança mesmo após desempenho ruim em tarefas simples (Imagem: Gorodenkoff / Shutterstock.com)

Descobertas do estudo

  • Segundo os pesquisadores, os LLMs continuaram confiantes mesmo quando seus acertos foram baixos, demonstrando falhas em metacognição — a capacidade de avaliar o próprio pensamento.
  • A IA Gemini, por exemplo, errou quase todas as imagens mostradas nos testes, mas seguiu estimando alto seu próprio desempenho.
  • Esse comportamento levanta preocupações, especialmente porque muitos usuários tendem a confiar nas respostas dos chatbots, que são formuladas com aparente segurança.
  • Estudos paralelos já identificaram taxas significativas de erro em respostas de IA sobre notícias e questões jurídicas.

Leia mais:

Inteligencia Artificial IA 1
Estudo revela que modelos como Gemini ou ChatGPT erram com frequência — e ainda acham que acertaram – Imagem: Yuichiro Chino/Shutterstock

Resultados da pesquisa podem ajudar

Apesar das limitações atuais, os pesquisadores veem valor em expor essas falhas: isso pode ajudar a desenvolver modelos mais conscientes de suas próprias limitações.

No futuro, a capacidade de reconhecer erros pode tornar os LLMs mais confiáveis. Por enquanto, a recomendação é: use IA com espírito crítico, busque checar informações em outras fontes, e desconfie quando um chatbot parecer “ter certeza demais”.

IA seguranca
IA mantêm autoconfiança mesmo com baixo desempenho em testes – Imagem: Anggalih Prasetya/Shutterstock


Leandro Costa Criscuolo

Colaboração para o Olhar Digital

Leandro Criscuolo é jornalista formado pela Faculdade Cásper Líbero. Já atuou como copywriter, analista de marketing digital e gestor de redes sociais. Atualmente, escreve para o Olhar Digital.


Source link

Join the conversation

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *