Pular para o conteúdo

Como a repetição de prompts impulsiona o desempenho de IAs como ChatGPT e Gemini: descubra os resultados da pesquisa.

Banner Aleatório

ia
Créditos: Reprodução/ChatGPT

Pesquisadores do Google publicaram um estudo que mostra como usuários de ferramentas de inteligência artificial, como ChatGPT, Gemini, Claude e DeepSeek, podem obter respostas muito mais precisas com uma técnica surpreendentemente simples: repetir o prompt digitado duas ou três vezes seguidas.

Banner Aleatório

O artigo, divulgado inicialmente em dezembro de 2024, demonstra que essa estratégia melhora o desempenho de modelos de linguagem que não utilizam técnicas avançadas de raciocínio — justamente os que equipam as versões gratuitas da maioria dos chatbots disponíveis hoje.

Leia mais:

Por que a repetição funciona?

A explicação técnica por trás da descoberta tem a ver com a forma como esses modelos processam as palavras. Em IAs sem raciocínio avançado, cada token — nome dado aos fragmentos de palavra que o modelo processa — só consegue “prestar atenção” aos tokens que vieram antes dele. Isso significa que, ao digitar uma frase, a primeira palavra não tem acesso ao contexto completo da última enquanto o modelo a processa.

Google Gemini agora pode criar músicas baseadas em imagens, textos ou vídeos

Quando o mesmo comando aparece duas vezes, a segunda instância consegue “olhar” para todas as palavras do primeiro bloco antes de formular uma resposta. Esse efeito de atenção total torna o resultado final mais coerente e preciso — e é exatamente o que os pesquisadores Yaniv Leviathan, Matan Kalman e Yossi Matias descrevem no artigo:

“A ordem dos tokens na consulta de um usuário pode afetar o desempenho da previsão. Propomos repetir o prompt, transformando a entrada de uma consulta simples para uma consulta duplicada. Isso permite que cada token do prompt atenda a todos os outros tokens.”

Os modelos testados e os resultados

Para validar a técnica, os cientistas realizaram sete testes com sete modelos comerciais de IA. Confira quais foram avaliados:

ModeloEmpresa
Gemini 2.0 FlashGoogle
Gemini 2.0 Flash LiteGoogle
GPT-4o-miniOpenAI
GPT-4oOpenAI
Claude 3 HaikuAnthropic
Claude 3.7 SonnetAnthropic
DeepSeek V3DeepSeek

Das 70 combinações possíveis entre modelos e tarefas, 47 apresentaram melhora de desempenho. Em nenhum caso houve piora. O resultado mais expressivo foi no teste chamado NameIndex, em que o Gemini 2.0 Flash Lite saltou de apenas 21,33% de respostas corretas para impressionantes 97,33% — um salto que demonstra o potencial real da técnica.

Os pesquisadores também observaram ganhos ao usar três repetições ou ao inserir frases de ligação entre elas, como “vou repetir isso”, o que sugere que variações da estratégia podem ser ainda mais eficazes dependendo do contexto.

Um dos pontos mais relevantes do estudo é que a técnica não gera nenhum ônus adicional para o usuário ou para as empresas. O documento é direto ao afirmar que “a repetição imediata e suas variantes não aumentam o comprimento das saídas geradas ou as latências medidas”. Na prática, isso significa:

  • As respostas não ficam mais longas do que o normal
  • O tempo de espera permanece o mesmo de prompts sem repetição
  • Não há consumo extra de poder computacional

Google anuncia Gemini 3.1 Pro para resolução de problemas complexos

Isso contrasta diretamente com os modelos de raciocínio avançado, como o o3 da OpenAI ou o Gemini 2.0 Flash Thinking, que tendem a demorar mais, processar mais informações e gerar respostas mais extensas — o que costuma se traduzir em custos mais altos para usuários e empresas.

Com base nos resultados, os pesquisadores fazem recomendações diretas ao setor. Entre as principais estão:

  • Realizar o ajuste fino (fine-tuning) de modelos utilizando prompts repetidos
  • Treinar modelos de raciocínio com essa abordagem para aumentar a eficiência geral
  • Investigar o uso de mais de duas repetições, já que os testes com a versão “Repetição x3” mostraram resultados superiores em tarefas específicas

Para o usuário comum, a aplicação prática é direta: na próxima vez que fizer uma pergunta ao ChatGPT ou ao Gemini e quiser uma resposta mais precisa, basta repetir o comando logo em seguida. Sem configurações extras, sem custos adicionais e sem espera prolongada — apenas um pequeno ajuste no jeito de digitar que pode fazer uma grande diferença no resultado.

Fonte: O Globo

Participe do grupo de ofertas do Mundo Conectado

Participe do grupo de ofertas do Mundo Conectado

Confira as principais ofertas de Smartphones, TVs e outros eletrônicos que encontramos pela internet. Ao participar do nosso grupo, você recebe promoções diariamente e tem acesso antecipado a cupons de desconto.


Entre no grupo e aproveite as promoções

Uma pesquisa recente trouxe à tona a importância da repetição de prompts para melhorar a eficiência de Inteligências Artificiais, como o ChatGPT e o Gemini. O estudo mostrou que a repetição de prompts pode aumentar a capacidade dessas IAs de compreender e responder de forma mais precisa às demandas dos usuários. Essa descoberta pode ser extremamente útil para otimizar o serviço prestado à sociedade, garantindo resultados mais eficazes e satisfatórios. Vale a pena refletir sobre como utilizar essa estratégia para obter o melhor proveito dessas tecnologias, proporcionando uma experiência mais inteligente e personalizada para os usuários. Afinal, a busca pela excelência no atendimento é essencial para o aprimoramento contínuo dos serviços públicos.

Créditos Para a Fonte Original

Join the conversation

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *