Assistentes de inteligência artificial ainda apresentam falhas expressivas ao sintetizar conteúdo jornalístico. Levantamento conduzido pela BBC em parceria com a União Europeia de Radiodifusão (EBU) analisou mais de 3 mil respostas produzidas por ChatGPT (OpenAI), Copilot (Microsoft), Gemini (Google) e Perplexity, constatando que 45% continham equívocos relevantes.
Principais resultados
De acordo com o estudo, 31% das respostas mostraram problemas graves de atribuição de fontes, enquanto 20% apresentaram imprecisões sérias, como dados desatualizados ou fatos inventados. Quando incluídos deslizes menores, 81% dos textos avaliados registraram algum tipo de erro.
Desempenho dos assistentes
O Gemini foi o pior colocado: falhas foram identificadas em 76% de suas respostas, índice duas vezes maior que o verificado nos concorrentes. O mesmo sistema exibiu imprecisões em 72% dos casos, três vezes a taxa atribuída ao ChatGPT (24%).
Casos citados pelos pesquisadores
Entre os exemplos apontados, o ChatGPT afirmou que o papa Francisco permanecia vivo semanas após sua morte, e o Gemini garantiu que nenhum astronauta da NASA ficou preso no espaço — fato que já ocorreu.
Metodologia
Considerado o maior trabalho do gênero, o levantamento reuniu 22 veículos públicos de comunicação de 18 países. Os pesquisadores atribuem os erros principalmente à forma como os modelos tratam informações recentes e fontes externas.
Confiança do público
Apesar das falhas, o uso de chatbots para consumo de notícias cresce. Pesquisa paralela do instituto Ipsos, também em parceria com a BBC, indica que 42% dos britânicos confiam em resumos gerados por IA. Entre entrevistados com menos de 35 anos, o índice sobe para 50%. No entanto, 84% disseram que deixariam de confiar se detectassem apenas um erro factual.

