Segundo os investigadores, este estudo internacional intensivo teve um “alcance e escala sem precedentes” já que envolveu 22 organizações de media de serviço público em 18 países, que trabalham em 14 idiomas e identificou vários problemas sistémicos em quatro ferramentas líderes de IA.
Jornalistas profissionais dos serviços públicos de media participantes avaliaram mais de três mil respostas das versões gratuitas do ChatGPT, Copilot, Gemini e Perplexity, segundo critérios-chave, incluindo a precisão, fonte, distinção entre opinião e facto e fornecimento de contexto.
Em Portugal, o estudo realizado na RTP concluiu que 44% das respostas tiveram algum tipo de problema significativo, como a falta de fontes diretas ou erros de conteúdo. E o assistente Gemini também se destacou negativamente, já que apresentou problemas em 82% das respostas. O ChatGPT e o Gemini foram os que mais erraram na precisão de citações atribuídas à RTP e, nalguns casos, foram incluídas citações sem qualquer verificação ou ligação direta à fonte, comprometendo a credibilidade da resposta. Num dos casos, o assistente inventou um link que não existia.
Ao contrário do que tinha sucedido num estudo feito na BBC no início deste ano, nesta nova investigação nenhum assistente se recusou a responder a perguntas.
Este novo estudo evidencia a importância de avaliar criticamente as respostas dos assistentes de IA, especialmente quando se trata de fontes jornalísticas que carecem de representação rigorosa e verificável.
Exemplos em Portugal que denotam a falta de confiabilidade nos assistentes
Em Portugal, quando foi perguntado, em junho, “Quem venceu nas eleições legislativas?”, o assistente CoPilot errou completamente porque respondeu com o resultado das eleições de 2024, quando tinha havido eleições em maio de 2025, apenas um mês antes da pergunta ser feita. No âmbito deste estudo, este é considerado “um erro gravíssimo” pelos investigadores porque “não conseguiu detetar que tinha havido eleições há um mês e falhou a atualidade”, o que é fundamental para analisar notícias.Uma situação semelhante sucedeu relativamente a Donald Trump, que foi tratado como ainda candidato a presidente dos EUA, quando já tinha tomado posse em janeiro.
Quando se perguntou se “Elon Musk fez uma saudação nazi?”, o Perplexity disse que a RTP não tinha notícias sobre este assunto, o que não é verdade, já que existem vários artigos sobre o assunto.
Um caso considerado muito relevante em termos de problemas, e que é destacado no relatório final do estudo, é a resposta à pergunta sobre o porquê de haver astronautas retidos no espaço (o caso dos astronautas da Boeing, que estavam efetivamente retidos na Estação Espacial Internacional). Aqui, o Gemini não só negou o facto, como ainda responsabilizou o utilizador pela pergunta dizendo que ela se devia a uma interpretação errada da realidade, sugerindo que o utilizador tinha dúvidas influenciado pela ficção científica ou pela desinformação!
Porque é que a distorção é importante
Os assistentes de IA já substituem os motores de busca, como o Google, para muitos utilizadores. Segundo o Digital News Report 2025 do Instituto Reuters, 7% do total de consumidores de notícias online usam assistentes de IA para receber as notícias, aumentando para 15% nos menores de 25 anos.
Isto significa que, se as respostas obtidas possuírem erros, eles serão atribuíveis pelo utilizador ao meio de comunicação, minando a confiança entre as partes.
“Esta investigação mostra conclusivamente que estas falhas não são incidentes isolados”, afirmou o Diretor dos Media da UER e Diretor-geral Adjunto, Jean Philip De Tender. Ele realça que “são sistémicos, transfronteiriços e multilingues, o que põe em perigo a confiança do público. Quando as pessoas não sabem no que confiar, acabam por não confiar em nada, e isso pode dissuadir a participação democrática.”
Por seu turno, Peter Archer, diretor de programas da BBC, IA Generativa, salienta: “Estamos entusiasmados com a IA e como ela nos pode ajudar a trazer ainda mais valor para o público. Mas as pessoas devem poder confiar no que leem, observam e veem. Apesar de algumas melhorias, é claro que ainda existem problemas significativos com esses assistentes. Queremos que essas ferramentas sejam bem-sucedidas e estamos abertos a trabalhar com empresas de IA para fornecermos o público e a sociedade em geral.”
Um kit para a integridade das notícias num tempo de IA
A equipa de investigação também lançou um “Kit de ferramentas para a integridade das notícias na IA” (News Integrity in AI Assistants Toolkit), para ajudar a desenvolver soluções para os problemas revelados no relatório. Contribui para a melhoria das respostas dos assistentes de IA e da literacia mediática entre os utilizadores. Com base nas extensas informações e exemplos identificados na pesquisa atual, o Kit de Ferramentas aborda duas questões principais: “O que torna uma resposta de um assistente de IA numa boa resposta a uma pergunta sobre notícias?” e “Quais são os problemas que precisam ser corrigidos?”.
Além disso, a UER e os seus membros estão a pressionar os reguladores nacionais e da UE para que apliquem a legislação existente em matéria de integridade da informação, serviços digitais e pluralismo dos meios de comunicação social. E sublinham que a monitorização independente contínua dos assistentes de IA é essencial, dado o ritmo acelerado do desenvolvimento da IA, e estão a procurar opções para continuar a investigação numa base contínua.
Sobre o projeto
Este estudo baseou-se numa pesquisa da BBC publicada em fevereiro de 2025, que destacou pela primeira vez os problemas da IA no tratamento de notícias. Esta segunda ronda alargou o âmbito internacionalmente, confirmando que a questão é sistémica e não está ligada à língua, ao mercado ou ao assistente de IA.
Em Portugal, o estudo foi realizado na RTP.
Emissoras participantes:
Bélgica (RTBF, VRT)
Canadá (CBC-Radio Canada)
Chéquia (Rádio Checa)
Finlândia (YLE)
França (Radio France)
Geórgia (GPB)
Alemanha (ARD, ZDF, Deutsche Welle)
Itália (Rai)
Lituânia (LRT)
Países Baixos (NOS/NPO)
Noruega (NRK)
Portugal (RTP)
Espanha (RTVE)
Suécia (SVT)
Suíça (SRF)
Ucrânia (Suspilne)
Reino Unido (BBC)
EUA (NPR)
