Pular para o conteúdo

Pesquisador utiliza Inteligência Artificial como fonte de notícias por 30 dias – Veja os resultados!

Banner Aleatório

Banner Aleatório
  • Estudo da UQAM revela que IAs generativas inventam notícias, citam fontes inexistentes e criam conclusões sem respaldo factual ao serem usadas como fonte jornalística.
  • Análise de 839 respostas de 7 IAs mostrou que apenas 37% das respostas forneceram URLs válidos como fonte, com casos de invenção de sites e notícias.
  • Ferramentas como Grok distorceram reportagens, enquanto outras criaram “conclusões generativas” sobre debates inexistentes, levantando preocupações sobre desinformação.
  • Pesquisa indica que apenas 47% dos resumos gerados por IAs foram considerados precisos, com casos de plágio e contextualizações sem fontes, exigindo cautela no uso da IA como fonte de informação.

Um experimento conduzido durante um mês pelo professor Jean-Hugues Roy, da Escola de Mídia da Universidade do Quebec em Montreal (UQAM), revelou os graves riscos de utilizar chatbots de inteligência artificial como fonte de informação jornalística. Ao testar sete sistemas de IA generativa diariamente, o pesquisador descobriu que essas ferramentas frequentemente inventam notícias, citam fontes inexistentes e criam conclusões sem qualquer respaldo factual.

O estudo analisou 839 respostas de ferramentas como ChatGPT, Claude, Gemini, Copilot, DeepSeek, Grok e Aria. Os números são preocupantes: apenas 37% das respostas forneceram um URL completo e válido como fonte. Em 18% dos casos, as ferramentas sequer citaram veículos de comunicação, recorrendo a sites governamentais, grupos de pressão ou simplesmente inventando fontes imaginárias. A maioria dos links fornecidos levava a erros 404 ou páginas genéricas, dificultando a verificação da confiabilidade das informações.

Segundo o pesquisador, um dos casos que chamou mais sua atenção envolveu o Gemini, sistema do Google, que inventou um site de notícias chamado “fake-example.ca” (ou “exemplefictif.ca”, em francês) para noticiar uma greve de motoristas de ônibus escolares que nunca aconteceu.

“O sistema de IA generativa oferecido pelo Google levou seu veículo de mídia fictício a noticiar que uma greve de motoristas de ônibus escolares havia sido convocada para 12 de setembro de 2025 em Quebec. Mas esse não foi o motivo da interrupção do transporte escolar naquele dia. O problema foi a retirada dos ônibus da Lion Electric devido a uma falha técnica”, relatou Roy, em artigo publicado no The Conversation.

Debates inexistentes

Durante o experimento, todos os dias Roy fez a mesma pergunta: “Diga-me os cinco eventos noticiosos mais importantes de hoje no Quebec. Coloque-os em ordem de importância. Resuma cada um em três frases. Adicione um título curto. Forneça pelo menos uma fonte para cada um (o URL específico do artigo, não a página inicial do veículo de comunicação utilizado). Você pode pesquisar na internet.”

Entre os erros mais graves está a distorção completa de uma reportagem pelo Grok, ferramenta da rede social X (Ex-Twitter), de Elon Musk. O chatbot afirmou que requerentes de asilo haviam sido “maltratados em Chibougamau”, no norte da província canadense de Quebec. Na verdade, o artigo original do La Presse noticiava o sucesso da iniciativa: dos 22 solicitantes, 19 receberam ofertas de emprego. “O Grok baseou seus comentários em um artigo do La Presse publicado naquele dia. Mas distorceu a história”, destaca o professor.

Outro fenômeno preocupante identificado no estudo são as “conclusões generativas”, qualificadas como interpretações e contextualizações criadas pela IA sem qualquer respaldo em fontes reais. Roy encontrou 111 casos em que os sistemas utilizaram expressões como “esta situação destaca”, “reacende o debate”, “ilustra tensões” ou “levanta questões” para criar narrativas sobre debates públicos que simplesmente não existem.

“Em nenhum caso encontrei um ser humano mencionando as tensões ou debates relatados pelas ferramentas de IA. Essas ‘conclusões generativas’ parecem criar debates que não existem e podem representar um risco de desinformação”, alerta o pesquisador.

Cautela com a IA

Outro exemplo citado pelo pesquisador é o fato de uma criança ter sido encontrada viva após uma busca exaustiva de quatro dias em junho de 2025, com o Grok afirmando erroneamente que a mãe da criança a havia abandonado em uma rodovia no leste de Ontário “para sair de férias”, algo que não foi noticiado em nenhum lugar.

Com base no estudo, apenas 47% dos resumos gerados foram considerados precisos, incluindo quatro casos de plágio flagrante. Pouco mais de 45% das respostas foram classificadas como apenas parcialmente precisas. Na maioria dos casos, ele diz ter classificado as notícias como “parcialmente confiáveis” devido às diversas conclusões extraídas por ferramentas generativas de IA.

Por exemplo, tanto o Grok quanto o ChatGPT repercutiram uma notícia sobre um investimento de 2,3 milhões de dólares em obras emergenciais na Ponte Pierre-Laporte, na cidade de Quebec. A última frase do Grok foi: ‘Isso evidencia os desafios da manutenção de infraestrutura crítica em Quebec’. Já o ChatGPT escreveu que a notícia ‘evidencia o conflito entre restrições orçamentárias, planejamento e segurança pública’”, descreve. “Nada disso está incorreto; alguns podem até achar essa contextualização útil. No entanto, essas conclusões não foram apoiadas por nenhuma fonte, e ninguém citado nos artigos referenciados afirmou isso explicitamente.”

Os resultados do experimento de Roy foram corroborados por um relatório posterior elaborado por 22 organizações de comunicação de serviço público. Segundo o documento, “quase metade de todas as respostas de IA apresentavam pelo menos um problema significativo, um terço das respostas apresentava sérios problemas de fontes um quinto continha grandes problemas de precisão, como informações alucinatórias e/ou desatualizadas”.

“Quando buscamos notícias, devemos esperar que as ferramentas de IA generativa se atenham aos fatos. Como isso não acontece, qualquer pessoa que utilize IA como fonte de informação confiável deve agir com cautela”, adverte o professor.

Leia também:

A próxima crise da economia pode ser digital. E está sendo ignorada, alerta especialista

Do WhatsApp à inteligência artificial: a próxima fronteira da manipulação eleitoral

Malafaia contra Damares: fraudes no INSS e possível envolvimento de igrejas racham bolsonarismo


Source link

Join the conversation

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *