Pular para o conteúdo

Grokipedia de Elon Musk usada como fonte nas respostas do ChatGPT

Banner Aleatório

De acordo com um relatório recente do site The Guardiano modelo mais recente do ChatGPT está usando cada vez mais a enciclopédia on-line Grokipedia de Elon Musk para responder às perguntas. Como parte da investigação, a IA citou a plataforma para vários tópicos, como estruturas políticas no Irã, bem como detalhes biográficos sobre figuras históricas.

Banner Aleatório

Esse desenvolvimento levanta preocupações sobre a qualidade das informações fornecidas pelo ChatGPT. Para ser mais exato, esses detalhes não passam pelos mesmos processos de verificação que as fontes mantidas por equipes editoriais ou por uma comunidade maior.

A Grokipedia foi criada por Elon Musk como concorrente da já estabelecida Wikipedia. Enquanto Musk acusa a Wikipédia de ter um viés de esquerda e afirma que seu projeto visa à verdade e à neutralidade, os críticos geralmente veem a Grokipedia como o extremo oposto. Eles argumentam que a plataforma às vezes apresenta conteúdo de uma perspectiva politicamente de direita ou aborda tópicos controversos de forma unilateral.

Ao contrário dos verbetes da Wikipédia, que têm curadoria de seres humanos reais, os textos da Grokipedia são gerados principalmente pelo modelo interno de IA chamado Grok. As edições dos usuários não fazem parte desse sistema, pois a qualidade é supostamente verificada pelos funcionários da xAI. Quando outros modelos de linguagem, como o GPT-5.2, usam esses textos gerados por máquinas como fonte factual, surge um ciclo de feedback técnico no qual as IAs aprendem umas com as outras.

Isso aumenta o risco de um cenário chamado “garbage in, garbage out”. Se as IAs começarem a usar material não filtrado de outras IAs como base para suas próprias respostas, erros ou preconceitos específicos podem ser transmitidos sem qualquer tipo de escrutínio. A investigação do The Guardian já mostrou que o ChatGPT cita a Grokipedia e repete afirmações que vão além do conhecimento estabelecido ou que já foram refutadas há muito tempo. Isso ilustra o perigo de a desinformação parecer mais confiável devido à citação mútua por modelos de IA, e torna-se cada vez mais difícil para os usuários identificar essas informações falsas.

A OpenAI já respondeu ao relatório e enfatizou que a pesquisa do modelo na Web tenta refletir um amplo espectro de fontes e pontos de vista disponíveis publicamente. Um porta-voz afirmou que os filtros de segurança estão em vigor para reduzir o risco de exibição de links para conteúdo com alto potencial de dano. Além disso, o ChatGPT fornece respostas com citações e fontes por uma questão de transparência. A empresa também mencionou os programas em andamento que têm como objetivo filtrar fontes com baixa credibilidade.

Source link

Join the conversation

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *