Como a Wikipédia é atualizada pela comunidade em tempos de ChatGPT?

Os textos gerados por chatbots de inteligência artificial (IA) não estão cada vez mais frequentes só em serviços como blogs e redes sociais. A Wikipédia, mais popular enciclopédia da internet, também tem se deparado cada vez mais com textos feitos no serviço.

Uma reportagem do jornal El País conversou com Miguel Ángel García, sócio da Wikimedia España, e Chris Albon, diretor de Aprendizagem Automática da Wikimedia. Colaborador desde 2006, García conta que boa parte da equipe voluntária de moderação já aprendeu a identificar quando um conteúdo publicado foi feito em chatbots como o ChatGPT.

“Desde que existe a IA, aparecem cada vez mais voluntários que mandam um texto gigante, aparentemente bem estruturado e bem argumentado. Mas logo você lê e descobre as redundâncias que uma pessoa é capaz de detectar várias vezes em textos feitos com IA”, explica.

Como a Wikipedia lida com IA?

Esse tipo de comportamento é considerado suspeito desde o início, já que editores novatos tendem primeiro a contribuir com poucas adições ou construir verbetes do zero, um parágrafo por vez.

Segundo a matéria, a Wikipédia tem conseguido manter o padrão de qualidade dos últimos anos mesmo com a popularização das IAs generativas de texto. Parte disso é possível pelo modelo de revisão da plataforma, com voluntários que em questão de segundos podem tirar um conteúdo editado do ar.

Editores têm o olho treinado para identificar textos gerados por IA. (Imagem: Getty Images)Editores têm o olho treinado para identificar textos gerados por IA. (Imagem: Getty Images)Fonte:  GettyImages 

Alguns dos autores de textos suspeitos, porém, ganham um prazo de 30 dias para comprovar o que está escrito com fontes ou refazer o conteúdo. Depois do prazo, caso as alterações não sejam consideradas suficientes ou não tenham sido feitas, ele é apagado.

Como comenta García, a chegada do ChatGPT no final de 2002 fez com que a Wikipédia tivesse “um pico de textos gerados por IA“. Boa parte desses textos não permanece no ar, em especial aqueles com uma escrita considerada ruim pela equipe ou com a ausência de fontes — um problema comum em IAs generativas como a da OpenAI.

Para além da adição de textos de má qualidade e possíveis casos de desinformação, Albon parece ainda mais pessimista com outro problema. Ele acredita que a IA pode gerar uma “debandada” de voluntários da Wikipédia, talvez insatisfeitos ao ver a concorrência do próprio trabalho com plataformas como ChatGPT, Copilot e Google Gemini.

Source link

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Rolar para cima