Em março de 2000, o empresário americano Jimmy Wales e o filósofo e ex-editor Larry Sanger decidiram formular um novo tipo de projeto: uma enciclopédia online de conteúdo aberto e colaborativo, onde qualquer pessoa pudesse editar e contribuir com artigos, algo que seria essencial para consolidar a internet como um meio de busca prático.
Assim nasceu a Wikipedia, lançada oficialmente em 15 de janeiro de 2001, que cresceu e se tornou uma das maiores e mais acessadas fontes de informação na internet, considerada uma das joias que essa tecnologia da informação possibilitou.
Segundo dados do Statista, em dezembro do ano passado, cerca de 4,3 bilhões de pessoas visitaram a Wikipedia, com aproximadamente 495 milhões de visitantes mensais, dos quais 85 milhões somente dos Estados Unidos, onde é o sexto site mais popular. A versão em inglês da Wikipedia possui quase 6,9 milhões de artigos, sendo a maior das edições, que com as demais compreendem mais de 63 milhões de artigos e atraem mais de 1,5 bilhão de visitas únicas por meio de dispositivos móveis.
Até hoje, o site é a maior e mais lida obra de referência da história da humanidade, mas será que a Wikipedia poderá ser substituída pelo ChatGPT?
O verdadeiro risco
O ChatGPT é um software construído a partir de uma IA generativa, que nada mais é do que um tipo de inteligência artificial capaz de produzir várias formas de conteúdo, desde textos a áudio sintéticos, em questão de segundos. Desde a década de 1960, quando foi introduzida, a tecnologia vem sendo aprimorada, a ponto de hoje ter tornado um dos tópicos principais em uma roda de conversa e até mesmo em conferências políticas devido ao seu potencial tecnológico emergente tão inspirador quanto assustador.
Falar sobre IA é especular e questionar se o seu poder e predominância podem acabar afetando áreas essenciais ou substituindo a mão de obra humana. Esse temor envolve principalmente coisas que acontecem na internet, como no caso da Wikipedia. Os dados de março de 2024 indicam que o ChatGPT possui aproximadamente 180,5 milhões de usuários, sendo que, somente em janeiro desse ano, atraiu 1,6 bilhão de visitas, segundo o SEO.AI.
Em agosto de 2023, durante a Wikimania, conferência anual de usuários da Wikipedia, foi discutido a relação do site e a ameaça que o ChatGPT pode oferecer para o futuro da comunidade, visto que cada vez mais as pessoas parecem acessá-lo em busca de informação.
Alguns enxergam o recurso da OpenAI como uma ameaça existencial, prevendo que seus chatbots suplantarão a Wikipedia da mesma forma que essa fez em 2005 com a Enciclopédia Britânica. Outros, no entanto, acreditam que o ChatGPT poderia ajudar na geração e resumo de artigos.
A recente chamada à comunidade mostrou que a Wikimedia se encontra dividida sobre o uso ou não desses grandes modelos de linguagem para gerar conteúdo. O uso poderia significar uma necessidade em equilibrá-los com muita revisão humana, sobrecarregando páginas menos conhecidas com conteúdos ruins, visto que os geradores de IA, apesar de úteis para escrever textos críveis, são propensos a incluir informações erradas ou até mesmo inventar fontes e trabalhos acadêmicos.
Para Amy Bruckman, professora e presidente associada sênior da escola de computação interativa do Instituto de Tecnologia da Georgia e autora de Você deve acreditar na Wikipédia?: Comunidades online e a construção do conhecimento, o risco para a Wikipedia é que as pessoas podem diminuir a qualidade dos artigos jogando informações que não foram verificadas. Ela ressalta que não acredita que haja nada de errado em usar o ChatGPT como primeiro rascunho, mas que tudo precisa ser verificado minuciosamente.
Confirmando o problema que o ChatGPT possui, a OpenAI chegou a dizer que o modelo “alucina” quando inventa fatos – fala que foi fortemente criticada por especialistas em IA, porque representou uma forma dessas empresas evitarem se responsabilizar por suas ferramentas espalharem desinformação.
Equilibrando a reputação
Por enquanto, o risco que a Wikipedia sofre com a influência do ChatGPT envolve mais a sua credibilidade do que existência, visto que as pessoas podem diminuir sua qualidade submetendo artigos que não verificaram por serem gerados por IA.
É por essa razão que a Wikimedia Foundation, a organização sem fins lucrativos por trás do site, está tentando criar ferramentas para tornar mais fácil para os voluntários identificar o conteúdo gerado por bots, enquanto também elabora uma política que estabeleça os limites de como os voluntários podem usar esses grandes modelos de linguagem para criar conteúdo.
A Wikimedia Foundation orienta que qualquer pessoa não familiarizada com os riscos desses recursos de IA evitem usá-los ao criar conteúdo para a Wikipedia, porque podem atrair para os voluntários processos por difamação e violações de direitos autorais.
De um prisma mais técnico, o que a Wikipedia enfrenta é a transformação da experiência do usuário com a implementação cada vez mais forte da tecnologia de IA. Ao Slate, o escritor e advogado Stephen Harrison disse que, no final das contas, os recursos e bugs de LLMs (Large Language Models), como no caso do ChatGPT, acabam se cruzando com os interesses humanos de maneiras que apoiam a Wikipedia em vezes de ameaçá-la.