Prestes a completar 25 anos, a Wikipédia enfrenta o desafio de permanecer relevante e sustentável financeiramente em uma internet dominada pela inteligência artificial generativa. João Peschanski, diretor-executivo da Wikimedia no Brasil e um dos fundadores da Wikipédia no país, afirma que um número crescente de pessoas acessa informações “raspadas” (coletadas sistematicamente) da Wikipédia no ChatGPT e em outros chatbots.
“Essas IAs nos chupinham integralmente. A Wikipédia é a maior fonte do ChatGPT e do Gemini, e eles não nos atribuem, não colocam como fonte a Wikipédia”, diz. “Nós somos dependentes de doações pequenas. Se as pessoas acessam menos nossos projetos, elas vão doar menos.”
Mas ele adverte que a sobrevivência de recursos como a Wikipédia é essencial para a existência dos modelos de IA generativa. “Se nós deixarmos de existir, também deixará de existir a consolidação do conteúdo e a curadoria colaborativa que mantém tudo isso.”
Qual é o perfil dos editores da Wikipédia, todos voluntários?
Os dados indicam que a maioria tem mais de 35 anos (44%), um perfil que está mudando. Em 2021, 31,5% tinham mais de 35 anos. A maioria ainda é de homens —17,13% dos editores são mulheres, eram 11,10% em 2021.
O que leva uma pessoa a ser um editor voluntário da Wikipédia?
O editor mais comum é o circunstancial, aquele que entrou na Wikipédia, viu que alguma coisa estava desatualizada e fez uma mudança. Por exemplo, alguém que morreu, o Cristiano Ronaldo fez um gol, o Corinthians foi para a final da Copa do Brasil. Essa pessoa coloca a informação e só volta a editar depois de um ciclo muito longo.
Esses são a maioria dos editores, mas não a maioria das edições —10% dos editores fazem 80% das edições. Desses, temos aqueles que têm perfil de almanaque, fazem longas listas, catalogam tudo. Geralmente são pessoas obsessivas. E tem as pessoas que entram em nichos.
Nos Estados Unidos existe um movimento de políticos e influenciadores de direita que acusam a Wikipédia de ter um viés de esquerda. O Elon Musk, por exemplo, chamou o site de “Wokipedia”. Existe esse fenômeno no Brasil também?
Um estudo de Harvard de uns anos atrás mostrava que o conteúdo de política na Wikipédia era bem de centro. Por exemplo, para escrevermos o artigo existente sobre o Bolsonaro, editores de todas as correntes participam, bolsonaristas e não bolsonaristas.
No caso das mulheres, há cada vez mais mulheres editando, mas daí a dizer que a Wikipédia é feminista (…) Hoje as mulheres ainda são apenas 17% dos editores. No Brasil, quem falava que a Wikipédia era de esquerda era o Levy Fidelix [fundador do PRTB, ex-candidato à Presidência, 1951-2021]. Ele fez alguns programas contra a Wikipédia e mandava notificações [extrajudiciais, pedindo mudanças nos verbetes].
Vocês recebem muitas notificações?
Umas dez por mês. Em ano eleitoral, chega a 50 por mês.
Quando alguém questiona uma informação, qual é o processo para que essa queixa seja examinada?
A pessoa vai lá na página e deixa seu comentário, alguns outros editores acompanham esse artigo e vão validar. Existe um “fale com os editores”, ou fale com a Wikipédia. Você deixa lá o comentário, e as pessoas resolvem.
E quando uma pessoa faz uma edição que é mentira, começa a acrescentar desinformação ou se é um assessor de imprensa, como vocês lidam?
Nós monitoramos quando há edições muito substanciais em artigos sensíveis. Antes mesmo de a pessoa publicar, ela vai ser bloqueada se for eliminar o conteúdo ou vandalizar, a não ser que a pessoa seja uma editora recorrente.
Também temos um grupo de editores, que chamamos de estatuto [são 7.000 para a Wikipédia em português], que fazem um monitoramento. São pessoas que têm o poder de eliminar, travar ou proteger artigos e bloquear editores.
Também temos mecanismos automatizados que identificam edições que precisam ser verificadas. Elas aparecem em cores diferentes se os autores são editores novatos, para que sejam checadas pelos mais experientes.
O que o senhor acha da decisão do Supremo Tribunal Federal que aumenta a responsabilidade das plataformas por conteúdo de terceiros?
Não está claro se nos enquadramos ou não. Essas legislações deveriam ser direcionadas às grandes plataformas que, de fato, têm responsabilidades, e não para quem está oferecendo recursos educacionais abertos, que é o nosso caso e de vários outros.
No PL 2630 [das fake news], foi incluída uma exceção para enciclopédias colaborativas e outros recursos educacionais abertos. Desta vez, não há. E não dá para você estabelecer a mesma regra que se adota para o Google para projetos educativos mantidos por voluntários, sem anúncios, nem interesse econômico.
Existe algum tipo de regulação que você considera necessária para manter o ecossistema de informação habitável?
Nós precisamos de espaços públicos na internet, bens públicos digitais, como uma BBC. Deveria existir uma regulação que não apenas impusesse limites, mas que criasse ou incentivasse esses espaços públicos, que não são privados, nem estatais. Senão, teremos apenas uma praça pública privatizada [controlada pelas big techs], que, na verdade, não oferece liberdade real para circulação de informações, ou teremos espaços do governo, ou portal Gov.
Qual o impacto da IA sobre a Wikipédia?
Essas IAs nos chupinham integralmente. A Wikipédia é a maior fonte do ChatGPT e do Gemini. Eles não nos atribuem, não colocam como fonte a Wikipédia. E a Wikipédia é baseada em uma licença livre com atribuição. Além disso, é um problema para a motivação dos nossos editores. Eles fazem de graça, mas querem que seu trabalho seja reconhecido.
Eu estive em uma reunião no Google há duas semanas e disse: olha, a gente sabe que vocês estão usando, usem, que bom, mas atribuam e se tornem doadores. Hoje em dia, a Wikipédia é dependente de pequenos doadores. A gente precisa que [as grandes empresas de IA] contribuam mais.
Vocês já sentiram uma queda no número de editores?
No Brasil não, mas não sabemos bem por quê. Na Wikipédia em espanhol, sim.
Houve queda na audiência da Wikipédia?
No Brasil a audiência é estável —em 2024 tivemos 2,3 bilhões de usuários. Nos Estados Unidos e na Europa, houve queda.
Se cair o número de acessos à Wikipédia porque as pessoas conseguem obter a mesma informação em chatbots, isso pode reduzir as doações e ameaçar a sustentabilidade da Wikipédia?
Nós somos dependentes de doações pequenas. Se as pessoas acessam menos nossos projetos, elas vão doar menos. Mas existe uma questão importante. Não é o ChatGPT que está produzindo conteúdo, ele está apenas replicando. Se nós deixarmos de existir, também deixará de existir a consolidação do conteúdo e a curadoria colaborativa que mantém tudo isso. Em última instância, a IA estará se suicidando, é um tiro no pé, porque, se você mata a fonte de informação checada, colaborativa, você não tem como treinar seu modelo de forma eficiente.
A IA é uma ameaça à Wikipédia?
Olha, há desafios, mas eu acho que também é uma oportunidade para nós encontrarmos outras formas de nos viabilizar. Existe o modelo europeu, que é ter a Wikipédia e outros projetos educacionais apoiados como espaços de comunicação pública. Hoje seria difícil ter essa discussão, temos esse discurso mais regulatório contra as big techs, por causa de tudo que aconteceu nos últimos dez anos. Mas a gente precisa ter uma governança da internet propositiva, não apenas restritiva.
RAIO-X | JOÃO ALEXANDRE PESCHANSKI, 45
É diretor-executivo da Wikimedia Brasil, filiada à Fundação Wikimedia, que administra a Wikipédia. Formado em Ciências Sociais pela USP (Universidade de São Paulo) e em Comunicação Social pela PUC-SP, é mestre em ciência política pela USP e doutor em sociologia pela University of Wisconsin-Madison (EUA). Atua nos projetos da Wikimedia como voluntário desde 2011.

