Pular para o conteúdo

A revolta dos editores: o dia em que a Wikipédia disse não aos resumos por IA

Banner Aleatório

Pete Pachal

4 minutos de leitura

Antes da ascensão da IA generativa, quem precisava de uma forma barata de criar muito conteúdo recorria a uma velha conhecida: a wiki. Bastava lançar um site – amplo ou de nicho – e abrir as portas para qualquer pessoa editar.

Banner Aleatório

Se fosse um dos primeiros, como a Wikipédia, ou conseguisse cultivar uma comunidade fiel (pense em qualquer série de fantasia ou ficção científica com fãs ardorosos), em pouco tempo surgia um vasto repositório de páginas úteis e estratégicas.

Mas havia (e ainda há) um porém: quando se entrega o controle às pessoas, manter a qualidade consistente se torna um desafio diário. No caso da Wikipédia, isso significa levar a curadoria a sério – contando com um verdadeiro exército de editores, em sua maioria voluntários, para administrar milhões de páginas criadas pela comunidade.

Dado o quanto as pessoas dependem da Wikipédia todos os dias, esses editores exercem uma grande influência. Recentemente, eles mostraram ao mundo quão poderosa essa influência pode ser: reagiram de modo firme a um experimento interno que pretendia adicionar resumos gerados por IA no topo de alguns artigos (iniciativa revelada pelo site 404 Media).

O protesto foi tão rápido e intenso que, apenas um dia depois do lançamento, a Wikipédia cancelou o teste. Um exemplo didático de como não apresentar IA a uma equipe editorial que valoriza cada vírgula.

A REVOLTA CONTRA AS MÁQUINAS

O mais curioso é que, neste caso, a IA não produziu nada flagrantemente errado. Um olhar rápido para o resumo gerado sobre dopamina mostra que a explicação era até bem estruturada, em linguagem mais acessível do que o texto original.

Nada de alucinações bizarras, como estudos inexistentes ou recomendações absurdas – a IA não sugeriu, por exemplo, que se adicionasse dopamina na pizza. O que motivou o cancelamento não foi uma falha grotesca, mas sim uma revolta interna.

O processo editorial da Wikipédia funciona com uma abertura radical: os motivos de edições e objeções ficam disponíveis em discussões públicas. Ao espiar a página de debate sobre o teste, dá para ver a dimensão da resistência – uma onda de críticas que deixaria até as brigas mais quentes do Twitter no chinelo.

O protesto foi tão rápido e intenso que, apenas um dia depois do lançamento, a Wikipédia cancelou o teste.

Por mais que a reação pareça exagerada, o instinto por trás dela é compreensível. Para quem vive de palavras, a IA invadindo seu território soa como uma ameaça existencial. No caso dos editores da Wikipédia, conhecidos por debates infindáveis até sobre a grafia de “aluminum” ou “aluminium”, esse medo se multiplica.

Ainda assim, algumas críticas não foram puro drama: editores apontaram, por exemplo, que o resumo usava “nós” em vez de manter o tom objetivo e impessoal característico do site. E havia palavras, como “emoção”, que não estavam estritamente baseadas nos fatos do artigo.

Nada disso seria insolúvel. A Wikimedia Foundation foi cuidadosa ao usar um modelo de IA de código aberto da Cohere, para manter controle e personalização. Com o retorno dos editores, bastaria ajustar o modelo e refinar os prompts para gerar resumos mais alinhados ao estilo do site.

Mas não houve tempo para isso. A reação foi imediata – e pouco construtiva. Em vez de melhorar um produto que tinha boa aceitação do público (durante o teste, 75% dos leitores acharam o resumo útil), a maioria dos editores quis enterrar o projeto de vez. Uma crítica típica resume o clima: “nenhum processo ou burocracia vai transformar essa má ideia em uma boa ideia.”

LIÇÕES PARA O JORNALISMO

Histórias como essa estão se repetindo em redações do mundo todo, à medida que executivos buscam estratégias de IA que melhorem a eficiência sem abalar a moral das equipes.

Recentemente, o sindicato do site Politico abriu uma ação contra a empresa pelo uso de resumos gerados por IA sem supervisão editorial, ecoando o caso da Wikipédia. O clima é de tensão, já que essas ferramentas começam a afetar o tráfego de busca e, em paralelo, demissões levam sindicatos a tentar blindar postos de trabalho dos efeitos da automação.

Wikipedia logo 250.jpg

Por outro lado, a IA pode ser uma aliada poderosa. Investigações na “Associated Press“, no “The Wall Street Journal” e em outros veículos já se beneficiaram de algoritmos capazes de analisar grandes volumes de dados, destrinchar processos jurídicos e até dar uma força na triagem de pautas.

Para editores e gestores de produto que planejam integrar IA às redações, fica o recado do tropeço da Wikipédia: não se impõe uma ferramenta de cima para baixo. Mesmo sendo um teste, ele não estava restrito a uma área clara, o que deixou os editores à deriva.

Organizações que acertam, como “Reuters“, “The New York Times” e “The Washington Post“, fazem isso de forma gradual: equipe por equipe, usuário por usuário, conquistando confiança antes de implantar mudanças.

A lição é simples: em jornalismo, a forma de apresentar a IA importa tanto quanto o que a IA faz. Sem confiança, transparência e respeito pelo trabalho editorial, até o melhor sistema enfrentará resistência. Mas, com cuidado e parceria, a IA pode ser uma aliada para as redações – e não uma ameaça.


SOBRE O AUTOR

Pete Pachal é jornalista e criador do podcast e da newsletter Media CoPilot, que trata de inteligência artificial e seus efeitos no jo… saiba mais


Source link

Join the conversation

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *