A Global Voices tem orgulho de publicar artigos, traduções e ilustrações criados por pessoas, para pessoas, e esperamos que nossos colaboradores mantenham esse padrão.
À medida que o uso de ferramentas baseadas em modelos de linguagem de grande escala (LLMs, na sigla em inglês), como ChatGPT, DeepSeek, Midjourney, e outras formas de inteligência artificial (IA) generativa, se torna mais comum e integrado às plataformas e sistemas operacionais existentes, é fundamental que a Global Voices, como organização de mídia, estabeleça uma política clara sobre seu uso em nosso site.
Temos dois motivos principais para limitar o uso de LLMs em nosso trabalho, ambos alinhados à nossa missão:
- Confiança. Os modelos de linguagem de grande escala não são projetados para se basear em fatos. Embora seus modelos de probabilidade ocasionalmente forneçam informações corretas, esse não é um de seus objetivos, e há muitos casos de respostas completamente falsas. Como organização de notícias comprometida com os princípios jornalísticos, buscamos reportar os fatos. Confiar em LLMs para escrever ou traduzir, ou em programas que geram gráficos ou ilustrações com base em prompts, representaria um risco de violação desses princípios e minaria a confiança que buscamos de nossos leitores.
- Ampliar vozes não ouvidas. LLMs utilizam dados existentes, como os textos digitais nos quais são treinados, para calcular possíveis respostas. Como resultado, tendem a reproduzir os dados mais populares e abundantes disponíveis on-line, o que, a longo prazo, contribui para a homogeneização da internet, minimizando e até apagando exceções, inclusive as vozes menos ouvidas, que temos o compromisso de ampliar como organização. Buscamos publicar ideias e conhecimentos, mesmo quando não se enquadram nos padrões de linguagem ou formas convencionais de pensamento. Para nós, isso é muito mais importante do que simplesmente algo que “soa bem”, mas que não expressa um ponto de vista elaborado a partir das experiências e perspectivas de uma pessoa.
Além desses motivos, há outras considerações importantes: o impacto ambiental dos LLMs, as questões de direitos autorais envolvidas em seu treinamento e produção, o respeito aos autores e ilustradores cujos trabalhos foram usados sem permissão e o apagamento dos humanos que trabalham para facilitar esses processos, muitas vezes sujeitos a baixa remuneração e condições precárias.
Encontrando um equilíbrio
Entendemos que os modelos de linguagem de grande escala oferecem uma maneira prática de escrever, desenhar ou traduzir, sendo especialmente úteis para quem escreve em um idioma que não é sua língua materna ou precisa seguir regras de estilo ou padrões de publicação com os quais não está familiarizado. Também reconhecemos que os LLMs e outras tecnologias agrupadas sob o termo “IA” nem sempre são fáceis de distinguir, pois fazem parte de um espectro que vai de verificadores ortográficos e gramaticais a sistemas que geram conteúdo com base em prompts. Além disso, essas tecnologias são frequentemente integradas a outros programas, o que torna ainda mais difícil evitar seu uso por completo no trabalho.
Ao mesmo tempo, reconhecemos que escritores, tradutores e ilustradores há muito utilizam diversas ferramentas para auxiliar seu trabalho, como dicionários, tesauros, guias de estilo, ilustrações e imagens de referência, entre outros. Alguns aplicativos classificados como IA funcionam de maneira semelhante: tradutores podem buscar termos em ferramentas de tradução on-line em vez de consultar um dicionário, enquanto escritores podem recorrer a corretores ortográficos ou pesquisar sinônimos.
No entanto, assim como não aceitaríamos um artigo copiado de uma enciclopédia ou da Wikipédia (mesmo que com algumas palavras modificadas) ou uma tradução que simplesmente substitua cada termo pelo resultado de uma pesquisa em um dicionário, também não aceitaremos textos, traduções ou ilustrações gerados automaticamente.
Como organização descentralizada, precisamos confiar fortemente em nossos colaboradores. Atualmente, não há tecnologias que identifiquem de forma confiável textos ou traduções criados por modelos de linguagem de grande escala, nem ilustrações geradas por prompts, e aquelas que afirmam fazê-lo frequentemente enfrentam os mesmos desafios éticos e ambientais dos LLMs. Por isso, reservamo-nos o direito de submeter textos, traduções e ilustrações que apresentem indícios de uso dessas tecnologias a uma revisão rigorosa, além de solicitar reescritas, rejeitar publicações ou até remover artigos, caso seja constatado que tais ferramentas foram usadas de maneira contrária à nossa missão.
Por fim, reconhecemos que a tecnologia está em constante evolução e que esta política provavelmente precisará de ajustes. Faremos atualizações conforme necessário.