Pular para o conteúdo

o jornalismo brasileiro está sendo explorado sem receber por isso

Banner Aleatório

Banner Aleatório

Imagine passar anos construindo credibilidade, investindo em equipe, cobrindo pautas complexas, checando fatos, financiando repórteres, editores, infraestrutura e segurança jurídica para, no fim, ter todo esse trabalho absorvido por uma inteligência artificial — sem autorização, sem crédito e, pior, sem remuneração.

Esse é o cenário que se consolida hoje no Brasil. Sistemas como ChatGPT, Gemini, Copilot e outros modelos de IA generativa já respondem a milhões de usuários diariamente com base em conteúdos produzidos por jornalistas, portais de notícias, colunistas e blogs especializados — sem que esses criadores recebam sequer um centavo por isso.

Enquanto empresas como OpenAI e Google multiplicam seus lucros e lideram o mercado bilionário de IA, a base de conhecimento que alimenta essas ferramentas segue invisível e desprotegida no Brasil. E quando alguém sugere regular o setor ou exigir compensação, é acusado de censura, atraso ou, no pior dos clichês, de “comunismo”.

Mas a pergunta que precisa ser feita — inclusive nesta coluna — é simples: quem está ganhando com a desvalorização do jornalismo no país?

O problema não é a IA. É o desequilíbrio.

É importante fazer uma distinção: a crítica aqui não é contra o avanço da inteligência artificial. O potencial da IA para educação, saúde, acessibilidade e inovação é real e irreversível.

O problema está em como ela é treinada e comercializada, muitas vezes em cima de conteúdos autorais, protegidos por direito intelectual e construídos com investimento humano e financeiro, como o jornalismo profissional.

Ferramentas como ChatGPT e Gemini compilam, reformatam e redistribuem conhecimento produzido por terceiros, dando respostas instantâneas para perguntas como:

Essas respostas, em muitos casos, foram geradas com base em textos redigidos por veículos como Folha, Estadão, Agência Brasil, g1, UOL e dezenas de sites regionais como o próprio Portal N10 — sem repassar valor a nenhum deles.

A reação internacional já começou

A discussão sobre remuneração de conteúdo jornalístico por plataformas de IA já começou a render medidas concretas fora do Brasil.

  • O New York Times processou a OpenAI e a Microsoft por uso indevido de seus textos no treinamento do ChatGPT.
  • A França multou o Google em 250 milhões de euros por não cumprir regras de compensação à imprensa.
  • A Austrália criou uma lei que obriga plataformas digitais a negociar com veículos jornalísticos sempre que usam seu conteúdo.
  • A OpenAI firmou acordos de licenciamento com grupos como Axel Springer (Alemanha), Le Monde (França), Prisa (Espanha), Associated Press (EUA) e outros.

A lógica é simples: se o conteúdo serve de base para um produto comercial, quem o produziu precisa ser remunerado por isso. E esse entendimento está ganhando força no debate internacional.

O Brasil está ficando para trás

Enquanto isso, no Brasil, o cenário é de paralisia institucional.

Apesar da pressão de entidades como ANJ (Associação Nacional de Jornais) e ABI (Associação Brasileira de Imprensa), o país ainda não tem uma legislação clara sobre remuneração de conteúdo jornalístico por ferramentas de IA.

O Marco Legal da Inteligência Artificial, em tramitação no Congresso, não aborda esse ponto. E o PL das Fake News (2630/2020), que previa formas de compensação aos veículos por uso de conteúdo em plataformas digitais, foi travado por lobby das big techs e virou uma pauta estigmatizada.

Resultado: o jornalismo brasileiro está sendo explorado por ferramentas que lucram com seu trabalho, enquanto enfrenta crise de financiamento, perda de audiência e ataques diários à sua credibilidade.

Os riscos da omissão

Esse vácuo regulatório cria um efeito cascata preocupante:

  • Sites de notícia perdem tráfego, já que usuários consultam resumos prontos nas IAs sem visitar as fontes.
  • Redações perdem relevância, já que a inteligência artificial entrega informação “resumida” sem referência a quem escreveu.
  • Repórteres perdem espaço, já que colunas, análises e investigações viram apenas mais um parágrafo no modelo preditivo da IA.
  • E o Brasil, como país, perde capacidade de sustentar sua própria produção de informação verificada.

Isso não é uma questão ideológica. É econômica, jurídica e civilizatória.

Regular não é censurar. É equilibrar.

Quando falamos em regular o uso de IA sobre conteúdo protegido, não estamos falando em censura. Estamos falando em garantir que quem produz informação receba por isso.

Da mesma forma que o Spotify precisa pagar direitos autorais para artistas, as plataformas de IA deveriam remunerar os autores e veículos cujos textos são usados no treinamento e respostas de seus modelos.

Isso pode ocorrer via licenciamento, acordos comerciais diretos ou fundos compensatórios — como já ocorre em outros países.

E o jornalismo regional?

No caso da imprensa regional — como os portais potiguares, nordestinos, do interior do país — o impacto é ainda maior.

Sites locais produzem conteúdo altamente segmentado, detalhado e contextualizado. São eles que explicam editais municipais, cobrem sessões de câmaras, detalham orçamentos públicos e fiscalizam a política onde ela de fato afeta o cidadão.

Quando uma IA responde uma pergunta sobre “como atualizar o CadÚnico” ou “qual o salário do concurso do IPERN”, é muito provável que a base tenha vindo de sites como os nossos.

E se esse conteúdo some das fontes, se os portais fecham por inviabilidade, o conhecimento desaparece. E a IA também perde qualidade — porque o que ela entrega não se cria sozinho. Alguém precisa ter publicado primeiro.

O Brasil precisa urgentemente enfrentar esse tema com responsabilidade. Não se trata de impedir o avanço tecnológico. Mas de impedir que esse avanço aconteça em cima das costas de quem sustenta a informação pública — sem reconhecimento, sem voz, sem contrato.

A regulação da IA no Brasil precisa incluir o jornalismo. E o jornalismo precisa, ele mesmo, ocupar esse espaço de forma coletiva, firme e organizada.

Porque sem conteúdo confiável, não há IA confiável. E sem remuneração justa, não haverá jornalismo para contar a próxima história.

Source link

Join the conversation

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *