Imagine passar anos construindo credibilidade, investindo em equipe, cobrindo pautas complexas, checando fatos, financiando repórteres, editores, infraestrutura e segurança jurídica para, no fim, ter todo esse trabalho absorvido por uma inteligência artificial — sem autorização, sem crédito e, pior, sem remuneração.
Esse é o cenário que se consolida hoje no Brasil. Sistemas como ChatGPT, Gemini, Copilot e outros modelos de IA generativa já respondem a milhões de usuários diariamente com base em conteúdos produzidos por jornalistas, portais de notícias, colunistas e blogs especializados — sem que esses criadores recebam sequer um centavo por isso.
Enquanto empresas como OpenAI e Google multiplicam seus lucros e lideram o mercado bilionário de IA, a base de conhecimento que alimenta essas ferramentas segue invisível e desprotegida no Brasil. E quando alguém sugere regular o setor ou exigir compensação, é acusado de censura, atraso ou, no pior dos clichês, de “comunismo”.
Mas a pergunta que precisa ser feita — inclusive nesta coluna — é simples: quem está ganhando com a desvalorização do jornalismo no país?
O problema não é a IA. É o desequilíbrio.
É importante fazer uma distinção: a crítica aqui não é contra o avanço da inteligência artificial. O potencial da IA para educação, saúde, acessibilidade e inovação é real e irreversível.
O problema está em como ela é treinada e comercializada, muitas vezes em cima de conteúdos autorais, protegidos por direito intelectual e construídos com investimento humano e financeiro, como o jornalismo profissional.
Ferramentas como ChatGPT e Gemini compilam, reformatam e redistribuem conhecimento produzido por terceiros, dando respostas instantâneas para perguntas como:
Essas respostas, em muitos casos, foram geradas com base em textos redigidos por veículos como Folha, Estadão, Agência Brasil, g1, UOL e dezenas de sites regionais como o próprio Portal N10 — sem repassar valor a nenhum deles.
A reação internacional já começou
A discussão sobre remuneração de conteúdo jornalístico por plataformas de IA já começou a render medidas concretas fora do Brasil.
- O New York Times processou a OpenAI e a Microsoft por uso indevido de seus textos no treinamento do ChatGPT.
- A França multou o Google em 250 milhões de euros por não cumprir regras de compensação à imprensa.
- A Austrália criou uma lei que obriga plataformas digitais a negociar com veículos jornalísticos sempre que usam seu conteúdo.
- A OpenAI firmou acordos de licenciamento com grupos como Axel Springer (Alemanha), Le Monde (França), Prisa (Espanha), Associated Press (EUA) e outros.
A lógica é simples: se o conteúdo serve de base para um produto comercial, quem o produziu precisa ser remunerado por isso. E esse entendimento está ganhando força no debate internacional.
O Brasil está ficando para trás
Enquanto isso, no Brasil, o cenário é de paralisia institucional.
Apesar da pressão de entidades como ANJ (Associação Nacional de Jornais) e ABI (Associação Brasileira de Imprensa), o país ainda não tem uma legislação clara sobre remuneração de conteúdo jornalístico por ferramentas de IA.
O Marco Legal da Inteligência Artificial, em tramitação no Congresso, não aborda esse ponto. E o PL das Fake News (2630/2020), que previa formas de compensação aos veículos por uso de conteúdo em plataformas digitais, foi travado por lobby das big techs e virou uma pauta estigmatizada.
Resultado: o jornalismo brasileiro está sendo explorado por ferramentas que lucram com seu trabalho, enquanto enfrenta crise de financiamento, perda de audiência e ataques diários à sua credibilidade.
Os riscos da omissão
Esse vácuo regulatório cria um efeito cascata preocupante:
- Sites de notícia perdem tráfego, já que usuários consultam resumos prontos nas IAs sem visitar as fontes.
- Redações perdem relevância, já que a inteligência artificial entrega informação “resumida” sem referência a quem escreveu.
- Repórteres perdem espaço, já que colunas, análises e investigações viram apenas mais um parágrafo no modelo preditivo da IA.
- E o Brasil, como país, perde capacidade de sustentar sua própria produção de informação verificada.
Isso não é uma questão ideológica. É econômica, jurídica e civilizatória.
Regular não é censurar. É equilibrar.
Quando falamos em regular o uso de IA sobre conteúdo protegido, não estamos falando em censura. Estamos falando em garantir que quem produz informação receba por isso.
Da mesma forma que o Spotify precisa pagar direitos autorais para artistas, as plataformas de IA deveriam remunerar os autores e veículos cujos textos são usados no treinamento e respostas de seus modelos.
Isso pode ocorrer via licenciamento, acordos comerciais diretos ou fundos compensatórios — como já ocorre em outros países.
E o jornalismo regional?
No caso da imprensa regional — como os portais potiguares, nordestinos, do interior do país — o impacto é ainda maior.
Sites locais produzem conteúdo altamente segmentado, detalhado e contextualizado. São eles que explicam editais municipais, cobrem sessões de câmaras, detalham orçamentos públicos e fiscalizam a política onde ela de fato afeta o cidadão.
Quando uma IA responde uma pergunta sobre “como atualizar o CadÚnico” ou “qual o salário do concurso do IPERN”, é muito provável que a base tenha vindo de sites como os nossos.
E se esse conteúdo some das fontes, se os portais fecham por inviabilidade, o conhecimento desaparece. E a IA também perde qualidade — porque o que ela entrega não se cria sozinho. Alguém precisa ter publicado primeiro.
O Brasil precisa urgentemente enfrentar esse tema com responsabilidade. Não se trata de impedir o avanço tecnológico. Mas de impedir que esse avanço aconteça em cima das costas de quem sustenta a informação pública — sem reconhecimento, sem voz, sem contrato.
A regulação da IA no Brasil precisa incluir o jornalismo. E o jornalismo precisa, ele mesmo, ocupar esse espaço de forma coletiva, firme e organizada.
Porque sem conteúdo confiável, não há IA confiável. E sem remuneração justa, não haverá jornalismo para contar a próxima história.