Poucas horas após a captura de Nicolás Maduro, o presidente deposto da Venezuela, pelos Estados Unidos, as redes sociais foram inundadas por fotografias que o retratavam algemado, escoltado por agentes antidrogas ou cercado por soldados dentro de uma aeronave militar.
As imagens eram falsas — provavelmente produzidas por ferramentas de inteligência artificial (IA) — no que especialistas disseram ser uma das primeiras vezes em que imagens geradas por IA retrataram figuras proeminentes enquanto um momento histórico se desenrolava rapidamente.
A maioria dos grandes geradores de imagens por IA tem regras contra conteúdo enganoso ou fraudulento, e vários proíbem explicitamente imagens falsas de figuras públicas como Maduro.
E, embora seja difícil identificar exatamente qual ferramenta foi responsável por criar as falsificações mais populares que circularam após o anúncio da prisão, muitas ferramentas populares aceitaram criar imagens semelhantes em testes realizados pelo The New York Times na segunda-feira. Muitas vezes, isso foi feito gratuitamente e em questão de segundos.
A ameaça de que esse tipo de falsificação possa confundir e enganar as pessoas à medida que notícias surgem sempre pairou sobre essas ferramentas desde que ganharam popularidade. A tecnologia agora se tornou avançada o suficiente — e popular o bastante — para tornar essa ameaça uma realidade.
Jeanfreddy Gutiérrez, que comanda uma operação de checagem de fatos em Caracas, capital da Venezuela, mas está baseado na Colômbia, notou as imagens falsas de Maduro se espalhando no sábado, dia em que sua prisão foi anunciada. Ele disse que algumas circularam por veículos de comunicação da América Latina antes de serem discretamente substituídas por uma imagem compartilhada pelo presidente Donald Trump.
Gutiérrez publicou neste fim de semana uma checagem que identificou várias imagens deepfake de Maduro, incluindo uma que “mostrava sinais claros” de ter sido feita pelo Gemini, aplicativo de IA do Google.
- ‘Imagens eróticas’ e ‘lapsos de salvaguardas’: Entenda a acusação sobre sexualização de menores contra o Grok, a IA do X
A NewsGuard, empresa que monitora a confiabilidade das informações on-line, rastreou cinco imagens fabricadas ou fora de contexto e dois vídeos deturpados ligados à captura de Maduro. Segundo a empresa, o conteúdo, em conjunto, obteve mais de 14,1 milhões de visualizações na plataforma social X em menos de dois dias (o material também apareceu, com menor engajamento, em plataformas da Meta, incluindo Instagram e Facebook).
Após a prisão de Maduro, o Times testou uma dúzia de geradores de IA para determinar quais ferramentas criariam imagens falsas dele.
Questão de marca d’água
A maioria das ferramentas, incluindo o Gemini e modelos da OpenAI e da X, criou rapidamente as imagens solicitadas. As falsificações minaram as garantias dadas por muitas empresas de tecnologia de que haviam projetado salvaguardas para impedir o uso indevido dessas ferramentas.
O Google tem regras que proíbem usuários de gerar desinformação e barra especificamente conteúdo enganoso “relacionado a processos governamentais ou democráticos”. Mas um porta-voz do Google disse que a empresa não proíbe categoricamente imagens de pessoas proeminentes e que uma imagem falsa retratando Maduro sendo preso, gerada nos testes do Times, não violou suas regras.
- Vinicius de Moraes e Drummond enganariam o ChatGPT? Estudo identifica textos capazes de driblar a IA
O porta-voz acrescentou que a empresa tem se concentrado em sua marca d’água oculta, chamada SynthID, que o Gemini incorpora em todas as imagens que cria, permitindo que as pessoas determinem se elas foram feitas por sua ferramenta de IA.
“Você pode simplesmente enviar uma imagem para o aplicativo Gemini e confirmar instantaneamente se ela foi gerada usando IA do Google”, disse ele.
A ferramenta da OpenAI, o ChatGPT, disse que não poderia criar imagens de Maduro. Mas quando o Times fez a solicitação por meio de outro site que usa o mesmo modelo do ChatGPT, a ferramenta cedeu e produziu as imagens. Em um comunicado por e-mail, um porta-voz da OpenAI disse que a empresa usa salvaguardas para proteger figuras públicas, mas se concentra em prevenir danos como deepfakes sexuais ou violência.
O Grok, modelo da X.ai, produziu imediatamente imagens realistas da prisão de Maduro.
O Grok tem sido alvo de intenso escrutínio, inclusive na semana passada, quando organizações de monitoramento relataram que ele estava respondendo a pedidos para remover roupas de imagens de crianças. A conta do Grok publicou que sua equipe identificou “falhas nas salvaguardas” e que estava “corrigindo-as com urgência”.
A X.ai não respondeu a um pedido de comentário.
- Inteligência artificial no divã? Estudo aponta ‘traços psicológicos’ em modelos como ChatGPT, Gemini e Grok
Outras ferramentas, incluindo o chatbot Meta AI do Facebook e o Flux.ai, responderam criando imagens de um homem de bigode sendo preso, mas não representaram com precisão as feições de Maduro. Quando solicitada a criar uma representação mais realista do presidente deposto, a ferramenta da Meta respondeu: “Não posso gerar isso”.
A Meta se recusou a comentar.
Ferramentas de inteligência artificial generativa estão mais acessíveis do que nunca, disse Mariví Marín, diretora da ProboxVE, uma organização sem fins lucrativos que analisa ecossistemas digitais na América Latina.
Ela escreveu em uma mensagem que os deepfakes de Maduro que surgiram no fim de semana, a maioria antes da divulgação de uma foto oficial, foram uma resposta a “uma necessidade coletiva de preencher ‘a imagem perfeita’ de um momento que cada venezuelano imagina de forma um pouco diferente”, como uma espécie de “reação à urgência de preencher esse vazio visual (com conteúdo real ou irreal) o mais rápido possível”.
‘Duvidar da verdade e acreditar na mentira’
A Venezuela está entre os países mais restritivos do mundo em termos de liberdade de imprensa, com fontes de mídia limitadas, o que dificulta o acesso a informações confiáveis. Nesse vácuo informativo, a desconfiança gerada por deepfakes é agravada.
Gutiérrez disse que muitas pessoas ficaram céticas quanto à autenticidade da imagem de Maduro publicada por Trump.
“É engraçado, mas muito comum: duvidar da verdade e acreditar na mentira”, disse ele.
Verificadores de fatos da América Latina, como Gutiérrez, afirmaram que já estavam atentos devido a vídeos e imagens sintéticas anteriores de Trump e do ex-presidente Joe Biden, o que os preparou para identificar deepfakes de figuras públicas. E, desde a pandemia, grupos de checagem de fatos em toda a região têm colaborado para enfrentar rumores transnacionais e teorias da conspiração que surgem durante conflitos internacionais e eleições.
“Simplesmente dá muito trabalho, porque sempre perdemos a batalha para convencer as pessoas da verdade”, disse Gutiérrez.

