Pular para o conteúdo

Deepfakes racistas no TikTok: como a inteligência artificial impulsiona uma agenda política

Banner Aleatório

A mensagem funciona como um isco: “Nós é que mandamos no bairro, ‘tás a ver? Bófia aqui não manda nada.” Noutro vídeo, um jovem negro (tal como o anterior), explica como “dorme até ao meio-dia” e recebe “200 euros para cada filho”. Gasolina para comentários de ódio, racistas, e de apoio ao Chega: “É por isto que André Ventura tem que entrar no poder”, escreve um utilizador. “Estão bem é na selva. Portugal é dos portugueses”, diz outro. De fora fica o facto de nenhuma destas pessoas ser real e de todos estes vídeos serem gerados por inteligência artificial – os chamados deepfakes.

Banner Aleatório

Fernando Ervedosa denunciou a página onde foram partilhados e fez um vídeo a alertar para esta realidade. É gestor de várias contas no TikTok e, numa das páginas que controla, o algoritmo entregou-lhe um destes vídeos. A página onde foram publicados, que entretanto deixou de existir (o TikTok não esclarece se foi suspensa pela plataforma ou eliminada pelo próprio administrador), servia “obviamente para denegrir algumas comunidades”, refere.

Foi estudando a forma como estava feita e percebeu que a estratégia ia mudando de acordo com a evolução da própria tecnologia. Nos primeiros vídeos, o tom era cómico e de piada “porque se notava obviamente que era inteligência artificial”. “Depois, começaram a aparecer coisas em POV (point of view ou, em português, ponto de vista), com a pessoa a agarrar o telemóvel em modo selfie, que já dá um toque mais realista”, explica. Nestes casos, e com rostos realistas e vozes que se assemelham às humanas, já é mais difícil de perceber que o que está em causa é um conteúdo totalmente feito por IA – mesmo para quem tem o olho relativamente treinado. Mas importa? Num dos vídeos alguém comenta: “Isto existe muito, a IA é só um pormenor.”

Quando se trata de difundir mensagens que servem uma determinada agenda política, a verdade “deixou de ser o factor principal”, afirma a investigadora em extremismo e radicalização Cátia Moreira de Carvalho. “Para certas audiências – especialmente susceptíveis a narrativas extremistas –, partilhar deepfakes não é sobre acreditar. É sobre semear dúvida, amplificar conflito, enfraquecer a confiança em instituições”, refere. O “desejo de instabilidade social” é o “maior preditor de partilha deliberada de informação falsa”.

Os alvos costumam ser os mesmos: “[Os conteúdos] Funcionam dramatizando estereótipos existentes de forma hiperbolizada – imigrantes como ameaça, pessoas negras como criminosas – tornando-se simultaneamente plausíveis e devastadores. Pessoas imigrantes vêem-se retratadas falsamente como ameaças, amplificando o estigma social por milhões de visualizações.”



Um relatório do centro de investigação de desinformação Media Matters for America aponta o mesmo: “As mensagens de ódio não precisam de parecer reais para enraizar crenças racistas nos que as vêem. Nos Estados Unidos, há uma longa história de usar cartoons para difundir propaganda racista.”

O mesmo relatório dá mais pistas sobre esta tendência que se vai multiplicando por todo o mundo. São geralmente vídeos criados em plataformas de acesso gratuito e gerados a partir de instruções em texto. Nos Estados Unidos, o conteúdo vai desde pessoas negras transformadas em macacos a manifestantes pró-imigração a serem atropelados durante protestos.

Na Europa, Cátia Moreira de Carvalho lembra alguns exemplos de “instrumentalização política”: “A AfD alemã duplicou o sucesso entre novos votantes no TikTok com conteúdo anti-imigração; o National Rally francês usou imagens de IA de barcos de migrantes; partidos polacos criaram deepfakes de ‘invasões ilegais’.” Todos têm o mesmo intuito. “Fornecer ‘prova visual’ de uma crise fabricada”, para depois convencerem quem os vê de que só a direita radical populista a pode resolver.

TikTok removeu 6,5 milhões de vídeos com discurso de ódio

A forma como as próprias plataformas funcionam dá gás à propagação destes conteúdos. “Os algoritmos recompensam o hábito, não a veracidade”, lembra Cátia Moreira de Carvalho. E “15% dos utilizadores mais activos são responsáveis por 30 a 40% das fake news”.

Por isso, interagir com este conteúdo, mesmo que seja para avisar que é feito por IA, pode ter um efeito contraproducente e acabar por torná-lo apetecível para o algoritmo. Denunciá-lo pode ser mais eficaz, apesar de “apenas um em cada cinco utilizadores” reportarem deepfakes e 48% não saberem como o fazer”, afiança a investigadora.



As directrizes do TikTok proíbem o “discurso de ódio e promoção de ideologias baseadas no ódio”, mas o Media Matters for America refere que há vídeos que não cumprem as normas e, mesmo assim, continuam a circular na plataforma.

Ao P3, o TikTok garantiu que todos os conteúdos são moderados por “revisão humana” e “analisados por sistemas automatizados, treinados para detectar padrões de discurso de ódio (…) que são removidos imediatamente”. No primeiro semestre de 2025, a rede social diz ter retirado “mais de 6,5 milhões de vídeos a nível global” (cerca de 2% de todo o conteúdo publicado) que violavam as directrizes, sendo que “98,9% dos conteúdos foram removidos antes de serem denunciados [por utilizadores] e 94% foram removidos no espaço de 24 horas”.

Para identificar conteúdo gerado por IA, especificamente, o TikTok recorre a “ferramentas de rotulagem obrigatórias para criadores, que exigem que os utilizadores identifiquem conteúdos gerados por IA, juntamente com os modelos de propriedade e detecção de IA do TikTok”. Utiliza também “as Credenciais de Conteúdo C2PA, um padrão da indústria que incorpora metadados indicando quando o conteúdo foi gerado ou alterado por IA” e diz estar a implementar marcas de água invisíveis, de forma a tornar os vídeos criados por IA “mais difíceis de ocultar”.

Cátia Moreira de Carvalho considera que a legislação actual não chega: “A transparência obrigatória é facilmente contornável, as penalidades são insuficientes e as plataformas aplicam os mínimos legais.” Defende que é preciso redesenhar os algoritmos para “recompensar a precisão e não o engagement” e aplicar “multas significativas (tendo como referência percentagens da receita)” a plataformas que estão em incumprimento.

Como identificar vídeos gerados por IA?

Para identificar vídeos criados por inteligência artificial, Fernando Ervedosa, que na sua página de Instagram explora as potencialidades da ferramenta, deixa algumas dicas: “A primeira é o vídeo parecer filmado com uma tostadeira”, brinca. “Estamos em 2026, os telemóveis têm câmaras HD. [Esses vídeos geralmente] Não têm boa resolução.”

Depois, é importante “olhar ao redor” do protagonista e prestar atenção ao cenário, que, geralmente, “não é tão detalhado” e nem sempre faz sentido. Num dos vídeos denunciados por Fernando Ervedosa, há um suposto grupo de rapazes no interior de um comboio ou metro. Um olhar mais atento denuncia uma barra de apoio no meio dos bancos onde estão sentados – um sítio onde não é habitual estar qualquer barra. Os próprios assentos estão posicionados de uma forma que “não faz sentido”.

As letras também ajudam a revelar se um conteúdo é real ou não. Quando são geradas por IA tendem a não ser perceptíveis ou a serem apenas um conjunto de grafismos que se assemelham a letras, mas onde não se lê nada.

A Hive, uma empresa que organiza e rotula dados para treinar sistemas de inteligência artificial, disponibiliza uma ferramenta online que ajuda a identificar conteúdos gerados artificialmente. Is it AI? e Image Whisperer são outras opções. Há mais nesta lista.

Ainda assim, Fernando Ervedosa lembra que “está a ficar cada vez mais difícil” perceber o que é real e o que não é. Os deepfakes da página que deu origem à sua denúncia, por exemplo, estavam “muito bem feitos”. “Seja lá quem fosse que estava por detrás daquilo sabia muito bem o que estava a fazer.” Na dúvida, o melhor é não partilhar.



Source link

Join the conversation

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *