Pular para o conteúdo

Inteligência Artificial: Entenda como o AI Slop está dominando a Internet e confundindo a realidade

Banner Aleatório

Um Jesus em forma de camarão. Um gato a cozinhar. Um bebé recém-nascido a fugir pelo seu próprio pé. Estes são alguns exemplos de conteúdos que têm sido apelidados de “AI slop”, imagens e vídeos criados com Inteligência Artificial que têm inundado os feeds de redes sociais e somam milhões de visualizações — por norma, são produzidos em massa e têm pouca substância e qualidade. “Somos seres únicos, mas tudo o que estamos a criar é mais do mesmo”, resume a investigadora Helena Moniz, presidente do Comité de Ética do Center for Responsible AI.

Banner Aleatório

A facilidade de acesso faz com que a quantidade de AI slop esteja a aumentar, assim como a legião de pessoas que os vê. Esse consumo excessivo não é inócuo. Para o psicólogo Miguel Oliveira, uma coisa é certa: “O custo cai sempre sobre o consumidor, sobre a forma de desgaste cognitivo”. São conteúdos chamativos de consumo rápido, que quase nos deixam “anestesiados” e tornam mais difícil perceber o que é verdadeiro ou falso.

“Já começamos a ver esta erosão da percepção e da realidade e da confiança”, aponta o psicólogo que é coordenador do programa PsicologIA na Trasnformação Social da Ordem dos Psicólogos, que se diz preocupado com a qualidade “indistinguível” de algumas das imagens criadas por estes modelos de Inteligência Artificial (quem não foi enganado pelo vídeo dos coelhos a saltar num trampolim?). A professora Helena Moniz concorda: “Os neuropediatras estão muito preocupados com a forma como os nossos jovens e até crianças estão a perceber uma nova realidade”, diz. “Como se vivessem num mundo que, para eles, é real, mas que não corresponde ao mundo real que existe.”

Mas comecemos pelo início: o que é isto de AI slop? Na língua inglesa, a palavra “slop” pode querer dizer várias coisas: começou por significar “lama”, depois passou a ser usada para descrever “comida para porcos”, “porcaria” ou uma comida empapada e pouco nutritiva. Agora, a palavra foi associada à torrente de conteúdos produzidos por ferramentas de Inteligência Artificial. O AI slop pode tomar várias formas: vídeos absurdos, imagens manipuladas, notícias e sites falsos que parece reais, áudios adulterados, músicas sem sentido ou livros de qualidade duvidosa escritos por IA.


Vídeo criado com o Sora 2

O impacto deste novo fenómeno (e da própria Inteligência Artificial) reflectiu-se na escolha da palavra do ano de vários dicionários. A palavra “slop” foi eleita a palavra do ano para o prestigiado dicionário Merriam-Webster, que relata que o ano começou com uma “enxurrada de slop” que “as pessoas achavam irritante”, mas que não deixaram de devorar. A investigadora Helena Moniz acredita que esta voragem excessiva acontece por serem “de consumo muito rápido, por não ter de se pensar muito, por serem emotivos, com imagens para que se sintam atraídos”.

A expressão “AI slop” foi ainda considerada a palavra do ano de 2025 pelo Dicionário Macquarie, definindo-a como “conteúdo de baixa de qualidade criado por IA generativa, muitas vezes contendo erros”. A revista The Economist também escolheu “slop” como palavra do ano, evidenciando a sua preocupação pela forma como a Internet está a ficar entupida com esta nova forma de spam.

A propagação do AI slop gera preocupação numa altura em que várias empresas desenvolveram plataformas que criam vídeos com IA de forma imediata e sem qualquer trabalho de execução por parte do utilizador, como o Sora 2 (da OpenAI, criadora do ChatGPT) ou a Vibes (da Meta), que oferecem ainda um feed quase infinito em que o utilizador pode fazer scroll em conteúdos criados unicamente com Inteligência Artificial — ou seja, AI slop. A Vibes foi lançada por Mark Zuckerberg em Setembro deste ano, assim como a aplicação do Sora (a ferramenta já estava disponível há mais tempo), que não está disponível em Portugal.

Alguns profissionais da indústria criativa ficaram preocupados com o recente acordo multimilionário entre a Disney e a OpenAI, que permitirá a criação de conteúdos com as personagens da Marvel, Disney, Pixar e Star Wars no Sora. Muitas pessoas têm criticado também a forma como as empresas de Inteligência Artificial utilizam dados pessoais e obras criativas protegidas com direitos de autor para treinar os seus modelos e gerar conteúdo. Nos últimos tempos, tem havido também um debate sobre IA e a propriedade intelectual: foram instauradas várias acções judiciais contra empresas de Inteligência Artificial por usarem obras protegidas e dados pessoais para treinar modelos de IA generativa.



Vibes, da Meta
DR

Além do Sora e da Vibes, há outras plataformas que permitem criar este tipo de conteúdos, como o VEO3 (da Google), Midjourney, Runway ou Synthesia. Quase todas estas plataformas conseguem criar vídeos hiper-realistas a partir de prompts simples (descrições ou comandos feitos por texto). Um exemplo: alguns destes modelos geram vídeos falsos de repórteres televisivos que são quase indistinguíveis da realidade.

Ainda que estas empresas estejam a explorar o filão do AI slop, várias outras plataformas têm tomado medidas para abrandar a propagação deste tipo de conteúdo (ou, pelo menos, para o identificar como IA), como o YouTube, a Wikipédia, o Spotify e o Pinterest. O YouTube, por exemplo, avisa que os conteúdos “repetitivos ou produzidos em massa”, considerados “conteúdos inautênticos”, não são elegíveis para monetização.

Mais IA do que humanos

O que vemos e lemos nos nossos ecrãs para nos informarmos ou entretermos já deixou de ser feito só por humanos. Um relatório da empresa de SEO Graphite mostra que os artigos gerados por IA e publicados online ultrapassaram temporariamente os artigos escritos por humanos em Novembro de 2024; desde aí, têm-se mantido num equilíbrio de 50% cada. O estudo da empresa foi feito com base na análise de mais de 65 mil artigos entre 2020 e 2025 e os investigadores descobriram que os artigos escritos por IA aumentaram significativamente depois do lançamento do ChatGPT em 2023.

Alguns especialistas temem que a “teoria da Internet morta” — que era antes até vista como uma teoria da conspiração — se possa estar a tornar realidade: esta teoria defende que o que vemos na Internet já não é feito por humanos, mas sim por bots e Inteligência Artificial.

Apesar do foco na IA como facilitadora deste tipo de conteúdos, o psicólogo Miguel Oliveira considera essencial que se ponha a tónica nos humanos: “A Inteligência Artificial não começou a fazer isto sozinha. A AI slop é feita pelas pessoas”, assevera. “Temos aqui uma tecnologia para a qual nenhum de nós foi educado a saber utilizar”, refere, reconhecendo toda a incerteza que ainda existe em torno do futuro da IA.

E isso traz desafios. O AI slop é criado de uma forma “muito acessível e sem atender a conceitos como informação factual e histórica”, explica Helena Moniz, que considera que quem produz estes conteúdos em massa o faz para fins comerciais, para fins ideológicos ou para captar a atenção — já que, numa era em que o tempo de concentração encolhe, a atenção é um bem precioso.

“Quem perceber um pouco de psicologia comercial, de psicologia da atenção humana e perceber quais são as tendências comerciais facilmente cria um vídeo com cãezinhos ou gatinhos, só para dar um exemplo”, explica a também professora na Faculdade de Letras da Universidade de Lisboa. “Isto não se faz de forma aleatória, isto faz-se com princípios e com regras de marketing e de captação de atenção”, considera Helena Moniz. “Cognitivamente, o nosso cérebro evoluiu para estarmos alerta e estes alertas são criados com estas emoções fortes”, afirma.

Em Agosto, um artigo do diário britânico The Guardian dava conta de que, dos 100 canais que mais estavam a crescer no YouTube, nove tinham exclusivamente vídeos inteiros criados através de Inteligência Artificial. Um dos canais era dedicado a “novelas” em que as personagens eram gatos humanóides e que passavam por todo o tipo de tragédias — o tal apelo à emoção.

“Isto cansa”, resume o psicólogo Miguel Oliveira, que receia que esta exposição constante leve a uma dessensibilização de quem vê. “Temos de estar sempre conscientes. O nosso cérebro está sempre a trabalhar.” Ainda assim, Oliveira vê uma vertente positiva nesta enxurrada de AI slop: “Isto quer dizer que as pessoas andam a experimentar”. O problema, diz, é que todos os testes e experiências acabam por ser logo publicados online, sem crivo. O resultado está à vista: “Estamos a inundar a Internet”.


Vídeo criado com o Sora 2

Estas publicações nem sempre correspondem a conteúdos aparentemente inofensivos. Os dois peritos alertam para a utilização de imagens com violência física, pornografia ou com o uso de imagem sem autorização do outro, criando-se narrativas falsas ou promovendo o ódio e a discriminação contra determinados grupos. Um estudo de 2023 mostrava que 98% dos vídeos online que tinham sido manipulados sem consentimento dos visados eram deepfakes pornográficos, em que 99% dos alvos eram mulheres, a maior parte delas celebridades.

“É impossível policiar, ainda que, obviamente, seja preciso denunciar”, refere Miguel Oliveira, mencionando estas preocupações quanto a fraudes, montagens, falsificações e segurança. “Temos de começar a limitar e ter aqui um travão, porque isto pode ter consequências que nós não conseguimos dominar”, refere o psicólogo.

Estas partilhas também podem ser feitas para ter influência política ou para desviar atenções. E não vêm só de pessoas desconhecidas: o Presidente norte-americano Donald Trump tem repartilhado vídeos e imagens deste género, o que levou a revista Wired a considerá-lo “o primeiro Presidente AI slop”. Parece inventado, mas não é. Entre as imagens falsas que partilhou este ano, estavam o antigo Presidente Barack Obama a ser preso na Sala Oval — numa altura em a atenção mediática estava focada no seu envolvimento no “caso Epstein” —, uma Gaza reconstruída à sua imagem, Trump vestido de Papa ou um avião pilotado por si a atirar dejectos sobre manifestantes nos protestos No Kings.

Por falar em dejectos: o AI slop e o brain rot (a erosão do nosso intelecto devido ao consumo excessivo de conteúdos nas redes sociais) são também formas de “merdificação” da Internet — o termo “enshitification” cunhado por Cory Doctorow, que mostra como as grandes plataformas têm vindo a perder qualidade. Em conversa com o PÚBLICO em Lisboa, o escritor afirmava que estes grandes negócios “sonham com plataformas em que os utilizadores absorvam conteúdos, mas não tenham de os produzir”.

O escritor considera ainda que “a arte é um acto de comunicação”. Quando se dá um comando a uma ferramenta de Inteligência Artificial, ela pouco mais vê além dessas breves instruções. “E, assim, essa arte não tem nada a dizer. Pode ser esteticamente atractivo, mas não diz nada”, comenta, quando questionado sobre AI slop. “Nunca se encontra um quadro que não tenha um pintor. Nunca se encontra um romance que não tenha um escritor — mas, agora, podemos fazer isso.”

A distinção entre o que é criado unicamente por humanos ou por IA torna-se mais complexa numa altura em que há uma simbiose e muitas pessoas adaptam os seus textos com a ajuda da IA. “É a primeira vez na nossa história como seres humanos que tivemos mais conteúdo que não é gerado por humanos”, comenta Helena Moniz. “Isso obviamente tem impacto na forma como vamos contar a história, viver a história e perspectivar o presente e o futuro.”

Lucrar com a atenção

Enquanto olhamos para os telemóveis e fazemos swipe com o dedo, pode haver quem esteja a lucrar com a nossa atenção. Há vídeos no YouTube que mostram como criar este tipo de conteúdos AI slop, com os “criadores” a relatarem que conseguiram fazer milhares de dólares, explicando o seu processo e como monetizar este tipo de conteúdos.

“Se conseguir um trabalho com o meu curso, terei um trabalho em que ganharei entre 500 a 700 dólares por mês, o que não é mau, mas se o compararmos com o potencial do YouTube há uma diferença gigante”, afirma um criador deste tipo de conteúdos chamado Mark Lawrence Garilao, entrevistado pela Al Jazeera. “O rendimento médio que obtenho pelo YouTube [através de publicidade e visualizações] vai de 3000 a 5000 dólares por mês”.

O CEO da Meta, Mark Zuckerberg, disse que os utilizadores têm passado mais tempo nas suas aplicações (como o Facebook e Instagram) por causa da Inteligência Artificial, segundo o site Tech Crunch. Ainda que muitos utilizadores critiquem a avalanche de AI slop nas plataformas, a Meta considera que a Inteligência Artificial está a ajudar a dar-lhes melhores recomendações. O tempo gasto a ver vídeos também aumentou 20% em relação ao período homólogo do ano passado (segundo trimestre do ano) nestas plataformas.

“As plataformas de redes sociais como o YouTube não querem saber se um vídeo tem pensamento verdadeiro ou se é gerado automaticamente. O que mais importa é o tempo de visualização”, observa a professora Myojung Chung, da Northeastern University, especialista em Inteligência Artificial e desinformação, também citada pela Al Jazeera. “Empresas como a Meta ou a OpenAI ou o Google lucram com o envolvimento com os conteúdos, portanto a ética vem depois do crescimento.”

Alguns vídeos de AI slop têm toques de fantasia, de bizarria, de absurdo, uma aura cinematográfica ou parecida com videojogos… A investigadora Helena Moniz acredita que o humano sempre teve um fascínio “pelo encantamento e pela magia”, e que isso “faz parte do nosso imaginário como seres humanos”.

Nessas “boas histórias”, há determinados ingredientes que têm de estar presentes, como as personagens, as emoções fortes, uma narrativa que decorre de forma rápida. “Algumas mostram situações muito estrambólicas, muito fora da realidade”, refere Miguel Oliveira, que acredita que o denominador comum é a tentativa de chamar a atenção. Na mente de muitos criadores e plataformas, surge a questão: “De que forma é que eu posso fazer com que a pessoa esteja colada à minha plataforma o maior número de horas possível e possa voltar o maior número de vezes?”, considera Miguel Oliveira.

Mais ecrãs, mais isolamento

Que impacto pode ter esta procura sôfrega pela nossa atenção? A “constante recompensa da dopamina” que obtemos ao ver vídeos curtos e chamativos está já a alterar comportamentos, considera o psicólogo Miguel Oliveira. “Estamos mais tempo em contacto com ecrãs, estamos cada vez menos empáticos e estamos numa economia de atenção”, afirma. O psicólogo acredita que a informação é tanta que “não conseguimos chegar àquilo que interessa”. Tudo isto pode levar a que as pessoas “fiquem mais isoladas, mais vulneráveis e sejam mais influenciadas por estes conteúdos digitais”.



Imagem gerada com IA que mistura a figura de Jesus Cristo com a de um camarão

O psicólogo reconhece que a Inteligência Artificial tem “muitos riscos”, mas não quer contribuir para uma ideia de que a IA é intrinsecamente nociva. “Quando estas ferramentas são bem utilizadas o resultado pode não ser nada slop, muito pelo contrário”.

Quanto ao desgaste cognitivo, o psicólogo acredita que muita gente deixará de tentar confirmar se as informações são verdadeiras ou não. “A Inteligência Artificial é uma espécie de amplificador: amplifica tudo o que é bom, mas também tudo o que é mau”, refere Miguel Oliveira.

Todas estas consequências são ainda mais graves quando se fala de crianças ou de jovens, “que estão num período crítico da sua formação”, considera Oliveira — e que, muitas vezes, consomem este tipo de vídeos e imagens sem qualquer intervenção ou conhecimento dos pais. “Estão abertas a tudo o que é novo e são muito mais influenciadas, têm menos juízo crítico porque estão num processo de desenvolvimento que assim o dita. E, portanto, a influência destas ferramentas há-de ser brutal”, comenta o psicólogo.

Os jovens estão a ficar hipnotizados pelos ecrãs, a ter dificuldades nas suas relações sociais e a perder a riqueza vocabular, diz Helena Moniz — “e é essa riqueza que nos faz compreender o mundo, discutir conceitos, conceptualizar a nossa vida em relação aos outros”.

Nestes casos em que a Inteligência Artificial chega aos mais novos, Miguel Oliveira considera importante que os pais estejam cientes dos impactos deste tipo de conteúdos. “Temos pais que não percebem a tecnologia e filhos a experimentarem-na”, diz. Por isso, defende que estas ferramentas devem ser usadas, sim (incluindo nas escolas), mas sempre com um adulto ao lado, como “mediador”, alguém que tenha poder de decisão.

Sozinhos não. “Porque a Internet não falava connosco. Dava-nos resposta, mas não falava connosco”, aponta Miguel Oliveira. A Inteligência Artificial tem características diferentes, é um novo animal. “Ela aprende mais rapidamente sobre nós do que nós aprendemos sobre ela”, diz — e, a partir dessa informação, gera perguntas e informação que vai ao encontro dos nossos gostos e contribui para uma bolha.

Também surgem casos mais graves, sobretudo em pessoas que já se encontram mais vulneráveis. E há relatos de um fenómeno que tem sido apelidado de “psicose de IA” — um rótulo informal e não um diagnóstico —, em que o uso intensivo de chatbots de Inteligência Artificial leva a problemas, como crenças falsas ou perturbadoras, delírios de grandeza ou sentimentos paranóicos. Em alguns casos, os jovens (e não só) criam relações ou afeiçoam-se de forma patológica às ferramentas de Inteligência Artificial.

Perante este cenário, o que podemos fazer? As soluções são sempre a parte difícil, brinca a investigadora Helena Moniz. Este fenómeno combate-se com muita literacia, muito trabalho de professores, educadores, pais e jornalistas “na destrinça do que são factos e não são”. O psicólogo Miguel Oliveira concorda que tem de haver um investimento gigantesco em literacia: “Temos de ter algum grau de protecção”, alerta. E ainda há muitas regras e questões por definir.

“A escola deveria ser o sítio onde nós podemos dar a informação correcta e deveria haver um investimento para ontem”, defende Miguel Oliveira. “Mais do que pensar neles, precisamos de começar a ter alguma intervenção”.



Source link

Join the conversation

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *