OpenAI fechou uma operação de influência iraniana que usou o ChatGPT para gerar artigos de notícias falsos

OpenAI fechou uma operação de influência iraniana que usou o ChatGPT para gerar artigos de notícias falsos

OpenAI fechou uma operação de influência iraniana que usou o ChatGPT para gerar artigos de notícias falsos

OpenAI disse na sexta-feira que frustrou uma campanha de influência iraniana que usou o ChatGPT para gerar notícias falsas e postagens sociais direcionadas aos americanos. A empresa disse que identificou e baniu contas que geravam conteúdo para cinco sites (em inglês e espanhol) fingindo ser veículos de notícias, espalhando “mensagens polarizadoras” sobre questões como a campanha presidencial dos EUA, direitos LGBTQ+ e a guerra em Gaza.

A operação foi identificada como “Storm-2035”, parte de uma série de campanhas de influência da Microsoft identificado na semana passada como “conectado com o governo iraniano”. Além das postagens de notícias, incluiu “uma dúzia de contas no X e uma no Instagram” conectadas à operação. A OpenAI disse que a operação não pareceu ter ganhado nenhuma tração significativa. “A maioria das postagens de mídia social que identificamos recebeu poucas ou nenhuma curtida, compartilhamento ou comentário”, escreveu a empresa.

Além disso, a OpenAI disse que no Escala de Breakout da Brookings Institutionque classifica ameaças, a operação registrou apenas uma classificação de Categoria 2 (em uma escala de um a seis). Isso significa que mostrou “atividade em múltiplas plataformas, mas nenhuma evidência de que pessoas reais pegaram ou compartilharam amplamente seu conteúdo”.

A OpenAI descreveu a operação como a criação de conteúdo para veículos de notícias falsamente conservadores e progressistas, visando pontos de vista opostos. Bloomberg disse o conteúdo sugeria que Donald Trump estava “sendo censurado nas redes sociais e estava preparado para se declarar rei dos EUA”. Outro enquadrou a escolha de Tim Walz por Kamala Harris como seu companheiro de chapa como uma “escolha calculada pela unidade”.

A OpenAI acrescentou que a operação também criou conteúdo sobre a presença de Israel nas Olimpíadas e (em menor grau) a política venezuelana, os direitos das comunidades latino-americanas e a independência escocesa. Além disso, a campanha apimentou as coisas pesadas com comentários sobre moda e beleza, “possivelmente para parecer mais autêntica ou em uma tentativa de construir seguidores”.

“A operação tentou jogar dos dois lados, mas não pareceu obter engajamento de nenhum deles”, disse o investigador da OpenAI Intelligence and Investigations, Ben Nimmo. Bloomberg.

A falha de uma operação de influência desmascarada segue a divulgação no início desta semana de que hackers iranianos atacaram as campanhas de Harris e Trump. O FBI disse que o conselheiro informal de Trump, Roger Stone, foi vítima de e-mails de phishing. Os hackers iranianos então assumiram o controle de sua conta e enviaram mensagens com links de phishing para outros. O FBI não encontrou evidências de que alguém na campanha de Harris tenha caído no esquema.

Source link

Source link

Related Articles

Responses

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *