Pular para o conteúdo

Hackers utilizam ChatGPT e Grok para disseminar malware através de links patrocinados

Banner Aleatório

Cibercriminosos desenvolveram uma nova estratégia de ataque que explora a confiança dos usuários em ChatGPT e Grok para disseminar malware através de links patrocinados. A técnica, revelada pela empresa de segurança Huntress, engana pessoas que buscam soluções simples para problemas comuns de computador.

Banner Aleatório

Os invasores manipulam os chatbots de IA para que estes forneçam comandos de terminal maliciosos, que posteriormente são promovidos como anúncios pagos nos resultados de busca do Google. Sem perceber o perigo, usuários acabam executando instruções que instalam software malicioso em seus dispositivos.

A tática é particularmente eficaz porque ataca justamente onde os usuários se sentem mais seguros: nas respostas de inteligências artificiais confiáveis e nos primeiros resultados do buscador. A abordagem dribla as defesas tradicionais, já que não há arquivos suspeitos ou links visualmente estranhos para alertar sobre o risco.

Como funciona o ataque

O processo começa quando os hackers iniciam uma conversa com assistentes como ChatGPT ou Grok, usando termos de busca comuns como “me ajude a formatar meu HD”. Durante a interação, eles induzem a IA a sugerir comandos que, na realidade, contêm instruções maliciosas.

Close-up de uma mão segurando smartphone com logo Google Ads na tela brilhanteClose-up de uma mão segurando smartphone com logo Google Ads na tela brilhante
Os anúncios pagos no Google Ads são usados pelos hackers para promover comandos maliciosos disfarçados como soluções confiáveis.

Após obterem a resposta desejada, os criminosos tornam a conversa pública e investem em anúncios pagos para que ela apareça como primeiro resultado quando alguém busca o mesmo termo no Google. Ao encontrar o link patrocinado, a vítima acessa o conteúdo, confia na recomendação da IA e copia o comando sugerido para seu terminal.

A empresa Huntress identificou esta técnica ao investigar um caso de exfiltração de dados em computadores Mac envolvendo o malware AMOS. Na análise, descobriram que o usuário havia seguido instruções obtidas após clicar em um desses links patrocinados.

Em testes realizados pela equipe de segurança, tanto o ChatGPT quanto o Grok demonstraram vulnerabilidade a esta manipulação, repetindo o mesmo comportamento quando induzidos de forma semelhante pelos pesquisadores.

Persistência e propagação do golpe

O relatório da Huntress aponta que, mesmo após a denúncia, os links maliciosos permaneceram ativos no Google por pelo menos 12 horas, tempo suficiente para causar novas infecções em dispositivos de usuários desavisados.

A eficácia do golpe se baseia na dependência natural que as pessoas desenvolveram por ferramentas como Google e assistentes de IA, considerando-as fontes confiáveis de informação e orientação técnica.

Smartphone com ícones de chatbots de IA incluindo ChatGPT e Grok Beta na tela sobre teclado de notebookSmartphone com ícones de chatbots de IA incluindo ChatGPT e Grok Beta na tela sobre teclado de notebook

Embora ainda não haja confirmação sobre a replicação desta tática em outras plataformas de IA além do ChatGPT e Grok, o cenário demanda atenção redobrada dos usuários de tecnologia.

Sem soluções definitivas implementadas pelos provedores destes serviços, a melhor defesa continua sendo a cautela. A Huntress recomenda que ninguém execute comandos em terminais ou cole qualquer texto na barra de endereços sem compreender completamente sua função.

Para se proteger, especialistas recomendam:

  • Nunca executar comandos sugeridos por IA sem entender precisamente sua função
  • Evitar copiar instruções diretamente de resultados patrocinados de busca
  • Desconfiar de soluções técnicas que pareçam simples demais
  • Manter sistemas operacionais e ferramentas de segurança atualizados
  • Consultar múltiplas fontes confiáveis antes de executar comandos no terminal

Você também pode gostar dos artigos abaixo:

OpenAI enfrenta 7 processos que ligam ChatGPT a suicídios e distúrbios mentais graves

 

ChatGPT Atlas: tudo o que você precisa saber sobre o navegador da OpenAI

Source link

Join the conversation

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *