Pular para o conteúdo

falhas no ChatGPT-4 expõem risco de invasão e roubo de dados

Banner Aleatório

O ChatGPT-4 foi um marco da inteligência artificial generativa, capaz de responder com mais precisão e naturalidade do que qualquer outro modelo anterior. Mas, por trás da revolução, há uma brecha preocupante: o sistema ainda é vulnerável a ataques silenciosos.

Banner Aleatório

Um novo estudo da Tenable, empresa especializada em segurança cibernética, revelou sete falhas críticas na IA da OpenAI. O conjunto de vulnerabilidades foi apelidado de “HackedGPT” e mostra como o modelo pode ser enganado para roubar dados pessoais e seguir comandos ocultos vindos de sites aparentemente confiáveis.

As brechas que viraram alerta para a OpenAI

“HackedGPT”: falhas no ChatGPT-4 expõem risco de invasão e roubo de dados
© Pexels

De acordo com o engenheiro sênior Moshe Bernstein, da Tenable, o problema é estrutural: “Essas falhas, isoladamente, parecem pequenas. Mas juntas, formam uma cadeia completa de ataque — da injeção ao roubo de dados. É uma lição de como a IA pode se transformar em uma ferramenta de espionagem sem querer”, afirmou.

Os pesquisadores identificaram duas principais rotas de ataque:

  • 0-clique, quando o usuário apenas faz uma pergunta e já é comprometido;
  • 1-clique, quando clicar em um link malicioso é o suficiente para ativar o ataque.

A seguir, as sete falhas que colocaram o ChatGPT-4 sob os holofotes:

  • Injeção indireta de prompt – Hackers escondem comandos dentro de textos legítimos, como comentários ou postagens. O ChatGPT lê essas instruções ocultas e as executa sem perceber.
  • Injeção de 0-clique – O modelo acessa páginas com código malicioso ao buscar respostas na web, mesmo sem ação direta do usuário.
  • Injeção de 1-clique – Links aparentemente inofensivos ativam comandos escondidos que permitem o controle do chat.
  • Omissão de segurança – Os invasores driblam verificações de segurança ao usar links “disfarçados” com endereços confiáveis, como o Bing.
  • Injeção de conversação – O ChatGPT interpreta instruções maliciosas como parte natural do diálogo e as executa.
  • Ocultação de conteúdo malicioso – Códigos escondidos em formatações (como markdown) passam despercebidos ao usuário, mas são lidos pela IA.
  • Injeção de memória persistente – A mais perigosa: comandos que permanecem gravados na memória de longo prazo da IA, fazendo com que ela repita ações maliciosas em várias sessões.

O que isso significa para os usuários

Essas vulnerabilidades colocam em risco a privacidade de conversas, dados sensíveis e memórias salvas pelos usuários. Embora a OpenAI tenha corrigido parte dos problemas com o GPT-5, a Tenable alerta que há brechas que ainda podem ser exploradas.

Segundo Bernstein, “as ferramentas de IA precisam ser tratadas como superfícies de ataque, não como assistentes inofensivos”. Ele defende auditorias constantes e monitoramento de comportamentos suspeitos, como respostas estranhas ou saídas que fogem ao padrão.

Como se proteger do “HackedGPT”

A Tenable recomenda que usuários e empresas:

  • Evitem clicar em links desconhecidos sugeridos por ferramentas de IA;
  • Auditem integrações entre IA e outros sistemas corporativos;
  • Testem e reforcem defesas contra injeções de prompt e vazamentos de dados;
  • Estabeleçam controles de governança para o uso responsável da IA.

O estudo “HackedGPT” é um alerta claro: quanto mais inteligentes as IAs ficam, mais vulneráveis também se tornam. A corrida por segurança agora é tão urgente quanto a corrida pela inovação — e quem usa ferramentas como o ChatGPT precisa entender que, em cibersegurança, até a máquina mais esperta pode ser enganada.

[Fonte: Correio Braziliense]

Source link

Join the conversation

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *