O ChatGPT Atlas, o browser web da OpenAI potenciado por inteligência artificial (IA), ainda tem um percurso a percorrer até se tornar uma ferramenta plenamente revolucionária. No entanto, a organização liderada por Sam Altman avançou com uma atualização crucial para reforçar a segurança e mitigar a sua vulnerabilidade mais preocupante.
O perigo das instruções invisíveis no ChatGPT Atlas da OpenAI
Através de um comunicado no seu blogue oficial, a OpenAI detalhou como está a trabalhar para solidificar a proteção de quem utiliza o ChatGPT Atlas. O foco recai especificamente sobre uma das ameaças mais perigosas que afeta o modo agente, a sua funcionalidade principal: a injeção de prompts (ou prompt injection).
Embora a injeção de prompts não seja uma ameaça inédita no universo da IA generativa, esta técnica foi adaptada para visar browsers agênticos. Na prática, este ataque consiste em ocultar instruções maliciosas para induzir a IA a realizar ações não solicitadas, muitas vezes sem que o utilizador se aperceba do que está a acontecer em segundo plano.
A grande diferenciação do modo agente do ChatGPT Atlas é a sua capacidade de navegar na web e concluir tarefas de forma autónoma, prescindindo da supervisão constante do utilizador. Esta autonomia, embora benéfica, abre a porta a novos tipos de exploração digital, o que obrigou a OpenAI a conceber novas camadas de defesa para manter a integridade do sistema.
Um sistema de defesa baseado em simulação de ataques
Para elevar o nível de proteção do sistema, a tecnológica desenvolveu o que designa por "atacante automatizado baseado em LLM". Em termos práticos, trata-se de um bot treinado através de técnicas de reinforcement learning, cuja função é identificar e desenvolver novos métodos de ataque contra o modo agente do browser. Mais do que apenas encontrar falhas, este sistema testa-as num ambiente controlado e simulado.
A vantagem desta metodologia reside na capacidade do bot em ajustar a sua estratégia e tentar novas abordagens com base na reação da IA do browser. Segundo a OpenAI, esta tática permite antecipar as movimentações de hackers, uma vez que o ChatGPT Atlas passa a integrar proteções contra ameaças que ainda nem sequer foram detetadas em cenários reais.
📝 Exemplo facultado pela empresa que demonstra a eficácia da atualização
Numa situação de teste, o bot inseriu uma instrução maliciosa num e-mail, ordenando que o ChatGPT Atlas enviasse uma mensagem ao CEO de uma empresa fictícia a comunicar a demissão da vítima.
- Inicialmente, o sistema executava a ordem sem qualquer questionamento.
- Após a implementação da nova camada de segurança, a IA passou a identificar o conteúdo malicioso e a notificar o utilizador em vez de concretizar a ação.
Leia também:



