Pular para o conteúdo

Segurança para Inteligência Artificial é discutida por times de Segurança de Aplicativos

Banner Aleatório

Ferramentas de desenvolvimento com IA como Cursor, Windsurf e Copilot podem ser induzidas, via prompt injection e funções “normais” do IDE, a ler segredos e executar comandos sem que o usuário perceba — é isso que a pesquisa IDEsaster expõe.

Banner Aleatório

A classe de vulnerabilidades IDEsaster

O pesquisador Ari Marzouk (MaccariTA) identificou mais de 30 falhas em IDEs e assistentes com IA – incluindo Cursor, Windsurf, Kiro.dev, GitHub Copilot, Zed.dev, Roo Code, Junie, Claude Code e Cline – todas explorando o mesmo padrão: prompt injection + ações automáticas do agente + APIs legítimas da IDE. Em 24 desses casos já existem CVEs, e em testes o mesmo encadeamento de ataque funcionou em 100% das ferramentas avaliadas.

A ideia central é que, quando o agente de IA está autorizado a tomar decisões sozinho (editar arquivos, mudar settings, chamar ferramentas MCP, executar comandos), qualquer instrução maliciosa que entre no contexto – em código, README, JSON, URLs, MCP, etc. – pode transformar capacidades normais da IDE em vetor de exfiltração ou RCE.

Como os ataques são encadeados

Os vetores descritos combinam:

O resultado prático inclui vazamento de segredos, modificação de build/config, criação de backdoors persistentes em repositórios e execução remota de código no ambiente de desenvolvimento – tudo disparado por “apenas seguir instruções” vistas pelo LLM como contexto legítimo.

Casos correlatos: Codex CLI, Gemini, PromptPwnd

A pesquisa conecta essas ideias a outros achados recentes:

Esses exemplos reforçam a tese de que agentes de IA não distinguem “ordens” do usuário de instruções maliciosas embutidas em dados, o que torna todo o fluxo de contexto parte da superfície de ataque.

Recomendações práticas para devs e times de segurança

Marzouk argumenta que tudo isso aponta para uma nova disciplina de segurança “Secure for AI”: não apenas proteger modelos, mas projetar todo o ciclo de vida de produtos assumindo que agentes de IA serão alvo e ferramenta em cadeias de ataque.

Source link

Join the conversation

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *