Em setembro deste ano, a China conduziu um ataque hacker extenso a um grupo de 30 organizações. Não sabemos exatamente quais — governos, estatais, empresas de tecnologia. Sabemos que são, todas, entidades com presença global e que o objetivo do ataque era espionagem. Entrar nos servidores e puxar tanta informação quanto possível. Nada de surpreendente, aí. Estados Unidos, Reino Unido, Rússia, Israel, os países que têm a capacidade técnica de espionar, espionam. Quem pode conseguir alguma informação que ajude a tomar decisões entendendo os lances que o outro lado está planejando, o faz. Mas esse ataque foi diferente num sentido bastante particular. Os chineses usaram ferramentas de inteligência artificial à disposição de qualquer um. E isso transforma radicalmente o jogo de espionagem.
O pouco que sabemos sobre a ação foi divulgado pela Anthropic, uma das três companhias líderes em IA, com OpenAI e Google. O ataque foi identificado pela empresa em setembro, mas os detalhes só foram divulgados agora. Não são muitos. Sabemos, sim, que os chineses usaram Claude, o concorrente de GPT e Gemini. Mas, por causa do método, a escolha teve um quê de aleatória. Os outros dois possivelmente serviriam ao mesmo propósito. E não há qualquer motivo para acharmos que ações similares não estejam em curso. Ainda assim, o que os hackers chineses fizeram foi bem inteligente.
Um ataque a servidores com o objetivo de colher informação se dá em muitas fases. Primeiro é preciso identificar, na vasta internet, onde há computadores com fragilidades. Alguém esqueceu uma atualização de segurança, há uma senha trivial de quebrar, um sistema operacional mais antigo. Coisas assim. Quando uma vulnerabilidade é detectada, é preciso rompê-la para obter acesso ao sistema. Isso exige escrever programas, intuir como softwares lá dentro se comunicam. O trabalho é intenso, é manual e demorado.
É para isso que o Claude foi usado. O grupo chinês abriu inúmeras contas na plataforma e usou cada uma para um objetivo distinto. Se tudo fosse desencadeado a partir de uma única assinatura, seria fácil para a própria IA perceber que era manipulada e bloquear qualquer ação. Mas os hackers instruíram o sistema, explicando que agiam em nome da segurança de sistemas, procurando que portas abertas era bom fechar. Uma conta procurou as portas, outra identificou com cuidado o que era vulnerável, uma terceira trabalhou para identificar como entrar.
Não é em nada diferente do que um grupo hacker faria — e faz. Diariamente. A diferença é que, para uma operação desse porte, em geral são necessárias algumas dezenas de programadores ou algumas centenas de horas. Como a IA faz o trabalho pesado, um único hacker sabendo o que faz pode substituir muita gente e cumprir a missão numa fração de tempo.
Os cientistas que fundaram a Anthropic são lendas no mundo da inteligência artificial. Eles perceberam que um modelo inventado pelo Google em 2017 seria capaz de fazer muito mais que apenas um bom tradutor. Assim, construíram as versões 1 e 2 do GPT, até brigarem com a OpenAI. Saíram para montar sua própria companhia. É em grande parte porque o Google criou, e a OpenAI demonstrou o potencial, que vivemos a atual era da IA que simula pensamento real. O pequeno grupo de engenheiros que construiu essa revolução está no comando das três líderes do mercado.
Agora, os modelos de linguagem que construíram se tornaram espiões com alta capacidade. É um alerta para Estados nacionais, para empresas e organizações não governamentais. Afinal, a espionagem digital era limitada pelo número de hackers à disposição de cada governo. A IA muda o jogo. Um bom hacker pode comandar um exército de agentes autônomos. Aqueles que podem ser vítima de espionagem terão de aprender a se defender também usando IA. O único problema é o seguinte: a regra, nesses casos, funciona ao contrário. Quem pode ser vítima costuma não estar atento o suficiente.
Talvez os chineses tenham sido os primeiros. Talvez. O truque, agora, é conhecido. Quem pode já está usando.
