No fim de 2021, a Marinha Real Britânica abordou a Microsoft e a Amazon Web Services, gigantes americanOs de tecnologia, com uma pergunta: havia uma maneira melhor de travar guerras? Mais especificamente, poderiam encontrar uma maneira mais eficaz de coordenar as ações entre uma equipe de ataque hipotética no Caribe e os sistemas de mísseis de uma fragata?
As empresas de tecnologia colaboraram com a BAE Systems, uma fabricante gigante de armas, e a Anduril, uma empresa menor, entre outros contratantes militares. Em 12 semanas —incrivelmente rápido no mundo da aquisição de defesa— o consórcio se reuniu em Somerset, no Reino Unido, para uma demonstração do que foi apelidado de StormCloud.
Fuzileiros no solo, drones no ar e muitos outros sensores foram conectados por uma rede de rádios avançados, que permitiam a cada um ver, de forma contínua, o que estava acontecendo em outros lugares —uma configuração que já havia permitido aos fuzileiros navais superar forças muito maiores em exercícios anteriores.
Os dados coletados foram processados em pequenos computadores robustos presos a veículos de comando com cabos elásticos e em servidores de nuvem distantes, para onde foram enviados por satélite. O software de comando e controle monitorava uma área designada, decidia quais drones deveriam voar para onde, identificava objetos no solo e sugeria qual arma atacar qual alvo.
Os resultados foram impressionantes. Ficou evidente que o StormCloud era a “cadeia de morte mais avançada do mundo”, disse um dos oficiais envolvidos no experimento, referindo-se a uma rede de sensores (como drones) e armas (como mísseis) entrelaçados com redes digitais e software para dar sentido aos dados que fluíam de um lado para o outro.
Ferramentas e armas habilitadas por inteligência artificial (IA) não estão sendo apenas implantadas em exercícios. Elas também estão sendo usadas em escala crescente em lugares como Gaza e Ucrânia.
As Forças Armadas veem oportunidades notáveis. Elas também temem ficar para trás de seus adversários. Os gastos estão aumentando rapidamente. Mas advogados e especialistas em ética se preocupam com a possibilidade de a IA tornar a guerra mais rápida, mais opaca e menos humana. A lacuna entre os dois grupos está aumentando, mesmo quando a perspectiva de uma guerra entre grandes potências se torna mais iminente.
Não há uma definição única de IA. Coisas que uma vez teriam merecido o termo agora são vistas como cotidianas. Mas de várias formas, a IA está se infiltrando em todos os aspectos da guerra.
Isso começa com coisas chatas: manutenção, logística, pessoal e outras tarefas necessárias para manter os Exércitos abastecidos. A logística é outra área promissora. O Exército dos EUA está usando algoritmos para prever quando os obuseiros ucranianos precisarão de novos canos, por exemplo. A IA também está começando a se infiltrar no RH. O Exército está usando um modelo treinado em 140 mil arquivos pessoais para ajudar a pontuar e promover soldados.
No outro extremo estão as coisas mais agudas. Tanto a Rússia quanto a Ucrânia têm se apressado em desenvolver software para tornar drones capazes de navegar e mirar em um alvo autonomamente, mesmo se a conexão entre piloto e equipamento for interrompida.
Ambos os lados costumam usar pequenos chips para esse fim, que podem custar US$ 100. Vídeos de ataques de drones na Ucrânia mostram cada vez mais “caixas delimitadoras” aparecendo ao redor de objetos, sugerindo que o drone está identificando e travando em um alvo.
A tecnologia ainda é imatura, com os algoritmos de mira enfrentando muitos dos mesmos problemas enfrentados por carros autônomos, como ambientes confusos e objetos obscurecidos, e alguns únicos do campo de batalha, como fumaça e iscas. Mas está melhorando rapidamente.
Entre a IA nos bastidores e a IA dentro de munições está um vasto reino de inovação, experimentação e avanços tecnológicos. Drones, por si só, estão apenas perturbando, em vez de transformar, a guerra, argumentam Clint Hinote, general aposentado da Força Aérea americana, e Mick Ryan, general aposentado australiano.
Mas quando combinados com “sistemas de comando e controle digitalizados” (pense em StormCloud) e “redes de sensores civis e militares da nova era”, o resultado, dizem eles, é uma “trindade transformadora” que permite aos soldados na linha de frente ver e agir com informações em tempo real que antes estavam confinadas a um quartel-general distante.
IA é um pré-requisito para isso. Comece com a rede de sensores. Imagine dados de drones, satélites, mídias sociais e outras fontes circulando em uma rede militar. Há muito para processar manualmente.
Tamir Hayman, um general que liderou a inteligência militar israelense até 2021, aponta dois grandes avanços. O “salto fundamental”, diz ele, oito ou nove anos atrás, foi no software de conversão de fala em texto que permitiu que interceptações de voz fossem pesquisadas por palavras-chave.
O outro foi em visão computacional. O Projeto Spotter, no Ministério da Defesa do Reino Unido, já está usando redes neurais para a “detecção e identificação automatizadas de objetos” em imagens de satélite, permitindo que lugares sejam “monitorados automaticamente 24 horas por dia e 7 dias por semana para mudanças na atividade”.
Na maioria desses casos, a IA está identificando um sinal em meio ao ruído ou um objeto em meio a alguma confusão: é um caminhão ou um tanque? Uma âncora ou uma mina? Um barco de pesca ou um submarino? Identificar combatentes humanos é talvez mais complicado e certamente mais controverso.
Em abril, a revista israelense +972 Magazine afirmou que as Forças Armadas de Israel estavam usando uma ferramenta de IA conhecida como Lavender para identificar milhares de palestinos como alvos, com operadores humanos dando apenas uma análise superficial à saída do sistema antes de ordenar ataques.
As forças israelenses retrucaram que a Lavender era “apenas um banco de dados cujo objetivo é cruzar referências de fontes de inteligência”.
Na prática, a Lavender provavelmente é o que os especialistas chamam de sistema de suporte à decisão (DSS), uma ferramenta para fundir diferentes dados, como registros telefônicos, imagens de satélite e outras inteligências.
Louvores e reclamações
O resultado de tudo isso é um crescente abismo intelectual entre aqueles cujo trabalho é travar guerras e aqueles que buscam controlá-las. Especialistas argumentam que o crescente papel da IA na guerra é repleto de perigos. “Os sistemas que temos agora não podem reconhecer intenções hostis”, argumenta Noam Lubell, da Universidade de Essex.
“Eles não podem distinguir entre um soldado pequeno com uma arma real e uma criança com uma arma de brinquedo… ou entre um soldado ferido caído sobre um fuzil e um atirador pronto para disparar com um fuzil de precisão.” Tais algoritmos “não podem ser usados legalmente”, conclui.
Redes neurais também podem ser facilmente enganadas, diz Stuart Russell, um cientista da computação: “Você poderia então pegar objetos perfeitamente inocentes, como postes de luz, e imprimir padrões neles que convenceriam a arma de que isso é um tanque.”
Defensores da IA militar rebatem que os céticos têm uma visão excessivamente otimista da guerra. Um drone de ataque procurando por um objeto específico pode não ser capaz de reconhecer, muito menos respeitar, um esforço de rendição, reconhece um ex-oficial britânico envolvido em políticas sobre IA. Mas se a alternativa é um intenso bombardeio de artilharia, “não há rendição nessa circunstância de qualquer maneira.”
Keith Dear, um ex-oficial da Força Aérea Real que agora trabalha para a Fujitsu, uma empresa japonesa, vai além. “Se as máquinas produzirem uma taxa de falsos positivos e falsos negativos mais baixa do que os humanos, especialmente sob pressão, seria antiético não delegar autoridade”, argumenta.
“Fizemos vários tipos de testes onde comparamos as capacidades e os feitos da máquina e comparamos com os do humano”, diz o general Hayman, das Forças de Defesa de Israel. “A maioria dos testes revela que a máquina é muito, muito, muito mais precisa… na maioria dos casos não há comparação. O problema é quando a máquina comete erros, esses são erros horríveis. Se aceitos, levariam a eventos traumáticos.”
O Comitê Internacional da Cruz Vermelha (CICV) adverte que os sistemas de IA são potencialmente imprevisíveis, opacos e sujeitos a vieses, mas aceita que “podem facilitar a coleta e análise mais rápidas e amplas das informações disponíveis… minimizando os riscos para os civis”. Muito depende de como as ferramentas são utilizadas.
Se Israel emprega o Lavender conforme relatado, sugere que o problema foi regras de engajamento excessivamente expansivas e operadores negligentes, em vez de qualquer patologia do próprio software.
O dilema provavelmente se agravará por dois motivos. Um é que a IA gera IA. Se um exército está usando IA para localizar e atingir alvos mais rapidamente, o outro lado pode ser forçado a recorrer à IA para não ficar para trás. O outro motivo é que se tornará mais difícil para os usuários humanos compreenderem o comportamento e as limitações dos sistemas militares.
Há até mesmo discussões sobre o uso de IA na tomada de decisões nucleares. A ideia é que os países não apenas poderiam fundir dados para rastrear ameaças em curso (como tem acontecido desde a década de 1950), mas também retaliar automaticamente se a liderança política for morta em um primeiro ataque.
Em 2023, um grupo de senadores americanos até introduziu um novo projeto de lei: o “Ato de Bloqueio de Lançamento Nuclear por Inteligência Artificial Autônoma”. Esta é naturalmente uma área sigilosa e pouco se sabe sobre até onde diferentes países querem chegar. Mas a questão é importante o suficiente para ter sido uma prioridade nas conversas presidenciais no ano passado entre Joe Biden e Xi Jinping.
Permanecendo no controle
Por enquanto, em guerras convencionais, “quase sempre há tempo para alguém dizer sim ou não”, diz um oficial britânico. Se isso seria verdade em uma guerra de alta intensidade com a Rússia ou a China é menos claro.
Na prática, todos esses debates estão sendo superados pelas ocorrência factuais. Nem a Rússia nem a Ucrânia prestam muita atenção se um drone é um sistema de armas autônomo ou apenas automatizado. Sua prioridade é construir armas que possam evitar interferências e destruir o máximo possível de blindados inimigos. Falsos positivos não são uma grande preocupação para um Exército russo que bombardeou mais de 1.000 instalações de saúde ucranianas até o momento, nem para um Exército ucraniano que está lutando por sua sobrevivência.
Pairando sobre este debate está também o espectro de uma guerra envolvendo grandes potências. Os países da Otan sabem que podem ter que lidar com um Exército russo que, uma vez que esta guerra termine, pode ter uma extensa experiência na construção de armas de IA e testá-las no campo de batalha.
A China também está buscando muitas das mesmas tecnologias que os EUA. Empresas chinesas fabricam a grande maioria dos drones vendidos na América, seja como bens de consumo ou para fins industriais.
Um estudo recente de dados de aquisições pelo Centro de Segurança e Tecnologia Emergente (CSET) da Universidade de Georgetown descobriu que a América e a China estão “dedicando níveis comparáveis de atenção a um conjunto similar de aplicações de IA”.
Além disso, os EUA avançaram em modelos de ponta, em parte graças às suas restrições de chips. Em 2023, produziu 61 modelos de aprendizado de máquina notáveis e a Europa 25, de acordo com a Epoch AI, uma empresa de dados. A China produziu 15. Estes não são os modelos nos sistemas militares atuais, mas informarão os futuros.
A aparente lentidão da China faz parte de um padrão mais amplo. Alguns, como Kenneth Payne do King’s College London, pensam que a IA transformará não apenas a conduta da guerra, mas sua natureza essencial. “Essa inteligência máquina-humana fundida anunciaria uma era genuinamente nova de tomada de decisões na guerra”, ele prevê. “Talvez a mudança mais revolucionária desde a descoberta da escrita, há vários milhares de anos.”
Mas mesmo à medida que tais acusações se tornam mais plausíveis, a transformação permanece teimosamente distante em muitos aspectos.
“A ironia aqui é que falamos como se a IA estivesse em toda parte na defesa, quando está quase em lugar nenhum”, observa Chris Deverell, um general britânico aposentado. “A penetração da IA no Ministério da Defesa do Reino Unido é quase zero. Há muito espaço para inovação.”
Um oficial sênior do Pentágono diz que o departamento fez sérios progressos na melhoria de sua infraestrutura de dados —nos tubos ao longo dos quais os dados se movem— e em aeronaves não tripuladas que trabalham ao lado de aviões de guerra com tripulações. Mesmo assim, o Pentágono gasta menos de 1% de seu orçamento em software —uma estatística frequentemente citada por executivos de startups de tecnologia de defesa. “O que é único [para o Pentágono] é que nossa missão envolve o uso da força, então os riscos são altos”, diz o oficial. “Temos que adotar a IA de forma rápida e segura.”