Pular para o conteúdo

Israel treinou modelo de IA semelhante ao ChatGPT para vigiar palestinianos | Médio Oriente

As Forças de Defesa de Israel (IDF) têm interceptado “quantidades alucinantes” de comunicações em árabe, entre palestinianos, para treinar um modelo de inteligência artificial semelhante ao ChatGPT e potenciar as suas capacidades de espionagem e vigilância, revela uma investigação do britânico The Guardian, em colaboração com a revista israelo-palestiniana +972 e a plataforma de jornalismo independente Local Call.

A investigação divulgada esta semana centra-se na actividade da Unidade 8200, uma unidade das IDF dedicada a espionagem, vigilância e cibersegurança, que conseguiu treinar um modelo de inteligência artificial (IA) para compreender diálogos em árabe, através da gravação de um grande volume de chamadas telefónicas e mensagens de texto interceptadas por Israel nos territórios palestinianos ocupados. O desenvolvimento deste modelo terá acelerado após o ataque do Hamas a Israel, em Outubro de 2023 — e no início da violenta e contínua agressão israelita à Faixa de Gaza.

Essa ferramenta construída como um assistente virtual com o qual é possível iniciar um diálogo deverá ser capaz de responder a questões sobre determinados cidadãos vigiados por Israel, além de navegar num enorme volume de dados pessoais e comunicações recolhidas pelas IDF. Não é claro se já está disponível para ser utilizada pelos militares israelitas.

“Tentámos criar a maior base de dados possível e recolher todas as informações em árabe na posse do Estado de Israel”, afirmou Chaked Sayedoff, um antigo funcionário dos serviços secretos militares israelitas, numa conferência sobre inteligência artificial em Telavive, no ano passado. Este modelo, acrescentou, exige “quantidades alucinantes” de dados, o que significa que mesmo uma conversa telefónica entre dois palestinianos sem qualquer interesse para o Exército israelita se tornou fundamental para treinar a ferramenta de IA.

Na sua apresentação, Sayedoff fez questão de sublinhar que a equipa responsável pela construção deste modelo estava “apenas focada nos dialectos que odeiam” Israel. O modelo também terá sido treinado para compreender terminologia militar utilizada pelos grupos de resistência armada palestiniana.

“A inteligência artificial multiplica o poder”, adiantou outra fonte familiarizada com o trabalho da Unidade 8200 nos últimos anos, sob anonimato. “Não se trata apenas de prevenir ataques, mas de monitorizar activistas pelos direitos humanos e as construções palestinianas na área C [da Cisjordânia, sobre a qual Israel tem total controlo militar]. Tenho mais ferramentas para saber o que cada pessoa na Cisjordânia está a fazer”, cita o The Guardian.

Quando as IDF convocaram milhares de reservistas na sequência dos ataques de 7 de Outubro de 2023, muitos militares especializados em modelos de inteligência artificial terão regressado à Unidade 8200, alguns vindos de gigantes tecnológicas norte-americanas, como a Google, a Meta e a Microsoft.

As forças de Israel já usavam ferramentas semelhantes, mas numa escala e capacidade muito menores. Os novos avanços tecnológicos permitem uma vigilância quase total das telecomunicações palestinianas e o processamento de uma quantidade de informação que dificilmente seria filtrada manualmente. Tornam possível, por exemplo, automatizar a análise de conversas telefónicas em que civis palestinianos expressem a sua revolta face às forças militares de ocupação ou aos colonos israelitas nas suas terras.

A inteligência artificial já está também integrada nas operações de combate israelitas, através de ferramentas como a Habsora ou a Lavender, treinadas para identificar potenciais alvos dos seus bombardeamentos.

Segundo uma outra investigação da +972 e da Local Call, publicada em Abril do ano passado, o Lavender identificou, nas primeiras semanas de retaliações ao ataque do Hamas, cerca de 37 mil palestinianos por suspeitas de ligações ao movimento islamista. A lista seria depois usada pelas IDF para direccionar ataques aéreos. Contudo, perto de um em cada dez indivíduos identificados pelo Lavender tinham “apenas uma ligação ténue ou nenhuma ligação” a grupos armados — uma margem de erro que não impediu Israel de usar a ferramenta, atacando sistematicamente os alegados combatentes nas suas casas e durante a noite, adianta a investigação.

O programa de IA admitia que cada ataque dirigido a um suposto membro do Hamas pudesse resultar na morte de até 20 civis; 100 se o alvo fosse um comandante militar.

Contactado pelo The Guardian, um porta-voz das IDF recusou responder a questões sobre o novo modelo de inteligência artificial, dizendo apenas que os militares israelitas “utilizam vários métodos [de recolha] de informações para identificar e combater a actividade terrorista de organizações hostis no Médio Oriente”.

Source link

Join the conversation

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *