Guerra e Tecnologia

A Inteligência Artificial militarizada

09 de fevereiro 2025 - 16:49

Google, Amazon e Microsoft contam-se entre as grandes empresas tecnológicas que colocaram ao serviço de Israel instrumentos sem precedentes. Mas em quinze meses de guerra, as experiências militares com IA generativa não conseguiram atingir nenhum dos objetivos de guerra declarados por Israel em Gaza.

por

Sophia Goodfriend

PARTILHAR
Vigilância em Hebron.
Vigilância em Hebron. Foto da autora do artigo.

Na semana passada, foi divulgada uma série de documentos que permite vislumbrar o papel que as grandes empresas tecnológicas desempenharam na guerra de Israel contra Gaza. As campanhas militares de Israel na Palestina e nos países vizinhos há muito que ofereciam a matéria-prima de que as empresas tecnológicas necessitavam para desenvolver as suas experiências de vigilância e de guerra algorítmica de escala: os dados das cadeias de destruição. No entanto, os últimos quinze meses de guerra ofereceram a Silicon Valley uma oportunidade sem paralelo para aperfeiçoar os seus produtos. Aconteceu mesmo a tempo de uma nova era de Inteligência Artificial militarizada.

Depois dos militantes do Hamas terem ultrapassado a fronteira de Israel com Gaza, em 7 de outubro de 2023, e matado mais de 1.100 civis e soldados, o exército israelita mobilizou 360.000 reservistas. Alguns deles ocupavam cargos superiores na Google, na Microsoft ou na Amazon em Telavive. Ao que parece, alguns tinham estado a trabalhar em serviços com aplicações militares evidentes, desde a computação em nuvem a grandes modelos linguísticos. Os bombardeamentos aéreos constantes de Israel e o início de uma invasão terrestre prolongada estavam a criar um dilúvio de dados. O exército precisava de mais capacidade de computação e armazenamento. Os funcionários mobilizados pediram ajuda às suas empresas.

A Google deu às Forças de Defesa de Israel acesso ao Vertex, que aplica algoritmos de IA a conjuntos de dados, e ao Gemini, um assistente de IA que as FDI queriam reutilizar para analisar texto ou áudio e recomendar operações. A Microsoft permitiu que a utilização do Chat GPT-4 pelo exército israelita, acedido através do Microsoft Azure, aumentasse vinte vezes. A Amazon expandiu o armazenamento na nuvem para dados que informam as operações militares em Gaza. Os soldados descreveram o acesso a informações confidenciais para bombardeamentos letais nos servidores da nuvem da Amazon como “fazer uma encomenda à Amazon”.

Estas notícias podem ser chocantes, mas não são surpreendentes. Yossi Sariel, o chefe da Unidade 8200 do Corpo de Inteligência de Israel desde 2021 a 2024, escreveu sobre “fortalecer a relação entre o governo e as empresas de big data”. Além de assinar contratos de milhões de dólares com grandes tecnologias, Sariel pretendia refazer as unidades de inteligência à imagem das start-ups de IA através de consultoria e treino conjunto. Alguns soldados da Unidade 8200 trabalhavam naquilo a que os seus oficiais chamavam “fábricas de IA”, construindo software de conversão de voz em texto para o árabe palestiniano, etiquetando frases para serem assinaladas em pesquisas por palavras-chave ou tornando os sistemas classificados mais fáceis de utilizar. Algumas bases de dados de vigilância receberam alcunhas como “Facebook para palestinianos”.

Num documento publicado por si próprio na Amazon em 2021, Sariel sonhava com aplicações de IA fantásticas e eticamente duvidosas, como um “Waze militar” que pudesse identificar automaticamente alvos e orientar operações letais. Parece que Sariel fez o que pôde para concretizar a sua visão. A Microsoft recebeu milhões para organizar reuniões privadas de desenvolvimento e workshops profissionais para unidades das agências de informação de Israel. De acordo com a revista +972, os funcionários da Microsoft Azure foram referidos como “pessoas que já estão a trabalhar com a unidade”, como se fossem soldados no ativo. No início da guerra de Gaza, as FDI dispunham de uma série de sistemas de mira assistidos por IA para orientar os seus bombardeamentos, e estavam a desenvolver ainda mais.

As parcerias eram mutuamente benéficas. Em troca de tecnologia e perícia, o exército israelita oferecia às empresas com quem trabalhava acesso a um fornecimento ilimitado de dados. Muitos dos acordos contrariavam as declarações de missão e as políticas de direitos humanos pacifistas de Silicon Valley. Algumas empresas negaram o seu envolvimento em operações militares israelitas. “Este trabalho não é dirigido a cargas de trabalho altamente sensíveis, classificadas ou militares relevantes para os serviços de armamento ou de informações”, disse Anna Kowalczyk, diretora de comunicações externas da Google Cloud, a jornalistas que perguntaram sobre as relações da empresa com as FDI em abril de 2024.

Com o regresso de Trump, outras empresas simplesmente abandonaram esses pontos de vista e abraçaram o militarismo. Os conselhos de administração das empresas parecem não se deixar intimidar pelos protestos dos trabalhadores ou pelos mandados de captura emitidos pelo Tribunal Penal Internacional contra altos funcionários israelitas. No final do ano passado, a OpenAI, a Meta e a Anthropic assinaram os seus primeiros acordos com o Departamento de Defesa dos EUA. Estas parcerias poderão aprofundar-se após a notícia de que a empresa chinesa DeepSeek lançou um chatbot de IA por uma fração do custo de outros assistentes de IA. Talvez numa tentativa de galvanizar patrocinadores para os seus próprios modelos de negócio duvidosos, alguns tecnocratas de Silicon Valley avisaram que a China pode ganhar a corrida ao armamento da IA.

Ainda está por saber o que é que todo este investimento em IA militarizada vai proporcionar, para além de mais violência. O caso de amor dos militares israelitas com Silicon Valley pouco contribuiu para reforçar a segurança regional. Como salientaram vários ex-oficiais de segurança israelitas, nenhuma das aplicações desenvolvidas e implementadas nos últimos anos impediu os ataques do Hamas em 7 de outubro de 2023. Sariel demitiu-se em setembro de 2024, invocando a sua “responsabilidade pessoal” pelo “fracasso dos serviços secretos e operacionais”. Em quinze meses de guerra, as experiências militares com o Chat GPT-4 e outras aplicações de IA generativa da Microsoft e da Google não conseguiram atingir nenhum dos objetivos de guerra declarados por Israel em Gaza.


Sophia Goodfriend é antropóloga, investigadora de pós-doutoramento na Harvard Kennedy School, especialista no tema da Inteligência Artificial na guerra. Escreve para jornais e revistas como a Foreign Policy, Jewish Currents, 972 Mag, the Baffler e a LRB.

Artigo publicado originalmente na London Review of Books.