Inteligência artificial

A ação humana continua a ser fundamental para a guerra tecnológica de Israel

01 de junho 2024 - 16:41

Os sistemas alimentados por IA com que Israel mata em Gaza e persegue no resto da Palestina dependem de uma rede de empresas, entre as quais a Meta. Este uso viola os seus termos de utilização, mas não fazem nada. E os seus produtos estão mesmo a ser aperfeiçoados com os dados do genocídio.

por

Sophia Goodfriend

PARTILHAR
Protesto na Universidade do Oregon contra o massacre em Gaza. Foto de  Ian M./Flickr.
Protesto na Universidade do Oregon contra o massacre em Gaza. Foto de Ian M./Flickr.

A destruição que Israel provocou em Gaza evoca uma era analógica de guerra. Crateras engolem complexos residenciais, ruas inteiras foram reduzidas a escombros e nuvens de poeira bloqueiam o sol. Os soldados israelitas lançaram mais explosivos numa área de 321 km quadrados do que as bombas atómicas que dizimaram Hiroshima e Nagasaki na Segunda Guerra Mundial. A escala e a densidade da destruição rivalizam com os episódios mais devastadores de guerra urbana da história recente, desde o Blitz de Londres até décadas de contra-insurreição no Vietname.

No entanto, em contraste com essas guerras do século XX, o ataque de Israel a Gaza é fundamentalmente uma campanha de morte de alta tecnologia. No início de abril, uma reportagem de investigação publicada nos jornais +972 e Local Call revelou o papel fundamental da inteligência artificial neste massacre. De acordo com seis agentes dos serviços secretos israelitas, os soldados utilizaram uma máquina de IA apelidada de “Lavender” para gerar dezenas de milhares de “alvos humanos” para serem mortos, alegadamente por fazerem parte dos braços armados do Hamas ou da Jihad Islâmica Palestiniana. Estes resultados foram depois introduzidos num sistema de localização automático conhecido como “Where’s Daddy?”, permitindo ao exército matar pessoas dentro da sua casa, juntamente com toda a sua família e, frequentemente, muitos dos seus vizinhos.

Estas revelações vêm na sequência de uma investigação anterior efetuada pelo +972 e pela Local Call, que lançou luz sobre outro sistema de geração de alvos por IA conhecido como “Habsora” (“O Evangelho”). Enquanto o Lavender gera alvos humanos, o Habsora marca edifícios e estruturas que alegadamente têm uma função militar. Um antigo agente dos serviços secretos disse ao +972 que esta tecnologia permite ao exército israelita conduzir essencialmente uma “fábrica de homicídio em massa”.

A mais recente investigação causou grande impacto na imprensa internacional, onde os comentadores evocaram cenas de sistemas de armas alimentados por IA que excedem o poder dos seus operadores humanos e matam por capricho. Mas os especialistas em direito internacional e em guerra com IA sublinharam ao +972 que a carnificina em Gaza é o resultado de decisões humanas concertadas. E, a par das altas patentes dos estabelecimentos militares e políticos israelitas, podem estar implicados no massacre setores inteiros do setor tecnológico civil global.

Geração rápida, autorização rápida

Com a taxa de mortalidade diária em Gaza mais elevada do que em qualquer outra guerra do século XXI, parece que os compromissos de minimizar as baixas civis em assassinatos seletivos, na medida em que alguma vez existiram, foram simplesmente por água abaixo. De acordo com as fontes, os agentes militares israelitas reduziram significativamente os critérios utilizados para determinar quais os alvos que poderiam ser assassinados nas suas casas, enquanto aumentaram o limiar de vítimas civis permitido em cada ataque. Em alguns casos, autorizando a morte de centenas de civis para matar um único alvo militar de topo. A tónica, como disse o porta-voz das IDF, Daniel Hagari, nos primeiros dias da guerra, era “o que causaria o máximo dano”.

Para ser claro, Israel não está a contar com armas totalmente autónomas na atual guerra em Gaza. Em vez disso, as unidades de inteligência usam sistemas de mira alimentados por IA para classificar civis e infraestruturas civis de acordo com a sua probabilidade de estarem afiliados a organizações militantes. Isto acelera e expande rapidamente o processo pelo qual o exército escolhe quem matar, gerando mais alvos num dia do que qualquer pessoa poderia produzir num ano inteiro.

Com a rápida geração de alvos vem a necessidade de uma rápida autorização: os oficiais dos serviços secretos que falaram com o +972 admitiram dedicar apenas 20 segundos para ordenar ataques individuais, apesar de saberem que o Lavender identifica erradamente os alvos, mesmo segundo os seus próprios critérios pouco rigorosos, em cerca de 10% dos casos. Muitos decidiram simplesmente certificar-se de que a pessoa que estavam prestes a matar era homem, transformando a maior parte de Gaza numa armadilha mortal.

“O que me chamou a atenção no relatório foi o grau de autonomia e fiabilidade que as forças armadas deram a esta tecnologia”, disse ao +972 Alonso Gurmendi Dunkelberg, professor de relações internacionais no King's College de Londres. “Isto permite ao exército autorizar cinicamente ataques sistemáticos a uma população civil”.

Ben Saul, professor de direito internacional e relator especial da ONU para os direitos humanos e o contraterrorismo, afirmou que a dependência excessiva destes sistemas confere uma camada de racionalidade à devastação que Israel provocou em Gaza. Os chamados “sistemas inteligentes” podem determinar o alvo, mas os bombardeamentos são efetuados com munições “estúpidas”, não guiadas e imprecisas, porque o exército não quer usar bombas caras naquilo que um oficial dos serviços secretos descreveu como “lixo”.

“Israel tem advogados militares, tem um sistema de justiça militar, tem procedimentos operacionais e regras de combate que supostamente o ajudam a cumprir os direitos humanos internacionais”, disse Saul. “Mas esta guerra está a decorrer longe das regras humanitárias básicas.”

A ONU, grupos de defesa dos direitos humanos e vários governos têm alertado para o facto de Israel violar continuamente a legislação internacional em matéria de direitos humanos, bem como as disposições fundamentais das Convenções de Genebra e de Haia, das quais é signatário. Cada um destes tratados proíbe o assassínio sistemático e deliberado de civis. Mas os juristas afirmam que estes sistemas de alta tecnologia favoreceram um desrespeito sistemático do direito internacional nos últimos seis meses e meio de guerra, durante os quais Israel matou (até ao momento em que este artigo foi escrito) mais de 34 mil palestinianos, feriu mais de 76 mil e cerca de 11 mil continuam desaparecidos.

Transformar os palestinianos em números

O facto de estas máquinas serem operadas e exploradas por pessoas reais tem implicações graves para os agentes militares israelitas. Lavender e Where’s Daddy? podem ser anunciados como sistemas alimentados por IA, mas mesmo os chefes militares israelitas dizem que não atuam de forma autónoma: uma cadeia de comando concertada dita a forma como estas tecnologias são postas em ação. Como Zach Campbell, investigador sénior de vigilância da Human Rights Watch, disse ao +972: “Sim, esta tecnologia é problemática, mas também se trata da forma como estes sistemas estão a ser utilizados. E essas são decisões humanas”.

Os funcionários do governo israelita deixaram claras as suas intenções após os terríveis acontecimentos de 7 de outubro. Nos primeiros dias da guerra, o presidente israelita Isaac Herzog proclamou que “não havia civis inocentes em Gaza” e os ministros do governo declararam que a guerra era o início de outra “Nakba”. Outros políticos apelaram a que toda a Faixa fosse “arrasada”. Bombas de dois mil quilos rebentaram com bairros inteiros, bulldozers arrasaram escolas e hospitais, e zonas inteiras da Faixa foram consideradas “zonas de morte”. Estas ordens foram o resultado de anos de esforços para transformar o exército israelita naquilo a que o sociólogo Yagil Levy chamou recentemente “um exército gerador de morte”.

“O problema não é a IA”, disse ao +972 Brian Merchant, um repórter de tecnologia que investiga o desenvolvimento não mitigado de sistemas de IA. “O problema é o que a IA permite que os militares façam. Dá-lhes uma justificação para serem mais violentos, para serem mais descuidados, para fazerem valer uma agenda que já tinham ou que estão à procura de um pretexto para justificar”.

Mona Shtaya, membro não residente do Instituto Tahrir para a Política do Médio Oriente, disse que este é o caso há muito tempo quando se trata da estratégia militar israelita em relação aos palestinianos; Lavender é apenas o mais recente de uma longa lista de armas alimentadas por algoritmos no arsenal de Israel.

Por exemplo, os algoritmos de policiamento preditivo e os sistemas de reconhecimento facial analisam uma grande quantidade de dados provenientes de várias fontes, incluindo as redes sociais, dados de telemóveis e imagens de drones. Tal como o Lavender, estes sistemas utilizam os dados para atribuir aos palestinianos uma classificação de segurança. Essa classificação pode então determinar qualquer coisa, desde quem deve ser detido num posto de controlo em Hebron, preso à porta da Mesquita de Al-Aqsa ou morto num ataque de drones em Gaza.

“Estes sistemas transformam os palestinianos em números”, disse Shtaya ao +972. “Permitem que as autoridades nos classifiquem, nos desumanizem, não pensem no facto de sermos pessoas, mas justificam a nossa morte com base numa estatística. É por isso que temos assistido a um aumento da violência desde que Israel começou a basear-se nestes sistemas”.

Na opinião de Shtaya, os sistemas de mira alimentados por IA são o resultado natural do investimento desenfreado de Israel na vigilância em massa. “É o ciclo de desenvolvimento tecnológico na Palestina. Cada sistema é mais perigoso”.

Uma cadeia de abastecimento algorítmica

O abuso da IA pode estar enraizado nas políticas militares, mas também implica vastas áreas da indústria tecnológica civil.

Os sistemas de mira alimentados por IA dependem de uma grande quantidade de dados de vigilância extraídos e analisados por start-ups privadas, conglomerados globais de tecnologia e técnicos militares. Os técnicos dos complexos de escritórios de Silicon Valley concebem as bases de dados do Google Image que as tropas israelitas utilizam para deter civis que fogem de bombardeamentos aéreos. Os algoritmos de moderação de conteúdos determinados pela direção da Meta em Nova Iorque ajudam os sistemas de policiamento preditivo a classificar os civis de acordo com a sua probabilidade de aderirem a grupos militantes. As empresas de segurança com sede em Petah Tikvah transferem o conteúdo dos telemóveis para técnicos militares que elaboram listas de assassinatos.

A dependência de Israel de produtos tecnológicos civis para levar a cabo as suas operações perversas está em contradição com muitas das políticas e termos de utilização emitidos pelas empresas com as quais colabora. No mês passado, o New York Times revelou que o exército israelita está a utilizar uma base de dados do Google Images para identificar e classificar civis na Faixa de Gaza. Cheyne Anderson, engenheiro de software da Google e membro do grupo No Tech for Apartheid, um coletivo de trabalhadores do sector tecnológico que se opõe aos contratos com o exército israelita, disse ao +972 que se trata de uma grave utilização indevida da tecnologia da Google.

“Estes sistemas não foram concebidos para serem utilizados em situações de vida ou de morte nos campos de batalha do Médio Oriente, são treinados para fotografias de família”, explicou Anderson. “Levar algo assim para uma zona de guerra vai diretamente contra as nossas políticas de privacidade e de utilização.” De facto, as políticas de privacidade da Google garantem que os utilizadores devem dar “consentimento explícito para partilhar qualquer informação pessoal sensível” com terceiros. Nos seus protocolos de atividades perigosas e ilegais, a Google avisa que o Google Photos não pode ser utilizado “para promover atividades, bens, serviços ou informações que causem danos graves e imediatos às pessoas”.

Apesar de violações óbvias das suas políticas estabelecidas, a Google e outros conglomerados tecnológicos não impediram o exército israelita de utilizar os seus produtos na atual guerra em Gaza ou nas décadas de domínio militar de Israel sobre os territórios palestinianos ocupados. Muitas destas empresas privadas lucram com a troca, uma vez que os civis palestinianos a quem é negado o recurso a proteções básicas de privacidade oferecem um fornecimento ilimitado de dados com os quais as empresas de vigilância podem aperfeiçoar os seus produtos. “Estas empresas fazem parte de uma vasta cadeia de fornecimento de algoritmos que é fundamental para a guerra atual”, disse Matt Mahmoudi, investigador da Amnistia Internacional, ao +972. “No entanto, não se têm manifestado”.

À medida que a lista de abusos israelitas em Gaza aumenta, estas empresas podem estar legalmente implicadas nas violações sistemáticas do direito internacional por parte de Israel. “É uma advertência para qualquer empresa”, disse Mahmoudi. “Não só estão a violar o direito internacional em matéria de direitos humanos, não só correm o risco de sofrer danos na sua reputação, como também correm o risco de serem consideradas culpadas de cumplicidade em algo que, a seu tempo, será certamente classificado como um crime grave.”

As acusações de crimes de guerra não impediram os agentes militares israelitas de prometer que todo o derramamento de sangue produzirá avanços sem precedentes na guerra movida a IA. Falando no Dia Anual da IA da Universidade de Tel Avive, em fevereiro, o brigadeiro-general Yael Grossman, comandante da unidade Lotem, disse a uma multidão de líderes da indústria de tecnologia civil e militar que o exército continua a lançar sistemas de ponta. “A fricção cria dados”, disse ela. “Está a permitir-nos crescer muito mais rapidamente e a ser mais criativos com as diferentes soluções que fornecemos ao campo de batalha”.

Estes slogans têm historicamente mobilizado os governos ocidentais e os conglomerados tecnológicos em torno das proezas militares israelitas. Mas, hoje, a maré pode estar a mudar. Os governos ocidentais começaram a considerar a possibilidade de suspender a venda de armas e os trabalhadores da Google e de outros grandes conglomerados tecnológicos estão a revoltar-se contra os contratos dos seus empregadores com os militares israelitas. No meio do desrespeito de Israel pelas regulamentações internacionais, Shtaya disse que esta mudança radical pode ser a única esperança para dominar os sistemas de armas emergentes.

“O que se está a passar na Palestina não se limita aos [militares israelitas]”, explicou Shtaya. “O abuso destes sistemas é uma questão global”.


Sophia Goodfriend é doutoranda em Antropologia na Duke University, especialista em direitos digitais e vigilância digital em Israel/Palestina.

Texto publicado originalmente no +972. Traduzido por Nuno Oliveira para o Esquerda.net.