You are here

Israel usa a inteligência artificial para matar em Gaza

Exército israelita desenvolveu a plataforma Habsora, que analisa comunicações, imagens de drones e satélites, dados de vigilância e padrões de comportamento de indivíduos e grupos para selecionar alvos. Uma "fábrica de assassinatos em massa" que multiplicou os alvos atingidos face a anteriores ataques.
Ataque aéreo a Gaza
Bombardeamento de Israel na faixa de Gaza depois de ataque do Hamas. Foto de Mohammed Saber/EPA

Duas reportagens, no Guardian e no portal israelita +972, revelaram nos últimos dias como a inteligência artificial assumiu um papel preponderante nos ataques contra Gaza das últimas semanas. "No passado, encontrávamos 50 alvos em Gaza por ano. Agora, esta máquina encontra 100 alvos num só dia, e 50% são atacados", dizia o antigo líder das Forças de Defesa de Israel numa entrevista dada este ano, antes do início da guerra. Esta máquina a que chamam Habsora (Evangelho) "produz imensas quantidades de dados com maior eficácia do qualquer humano, e traduz esses dados em alvos para atacar", explicava Aviv Kochavi.

Segundo o Guardian, a plataforma foi criada para responder ao problema da aviação israelita em anteriores ataques a Gaza, que depressa ficava sem alvos para atingir. O Evangelho permite ao exército localizar e atacar muitos mais alvos, nomeadamente militantes do Hamas que não têm grandes responsabilidades na organização. "Os membros do Hamas que não têm importância vivem em casas por toda a Faixa de Gaza. A sua casa é marcada, bombardeada e morre toda a gente que lá estiver", contou ao +972 um responsável do exército que já esteve envolvido na seleção de alvos noutras operações.

Na propaganda militar, o uso desta plataforma é anunciado como de grande precisão e dessa forma um benefício para a população civil. "Usamos um algoritmo para avaliar quantos civis permanecem [no edifício alvo de ataque]. Ele dá-nos um sinal verde, amarelo ou vermelho, como um semáforo", diz ao Guardian um alto responsável militar.

Mas os especialistas em inteligência artificial nos conflitos armados discordam. "Basta olhar para a paisagem de Gaza", diz ao Guardian Richard Moyes, do grupo Article 36. "O que vemos é o arrasamento generalizado de uma zona urbana com armamento explosivo pesado, por isso afirmar que há precisão e limitação da força exercida não é corroborado pelos factos".

Comparando com a guerra de 2014, que durou 51 dias com o exército a atingir entre cinco e seis mil alvos, os dados militares dos primeiros 35 dias da atual guerra indicam que foram atingidos 15 mil alvos. Em cada um destes alvos, a plataforma indica o número de vítimas civis que serão "danos colaterais" do bombardeamento. A decisão de atacar continua a ser humana, mas os próprios responsáveis admitem que se trata de uma "fábrica de assassinatos em massa", que privilegia a quantidade e não a qualidade. Os humanos "vão olhar para o alvo antes de cada ataque, mas não perdem muito tempo a fazê-lo", diz ao +972 uma fonte que já trabalhou na seleção de alvos.

Uma investigadora do Stockholm International Peace Research Institute alerta para o risco da "sobreconfiança em sistemas que ganham cada vez mais influência sobre as decisões humanas complexas", um risco que para Marta Bo ocorre mesmo quando "os humanos estão envolvidos" no processo.

(...)