Está aqui

IBM abandona programa de reconhecimento facial

A decisão surge após estudo confirmar que programa tem maiores taxas de erro na identificação de pessoas racializadas. A Amazon também anunciou uma moratória de um ano ao uso por parte da polícia do seu software de reconhecimento facial.
Fotografia de opengridscheduler/Flickr.

A empresa tecnológica IBM fez saber que abandonará o seu programa de reconhecimento facial. Entre as justificações encontra-se o receio de que esta tecnologia seja utilizada pelos serviços de polícia para a vigilância em massa e o “profiling” racial. 

Numa carta enviada ao Congresso dos Estados Unidos da América, o chefe executivo da empresa avisa que esta tecnologia poderá ser utilizada para violar “direitos humanos e liberdades básicos”.

Estas declarações surgem numa altura em que o debate sobre igualdade racial e violência policial voltou a estar ao rubro no país. Mas a decisão terá vindo muito antes.  Há muito que vários investigadores na área da inteligência artificial avisam que muitos dos softwares de reconhecimento facial continuam a ser menos eficazes entre pessoas de pele escura, o que poderá levar a falsas identificações, com todos os perigos a isso associados. 

Em comentário ao comunicado da IBM, Joy Buolamwini, responsável por um estudo do Media Lab do MIT sobre esta matéria, considera que se trata de um “reconhecimento de que a tecnologia de reconhecimento facial, sobretudo como usada pela polícia, tem sido utilizada para atropelar os direitos humanos, sobretudo as pessoas negras, bem como populações indígenas e outras minorias étnicas”. 

As falhas do sistema e os problemas na identificação de pessoas negras, sobretudo mulheres, são há algum tempo alvo de denuncia. 

“Os sistemas de reconhecimento facial têm taxas de erro muito mais elevadas quando se trata de pessoas racializadas e mulheres e jovens, algo que pode torná-los vulneráveis a abuso policial”, afirmou Freed Wessler da ACLU. 

“É bom que a IBM tenha dado este passo, mas não pode ser apenas uma empresa”, disse. “A Amazon, a Microsoft e outras empresas estão a tentar ganhar muito dinheiro através da venda destas ferramentas perigosas e dúbias aos departamentos de polícia. Isso tem de parar imediatamente”, concluiu Wessler. 

Segundo um trabalho da ACLU em 2018, o software de reconhecimento facial da IBM tinha identificado incorretamente 28 membros do Congresso dos EUA, confundindo-os com outras pessoas detidas por crimes. E a própria empresa admitiu que várias mulheres negras famosas, entre elas a Oprah e Michelle Obama, tinham sido identificadas em muitos sítios como sendo homens. 

Já a Amazon anunciou que irá interromper por um ano o uso do seu programa de reconhecimento facial por agentes da polícia. A única excessão a esta moratória será aplicada em casos de tráfico humano e crianças desaparecidas. 

Segundo a gigante tecnológica, esta tem defendido junto dos Governos que “apliquem regulamentações mais fortes para gerir o uso ético de tecnologia de reconhecimento facial”.

Termos relacionados Internacional
(...)