As multinacionais não se contentam apenas em pilhar os recursos naturais de África, essenciais para o fabrico de material informático, também exploram os trabalhadores do continente em condições extremas.
O advento da inteligência artificial (IA) exige a identificação a jusante de uma enorme massa de dados para que os algoritmos possam melhorar a sua eficácia. Para realizar estas tarefas, cerca de 90% das empresas de alta tecnologia recorrem à externalização.
Identificação dos conteúdos
No espaço francófono, as economias de custos são avaliadas em mais de 30% para as empresas localizadas em Marrocos, Tunísia ou Ilhas Maurícias e 50% em Madagascar. Este último país possui cerca de 250 agências de BPO (Business Process Outsourcing), que no jargão da moda significa empresas de sub-contratação.
As condições de trabalho aí são deploráveis. A rádio francesa RFI deu conta de depoimentos de trabalhadores: “Os formadores passam atrás de nós. Se acharem que estás a demorar muito para processar uma imagem simples, emitem um aviso. Se acontecer uma segunda vez, mandam-te diretamente embora. Quando não terminamos, por exemplo, as 200 tarefas que tínhamos que fazer durante o dia temos de continuar. E isso não é contado como horas extras.”
Quanto aos salários, começam por volta dos 90 euros por mês e podem ir até aos 500 euros para os trabalhadores altamente qualificados. Além desse fastidioso trabalho de identificação de dados, outros BPOs oferecem serviços de moderação. Eles são usados por grandes empresas de redes sociais, como o Facebook, o TikTok, o Instagram, o Twitter e outros.
Perigo para a saúde mental
A Sama é uma destas empresas de terceirização com sede no Quénia. Os seus trabalhadores passam dias inteiros a lidar com conteúdo ultra-violento, assassinato, tortura, violência sexual contra mulheres e crianças. Eles marcam-nos, permitindo alimentar os algoritmos dos filtros das redes sociais ou da inteligência artificial. As consequências para a sua saúde mental são graves e equivalentes a perturbações devidas ao stress pós-traumático. A empresa queniana em nenhum momento montou estruturas de apoio psicológico de apoio aos trabalhadores.
Pior ainda, para fazer as moderações nas línguas locais, a Sama recrutou jovens licenciados, muitas vezes pobres, em vários países da África Oriental e Austral. Trouxe-os para o Quénia sem os avisar sobre a real natureza do cargo. A empresa dizia apenas que eram trabalhos administrativos, omitindo a questão do confronto quotidiano com o ódio online que teriam de sofrer. Uma vez no Quénia, estes jovens trabalhadores ficaram presos numa armadilha.
Resistir e organizar-se
Uma primeira queixa, em maio de 2022, contra a Meta, sociedade-mãe do Facebook, e a sua subcontratada Sama, foi apresentada por um ex-funcionário, Daniel Motaung. Esta dizia respeito às condições de trabalho, questões de remuneração e falta de apoio psicológico. Outras queixas se seguiram quando a Sama encerrou a sua atividade de moderação e despediu os trabalhadores. A justiça queniana suspendeu os despedimentos até ao julgamento.
Ao mesmo tempo, 150 trabalhadores criaram o primeiro sindicato africano de moderadores de conteúdo, apesar das políticas de intimidação dos empregadores. Outros trabalhadores, como os da Majorel, que assumiu as atividades de moderação do TikTok, anunciaram a sua decisão de aderir ao sindicato.
Embora desprezados pelos grandes grupos das redes sociais, os moderadores desempenham um papel vital contra o ódio online. Falhas podem ter consequências dramáticas. Outro processo está a decorrer na Etiópia contra a Meta. Aquando da guerra no Tigray, durante vários dias circularam no Facebook apelos de assassinato contra um professor universitário que vivia na capital Addis Abeba. Apesar das suas abordagens à rede social, as mensagens continuaram a circular. Ele caiu sob as balas dos seus assassinos.
Paul Martial é editor do Afriques en Lutte.
Texto publicado originalmente no Afriques en Lutte. Traduzido por Carlos Carujo para o Esquerda.net.