Tecnologia

Os algoritmos que ditam as nossas vidas não são neutros

14 de dezembro 2025 - 11:22

Os algoritmos não são ferramentas apolíticas que simplesmente melhoram a eficiência nas transações online ou na coordenação no local de trabalho. São instrumentos de controle que devem ser regulamentados como todos os outros.

por

Nandita Shivakumar e Shikha Bhattacharjee

PARTILHAR
Algoritmo.
Algoritmo. Imagem de Markus Spiske/pexels

Em setembro de 2025, meios de comunicação noticiaram que famílias de adolescentes norte-americanos que cometeram suicídio estavam a processar a OpenAI, a Meta e a Character.AI. A alegação era de que os produtos das empresas simulavam vínculos de amizade, incentivavam a auto-mutilação e aprofundavam o isolamento emocional. Um pai disse que o chatbot da sua filha tinha-se tornado “o seu único confidente e disse-lhe que não havia problema em desistir”.

Estas não são tragédias isoladas. Elas sinalizam um risco de saúde mais amplo e crescente: sistemas de inteligência artificial (IA) não regulamentados estão a infiltrar-se nos espaços mais íntimos da vida humana, moldando os estados mentais dos usuários sem supervisão, padrões de segurança ou responsabilização. A consequência é um padrão evitável de danos que se espalha por toda a população.

Tecnologia

Assim os algoritmos sequestram o afeto

por

Reynaldo Aragon Gonçalves

10 de agosto 2025

O dano não termina com os seus utilizadores. Também está embutido nas vidas dos trabalhadores que constroem e mantêm esses sistemas. Scroll. Click. Suffer, um relatório recente do grupo global de direitos laborais para o qual trabalhamos, a Equidem, documentou as experiências de 113 moderadores de conteúdo e classificadores de dados na Colômbia, Gana, Quénia e Filipinas. Estes trabalhadores passam mais de oito horas por dia a rever violência explícita, abuso infantil e discurso de ódio para filtrar material prejudicial ao público e gerar os conjuntos de dados que treinam os sistemas de IA – trabalho que os expõe a uma tensão psicológica severa sem suporte adequado de saúde mental, cuidados médicos ou mecanismos adequados de reparação.

O que vincula esses danos a consumidores e trabalhadores é a maquinaria algorítmica da economia de plataforma digital atual. Em ambos os domínios, ela determina o que é visível, o que é oculto e quem arca com os custos. Algoritmos não são ferramentas neutras que simplesmente melhoram a eficiência nas transações online ou na coordenação no local de trabalho — são instrumentos de governança social e laboral e devem ser regulamentados como tal.

O algoritmo como chefe, regulador e juiz

Fundamentalmente, os algoritmos com maior alcance são controlados pelas empresas que dominam os mercados digitais. Empresas que monopolizam os fluxos de conteúdo, como a Meta, ByteDance e OpenAI, também exercem poder de monopsónio sobre a mão de obra e os dados que as sustentam.

Do lado do trabalho, o poder de monopsónio – o poder dos compradores dominantes de mão de obra de definir unilateralmente os termos de emprego — permite que eles pressionem trabalhadores e fornecedores, definindo salários, impondo métricas de produtividade punitivas ou ditando termos contratuais com pouca margem de negociação. Do lado do consumidor, o controle monopolista sobre plataformas e interfaces permite que uma única empresa decida quais produtos aparecem primeiro, qual conteúdo é amplificado ou quais serviços são acessíveis.

Consumidores e trabalhadores de plataformas são canalizados para ambientes rigorosamente projetados, onde visibilidade, escolha e bem-estar são subordinados ao modelo de lucro da empresa – seja através de ciclos de recomendação viciantes, taxas ocultas, direcionamento de compras para fornecedores preferenciais ou controle baseado em metas sobre salários e horas de trabalho. A questão, então, não é simplesmente que os algoritmos funcionem mal ou excedam as suas expectativas, mas que operam dentro de uma estrutura de mercado onde monopólio e monopsónio se reforçam mutuamente.

Os algoritmos também governam porque condensam numa única forma técnica o que gestores, reguladores e mercados antes faziam separadamente: decidir o conteúdo que as pessoas veem, atribuir tarefas aos trabalhadores, avaliar o desempenho por meio de métricas opacas e impor disciplina através de penalidades automatizadas. A autoridade algorítmica é, portanto, multifacetada, operando simultaneamente como reguladora do consumo, gestora do trabalho e árbitra do acesso ao mercado.

Avanços do capitalismo digital

15 de fevereiro 2025

Os riscos dessa autoridade não reconhecida são evidentes em todos os contextos: quando algoritmos canalizam usuários vulneráveis para espirais de conteúdo nocivo, os reguladores tratam isso como uma questão restrita de “moderação de conteúdo”, em vez de evidências de que o sistema influencia os índices de saúde mental. Quando ferramentas automatizadas de definição de salários reduzem os salários de trabalhadores temporários, a mudança é enquadrada como um ajuste neutro de mercado, em vez de reconhecida como controle salarial algorítmico. Quando trabalhadores de armazém são despedidos por não atingirem os limites algorítmicos de “produtividade”, a decisão é racionalizada como eficiência, em vez de reconhecida como demissão por algoritmo.

O que é punível quando feito por um chefe torna-se invisível quando feito por esta máquina. Se um gerente humano tomasse essas mesmas decisões – incitar um adolescente a automutilar-se, cortar salários sem negociação ou despedir um funcionário sem explicação –essas ações estariam sujeitas à legislação laboral, aos padrões de responsabilidade civil e à supervisão pública. Quando um algoritmo o faz, são tratadas como resultados técnicos neutros.

O perigo reside não apenas no design técnico destes sistemas, mas também na estrutura jurídica e institucional que trata os algoritmos como ativos empresariais privados, em vez de instrumentos de governança social e trabalhista. O que desaparece de vista são as questões de quem detém o poder, como ele é exercido e às custas de quem. A convergência de duas forças – o controle algorítmico sobre o comportamento humano e o isolamento legal que protege esses sistemas do escrutínio – gera riscos para o consumidor e exploração do trabalho.

À medida que os utilizadores de produtos nas economias de origem das empresas líderes avançam com ações legais por danos ao consumidor, desde violações de privacidade até desinformação e impactos à saúde mental, é fundamental que as intervenções regulatórias não sejam enquadradas apenas como uma questão de proteção ao consumidor. As críticas dominantes ao capitalismo de plataforma, seja por meio da aplicação de leis anti-truste ou de conceitos como “tecnofeudalismo”, direcionam a atenção principalmente para a impotência do consumidor. Estdas críticas destacam o controle monopolista sobre os mercados digitais, mas frequentemente ignoram como os algoritmos governam simultaneamente os mercados de trabalho, disciplinando os trabalhadores ao mesmo tempo em que extraem valor por meio de vigilância, classificação e gerenciamento automatizado. Devemos concentrar-nos no trabalho – não para tratar os danos ao consumidor como algo secundário, mas para mostrar como os dois estão estruturalmente conectados e para mostrar que o algoritmo opera como uma articulação entre o controle do consumidor e a exploração do trabalho.

O véu legal

Os algoritmos são geralmente vistos como instrumentos neutros de comércio, mas funcionam como a infraestrutura central do monopsónio na economia de plataformas digitais. Esta consolidação de controlo acaba obscurecida por um deslocamento jurídico e político em duas etapas.

Em primeiro lugar, os sistemas algorítmicos são definidos como ferramentas de comércio e inovação, em vez de mecanismos de governança laboral. A sua regulamentação é pautada pela proteção ao consumidor e pelo direito da concorrência, onde o algoritmo é enquadrado como um facilitador de correspondência, precificação ou classificação. Nesse enquadramento, as plataformas aparecem como intermediárias, em vez de empregadoras; o algoritmo torna-se um recurso técnico, não uma autoridade administrativa.

Esta lógica dominou as negociações recentes na Organização Internacional do Trabalho (OIT), onde vários governos – principalmente os Estados Unidos – resistiram às propostas de reconhecimento de sistemas algorítmicos como instrumentos de controlo no local de trabalho. Ao insistir que a infraestrutura algorítmica pertence ao domínio das políticas de comércio e inovação, eles efetivamente a colocaram fora do alcance da legislação laboral e além da autoridade de instituições como a OIT.

Em segundo lugar, a arquitetura interna destes sistemas é protegida, sobretudo, pela lei de propriedade intelectual e reforçada por contratos restritivos e classificação incorreta de emprego. Sigilo comercial, direitos autorais e direitos de banco de dados protegem não apenas o código subjacente, mas todo o aparato de tomada de decisão: como as tarefas são atribuídas, como a remuneração é calculada, como os limites são definidos e como as ações disciplinares são acionadas. Tratados como ativos comerciais privados, estes sistemas estão isentos de escrutínio público ou regulatório.

Para dar alguns exemplos das consequências: um regulador não pode obrigar a divulgação de limites algorítmicos; um sindicato não pode negociar um sistema que não tenha permissão legal para inspecionar; e um trabalhador não pode exigir uma explicação para uma dedução salarial ou penalidade.

Os acordos de confidencialidade (NDAs) silenciam os próprios trabalhadores que interagem com esses sistemas diariamente, impedindo-os de se manifestarem sobre as suas condições de trabalho. Esses NDAs não protegem apenas segredos comerciais; funcionam como ferramentas de intimidação legal, suprimindo denúncias, sindicalização e escrutínio público. Os trabalhadores temem que até mesmo descrever experiências rotineiras possa desencadear processos judiciais ou inclusão em listas de restrição.

Ao mesmo tempo, as plataformas classificam os trabalhadores como prestadores de serviço independentes e direcionam a mão de obra através de cadeias de subcontratação multicamadas, distribuindo a responsabilidade entre vários níveis de intermediários. Na prática, a empresa-mãe mantém o controlo por meio do algoritmo que define tarefas, salários e limites, mas legalmente está protegida de ser reconhecida como empregadora.

O resultado é uma caixa negra – politicamente intocável, legalmente protegida e reforçada por todos os lados por regimes sobrepostos de propriedade intelectual, contratos e direito societário. Esta fragmentação jurídica não apenas obscurece a responsabilização, mas também fortalece o poder de monopsónio da empresa, permitindo-lhe ditar salários e condições unilateralmente, ao mesmo tempo em que nega aos trabalhadores as proteções do emprego formal.

Não são uma ferramenta neutra

Desafiar a invisibilidade jurídica da gestão algorítmica começa por reconhecê-la pelo que ela é: um sistema de controlo laboral e social, não uma ferramenta técnica neutra. Controlar a economia de plataforma, portanto, requer uma regulamentação que aborde os danos algorítmicos tanto no mercado de consumo quanto no mercado de trabalho.

No contexto dos direitos laborais, a primeira prioridade deve ser o reconhecimento formal da gestão algorítmica como um tipo de governança no local de trabalho. As atuais deliberações da Organização Internacional do Trabalho oferecem uma oportunidade: os Estados-membros devem apoiar uma convenção vinculativa que trate os sistemas algorítmicos como parte da relação de trabalho – sujeita não apenas às normas laborais básicas, mas também aos princípios de transparência, devido processo legal e consulta significativa às partes interessadas afetadas. Sem esse reconhecimento, as plataformas continuarão ditando os termos do trabalho, ao mesmo tempo que negam as responsabilidades dos empregadores.

Mas o reconhecimento internacional é apenas o começo. Os governos nacionais também precisam suprimir o vácuo regulatório que permite que as plataformas terceirizem a responsabilização. Isto significa exigir transparência na tomada de decisões algorítmicas, proibir acordos de confidencialidade que silenciem os trabalhadores e aplicar a responsabilidade solidária entre as cadeias de subcontratação e os intermediários digitais. Também exige rejeitar a noção de que a opacidade algorítmica é um direito de propriedade e, em vez disso, tratá-la como uma barreira aos direitos legais e à supervisão democrática.

À medida que o trabalho em plataformas impulsionado pela IA se expande pelo Sul Global, essas intervenções não são opcionais. Elas são essenciais para proteger os direitos dos trabalhadores na economia digital e para restaurar o controle público sobre os sistemas que regulam cada vez mais a vida quotidiana.


Nandita Shivakumar é uma consultora de comunicação que colabora com a Equidem.

Shikha Silliman Bhattacharjee é chefe de investigação, política e inovação na Equidem.

 

Publicado originalmente na Jacobin. Traduzido por Pedro Silva para a Jacobina.