Naomi Klein: Máquinas de IA não estão a “alucinar”. Mas os seus criadores estão

26 de agosto 2023 - 13:52

Numa realidade de poder e riqueza hiperconcentrados, a Inteligência Artificial – longe de corresponder a todas essas alucinações utópicas – tem muito mais probabilidade de se tornar uma ferramenta temível de mais desapropriação e espoliação. Artigo de Naomi Klein.

PARTILHAR
Foto de Tony Webster, Flickr.

Dentro dos muitos debates que giram em torno do rápido lançamento da chamada inteligência artificial, há uma escaramuça relativamente obscura focada na escolha da palavra “alucinar”.

Este é o termo que os arquitetos e impulsionadores da IA ​​generativa escolheram para caracterizar as respostas fornecidas por chatbots que são totalmente fabricadas ou totalmente erradas. Como, por exemplo, quando se pede a um bot uma definição de algo que não existe e este, de forma bastante convincente, fornece uma definição completa com notas de rodapé inventadas. “Ainda ninguém no campo resolveu os problemas de alucinação”, disse, recentemente, Sundar Pichai, CEO do Google e da Alphabet, a um entrevistador.

Isso é verdade – mas por que chamar os erros de “alucinações”? Por que não lixo algorítmico? Ou falhas? Bem, alucinação refere-se à misteriosa capacidade do cérebro humano de perceber fenómenos que não estão presentes, pelo menos não em termos convencionais e materialistas. Ao se apropriar de uma palavra comummente usada em psicologia, psicadélicos e várias formas de misticismo, os impulsionadores da IA, embora reconheçam a falibilidade das suas máquinas, estão simultaneamente a alimentar a mitologia mais querida do setor: a de que, ao construir esses grandes modelos de linguagem e treiná-los em tudo o que nós, humanos, escrevemos, dizemos e representamos visualmente, estão a gerar uma inteligência animada prestes a desencadear um salto evolutivo para a nossa espécie. De que outra forma bots como Bing e Bard poderiam estar a viajar no éter?

Alucinações distorcidas estão, de facto, a acontecer no mundo da IA, mas não são os bots que as estão a ter; são os CEO de tecnologia que os desencadearam, junto com uma falange de fãs, que estão nas garras de alucinações selvagens, tanto individual quanto coletivamente. Aqui estou a definir alucinação não no sentido místico ou psicadélico, estados alterados da mente que podem, de facto, ajudar no acesso a verdades profundas e anteriormente não percebidas. Não. Essas pessoas estão apenas a viajar: a ver, ou pelo menos a alegar ver, evidências que não existem, mesmo conjurando mundos inteiros que colocarão os seus produtos em prol da nossa elevação e educação universais.

A IA generativa acabará com a pobreza, dizem eles. Vai curar todas as doenças. Vai resolver as alterações climáticas. Isso tornará o nosso trabalho mais significativo e emocionante. Irá desencadear vidas de lazer e contemplação, ajudando-nos a recuperar a humanidade que perdemos para a mecanização do capitalismo tardio. Vai acabar com a solidão. Isso tornará os nossos governos racionais e responsivos. Essas, eu temo, são as verdadeiras alucinações da IA, ​​e todos nós as ouvimos em loop desde que o ChatGPT foi lançado no final do ano passado.

Existe um mundo em que a IA generativa, como uma poderosa ferramenta de pesquisa preditiva e executora de tarefas tediosas, poderia, de facto, ser organizada para beneficiar a humanidade, outras espécies e o nosso lar compartilhado. Mas, para que isso aconteça, essas tecnologias teriam de ser implantadas dentro de uma ordem económica e social muito diferente da nossa, que tivesse como propósito atender às necessidades humanas e proteger os sistemas planetários que sustentam toda a vida.

E como aqueles de nós que não estão a viajar bem entendem, o nosso sistema atual não é nada disso. Em vez disso, é construído para maximizar a extração de riqueza e lucro – tanto dos humanos quanto do mundo natural – uma realidade que nos trouxe ao que podemos apelidar de estágio tecno-necro do capitalismo. Nessa realidade de poder e riqueza hiperconcentrados, a IA – longe de corresponder a todas essas alucinações utópicas – tem muito mais probabilidade de se tornar uma ferramenta temível de mais desapropriação e espoliação.

Vou investigar por que isso acontece. Mas primeiro, é útil pensar sobre o propósito que as alucinações utópicas sobre IA estão a servir. Que trabalho essas histórias benevolentes estão a fazer na cultura quando encontramos essas estranhas novas ferramentas? Aqui está uma hipótese: são as histórias de capa poderosas e atraentes para o que pode vir a ser o maior e mais importante roubo da história da humanidade. Porque o que estamos a testemunhar são as empresas mais ricas da história (Microsoft, Apple, Google, Meta, Amazon …) a apoderar-se unilateralmente da soma total do conhecimento humano que existe em formato digital, na internet e a capturá-la dentro de produtos proprietários, muitas vezes visando diretamente os humanos cuja vida inteira de trabalho serviu para treinar as máquinas sem que para tal fosse dada qualquer permissão ou consentimento.

Isso não deveria ser legal. No caso de material protegido por direitos autorais, que agora sabemos que treinou os modelos (incluindo este jornal), vários processos foram movidos com o argumento que isso é claramente ilegal. Por que, por exemplo, uma empresa com fins lucrativos deveria ser autorizada a alimentar um programa como Stable Diffusion ou Dall-E 2 com as pinturas, desenhos e fotografias de artistas vivos para que possam ser usados para gerar versões doppelganger desses mesmos artistas, com esse trabalho a beneficiar todos menos os próprios artistas?

A pintora e ilustradora Molly Crabapple está a ajudar a liderar um movimento de artistas que desafiam esse roubo. “Os geradores de arte de IA são treinados em enormes conjuntos de dados, contendo milhões e milhões de imagens protegidas por direitos autorais, recolhidas sem o conhecimento dos seus criadores, muito menos compensação ou consentimento. Este é, efetivamente, o maior roubo de arte da história. Perpetrado por entidades corporativas aparentemente respeitáveis, apoiadas pelo capital de risco do Vale do Silício. “É um assalto à luz do dia”, lê-se numa carta aberta que escreveu em parceria com outras pessoas.

O truque, é claro, é que o Vale do Silício costuma chamar o roubo de “interrupção” – e muitas vezes sai impune. Conhecemos este movimento: atacar em território sem lei; afirmar que as regras antigas não se aplicam à sua nova tecnologia; gritar que a regulamentação só ajudará a China – tudo isso enquanto obtém seus dados solidamente no terreno. No momento em que todos superamos a novidade desses novos brinquedos e começamos a fazer um balanço dos destroços sociais, políticos e económicos, a tecnologia já é tão omnipresente que os tribunais e os formuladores de políticas levantam as mãos.

É hora de questionar essas alucinações utópicas sobre a IA e olhar para as realidades que estão a ser construídas. Devemos avaliar cuidadosamente como essas tecnologias estão a ser implementadas e como podem afetar a sociedade, a economia e os direitos individuais. Precisamos garantir que o desenvolvimento da IA seja guiado por princípios éticos e responsáveis, com uma consideração cuidadosa das consequências a longo prazo.

Além disso, devemos estar atentos ao poder concentrado nas mãos de algumas empresas e procurar mecanismos regulatórios adequados para proteger os direitos dos artistas, a privacidade dos indivíduos e o bem-estar da sociedade como um todo.

Não devemos permitir que essas alucinações nos distraiam da necessidade de um debate sério e informado sobre o futuro da IA e o seu impacto no nosso mundo. É hora de questionar as narrativas dominantes e procurar soluções que coloquem os interesses humanos e a sustentabilidade planetária no centro.

A IA tem potencial para trazer benefícios significativos, mas precisamos garantir que seja usada de maneira responsável, transparente e justa. Somente assim poderemos moldar um futuro onde a IA seja verdadeiramente capacitadora e benéfica para toda a humanidade.

Vimos isso com o livro do Google e a digitalização da arte. Com a colonização espacial de Musk. Com o ataque do Uber à indústria de táxis. Com o ataque do Airbnb ao mercado de arrendamento. Com a promiscuidade do Facebook com os nossos dados. Não peça permissão, gostam de dizer os disruptores, peça perdão. (E lubrifique os pedidos com generosas contribuições de campanha.)

Em The Age of Surveillance Capitalism, Shoshana Zuboff detalha meticulosamente como os mapas do Street View do Google ultrapassaram as normas de privacidade ao enviar os seus carros com câmaras para fotografar as nossas vias públicas e o exterior das nossas casas. No momento em que os processos a defender os direitos de privacidade começaram, o Street View já era tão omnipresente nos nossos dispositivos (e tão legal e tão conveniente …) que poucos tribunais fora da Alemanha estavam dispostos a intervir.

Agora, a mesma coisa que aconteceu com o exterior das nossas casas está a acontecer com as nossas palavras, nossas imagens, nossas músicas, toda a nossa vida digital. Todos estão a ser apreendidos e usados ​​para treinar as máquinas para simular o pensamento e a criatividade. Essas empresas devem saber que estão envolvidas num roubo ou, pelo menos, que podem ser reunidas fortes evidências de que estão. Eles estão apenas à espera que o velho manual funcione mais uma vez – que a escala do roubo já é tão grande e se desenrola com tanta velocidade que os tribunais e os formuladores de políticas vão mais uma vez levantar as mãos diante da suposta inevitabilidade de tudo isso.

É também por isso que as suas alucinações sobre todas as coisas maravilhosas que a IA fará pela humanidade são tão importantes. Porque essas reivindicações grandiosas disfarçam esse roubo em massa como um presente – ao mesmo tempo que ajudam a racionalizar os perigos inegáveis ​​da IA.

Até agora, a maioria de nós já ouviu falar sobre o estudo em que investigadores e desenvolvedores de IA estimam a probabilidade de sistemas avançados de IA causarem “extinção humana ou desempoderamento igualmente permanente e severo da espécie humana”. Surpreendentemente, a resposta média foi que existia 10% de hipótese.

Como alguém racionaliza ir trabalhar e empurrar ferramentas que carregam tais riscos existenciais? Muitas vezes, a razão dada é que esses sistemas também carregam enormes vantagens potenciais – exceto que essas vantagens são, na sua maior parte, alucinatórias. Vamos aprofundar algumas das mais selvagens alucinações.

Alucinação nº 1: IA resolverá a crise climática

Quase invariavelmente, no topo das listas de vantagens da IA está a afirmação de que esses sistemas resolverão de alguma forma a crise climática. Ouvimos isso de todos, do Fórum Económico Mundial ao Conselho de Relações Exteriores e ao Boston Consulting Group, que explica que a IA “pode ser usada para apoiar todas as partes interessadas em adotar uma abordagem mais informada e orientada por dados para combater as emissões de carbono e construir uma sociedade mais verde. Também pode ser empregue para reponderar os esforços climáticos globais para as regiões de maior risco”. O ex-CEO do Google, Eric Schmidt, resumiu o caso quando disse ao Atlântico que valeu a pena correr os riscos da IA, porque “Se pensar sobre os maiores problemas do mundo, eles são todos muito difíceis – alterações climáticas, organizações humanas e assim por diante. E assim, quero sempre que as pessoas sejam mais inteligentes".

De acordo com essa lógica, o fracasso em “resolver” grandes problemas como a alterações climáticas deve-se a um défice de inteligência. Não importa que pessoas inteligentes, cheias de PhDs e prémios Nobel digam aos nossos governos há décadas o que é preciso acontecer para sairmos deste sarilho: reduzir as nossas emissões, deixar o carbono no solo, combater o consumo excessivo dos ricos e o subconsumo dos pobres, porque nenhuma fonte de energia é isenta de custos ecológicos.

A razão pela qual esse conselho muito inteligente foi ignorado não é devido a um problema de compreensão de leitura ou porque, de alguma forma, precisamos de máquinas para pensar por nós. É porque fazer o que a crise climática exige de nós encalharia biliões de dólares em ativos de combustíveis fósseis, ao mesmo tempo que desafiaria o modelo de crescimento baseado no consumo no coração das nossas economias inter-relacionadas. A crise climática não é, de facto, um mistério ou um enigma que ainda não resolvemos devido a conjuntos de dados insuficientemente robustos. Sabemos o que seria necessário, mas não é uma solução rápida – é uma mudança de paradigma. Esperar que as máquinas cuspam uma resposta mais palatável e/ou rentável não é uma cura para esta crise, é mais um sintoma dela.

Elimine as alucinações e parece muito mais provável que a IA seja trazida ao mercado de maneira a aprofundar ativamente a crise climática. Primeiro, os servidores gigantes que possibilitam ensaios instantâneos e obras de arte de chatbots são uma fonte enorme e crescente de emissões de carbono. Em segundo lugar, à medida que empresas como a Coca-Cola começam a fazer grandes investimentos para usar IA generativa para vender mais produtos, fica muito claro que essa nova tecnologia será usada da mesma forma que a última geração de ferramentas digitais: o que começa com as promessas de espalhar a liberdade e a democracia acaba por transformar-se em microanúncios direcionados a nós, para que compremos mais coisas inúteis que vomitam carbono.

E há um terceiro fator, este um pouco mais difícil de definir. Quanto mais os nossos media são inundados com deep fakes e clones de vários tipos, mais temos a sensação de nos estarmos a afundar em areia movediça informacional. Geoffrey Hinton, muitas vezes referido como “o padrinho da IA”, porque a rede neural que desenvolveu há mais de uma década forma os blocos de construção dos grandes modelos de linguagem de hoje, entende isso muito bem. Ele acabou de deixar um cargo sénior no Google para poder falar livremente sobre os riscos da tecnologia que ajudou a criar, incluindo, como disse ao New York Times, o risco de as pessoas “não serem mais capazes de saber o que é verdade”.

Isso é altamente relevante para a afirmação de que a IA ajudará a combater a crise climática. Porque quando desconfiamos de tudo o que lemos e vemos nos nossos media cada vez mais misteriosos, ficamos ainda menos preparados para resolver problemas coletivos urgentes. A crise de confiança é anterior ao ChatGPT, é claro, mas não há dúvida de que uma proliferação de deep fakes será acompanhada por um aumento exponencial de culturas de conspiração já prósperas. Então, que diferença fará se a IA apresentar avanços tecnológicos e científicos? Se o tecido da realidade compartilhada estiver a desfazer-se nas nossas mãos, encontrar-nos-emos incapazes de responder com qualquer coerência.

A IA não é uma panaceia para os problemas do mundo. Não podemos depositar todas as nossas esperanças nela para resolver as questões complexas que enfrentamos. Precisamos abordar os desafios climáticos e sociais de forma holística, considerando fatores políticos, económicos e éticos. Além disso, devemos ter cuidado com a forma como a IA é implementada e regulamentada, garantindo que não se torne uma ferramenta de aprofundamento das desigualdades e da degradação ambiental.

A tecnologia não é neutra. Ela reflete os valores e interesses daqueles que a desenvolvem e a utilizam. Portanto, é crucial que questionemos as narrativas e as promessas em torno da IA, avaliando cuidadosamente os seus impactos potenciais e procurando soluções que promovam o bem-estar humano e a sustentabilidade ambiental.

Em vez de nos perdermos em alucinações utópicas sobre o poder da IA, devemos envolver-nos em debates informados e críticos sobre o seu papel na nossa sociedade. Somente assim poderemos aproveitar verdadeiramente o potencial da IA para criar um futuro melhor e mais sustentável.

Alucinação nº 2: a IA proporcionará uma governança sábia

Essa alucinação evoca um futuro próximo em que políticos e burocratas, aproveitando a vasta inteligência agregada de sistemas de IA, são capazes de “ver padrões de necessidade e desenvolver programas baseados em evidências” que trazem maiores benefícios para os seus constituintes. Essa afirmação vem de um artigo publicado pela fundação Boston Consulting Group, mas está a ser repetida em muitos grupos de reflexão e consultorias de gestão. E é revelador que essas empresas em particular – as firmas contratadas por governos e outras corporações para identificar economias de custos, muitas vezes demitindo um grande número de trabalhadores – foram as mais rápidas a aderir ao movimento da IA. A PwC (anteriormente PricewaterhouseCoopers) acaba de anunciar um investimento de mil milhões de dólares, e a Bain & Company, assim como a Deloitte, estão entusiasmadas com o uso dessas ferramentas para tornar os seus clientes mais “eficientes”.

Tal como acontece com as reivindicações climáticas, é necessário perguntar: a razão pela qual os políticos impõem políticas cruéis e ineficazes é a falta de evidências? Uma incapacidade de “ver padrões”, como sugere o artigo do BCG? Eles não entendem os custos humanos de depauperar a saúde pública em plena pandemia, ou de deixar de investir em habitações fora do mercado quando as barracas lotam os nossos parques urbanos, ou de aprovar novas infraestruturas de combustíveis fósseis enquanto as temperaturas sobem? Eles precisam de IA para torná-los “mais inteligentes”, para usar o termo de Schmidt – ou são inteligentes o suficiente para saber quem vai subscrever a sua próxima campanha ou, se se desviarem, financiar os seus rivais?

Seria muito bom se a IA realmente pudesse cortar o vínculo entre o dinheiro corporativo e a formulação de políticas imprudentes – mas esse vínculo tem tudo a ver com o motivo pelo qual empresas como Google e Microsoft foram autorizadas a disponibilizar os seus chatbots ao público, apesar da avalanche de avisos e riscos conhecidos. Schmidt e outros estão numa campanha de lóbi de anos, dizendo a ambas as partes em Washington que, se não forem livres para avançar com IA generativa, sem o peso de uma regulamentação séria, as potências ocidentais serão deixadas para trás pela China. No ano passado, as principais empresas de tecnologia gastaram um recorde de 70 milhões de dólares para fazer lóbi em Washington – mais do que o setor de petróleo e gás – e essa quantia, observa a Bloomberg News, soma-se aos milhões gastos “na sua ampla gama de grupos comerciais, não lucrativos e thinktanks”.

E, no entanto, apesar do seu conhecimento íntimo de como o dinheiro molda a política nas nossas capitais nacionais, quando se ouve Sam Altman, o CEO da OpenAI – criador do ChatGPT – falar sobre os melhores cenários para os seus produtos, tudo isso parece ser esquecido. Em vez disso, ele parece estar a alucinar um mundo totalmente diferente do nosso, no qual os políticos e a indústria tomam decisões com base nos melhores dados e nunca colocariam inúmeras vidas em risco por lucro e vantagem geopolítica. O que nos leva a outra alucinação.

Essa outra alucinação é a ideia de que a IA trará automaticamente igualdade e justiça para a nossa sociedade. Alguns argumentam que a automação e a inteligência artificial substituirão empregos precários e criarão uma sociedade onde todos podem desfrutar de tempo livre e oportunidades iguais. No entanto, essa visão ignora as realidades económicas e políticas em que vivemos.

A implementação da IA não ocorre num vácuo. Ela é moldada por sistemas e estruturas existentes, que são permeados por desigualdades profundas. A concentração de poder e riqueza nas mãos de poucos não será automaticamente revertida pela adoção da IA. Pelo contrário, sem uma ação intencional para mitigar as desigualdades, a IA pode agravar ainda mais a divisão entre os privilegiados e os desfavorecidos.

Além disso, a própria tecnologia não é neutra. Ela é projetada e desenvolvida por seres humanos com as suas próprias perspetivas e preconceitos. A IA pode reproduzir e amplificar esses preconceitos, resultando em sistemas discriminatórios e injustos. Vemos isso acontecer em vários domínios, desde sistemas de reconhecimento facial que têm viés racial até algoritmos de recrutamento que perpetuam desigualdades de género.

Portanto, é importante abordar essas alucinações sobre a IA com um senso de responsabilidade crítica. Devemos questionar as narrativas utópicas e procurar um entendimento mais profundo das implicações sociais, económicas e éticas da IA. É necessário um diálogo amplo e inclusivo, envolvendo diferentes setores da sociedade, para garantir que a IA seja implementada de forma justa e equitativa, tendo em consideração os impactos sobre os direitos humanos, a privacidade, o trabalho e a dignidade das pessoas.

Francisco Louçã
Francisco Louçã

O fosso digital que engole a pobreza

28 de janeiro 2023
Francisco Louçã

Em vez de nos deixarmos levar por alucinações que prometem um futuro perfeito, devemos adotar uma abordagem crítica e comprometida para moldar o papel da IA na nossa sociedade. Somente dessa forma poderemos aproveitar verdadeiramente o potencial da IA para o benefício de todos, em vez de perpetuar desigualdades e injustiças existentes.

Alucinação nº 3: os gigantes da tecnologia podem ser confiáveis

Questionado se está preocupado com a frenética corrida do ouro que o ChatGPT já desencadeou, Altman disse que sim, mas acrescentou com entusiasmo: “Espero que tudo dê certo”. Sobre os seus colegas CEO de tecnologia – os que competem para apressar os seus chatbots rivais – disse: “Acho que os melhores anjos vão vencer”.

Melhores anjos? No Google? Tenho certeza de que a empresa demitiu a maioria deles porque estavam a publicar artigos críticos sobre IA ou a acusar a empresa de racismo e assédio sexual no local de trabalho. Mais “anjos melhores” confirmaram o alerta, mais recentemente Hinton. Isso porque, ao contrário das alucinações das pessoas que mais lucram com a IA, o Google não toma decisões com base no que é melhor para o mundo – ele toma decisões com base no que é melhor para os acionistas da Alphabet, que não querem perder a última bolha, não quando a Microsoft, a Meta e a Apple já estão todas dentro.

Essa observação aponta para uma questão crítica. As empresas de tecnologia, incluindo gigantes como o Google, estão a impulsionar o desenvolvimento acelerado da IA não apenas por motivos altruístas, mas principalmente com vista ao lucro e domínio no mercado. A competição acirrada entre essas empresas para lançar os chatbots mais avançados reflete a procura por vantagem competitiva e participação de mercado, em vez de um genuíno compromisso com o bem-estar humano ou o avanço da sociedade.

Essa mentalidade de lucro e dominação pode levar a decisões questionáveis e preocupantes no desenvolvimento e uso da IA. A ética e as considerações de longo prazo podem ser negligenciadas em prol do sucesso comercial imediato. E, como mencionado anteriormente, as implicações da IA vão além do mero desenvolvimento tecnológico – elas têm impacto nas relações de trabalho, nas desigualdades sociais, nas liberdades individuais e na própria noção de verdade e confiança.

Portanto, é importante estarmos cientes dos interesses em jogo e não nos deixarmos levar pelas alucinações promovidas por aqueles que estão no topo da corrida tecnológica. Devemos ser críticos e exigir transparência, responsabilidade e regulamentação adequada para garantir que a IA seja desenvolvida e utilizada de uma forma que beneficie a sociedade como um todo, em vez de apenas alimentar a busca implacável pelo lucro e poder.

Alucinação nº 4 : A IA libertar-nos-á do trabalho penoso

Se as alucinações benevolentes do Vale do Silício parecem plausíveis para muitos, há uma razão simples para isso. A IA generativa está atualmente no que poderíamos chamar de estágio de falso socialismo. Isso faz parte de um já conhecido manual do Vale do Silício. Primeiro, crie um produto atrativo (um motor de busca, uma ferramenta de mapeamento, uma rede social, uma plataforma de vídeo, uma partilha de viagens…); distribua-o de graça ou quase de graça por alguns anos, sem nenhum modelo de negócios viável discernível (“Brinque com os bots”, dizem-nos, “veja que coisas divertidas pode criar!”); faça muitas afirmações grandiosas sobre como só está a fazer isso porque deseja criar uma “praça da cidade” ou um “comum de informação” ou “conectar as pessoas”, enquanto espalha liberdade e democracia (e não ser “mal”). Então observe como as pessoas ficam viciadas em utilizar essas ferramentas gratuitas e os seus concorrentes declaram falência. Quando o campo estiver limpo, introduza os anúncios direcionados, a vigilância constante, os contratos policiais e militares, as vendas de dados de caixa preta e as crescentes taxas de assinatura.

Muitas vidas e setores foram dizimados por iterações anteriores deste manual, de motoristas de táxi a mercados de arrendamento e jornais locais. Com a revolução da IA, esses tipos de perdas podem parecer erros de arredondamento, com professores, programadores, artistas visuais, jornalistas, tradutores, músicos, cuidadores e tantos outros a enfrentar a perspetiva de ter os seus rendimentos substituídos por códigos problemáticos.

Não se preocupe, os entusiastas da IA alucinam – será maravilhoso. Quem gosta de trabalhar afinal? Dizem-nos que a IA generativa não será o fim do emprego, apenas do “trabalho chato” – com os chatbots a fazer todas as tarefas repetitivas e destruidoras de almas e os humanos meramente a supervisioná-los. Altman, por sua vez, vê um futuro onde o trabalho “pode ser um conceito mais amplo, não algo que tenhamos que fazer para poder comer, mas algo que façamos como uma expressão criativa e uma forma de encontrar realização e felicidade”.

Essa é uma visão empolgante de uma vida mais bonita e tranquila, compartilhada por muitos esquerdistas (incluindo o genro de Karl Marx, Paul Lafargue, que escreveu um manifesto intitulado O Direito à Preguiça). Mas nós, esquerdistas, também sabemos que, se ganhar dinheiro não é mais o imperativo da vida, deve haver outras maneiras de atender às nossas necessidades de abrigo e sustento. Um mundo sem empregos de baixa qualidade significa que o arrendamento deve ser gratuito, a assistência médica gratuita e todas as pessoas devem ter direitos económicos inalienáveis. E então, de repente, não estamos mais a falar sobre IA – estamos a falar sobre socialismo.

Porque não vivemos no mundo racional e humanista inspirado em Star Trek que Altman parece estar a alucinar. Vivemos sob o capitalismo e, sob esse sistema, os efeitos de inundar o mercado com tecnologias que podem executar de forma plausível as tarefas económicas de inúmeros trabalhadores não resulta na libertação repentina dessas pessoas para que possam livres para se tornarem filósofos e artistas. Isso significa que essas pessoas encontrar-se-ão a olhar para o abismo – com os verdadeiros artistas entre os primeiros a cair.

Essa é a mensagem da carta aberta de Crabapple, que convida “artistas, editores, jornalistas, editores e líderes sindicais de jornalismo a comprometerem-se com os valores humanos contra o uso de imagens generativas de IA” e a comprometerem-se “a apoiar a arte editorial feita por pessoas, não fazendas de servidores”. A carta, agora assinada por centenas de artistas, jornalistas e outros, afirma que todos, exceto os artistas mais elitistas, encontram o seu trabalho “em risco de extinção”. E, de acordo com Hinton, o “padrinho da IA”, não há razão para acreditar que a ameaça não se espalhe. Os chatbots “tiram o trabalho árduo”, mas “podem tirar mais do que isso”.

Crabapple e os seus coautores escrevem: “A arte generativa da IA é vampírica, banqueteando-se com as gerações passadas de obras de arte, e, inclusive, sugando a força vital de artistas vivos”. Mas há formas de resistir: podemos recusar-nos a usar esses produtos e organizarmo-nos para exigir que os nossos empregadores e governos também os rejeitem. Uma carta de proeminentes estudiosos da ética da IA, incluindo Timnit Gebru, que foi demitido pelo Google em 2020 por desafiar a discriminação no local de trabalho, apresenta algumas das ferramentas regulatórias que os governos podem introduzir imediatamente – incluindo total transparência sobre quais conjuntos de dados estão a ser usados para treinar os modelos. Os autores escrevem: “Não só deve estar sempre claro quando estamos perante media sintética, mas as organizações que constroem esses sistemas também devem ser obrigadas a documentar e divulgar os dados de treinamento e as arquiteturas de modelo… Devemos construir máquinas que funcionem para nós, em vez de 'adaptar' a sociedade para ser legível e gravável por máquina”.

Embora as empresas de tecnologia gostem que acreditemos que já é tarde demais para reverter esse produto de imitação em massa e substituto humano, existem precedentes legais e regulatórios altamente relevantes que podem ser aplicados. Por exemplo, a Comissão Federal de Comércio dos EUA (FTC) forçou a Cambridge Analytica, bem como a Everalbum, proprietária de um aplicativo de fotos, a destruir algoritmos inteiros que foram treinados com dados apropriados ilegitimamente e fotos retiradas da internet. Nos seus primeiros dias, o governo Biden fez muitas afirmações ousadas sobre a regulamentação das grandes tecnologias, incluindo reprimir o roubo de dados pessoais para construir algoritmos proprietários. Com uma eleição presidencial a aproximar-se rapidamente, agora seria um bom momento para cumprir essas promessas – e evitar o próximo conjunto de demissões em massa antes que elas aconteçam.

Porque treinamos as máquinas. Todos nós. Mas nunca demos o nosso consentimento. Eles alimentaram-se da engenhosidade, inspiração e revelações coletivas da humanidade (juntamente com nossos traços mais venais). Esses modelos são máquinas de enclausuramento e apropriação, devorando e privatizando as nossas vidas individuais, bem como as nossas heranças intelectuais e artísticas coletivas. E o seu objetivo nunca foi resolver a crise climática ou tornar os nossos governos mais responsáveis ou a nossa vida diária mais tranquila. Sempre foi para lucrar com a miséria em massa, que, sob o capitalismo, é a consequência flagrante e lógica da substituição de funções humanas por bots.

Tudo isso é excessivamente dramático? Uma resistência abafada e reflexiva à inovação excitante? Por que esperar o pior? Altman tranquiliza-nos: “Ninguém quer destruir o mundo”. Talvez não. Mas, como o clima cada vez pior e as crises de extinção nos mostram todos os dias, muitas pessoas e instituições poderosas parecem estar tranquilos sabendo perfeitamente que estão a ajudar a destruir a estabilidade dos sistemas de suporte à vida do mundo, desde que possam continuar a acumular lucros que, segundo acreditam, irão protegê-los e às suas famílias dos piores efeitos. Altman, como muitas criaturas do Vale do Silício, é um preppers [sobrevivencialista ou preparador]: em 2016, gabava-se: “Tenho armas, ouro, iodeto de potássio, antibióticos, baterias, água, máscaras de gás da Força de Defesa de Israel e um grande pedaço de terra em Big Sur para onde posso voar”.

Tenho certeza de que esses factos dizem muito mais sobre o que Altman realmente acredita relativamente ao futuro que ele está a ajudar a desencadear do que quaisquer alucinações floreadas que o mesmo está a escolher compartilhar em entrevistas à imprensa.


Artigo publicado originalmente no The Guardian, 08-05-2023, e traduzido para português do Brasil (PT-BR) pelo Instituto Humanitas Unisinos – IHU.
Adaptação para português de Portugal (PT-PT) de Mariana Carneiro.