Um dia, a ativista e advogada australiana Noelle Martin descobriu que dois vídeos pornográficos com a sua cara andavam a circular na Internet há meses. Nas imagens parecia que era ela mas não era. Alguém tinha tirado e manipulado as fotografias das suas redes sociais e criado falsos vídeos pornográficos com elas. Na altura, ela tinha 17 anos.
Martin, agora com 29 anos, foi à polícia mas não conseguiu nada. "Na altura, não havia nenhuma lei específica", recorda. Tentou então remover o material, mas este continuou a espalhar-se na Internet e tornou-se cada vez mais difícil de controlar.
"Senti que não tinha outra hipótese senão falar", assegura.
A poetisa inglesa Helen Mort também decidiu falar depois de lhe ter acontecido algo semelhante. Ficou chocada quando viu o seu rosto em vídeos sexualmente explícitos e violentos. O seu rosto e o seu nome circulavam livremente num site de pornografia. Mas, por muito reais que parecessem, as imagens eram falsas. Ela nunca tinha partilhado fotografias íntimas. Alguém tinha editado estes vídeos a partir de imagens dela tiradas ao longo dos últimos três anos de fotografias de família e de férias que tinha partilhado nas suas redes sociais.
Violência sexual
Partilha não-consensual de imagens íntimas deve ser crime público, propõe Bloco
Mort, também locutora, professora e mãe, foi à polícia no Reino Unido. Mas esta não pôde fazer nada por ela. Embora algumas formas de pornografia de vingança sejam ilegais neste país, não existe regulamentação própria para vídeos falsos, ou deepfakes, como aqueles em que ela apareceu. "O meu calvário deixou-me assustada, envergonhada, paranoica e devastada", disse ela numa campanha que lançou para alterar as leis.
Criados com ferramentas de inteligência artificial, os deepfakes podem fazer com que as pessoas digam coisas que nunca disseram e façam coisas que nunca fizeram. Como dar vida à falecida cantora Lola Flores ou criar um falso ator Tom Cruise a falar no TikTok e a jogar golfe.
O termo foi utilizado pela primeira vez por um utilizador do Reddit em novembro de 2017, que criou um fórum dedicado à utilização de software para trocar rostos de mulheres famosas em vídeos pornográficos. Um algoritmo de aprendizagem automática coloca o rosto numa imagem selecionada utilizando uma técnica de mapeamento facial, mantendo as proporções, e depois replica-o nos fotogramas sucessivos do vídeo.
E, desde então, a principal utilização deste tipo de tecnologia tem sido precisamente essa: criar conteúdos pornográficos sem consentimento. De acordo com um estudo da Sensity AI, uma empresa de cibersegurança sediada em Amesterdão, 96% destes vídeos falsos são pornografia não consentida. E 100% das vítimas são mulheres.
A empresa descobriu que oito das dez principais páginas de pornografia têm conteúdos falsos. As quatro principais páginas receberam mais de 134 milhões de visualizações de vídeos com o rosto de mulheres famosas de todo o mundo em fevereiro de 2018.
Muitos destes vídeos são criados para silenciar as mulheres. "Eles criaram estes vídeos como uma arma para me intimidar, porque eu era uma ativista que falava sobre estes abusos", diz Martin. "Penso que é apenas uma questão de tempo até vermos isto acontecer a uma escala tão vasta que possa afetar as mulheres em todo o mundo", acrescenta.
Como alerta a especialista em cibersegurança e tecnologia Nina Schick no livro Deepfakes: The Next Infocalypse, qualquer pessoa pode ser um alvo. E a sua criação não pára de crescer. A jornalista afirma que uma proporção cada vez maior de vídeos online será sintética, gerada no todo ou em parte com inteligência artificial. Para Schick, os deepfakes são a mais recente ameaça a um ecossistema de informação quebrado, caracterizado pela desinformação. Como tal, desenvolver-se-ão mais como armas de fraude e propaganda política, afirma.
Está a tornar-se cada vez mais fácil criar um deepfake de qualquer mulher nua. Após o aparecimento do DeepNude, uma aplicação que permitia aos utilizadores carregar uma fotografia de uma mulher vestida e receber uma aparentemente nua, outro relatório da Sensity AI descobriu um bot na aplicação de mensagens Telegram que permite aos utilizadores carregar uma fotografia e receber uma versão nua. Mais de 100.000 mulheres foram vítimas deste bot, incluindo raparigas menores de idade. Setenta por cento das vítimas são mulheres cujas fotografias foram retiradas das suas redes sociais.
Vazio legal
Por ser uma ferramenta recente, poucos países regulamentaram seu uso. De acordo com o advogado Ricardo Oliva, especialista em direito digital e sócio-gerente do escritório Algoritmo Legal, a União Europeia está a trabalhar numa regulamentação abrangente da inteligência artificial, mas ainda não existe uma regulamentação juridicamente vinculativa. Especificamente, a UE está a considerar três projectos aprovados pelo Parlamento Europeu em outubro de 2020. "Um deles regula o quadro ético da inteligência artificial. O segundo trata da responsabilidade civil por danos causados. E o terceiro é sobre propriedade intelectual e propriedade industrial da inteligência artificial", diz. Espera-se que, até ao final deste ano [2021], a Comissão Europeia tenha aprovado estes projetos, diz Oliva.
De acordo com este especialista, nos termos da legislação atual, um deepfake pode ser considerado um caso de "interferência ilícita" no direito à honra, à privacidade e à imagem e confere à vítima o direito de reclamar uma indemnização e de pedir a remoção do conteúdo ofensivo. Esta ação teria de ser intentada diretamente contra o agressor (que seria a pessoa que criou o vídeo falso e/ou o divulgou online ou através de uma plataforma).
A pornografia de vingança, ou seja, a divulgação nas redes sociais de imagens privadas de carácter sexual de uma pessoa sem o seu consentimento, é regulada pelo Código Penal espanhol. "Eu, por exemplo, posso autorizar o meu parceiro ou posso ter autorizado o meu ex-parceiro a gravar-me. Mas se essa pessoa, depois de nos separarmos, a difundir na Internet, isso é um crime, porque eu só o autorizei a ver, não a difundir", explica Oliva. "A privacidade, bem como a imagem, a honra e os dados pessoais, são direitos fundamentais que devem ser protegidos", sublinha.
No entanto, Oliva sublinha que as plataformas "não são responsáveis pelos conteúdos partilhados pelos seus utilizadores, a menos que sejam manifestamente ilegais e que tenham conhecimento da sua ilegalidade".
A nível mundial, há poucos desenvolvimentos. A Austrália proibiu a distribuição de vídeos alterados de pessoas com conotações sexuais após a luta de Martin. O Reino Unido proíbe a pornografia de vingança, mas não os materiais falsificados. Nos Estados Unidos, 46 estados também proíbem a primeira, mas apenas dois estados têm em conta os conteúdos falsificados.
O que fazer se isto me acontecer
"Denunciar, denunciar e denunciar", sublinha Encarni Iglesias Pereira, presidente da Asociación Stop Violencia de Género Digital (Associação Stop à Violência de Género Digital). Enquanto que Oliva salienta que a primeira coisa que uma mulher tem de fazer numa situação como esta é recolher as provas digitais. "Num processo judicial é muito importante porque é a prova que se tem", diz. De seguida, tem de se dirigir à plataforma que publicou o vídeo para que este seja removido. E, dependendo da gravidade do caso, a vítima pode escolher entre um processo civil ou criminal contra o agressor.
"Nunca te culpes", diz Martin. Apesar de sentir que já passou pela parte mais difícil, ela confessa que este abuso "pode causar danos permanentes". Ainda sente que está a lidar com a situação. "É difícil saber que todos os seus colegas, amigos e pessoas que conhece vão saber do que se passou", afirma. Mas "se procurarmos ajuda e tentarmos rodear-nos de pessoas que nos apoiem, conseguimos ultrapassar a situação e ser felizes".
E se o ambiente digital já é hostil para as mulheres, estes novos meios de comunicação tornam-no ainda mais violento. "Quanto mais sofisticadas forem as ferramentas e quanto mais mecanismos existirem para as discriminar, assediar ou exercer violência contra elas, se não estiverem preparadas e se as plataformas das redes sociais não tiverem mecanismos adequados, mais graves podem ser as consequências", afirma Julia Lopez, porta-voz da Plan International.
O assédio de raparigas e mulheres jovens é um fenómeno para o qual a ONG já alertava antes da pandemia de Covid-19, num relatório segundo o qual 60% das raparigas entre os 15 e os 25 anos foram vítimas de assédio em linha. E, em consequência deste assédio, uma em cada cinco raparigas abandonou ou reduziu significativamente a utilização das redes sociais. O relatório conclui que "não existem mecanismos adequados para denunciar, reportar e dar seguimento a estes casos de assédio", explica López.
O cyberbullying "é uma forma de as silenciar, de as expulsar [da rede], de as fazer sentir mal ou menos", diz, e isto é agravado quando mostram as suas opiniões pessoais ou políticas. "É uma espécie de retrocesso e de discriminação de género. Acontece-lhes por serem mulheres e por serem jovens, em maior medida", conclui
Texto publicado a 13/04/2021 no CTXT.
Editado e traduzido pelo Esquerda.net.