Está aqui

Facebook vai criar conselho de supervisão para conteúdos proibidos

A rede social anunciou que vai criar um novo órgão interno para analisar casos de conteúdos violentos e discurso de ódio. Decisões serão públicas e servirão de precedente para casos futuros. Gesto procura contrariar apelos para uma regulação estatal mais forte.
Facebook. Foto: thoughtcatalog.com/Flickr.
Foto: thoughtcatalog.com/Flickr.

O Facebook anunciou que vai criar um conselho de supervisão para monitorizar e apagar conteúdos que sejam considerados violentos ou discurso de ódio nas suas plataformas.

A ideia já havia sido anunciada em novembro do ano passado por Mark Zuckerberg, CEO do Facebook, em resposta a críticas sobre a negligência da empresa na gestão de conteúdos violentos, desinformação e outros conteúdos controversos. Um caso célebre foi o atirador de Christchurch, que em março deste ano matou mais de 50 pessoas numa mesquita na Nova Zelândia e divulgou o vídeo do ataque no Facebook. O vídeo esteve disponível 17 minutos até ser retirado, mas a rede social não se livrou de críticas de ter sido lenta a atuar.

O conselho de supervisão agora anunciado deverá começar a funcionar em 2020 com 11 membros, a aumentar para 40 mais tarde, que vão exercer mandatos de três anos até um máximo de três mandatos consecutivos. A empresa afirma que os candidatos deverão ter experiência prévia na área, um "espírito aberto" e imparcial, e serão escolhidos "fora dos nossos canais habituais", incluindo um portal que permitirá a qualquer um sugerir candidatos. O conselho deverá também representar uma gama diversa de países, culturas, religiões e sensibilidades políticas. Fora esta declaração de intenções, pouco se sabe ainda sobre os mecanismos concretos de seleção e sindicância.

O novo órgão deverá analisar e decidir sobre casos de conteúdos a retirar, escolhidos por si ou indicados por terceiros. Os utilizadores da rede social poderão recorrer diretamente a ele, em alternativa a passar pelos canais habituais de denúncia de conteúdos. O Facebook afirmou que pretende garantir a independência do conselho de supervisão, prometendo nunca reverter qualquer decisão que dele emane. Todas as decisões serão divulgadas, arquivadas, e servirão de precedente para decisões futuras, à semelhança dos sistemas de justiça de tradição anglo-saxónica.

A empresa procura assim uma solução para-judicial, através de um órgão interno com características típicas de um órgão judicial, para fazer face às inúmeras disputas em matéria de regulação de conteúdos que enfrentou nos últimos anos, incluindo com vários Estados. Sabe-se que hoje o Facebook emprega 30 mil pessoas para vigiar e retirar conteúdos proibidos, para além de algoritmos avançados de Inteligência Artificial. Dada a centralidade que a rede social adquiriu na esfera pública em todo o mundo na última década, estas decisões deixaram de ser uma questão de política interna da empresa para se tornarem numa questão pública que toca em matérias e competências típicas dos Estados e dos sistemas judiciais, como a liberdade de expressão, o direito à privacidade ou o direito à segurança.

Com o novo conselho de supervisão, a empresa procura dar garantias de maior transparência, e de caminho estancar os apelos para que seja sujeita a uma regulação muito mais forte, por exemplo análoga à de um monopólio estatal, dado o poder demasiado grande que detém. Apelos que têm vindo a fazer caminho nos EUA e um pouco por todo o mundo.

(...)