Facebook Papers coloca empresa em nova crise
Milhares de páginas de documentos vazados pintam um quadro prejudicial de uma empresa que priorizou o crescimento em detrimento da segurança. Agora, sabe-se que a extrema-direita se beneficiou da falta de moderação da empresa e dos algoritmos
O escândalo veio à tona no último final de semana, quando alguns dos principais e mais influentes jornais do mundo inundaram suas páginas com denúncias de que o Facebook não tem qualquer controle sobre o conteúdo. E que os extremistas de direita se beneficiaram das regras frouxas para desencadear em vários países do mundo, mas também nos Estados Unidos, no episódio de invasão do Congresso, em janeiro de 2021, campanhas de ódio e desinformação.
Os documentos que vieram à tona, publicados em jornais sérios como Financial Times, Le Monde, Washington Post, Wall Street Journal e New York Times permitem vislumbrar falhas de gerenciamento, comportamento omisso da direção da empresa e descontrole completo. Sabe-se agora que a moderação do Facebook é mais fraca em outros idiomas além do inglês. Que a plataforma oferece conteúdo de maneira diferente para homens e mulheres. Que a empresa desativou as salvaguardas contra o extremismo antes do motim do Capitólio. E, por fim, que seu algoritmo é mal compreendido mesmo dentro do Facebook.
A gigante das redes sociais — que anunciou a mudança de nome da holding de Facebook para Meta — está lutando agora contra a sua crise mais grave desde o escândalo da Cambridge Analytica, depois que uma denunciante acusou diante do Congresso dos Estados Unidos e do parlamento britânico que a empresa colocou o “lucro acima da segurança”. A ex-gerente Frances Haugen jogou luz sobre o funcionamento interno do Facebook por meio de milhares de páginas de memorandos vazados para a imprensa.
Os documentos foram divulgados aos órgãos reguladores dos EUA e fornecidos ao Congresso de forma redigida pelo consultor jurídico de Frances Haugen. No início de outubro, Haugen testemunhou no Congresso dos EUA que a empresa de mídia social não faz o suficiente para garantir a segurança de seus 2,9 bilhões de usuários, minimiza os danos que pode causar à sociedade e engana repetidamente os investidores e o público. Na última semana, o Financial Times compilou quatro revelações surpreendentes que os documentos vazados por Haugen contém.
- Problema de linguagem
O Facebook é frequentemente acusado de não moderar o discurso de ódio em seus sites em inglês, mas o problema é muito pior em países que falam outras línguas, mesmo depois de a empresa ter prometido investir mais após ser acusada facilitar o genocídio em Mianmar, em 2017.
Um documento de 2021 alerta sobre o número muito baixo de moderadores de conteúdo em dialetos árabes falados na Arábia Saudita, Iêmen e Líbia. Outro estudo do Afeganistão, onde o Facebook tem 5 milhões de usuários, descobriu que até as páginas que explicam como denunciar o discurso de ódio foram traduzidas incorretamente.
As falhas ocorreram mesmo quando a própria pesquisa do Facebook marcou alguns dos países como de “alto risco” por causa de seu cenário político frágil e frequência de discurso de ódio. De acordo com um documento, a empresa alocou 87% de seu orçamento para desenvolver seus algoritmos de detecção de desinformação para os EUA em 2020, contra 13% para o resto do mundo.
- Como funcionam os algoritmos
Vários documentos mostram o Facebook perplexo com seus próprios algoritmos. Um memorando de setembro de 2019 descobriu que os homens estavam recebendo 64% mais posts políticos do que as mulheres em “quase todos os países”, com a questão sendo particularmente grande nos países africanos e asiáticos.
Embora os homens tenham maior probabilidade de seguir contas que produzem conteúdo político, o memorando afirma que os algoritmos de classificação de feeds também desempenharam um papel significativo.
Um memorando de junho de 2020 concluiu que era “virtualmente garantido” que os “principais sistemas do Facebook mostram tendências sistêmicas com base na raça do usuário afetado”.
O autor sugeriu que talvez a classificação do feed de notícias seja mais influenciada por pessoas que compartilham com frequência do que por aquelas que compartilham e se envolvem com menos frequência, o que pode estar relacionado à raça. Isso faz com que o conteúdo de certas raças seja priorizado em relação a outras.
- Falhas de inteligência artificial
O Facebook há muito diz que seus programas de inteligência artificial podem detectar e eliminar a incitação ao ódio e os abusos, mas os arquivos mostram seus limites. De acordo com uma nota de março de 2021 por um grupo de pesquisadores, a empresa toma medidas em apenas 3 a 5% de discurso de ódio e 0,6% de conteúdo violento. Outro memorando sugere que pode nunca conseguir ir além de 10 a 20%, porque é “extraordinariamente desafiador” para a IA entender o contexto em que a linguagem é usada.
No entanto, o Facebook já havia decidido confiar mais na IA e cortar o dinheiro que estava gastando com moderação humana em 2019 quando se tratava de discurso de ódio. Em particular, a empresa tornou mais difícil relatar e apelar contra decisões sobre discurso de ódio.
A empresa diz que “ao combater o discurso de ódio no Facebook, o objetivo é reduzir sua prevalência, que é a quantidade que as pessoas realmente veem”. A plataforma acrescentou que o discurso de ódio responde por apenas 0,05% do que os usuários veem, um número que caiu em 50% nos últimos três trimestres.
- Falha na invasão do Capitólio
Os documentos revelam a luta do Facebook para conter a explosão de discurso de ódio e desinformação em sua plataforma em torno do motim de 6 de janeiro em Washington, gerando turbulência interna. Os memorandos mostram que a empresa desligou certas salvaguardas de emergência na esteira da eleição de novembro de 2020, apenas para lutar para reativar algumas quando a violência explodiu. Uma avaliação interna constatou que a rápida implementação das medidas foi dificultada pela espera da aprovação da equipe de política.
Mesmo as ações proativas falharam em surtir o efeito desejado. Em outubro de 2020, o Facebook anunciou que deixaria de recomendar “grupos cívicos”, que discutem questões sociais e políticas. No entanto, devido a dificuldades técnicas na implantação da mudança, 3 milhões de usuários dos EUA foram recomendados a pelo menos um dos 700 mil grupos identificados diariamente entre outubro de 2020 e meados de janeiro de 2021, de acordo com uma nota de pesquisa.