Comitê de Supervisão revoga decisão original do Facebook: Caso 2021-003-FB-UA

O Comitê de Supervisão anulou a decisão do Facebook de remover uma publicação, de acordo com os Padrões da Comunidade sobre Organizações e Indivíduos Perigosos. Após o Comitê identificar esse caso para análise, o Facebook restaurou o conteúdo. O Comitê demonstrou preocupação com o fato de o Facebook não ter analisado a apelação do usuário contra sua decisão original. O Comitê também incentivou a empresa a tomar medidas para evitar erros que silenciam vozes de minorias religiosas.

Sobre o caso

Em novembro de 2020, um usuário compartilhou uma publicação de vídeo da empresa de mídia online Global Punjab TV no idioma punjabi. O vídeo incluía uma entrevista de 17 minutos com o professor Manjit Singh, definido como “um ativista social e apoiador da cultura punjabi”. A publicação também incluía uma legenda mencionando a organização nacionalista hindu Rashtriya Swayamsevak Sangh (RSS) e o partido governante da Índia Bharatiya Janata Party (BJP): “A RSS é a nova ameaça. Ram Naam Satya Hai. O BJP avança em direção ao extremismo.”

No texto que acompanha a publicação, o usuário alegou que a RSS estava ameaçando matar os Sikhs, um grupo religioso minoritário na Índia, e a repetir a “saga mortal” de 1984, quando grupos hindus massacraram e queimaram homens, mulheres e crianças sikhs. O usuário alega que o próprio Primeiro-ministro Modi está articulando a ameaça do “Genocídio dos sikhs” com a assistência do Presidente da RSS, Mohan Bhagwat. O usuário também alegou que os regimentos sikhs no exército informaram ao Primeiro-ministro Modi que estão dispostos a morrer para proteger os fazendeiros sikhs e suas terras em Punjab.

Depois da denúncia de um usuário, uma análise humana determinou que a publicação violava o Padrão da Comunidade sobre Organizações e Indivíduos Perigosos do Facebook e a removeu. A remoção levou a uma restrição automática na conta do usuário. O Facebook informou ao usuário que não seria possível analisar sua apelação de remoção por causa de uma redução temporária na capacidade de pessoal devido à COVID-19.

Principais descobertas

Depois que o Comitê identificou esse caso para análise, mas antes de ser atribuído a um painel, o Facebook percebeu que o conteúdo foi removido por engano e o restaurou. O Facebook observou que nenhum dos grupos ou indivíduos mencionados no conteúdo são denominados como “perigosos” de acordo com suas regras. A empresa também não conseguiu identificar as palavras específicas na publicação que levaram à remoção por engano.

O Comitê concluiu que a decisão original do Facebook de remover a publicação não foi consistente com os Padrões da Comunidade da empresa ou responsabilidades de direitos humanos.

O Comitê observou que a publicação destacou a questão de vozes das minorias e da oposição na Índia, que estão sendo supostamente discriminadas pelo governo. É importante principalmente que o Facebook tome medidas para evitar erros que silenciam essas vozes. Embora reconheça as circunstâncias únicas da COVID-19, o Comitê argumentou que o Facebook não dispensou tempo ou atenção adequados para analisar esse conteúdo. O Comitê enfatizou que os usuários deveriam poder fazer uma apelação nos casos do Facebook antes de chegarem ao Comitê e incentivou a empresa a priorizar a restauração dessa capacidade.

Levando em consideração o acima exposto, o Comitê considerou as restrições de conta, que causaram a exclusão do usuário do Facebook, particularmente exageradas. O Comitê também expressou preocupação com o fato de que as regras do Facebook sobre as restrições estão espalhadas em muitos locais e nem todas são encontradas nos Padrões da Comunidade, como seria esperado.

Por fim, o Comitê observou que os relatórios de transparência do Facebook dificultam avaliar se a aplicação da política de Organizações e Indivíduos Perigosos tem um impacto particular sobre falantes de idiomas minoritários ou minorias religiosas na Índia.

A decisão do Comitê de Supervisão

O Comitê revoga a decisão original do Facebook de remover o conteúdo. Em uma declaração consultiva da política, o Comitê recomenda que o Facebook:

  • Traduza seus Padrões da Comunidade e Padrões de Implementação Interna para o punjabi. O Facebook também deve ter como objetivo tornar seus Padrões da Comunidade acessíveis a todos os idiomas amplamente falados pelos seus usuários.
  • Restaure a análise humana das decisões de moderação de conteúdo e o acesso a um processo de apelação humana aos níveis pré-pandêmicos o mais rápido possível, ao mesmo tempo que protege a saúde da equipe e contratados do Facebook.
  • Amplie as informações públicas sobre as taxas de erro, tornando-as visíveis por país e idioma para cada Padrão da Comunidade em seus relatórios de transparência.

Para obter mais informações:

Para ler a decisão sobre o caso na íntegra, clique aqui.

Para ler um resumo dos comentários públicos sobre esse caso, clique aqui.

Voltar às Notícias