Comitê de Supervisão mantém decisão original da Meta: Caso 2021-014-FB-UA
14 de Dezembro de 2021
Em 28 de outubro de 2021, o Facebook anunciou que mudaria o nome da empresa para Meta. Neste texto, Meta refere-se à empresa, e Facebook continua a se referir ao produto e às políticas associadas ao aplicativo específico.
O Comitê de Supervisão manteve a decisão original da Meta de remover uma publicação que alegava envolvimento de civis de etnia tigrínia em atrocidades na região de Amara, na Etiópia. No entanto, como a Meta restaurou a publicação após a apelação do usuário ao Comitê, a empresa deve, mais uma vez, remover o conteúdo da plataforma.
Sobre o caso
No final de julho de 2021, um usuário do Facebook da Etiópia fez uma publicação em amárico. A publicação incluía alegações de que a Frente de Libertação do Povo Tigré (TPLF) matou e estuprou mulheres e crianças, além de ter roubado propriedades de civis em Raya Kobo e outras cidades na região de Amara, na Etiópia. O usuário também afirmou que civis da etnia tigrínia ajudaram a TPLF a cometer essas atrocidades. O usuário afirma na publicação que recebeu as informações dos moradores de Raya Kobo. O usuário termina a publicação com as seguintes palavras: “Garantiremos nossa liberdade com a nossa luta”.
Depois que os sistemas automáticos em amárico da Meta sinalizaram a publicação, um moderador de conteúdo determinou que o conteúdo violava os Padrões da Comunidade sobre Discurso de Ódio do Facebook e o removeu. Quando o usuário fez a apelação desta decisão para a Meta, um segundo moderador de conteúdo confirmou que a publicação violava os Padrões da Comunidade do Facebook. Ambos os moderadores pertenciam à equipe de análise de conteúdo em amárico da Meta.
Depois disso, o usuário enviou uma apelação ao Comitê de Supervisão. Depois que o Comitê selecionou este caso, a Meta identificou sua decisão original de remover a publicação como incorreta e a restaurou em 27 de agosto. A Meta informou ao Comitê que normalmente notifica os usuários de que seu conteúdo foi restaurado no dia em que ocorre a restauração. No entanto, devido a um erro humano, a Meta informou a este usuário que sua publicação foi restaurada em 30 de setembro, mais de um mês depois. Essa notificação aconteceu depois que o Comitê questionou a Meta se ela havia informado ao usuário que o conteúdo havia sido restaurado.
Principais constatações
O Comitê indicou que o conteúdo violava os Padrões da Comunidade do Facebook sobre Violência e Incitação.
Embora a Meta inicialmente tenha removido a publicação por violar os Padrões da Comunidade sobre Discurso de Ódio, a empresa restaurou o conteúdo depois que o Comitê selecionou o caso, já que a Meta alegou que a publicação não tinha como alvo a etnia tigrínia e que as alegações do usuário não constituíam discurso de ódio. O Comitê acredita que esta explicação de restauração do conteúdo precisa de mais detalhes e está incorreta.
Por sua vez, o Comitê aplicou os Padrões da Comunidade sobre Violência e Incitação do Facebook a esta publicação. Estes Padrões proíbem a “desinformação e boatos não verificados que contribuam para o risco de violência ou danos corporais iminentes”. O Comitê considera que o conteúdo, neste caso, contém um boato não verificado de acordo com a definição da Meta sobre o termo. Embora o usuário afirme que as fontes dele são relatórios anteriores sem nome e pessoas no local, o Comitê não fornece evidências circunstanciais para dar suporte a suas alegações. Os boatos que alegam que um grupo étnico é cúmplice de atrocidades em massa, como encontrados nesta publicação, são perigosos e aumentam significativamente o risco de violência iminente.
O Comitê também considera que a remoção da publicação é uma medida consistente com as responsabilidades da Meta, como empresa, para com os direitos humanos. Boatos não verificados em um conflito violento e em andamento podem levar a atrocidades graves, como foi o caso em Mianmar. Na decisão 2020-003-FB-UA, o Comitê declarou que “em situações de conflito armado em particular, o risco de expressões de ódio e desumanas se acumularem e se espalharem em uma plataforma, levando a ações no mundo real, com impacto no direito à segurança pessoal e potencialmente à vida, é especialmente notório.” O impacto cumulativo pode levar à causalidade por meio de um “efeito gradual acumulado”, como aconteceu no genocídio de Ruanda.
O Comitê tomou sua decisão ciente das tensões entre proteger a liberdade de expressão e reduzir a ameaça de conflito sectário. O Comitê está ciente do envolvimento de civis nas atrocidades em várias partes da Etiópia, embora não em Raya Kobo, e de que a Meta não conseguiu verificar as alegações da publicação no momento em que foram feitas. O Comitê também está ciente de que relatórios reais sobre atrocidades podem salvar vidas em zonas de conflito, enquanto alegações infundadas sobre agressores civis podem aumentar o risco de violência a curto prazo.
A decisão do Comitê de Supervisão
O Comitê de Supervisão mantém a decisão original da Meta de remover a publicação. Já que a Meta restaurou o conteúdo após a apelação do usuário ao Comitê, a empresa deve, mais uma vez, remover o conteúdo da plataforma.
Em uma declaração de orientação sobre políticas, o Comitê recomenda que a Meta:
- Reescreva seu valor de “Segurança” para mostrar que o discurso online pode representar risco à segurança física das pessoas e ao direito à vida, além dos riscos de intimidação, exclusão e silenciamento.
- Reflita, nos Padrões da Comunidade do Facebook, que, em contextos de guerra e conflito violento, boatos não verificados representam um risco maior para os direitos à vida e à segurança das pessoas. Deve se refletir em todos os níveis do processo de moderação.
- Solicite uma avaliação independente de auditoria dos direitos humanos sobre como o Facebook e o Instagram têm sido usados para espalhar discursos de ódio e boatos não verificados que aumentam o risco de violência na Etiópia. A avaliação deve analisar o êxito das medidas tomadas pela Meta para prevenir o uso indevido de seus produtos e serviços na Etiópia. A avaliação também deve analisar o êxito das medidas tomadas pela Meta para permitir relatórios corroborados e de interesse público sobre atrocidades contra os direitos humanos na Etiópia. A avaliação deve analisar os recursos de idioma da Meta na Etiópia e se são adequados para proteger os direitos de seus usuários. A avaliação deve incluir o período de 1º de junho de 2020 até o momento. A empresa deve concluir a avaliação no prazo de seis meses a partir do momento em que responde a essas recomendações. A avaliação deve ser publicada na íntegra.
Para obter mais informações:
Para ler a decisão na íntegra, clique aqui.
Para ler um resumo dos comentários públicos sobre esse caso, clique no anexo abaixo.