Anulado

Comentários desumanizantes sobre as pessoas em Gaza

Um usuário apelou da decisão da Meta de deixar ativa uma publicação do Facebook alegando que o Hamas era originário da população de Gaza, comparando-os a um “savage horde” (bando selvagem). Depois que o Comitê levou a apelação à atenção da Meta, a empresa reverteu a decisão original e removeu a publicação.

Tipo de decisão

Resumo

Políticas e tópicos

विषय
Comunidades marginalizadas, Guerra e conflitos, Raça e etnia
Padrão da comunidade
Discurso de ódio

Regiões/países

Localização
Israel, Territórios Palestinos

Plataforma

Plataforma
Facebook

Esta é uma decisão sumária. As decisões sumárias examinam casos em que a Meta reverteu a decisão original dela sobre um conteúdo depois que o Comitê o levou à atenção da empresa e incluem informações sobre os erros reconhecidos por ela. Elas são aprovadas por um painel de membros do Comitê, e não por ele inteiro, não envolvem comentários públicos e não têm valor precedente para o Comitê. As decisões sumárias geram mudanças diretas nas decisões da Meta, proporcionando transparência nessas correções e identificando em que área a empresa poderia melhorar sua aplicação.

Resumo

Um usuário apelou da decisão da Meta de deixar ativa uma publicação do Facebook alegando que o Hamas era originário da população de Gaza e reflete seus “innermost desires” (desejos mais profundos), comparando-os a um “savage horde” (bando selvagem). Depois que o Comitê levou a apelação à atenção da Meta, a empresa reverteu a decisão original e removeu a publicação.

Sobre o caso

Em dezembro de 2023, um usuário denunciou uma imagem no Facebook contendo texto, em conjunto com uma imagem de um homem desarmado, expressando a visão de que o “general public” (público geral) em Gaza não é a “victim” (vítima) do Hamas, mas, na verdade, o grupo militante emergiu como um “true reflection” (reflexo real) dos “the innermost desires of a savage horde” (desejos mais profundos de um bando selvagem). A imagem republicada continha uma legenda corroborando a ideia, com as palavras “the truth” (a verdade). A publicação foi visualizada menos de 500 vezes.

Segundo a Política sobre Discurso de Ódio da Meta, a empresa proíbe conteúdo voltado contra uma pessoa ou um grupo de pessoas com base em suas características protegidas, especialmente mencionando comparações a “sub-humanidade”, incluindo “selvagens” como um exemplo. Nesse contexto, o termo “the general public of Gaza” (público geral de Gaza) é uma referência implícita aos palestinos na região, portanto, voltando-se contra as características protegidas de etnia e nacionalidade.

Em uma declaração fazendo a apelação do caso ao Comitê, o usuário observou que a publicação “constituted dehumanizing speech” (constituía discurso desumanizante) por fazer generalizações sobre o povo de Gaza.

Depois que o Comitê levou esse caso à atenção da Meta, a empresa determinou que o conteúdo violava sua Política sobre Discurso de Ódio e que sua decisão original de deixar ativo o conteúdo estava incorreta. A empresa então removeu o conteúdo do Facebook.

Autoridade e escopo do Comitê

O Comitê tem autoridade para analisar a decisão da Meta após uma apelação do usuário que denunciou que o conteúdo estava ativo (Artigo 2, Seção 1 do Estatuto; e Seção 1 do Artigo 3 dos Regulamentos Internos).

Quando a Meta reconhece que cometeu um erro e reverte a decisão em um caso sob consideração para análise do Comitê, ele pode selecionar esse caso para uma decisão sumária (Artigo 2, Seção 2.1.3 dos Regulamentos Internos). O Comitê analisa a decisão original para aumentar a compreensão do processo de moderação de conteúdo envolvido, reduzir erros e aumentar a justiça para os usuários do Facebook e do Instagram.

Significância do caso

Este caso destaca erros na aplicação da Política sobre Discurso de Ódio da Meta, especificamente no que diz respeito a conteúdo que ataca as pessoas com base em suas características protegidas. Os erros de moderação são especialmente prejudiciais em momentos de conflitos armados em andamento. Portanto, deveria haver práticas de moderação de conteúdo mais robustas sendo aplicadas.

O caso Animação Knin, de forma semelhante, também continha discurso de ódio voltado contra uma característica protegida, uma etnia, referindo-se a um grupo étnico como ratos sem nomeá-lo explicitamente. Entretanto, o caso Animação Knin exigiu contexto histórico e cultural para interpretar a representação de um grupo étnico, enquanto o conteúdo neste caso atribui comentários desumanizantes de forma mais direta a uma população inteira, o que deveria ser razoavelmente compreendido como uma referência a pessoas por característica protegida.

Na decisão do caso Animação Knin, o Comitê recomendou que a Meta deveria “esclarecer o Padrão da Comunidade sobre Discurso de Ódio e a orientação fornecida aos analistas, explicando que até mesmo referências implícitas a grupos protegidos são proibidas pela política quando a referência seria razoavelmente compreendida” (Decisão do caso Animação Knin, recomendação n.º 1), que a Meta informou ter implementado parcialmente. No quarto trimestre de 2022, a Meta relatou ter “incluído literatura aos Padrões da Comunidade e às instruções sobre políticas para analistas, esclarecendo que discurso de ódio implícito será removido se for encaminhado por analistas em escala para a análise de especialistas em que a Meta possa compreender razoavelmente a intenção do usuário”. O Comitê considera essa recomendação parcialmente implementada, visto que não foram realizadas atualizações ao Padrões da Comunidade sobre Discurso de Ódio, mas apenas à introdução geral dos Padrões da Comunidade.

O Comitê acredita que a implementação integral dessa recomendação poderia reduzir o número de erros de aplicação no âmbito da Política sobre Discurso de Ódio da Meta.

Decisão

O Comitê revoga a decisão original da Meta de manter o conteúdo Além disso, após levar o caso ao conhecimento da empresa, reconhece que ela corrigiu o erro inicial.

Voltar para Decisões de Casos e Pareceres Consultivos sobre Políticas