Anulado
Montagem de vídeo com memes de ódio
7 de Março de 2024
Um usuário apelou da decisão da Meta de deixar ativa uma publicação no Facebook que inclui uma montagem de um vídeo com música alemã contendo memes antissemitas, racistas, homofóbicos e transfóbicos. Esse caso destaca erros na aplicação da Política sobre Discurso de Ódio da Meta.
Esta é uma decisão sumária. As decisões sumárias examinam os casos em que a Meta reverteu a decisão original dela sobre um conteúdo depois que o Comitê o levou à atenção da empresa. Essas decisões incluem informações sobre os erros reconhecidos pela Meta, informam o público sobre o impacto do trabalho do Comitê e são aprovadas por um painel de Membros dele, não por ele inteiro. Elas não consideram comentários públicos e não têm valor precedente para o Comitê. As decisões sumárias dão transparência às correções da Meta e destacam áreas em que a empresa poderia melhorar a aplicação de suas políticas.
Resumo do caso
Um usuário apelou da decisão da Meta de deixar ativa uma publicação no Facebook que inclui uma montagem de um vídeo com música alemã contendo memes antissemitas, racistas, homofóbicos e transfóbicos. Esse caso destaca erros na aplicação da Política sobre Discurso de Ódio da Meta. Depois que o Comitê levou a apelação à atenção da Meta, a empresa reverteu a decisão original e removeu a publicação.
Descrição do caso e histórico
Em agosto de 2023, um usuário do Facebook publicou um videoclipe de três minutos contendo uma série de memes antissemitas, racistas, homofóbicos e transfóbicos. Os memes, entre outras coisas, alegam que o povo judeu controla as instituições de mídia, elogiam os militares nazistas, expressam desprezo por relacionamentos inter-raciais, comparam pessoas negras a gorilas, exibem calúnias contra pessoas negras e LGBTQIA+ e defendem a violência contra essas comunidades. A legenda, em inglês, afirma que a publicação faria com que a Página do Facebook do usuário fosse suspensa, mas que “worth it” (valeria a pena). A publicação foi visualizada aproximadamente 4 mil vezes e denunciada menos de 50 vezes.
Esse conteúdo viola vários elementos da Política sobre Discurso de Ódio da Meta, que proíbe conteúdo que faça referência a “estereótipos prejudiciais historicamente ligados à intimidação”, como “afirmações de que o povo judeu controla instituições financeiras, políticas ou de mídia”. Além disso, a política proíbe imagens desumanizantes, como conteúdo que iguala “pessoas negras e macacos ou criaturas semelhantes a macacos”, e o uso de calúnias raciais. Os memes desse conteúdo violam os elementos acima alegando controle judaico da mídia (um meme mostra um Quipá (chapéu judaico) com “Facebook” escrito nele); comparando pessoas negras a gorilas; e usando calúnias raciais ao exibir palavras racistas em uma espada empunhada por um personagem de desenho animado. A legenda, em inglês, afirma que a publicação faria com que a Página do Facebook do usuário fosse suspensa, mas que “worth it” (valeria a pena). A legenda também pede que as pessoas que interagem com o conteúdo “show these degenerates your utter contempt” (mostrem a esses degenerados seu total desprezo) e baixem o vídeo.
Inicialmente, a empresa manteve o conteúdo no Facebook. Depois que o Comitê levou esse caso à atenção da Meta, a empresa determinou que o conteúdo violava o Padrão da Comunidade sobre Discurso de Ódio e o removeu.
Autoridade e escopo do Comitê
O Comitê tem autoridade para analisar a decisão da Meta após uma apelação do usuário que denunciou que o conteúdo estava ativo (Artigo 2, Seção 1 do Estatuto; e Artigo 3, Seção 1 dos Regulamentos Internos).
Quando a Meta reconhece que cometeu um erro e reverte a decisão em um caso sob consideração para análise do Comitê, ele pode selecionar esse caso para uma decisão sumária (Artigo 2, Seção 2.1.3 dos Regulamentos Internos). O Comitê analisa a decisão original para aumentar a compreensão do processo de moderação de conteúdo, reduzir erros e aumentar a justiça para os usuários do Facebook e do Instagram.
Significância do caso
Esse caso destaca erros na forma como a Meta aplica a Política sobre Discurso de Ódio. O Comitê analisou anteriormente a Política sobre Discurso de Ódio da Meta quando o conteúdo do usuário usava calúnias, como no caso Calúnias na África do Sul, no qual o Comitê determinou que o uso de uma calúnia racial era degradante e excludente, e para conteúdo que se referia a um grupo de pessoas como sub-humano, como no caso Animação Knin.
O conteúdo desse caso apresentava várias instâncias de conteúdo violador, desde o uso de calúnias para atingir pessoas negras até a acusação de que o povo judeu controla a mídia. Embora a legenda indique que o usuário está ciente de que seu conteúdo provavelmente será removido por violar a Política sobre Discurso de Ódio, o conteúdo só foi removido quando o Comitê analisou o caso com base na apelação de outro usuário. O Comitê também publicou decisões sumárias que ilustram que a Meta continua enfrentando dificuldades na aplicação da Política sobre Discurso de Ódio, conforme demonstrado nos casos Racismo com Planeta dos Macacos e Caricatura sobre conspiração da mídia com relação ao discurso contra pessoas negras e o povo judeu, respectivamente.
Anteriormente, o Comitê observou no caso Publicação em polonês contra pessoas trans que as falhas da Meta em tomar as medidas adequadas de aplicação, apesar dos sinais claros sobre o conteúdo prejudicial da publicação, levaram o Comitê a concluir que a empresa não está cumprindo os ideais que articulou sobre a segurança de LGBTQIA+ e outras comunidades marginalizadas. O Comitê recomenda que a Meta elimine as lacunas de aplicação do Padrão da Comunidade sobre Discurso de Ódio.
Decisão
O Comitê revoga a decisão original da Meta de manter o conteúdo. Além disso, após levar o caso ao conhecimento da empresa, ele reconhece que ela corrigiu o erro inicial.
Voltar para Decisões de Casos e Pareceres Consultivos sobre Políticas