Anulado

Caricatura sobre conspiração da mídia

Um usuário apelou da decisão da Meta de deixar ativo um comentário no Facebook com uma caricatura de um judeu segurando uma caixa de música com o rótulo “media” (mídia) e um macaco com o rótulo “BLM” (“Black Lives Matter” ou “Vidas negras importam”, em tradução livre) em seu ombro.

Tipo de decisão

Resumo

Políticas e tópicos

विषय
Comunidades marginalizadas, Discriminação, Raça e etnia
Padrão da comunidade
Discurso de ódio

Regiões/países

Localização
Alemanha, Austrália, Israel

Plataforma

Plataforma
Facebook

Esta é uma decisão sumária. As decisões sumárias examinam os casos em que a Meta reverteu a decisão original dela sobre um conteúdo depois que o Comitê o levou à atenção da empresa. Essas decisões incluem informações sobre os erros reconhecidos pela Meta, informam o público sobre o impacto do trabalho do Comitê e são aprovadas por um painel de Membros dele, não por ele inteiro. Elas não envolvem um processo de comentários públicos e não têm valor precedente para o Comitê. As decisões sumárias dão transparência às correções da Meta e destacam áreas em que a empresa poderia melhorar a aplicação de suas políticas.

Resumo do caso

Um usuário apelou da decisão da Meta de deixar ativo um comentário no Facebook com uma caricatura de um judeu segurando uma caixa de música com o rótulo “media” (mídia) e um macaco com o rótulo “BLM” (“Black Lives Matter” ou “Vidas negras importam”, em tradução livre) em seu ombro. Depois que o Comitê levou a apelação à atenção da Meta, a empresa reverteu a decisão original e removeu o comentário.

Descrição do caso e histórico

Em maio de 2023, um usuário publicou um comentário com uma caricatura de um judeu segurando uma caixa de música antiga com um macaco no ombro. A caricatura tem um nariz exageradamente adunco e é rotulada com uma estrela de David com a inscrição “Jude” (judeu, em alemão), semelhante às faixas que o povo judeu foi forçado a usar durante o Holocausto. O macaco em seu ombro está rotulado como “BLM” (a sigla para o movimento “Black Lives Matter”), enquanto a caixa de música está rotulada como “midia” (mídia). O comentário recebeu menos de 100 visualizações.

Esse conteúdo viola dois elementos distintos da Política sobre Discurso de Ódio da Meta. A Política sobre Discurso de Ódio da Meta proíbe conteúdo que faça referência a “estereótipos prejudiciais historicamente ligados à intimidação”, como “afirmações de que o povo judeu controla instituições financeiras, políticas ou de mídia”. Além disso, a Política sobre Discurso de Ódio da Meta proíbe imagens desumanizantes, como conteúdo que iguala “pessoas negras e macacos ou criaturas semelhantes a macacos”. Esse conteúdo viola ambos os elementos, pois insinua que o povo judeu controla as instituições de comunicação social e equipara o movimento “BLM” a um macaco. Na apelação ao Comitê, o usuário que denunciou o conteúdo afirmou que ele era antissemita e racista em relação aos negros.

Inicialmente, a empresa manteve o conteúdo no Facebook. Quando o Comitê levou esse caso à atenção da Meta, a empresa determinou que a publicação violava sua Política sobre Discurso de Ódio e que sua decisão original de deixar ativo o conteúdo estava incorreta. A empresa então removeu o conteúdo do Facebook.

Autoridade e escopo do Comitê

O Comitê tem autoridade para analisar a decisão da Meta após uma apelação da pessoa que denunciou que o conteúdo estava ativo (Artigo 2, Seção 1 do Estatuto; e Artigo 3, Seção 1 dos Regulamentos Internos).

Quando a Meta reconhece que cometeu um erro e reverte a decisão em um caso sob consideração para análise do Comitê, ele pode selecionar esse caso para uma decisão sumária (Artigo 2, Seção 2.1.3 dos Regulamentos Internos). O Comitê analisa a decisão original para aumentar a compreensão do processo de moderação de conteúdo envolvido, reduzir erros e aumentar a justiça para os usuários do Facebook e do Instagram.

Significância do caso

O caso destaca lacunas na aplicação da Política sobre Discurso de Ódio por parte da Meta, o que pode levar à disseminação de conteúdos que promovem estereótipos prejudiciais e imagens desumanizantes. Erros de aplicação como esses precisam ser corrigidos, dada a responsabilidade da Meta de mitigar o risco de danos associados ao conteúdo direcionado a grupos marginalizados.

O Comitê examinou anteriormente a under-enforcement (aplicação insuficiente) da Política sobre Discurso de Ódio da Meta, em que o conteúdo do usuário implicava violações claras dos padrões da empresa. O Comitê recomendou que a Meta “esclareça o Padrão da Comunidade sobre Discurso de Ódio e a orientação fornecida aos analistas, explicando que até mesmo referências implícitas a grupos protegidos são proibidas pela política quando a referência é razoavelmente compreendida” (Decisão do desenho animado Knin, recomendação n.º 1). A Meta implementou parcialmente essa recomendação.

O Comitê também emitiu recomendações que visam reduzir o número de erros de aplicação. Ele recomendou que a Meta “implemente um procedimento de auditoria interna para analisar continuamente uma amostra estatisticamente representativa de decisões automatizadas de remoção de conteúdo para reverter e aprender com os erros de aplicação” (Decisão sobre sintomas de câncer de mama e nudez, recomendação n.º 5). A Meta afirma que essa recomendação é um processo que a empresa já realiza, sem publicar informações que demonstrem isso.

O Comitê reitera que a implementação integral das recomendações acima ajudará a diminuir os erros de aplicação da Política sobre Discurso de Ódio, reduzindo a prevalência de conteúdos que promovem estereótipos ofensivos e imagens desumanizantes.

Decisão

O Comitê revoga a decisão original da Meta de manter o conteúdo. Além disso, após levar o caso ao conhecimento da empresa, reconhece que ela corrigiu o erro inicial.

Voltar para Decisões de Casos e Pareceres Consultivos sobre Políticas