Anulado
Comment Stating Romani “Should Not Exist”
31 de Julho de 2025
A user appealed Meta’s decision to leave up a Facebook comment targeting Romani people, stating they “should not exist.” After the Board brought the appeal to Meta’s attention, the company reversed its original decision and removed the comment.
As decisões sumárias examinam casos em que a Meta reverteu a decisão original dela sobre um conteúdo depois que o Comitê o levou à atenção da empresa e incluem informações sobre os erros reconhecidos por ela. Elas são aprovadas por um painel de membros do Comitê, e não por ele inteiro, não envolvem comentários públicos e não têm valor precedente para o Comitê. As decisões sumárias geram mudanças diretas nas decisões da Meta, proporcionando transparência nessas correções e identificando em que área a empresa poderia melhorar sua aplicação.
Resumo
Um usuário apelou da decisão da Meta de manter um comentário no Facebook direcionado ao povo romani, afirmando que eles “should not exist” (não deveriam existir). Depois que o Comitê levou a apelação à atenção da Meta, a empresa reverteu a decisão original e removeu o comentário.
Sobre o caso
Em março de 2025, um usuário do Facebook comentou em um post que discutia a história das migrações do povo romani (também conhecido por outros nomes, como roma), um grupo étnico originário do norte da Índia que migrou pelo mundo e atualmente vive predominantemente na Europa. O comentário afirmava que o povo romani “should not exist” (não deveria existir) e que é “only [a] problem for the world” (apenas [um] problema para o mundo).
Um usuário fez uma apelação ao Comitê contra a decisão original da Meta de deixar o comentário ativo. O usuário que fez a apelação destacou a história de perseguição contra o povo romani na Europa, bem como a discriminação que eles enfrentam nos dias atuais, incluindo “a educação segregada, a discriminação no emprego, na moradia, na saúde, nas esferas política e jurídica, o estigma na mídia e na sociedade, a brutalidade policial, a pobreza extrema e os crimes de ódio”.
Antes de 7 de janeiro de 2025, quando a Meta anunciou alterações no seu Padrão da Comunidade sobre Conduta de Ódio (anteriormente conhecido como Discurso de Ódio), a política proibia “declarações negando a existência (incluindo, entre outros, mas não se limitando a: “[características protegidas ou quase protegidas] não existem”, “não existem [características protegidas ou quase protegidas]” ou “[características protegidas ou quase protegidas] não devem existir”)”.
Embora essa proibição tenha sido removida da linguagem pública da Política sobre Conduta de Ódio , a empresa ainda remove “incitação à exclusão ou à segregação quando direcionados a pessoas com base em características protegidas”, como raça e etnia. Essa proibição inclui a “exclusão geral”, definida como “incitação à exclusão ou à segregação geral, como “Não é permitida a entrada de X!””. Nas informações fornecidas pela Meta ao Comitê, a empresa também revelou que outros exemplos de violação incluem declarações como “chega”ou “um mundo sem” membros de um grupo com características protegidas.
Depois que o Comitê levou o caso à atenção da Meta, a empresa determinou que o conteúdo violava a Políticas sobre Conduta de Ódio e que sua decisão original de deixar o comentário ativo estava incorreta. A Meta considerou que o usuário violou a política porque a afirmação de que os romani “should not exist” (não deveriam existir) é uma incitação à exclusão geral desse povo. A empresa então removeu o conteúdo do Facebook.
Autoridade e escopo do Comitê
O Comitê tem autoridade para analisar a decisão da Meta após uma apelação do usuário que denunciou que o conteúdo estava ativo (Artigo 2, Seção 1 do Estatuto; e Artigo 3, Seção 1 dos Regulamentos Internos).
Quando a Meta reconhece que cometeu um erro e reverte a decisão em um caso sob consideração para análise do Comitê, ele pode selecionar esse caso para uma decisão sumária (Artigo 2, Seção 2.1.3 dos Regulamentos Internos). O Comitê analisa a decisão original para aumentar a compreensão do processo de moderação de conteúdo, reduzir erros e aumentar a justiça para os usuários do Facebook, do Instagram e do Threads.
Significância do caso
O conteúdo neste caso fornece um exemplo de discurso de ódio contra o povo romani que não é sutil ou codificado, afirmando expressamente que eles “should not exist” (não deveriam existir). O caso é mais um exemplo de underenforcement em discursos de ódio claros (consulte, por exemplo, as decisões Comentário direcionado a pessoas com síndrome de Down, Declarações direcionadas aos indígenas australianos, Post em polonês contra pessoas trans), que evidenciam deficiências preocupantes na aplicação das políticas da Meta contra condutas de ódio em suas plataformas.
O Conselho de Direitos Humanos das Nações Unidas há muito reconhece que os romani “enfrentam, há mais de cinco séculos, discriminação generalizada e persistente, rejeição, exclusão social e marginalização em todo o mundo, em particular na Europa, em todas as áreas da vida”. O Conselho também reconheceu “a existência do anticiganismo [“cigano” é um termo usado para se referir aos romanis e considerado por alguns como pejorativo] como uma forma específica de racismo e intolerância, que leva a atos hostis que vão desde a exclusão até a violência contra o povo romani”. Da mesma forma, segundo um estudo abrangente desenvolvido pelo Relator Especial das Nações Unidas sobre questões das minorias, o povo romani enfrenta riscos de violência, ameaças à identidade coletiva, desafios nas condições de vida e obstáculos à participação social efetiva. Mais recentemente, uma resolução do Parlamento Europeu, assim como uma pesquisa realizada em 10 países europeus pela Agência dos Direitos Fundamentais da União Europeia, destacam a discriminação, a violência e as dificuldades enfrentadas pelo povo romani em áreas como habitação, educação, saúde e emprego.
O Comitê tem reiteradamente expressado suas preocupações sobre a underenforcement do conteúdo direcionado a grupos que historicamente foram e continuam sendo discriminados. Na decisão Declarações direcionadas aos indígenas australianos, o Comitê destacou o erro da Meta ao não remover o conteúdo que pedia a exclusão desse grupo. Na decisão Alegação de crimes em Raya Kobo, o Comitê recomendou que a Meta “deveria reescrever [seu] valor de “Segurança” para refletir que o discurso online pode representar risco para a segurança física das pessoas e o direito à vida, além dos riscos de intimidação, exclusão e silenciamento” (recomendação n.º 1). A implementação dessa recomendação foi demonstrada por meio de informações publicadas.
O Comitê também emitiu recomendações com o objetivo de melhorar a aplicação das políticas da Meta para reduzir os erros. Por exemplo, o Comitê recomendou que a Meta deveria “compartilhar [com o público] os resultados das auditorias internas que conduz para avaliar a precisão da análise humana e o desempenho de sistemas automatizados na aplicação de sua Política sobre Conduta de Ódio [anteriormente conhecida como Discurso de Ódio] […] de uma forma que permita que essas avaliações sejam comparadas entre idiomas e/ou regiões” (Alegações criminais com base em nacionalidade, recomendação n.º 2). Em sua resposta inicial ao Comitê, a Meta informou que implementará parcialmente essa recomendação. A empresa declarou que, embora “continue a compartilhar dados sobre a quantidade de conteúdo de discurso de ódio abordado por [seus] mecanismos de detecção e monitoramento no Relatório de Aplicação de Padrões da Comunidade (CSER, na sigla em inglês)”, os dados sobre a precisão do seu monitoramento em escala global serão compartilhados confidencialmente com o Comitê. Essa recomendação foi emitida em setembro de 2024. A implementação está em andamento, e os dados ainda não foram compartilhados com o Comitê.
O Comitê insta a Meta a melhorar significativamente suas taxas de precisão na detecção e na remoção de conteúdo que viole claramente seu Padrão da Comunidade sobre Conduta de Ódio em todos os idiomas e/ou regiões. O Comitê já havia destacado na decisão Posts exibindo a bandeira da África do Sul da época do Apartheid que “em 2018, a Meta citou a falha ao remover discurso de ódio do Facebook em situações de crise, como em Mianmar, como motivação para aumentar a dependência do monitoramento automatizado”. Na mesma decisão, o Comitê explicou que “em muitas regiões do mundo, os usuários são menos propensos a interagir com as ferramentas da Meta de denúncia no app por uma variedade de motivos, tornando as denúncias de usuários um sinal não confiável de onde os piores danos podem estar ocorrendo”. Ainda nesta decisão, o Comitê concluiu que é “crucial que a Meta considere integralmente como os efeitos de quaisquer mudanças à detecção automatizada de conteúdo potencialmente violador, tanto para underenforcement quanto para overenforcement, podem ter efeitos desiguais globalmente, em especial nos países passando por crises, guerras e crimes de atrocidade recentes ou em curso”.
O Comitê acredita que a implementação integral da recomendação n.º 2 da decisão sobre alegações criminais com base em nacionalidade mencionada acima fortaleceria ainda mais a capacidade da empresa de reduzir a underenforcement de conteúdos prejudiciais que afetam grupos vulneráveis. Isso permitiria à Meta comparar dados de precisão entre idiomas e/ou regiões, alocando recursos para melhorar as taxas de precisão onde for necessário. Além disso, a divulgação pública da precisão das análises realizadas sob a Política sobre Conduta de Ódio aumentaria a transparência e geraria engajamento com a Meta, o que pode levar a melhorias adicionais.
Decisão
O Comitê revoga a decisão original da Meta de manter o conteúdo ativo. Além disso, após levar o caso ao conhecimento da empresa, reconhece que ela corrigiu o erro inicial.
Voltar para Decisões de Casos e Pareceres Consultivos sobre Políticas