Anulado
Termo ressignificado em performance drag
23 de Abril de 2025
Um usuário apelou da decisão da Meta de remover um post do Instagram que apresentava uma performance drag e uma legenda que incluía uma palavra, designada pela Meta como calúnia, sendo usada em um contexto ressignificado que é positivo e autorreferencial.
As decisões sumárias examinam casos em que a Meta reverteu a decisão original dela sobre um conteúdo depois que o Comitê o levou à atenção da empresa e incluem informações sobre os erros reconhecidos por ela. Elas são aprovadas por um painel de membros do Comitê, e não por ele inteiro, não envolvem comentários públicos e não têm valor precedente para o Comitê. As decisões sumárias geram mudanças diretas nas decisões da Meta, proporcionando transparência nessas correções e identificando em que área a empresa poderia melhorar seu monitoramento.
Resumo
Um usuário apelou da decisão da Meta de remover um post do Instagram que apresentava uma performance drag e uma legenda que incluía uma palavra, designada pela Meta como calúnia, sendo usada em um contexto ressignificado que é positivo e autorreferencial. Depois que o Comitê levou a apelação à atenção da Meta, a empresa reverteu a decisão original e restaurou o post.
Sobre o caso
Em maio de 2024, um usuário postou um vídeo em que aparecia usando uma roupa vermelha brilhante durante uma apresentação de drag. A legenda mencionava outros usuários do Instagram, agradecendo-os pelo apoio e pela participação, além de reconhecer o trabalho de um usuário responsável pela produção de som do show. No post, ao usuário se refere a si como um “faggy martyr” (mártir bichinha).
O usuário que postou o vídeo apelou da decisão da Meta de remover esse post, explicando ao Comitê que é uma drag queer e trans e que está falando sobre si na legenda do vídeo. Além disso, enfatizou que incluiu a palavra “faggy” (um diminutivo da calúnia “fag”, posteriormente “f***y”ou “f-slur”) na descrição do post porque é um “reclaimed colloquial term that the queer community uses all the time” (termo coloquial ressignificado que a comunidade queer usa o tempo todo) e que considera esse termo um autodescritivo positivo do qual se orgulha. Para concluir, o usuário enfatizou ainda que manter o post era importante para ajudar a agendar novos shows.
De acordo com o Padrão da Comunidade sobre Conduta de Ódio, a Meta remove calúnias “definidas como palavras que criam, de modo inerente, uma atmosfera de exclusão e intimidação contra pessoas com base em uma característica protegida” na maioria dos contextos, “porque essas palavras estão associadas à discriminação, opressão e violência históricas”. Apesar de a Meta ter anunciado alterações, em 7 de janeiro de 2025, ao texto da sua Política sobre Discurso de Ódio, agora chamada de Política sobre Conduta de Ódio, e sua aplicação, a calúnia “f-slur” (calúnia iniciada com “b”) permanece na lista da Meta.
A empresa permite o uso de calúnias quando elas são empregadas de forma autorreferencial e em um contexto explicitamente positivo. Essas exceções permanecem em vigor após a atualização da política pela Meta em 7 de janeiro. Nesse caso, o usuário postou um vídeo em que estava se apresentando, elogiando seu desempenho e referindo-se a si como “f***y” (b******a). Embora “f***y” (b******a) seja considerada uma calúnia, nesse contexto demonstrava um uso “autorreferencial ou empoderado”.
Depois que o Comitê levou esse caso à atenção da Meta, a empresa determinou que o conteúdo não violava a Política sobre Conduta de Ódio e que sua decisão original de remover o conteúdo estava incorreta porque, no post, “f-slur” (calúnia iniciada com “b”) foi usada tanto de forma autorreferencial quanto em um contexto explicitamente positivo. A empresa então restaurou o conteúdo no Instagram.
Autoridade e escopo do Comitê
O Comitê tem autoridade para analisar a decisão da Meta após uma apelação do usuário cujo conteúdo foi removido (Artigo 2, Seção 1 do Estatuto; e Artigo 3, Seção 1 dos Regulamentos Internos).
Quando a Meta reconhece que cometeu um erro e reverte a decisão em um caso sob consideração para análise do Comitê, ele pode selecionar esse caso para uma decisão sumária (Artigo 2, Seção 2.1.3 dos Regulamentos Internos). O Comitê analisa a decisão original para aumentar a compreensão do processo de moderação de conteúdo, reduzir erros e aumentar a justiça para os usuários do Facebook, do Instagram e do Threads.
Significância do caso
Esse caso evidencia problemas contínuos na capacidade da Meta de aplicar exceções à sua Política sobre Conduta de Ódio (anteriormente, Discurso de Ódio) em relação ao uso de calúnias em discursos autorreferenciais e/ou de empoderamento. Essa decisão sumária salienta o impacto de remoções incorretas na visibilidade e nos meios de subsistência de artistas queer, conforme o usuário que fez a apelação à Meta indicou. A persistência de erros na moderação de discursos reapropriados por comunidades queer e o impacto negativo resultante dessas remoções equivocadas são problemas sérios, amplamente documentados por pesquisadores durante muitos anos.
No caso Reapropriando palavras árabes, o Comitê concluiu que a Meta também aplicou excessivamente (over-enforcement) suas políticas sobre discurso de ódio contra o uso autorreferencial de calúnias, impactando os usuários da comunidade LGBTQIA+ falantes da língua árabe. Nesse caso, três moderadores determinaram incorretamente que o conteúdo violava a Política sobre Discurso de Ódio (como era chamada na época), levantando preocupações de que a orientação de monitoramento aos analistas era insuficiente. O Comitê também destacou que espera que a Meta seja “particularmente sensível à possibilidade de remoção indevida” desse tipo de conteúdo “dada a importância de ressignificar termos depreciativos para pessoas LGBTQIA+ no combate à discriminação”.
O Comitê emitiu recomendações destinadas a reduzir o número de erros de monitoramento que a Meta comete quando aplica exceções aos seus Padrões da Comunidade. Por exemplo, o Comitê recomendou que a Meta deveria “realizar avaliações de precisão com foco em permissões da Política sobre Discurso de Ódio que abrangem expressão artística e expressão sobre violações de direitos humanos (por exemplo, condenação, conscientização, uso autorreferencial ou uso empoderador)” (Cinto Wampum, recomendação n.º 3). A empresa realizou uma avaliação de precisão e forneceu ao Comitê métricas de precisão de aplicação para a Política sobre Discurso de Ódio (agora Política sobre Conduta de Ódio). O Comitê categoriza a recomendação como implementada, conforme demonstrado pelas informações publicadas. Erros de monitoramento podem ocorrer na moderação de conteúdo em escala. Entretanto, o Comitê recomenda que a Meta continue aprimorando sua habilidade de detectar conteúdo de forma precisa em situações nas quais as aplicações excessivas (over-enforcement) e insuficientes (under-enforcement) representam riscos para grupos vulneráveis.
Em 7 de janeiro, a Meta anunciou que estava comprometida a reduzir os erros de aplicação das suas políticas, particularmente para proteger o discurso. Por meio de suas decisões sumárias, o Comitê destaca os erros de aplicação cometidos pela empresa, frequentemente indicando áreas em que a Meta pode fazer demais melhorias com base em decisões e recomendações anteriores do Comitê.
Decisão
O Comitê revoga a decisão original da Meta de remover o conteúdo. Além disso, após levar o caso ao conhecimento da empresa, reconhece que ela corrigiu o erro inicial.
Voltar para Decisões de Casos e Pareceres Consultivos sobre Políticas