Anulado
Charge mostrando opressão do Talibã contra mulheres
7 de Março de 2024
Um usuário apelou da decisão da Meta de remover uma publicação no Facebook que continha uma charge que ilustrava a opressão das mulheres afegãs sob o regime do Talibã. Esse caso destaca erros na aplicação, por parte da Meta, da Política sobre Organizações e Indivíduos Perigosos.
Esta é uma decisão sumária. As decisões sumárias examinam os casos em que a Meta reverteu a decisão original dela sobre um conteúdo depois que o Comitê o levou à atenção da empresa. Essas decisões incluem informações sobre os erros reconhecidos pela Meta, informam o público sobre o impacto do trabalho do Comitê e são aprovadas por um painel de Membros dele, não por ele inteiro. Elas não consideram comentários públicos e não têm valor precedente para o Comitê. As decisões sumárias dão transparência às correções da Meta e destacam áreas em que a empresa poderia melhorar a aplicação de suas políticas.
Resumo do caso
Um usuário apelou da decisão da Meta de remover uma publicação no Facebook que continha uma charge que ilustrava a opressão das mulheres afegãs sob o regime do Talibã. Esse caso destaca erros na aplicação da Política sobre Organizações e Indivíduos Perigosos da Meta, especificamente no contexto do discurso político feito por meio de sátira. Depois que o Comitê levou a apelação à atenção da Meta, a empresa reverteu a decisão original e restaurou a publicação.
Descrição do caso e histórico
Em agosto de 2023, um usuário do Facebook, um cartunista profissional holandês, publicou uma charge que mostrava três homens do Talibã sentados num triturador de carros com um grupo de mulheres apavoradas embaixo dele. No fundo, há um medidor denominado “oppress-o-meter” (“opressímetro”) conectado a um painel de controle, e mostra um dos homens pressionando um botão, fazendo com que o triturador desça. A legenda que acompanha essa imagem diz: "2 years of Taliban rule. #Afghanistan #Taliban #women #oppression." (2 anos de governo talibã. #Afeganistão #Talibã #mulheres #opressão.) A publicação foi removida por não seguir a Política sobre Organizações e Indivíduos Perigosos da Meta, que proíbe a representação e o discurso específico sobre grupos e pessoas que a empresa julga estarem ligadas a danos significativos no mundo real.
Na sua apelação ao Comitê, o usuário indicou que o conteúdo era uma charge de natureza satírica, comentando a contínua e crescente opressão das mulheres no Afeganistão sob o domínio do Talibã. A Política sobre Organizações e Indivíduos Perigosos da Meta permite conteúdo que reporte, condene ou discuta de forma neutra organizações, indivíduos ou atividades perigosas.
Depois que o Comitê trouxe esse caso à atenção da Meta, a empresa determinou que o conteúdo seguia a Política sobre Organizações e Indivíduos Perigosos e que a remoção da publicação estava incorreta. A empresa então restaurou o conteúdo no Facebook.
Autoridade e escopo do Comitê
O Comitê tem autoridade para analisar a decisão da Meta após uma apelação do usuário cujo conteúdo foi removido (Artigo 2, Seção 1 do Estatuto; e Artigo 3, Seção 1 dos Regulamentos Internos).
Quando a Meta reconhece que cometeu um erro e reverte a decisão em um caso sob consideração para análise do Comitê, ele pode selecionar esse caso para uma decisão sumária (Artigo 2, Seção 2.1.3 dos Regulamentos Internos). O Comitê analisa a decisão original para aumentar a compreensão do processo de moderação de conteúdo, reduzir erros e aumentar a justiça para os usuários do Facebook e do Instagram.
Significância do caso
Esse caso destaca falhas nos procedimentos de monitoramento da Meta, especialmente na detecção e interpretação de imagens associadas a organizações e indivíduos designados. A aplicação excessiva dessa política poderia potencialmente levar, como aconteceu neste caso, à remoção da expressão artística ligada ao discurso político legítimo.
Em 2022, o Comitê também recomendou que “a Meta deveria avaliar a precisão dos analistas [humanos] que aplicam a permissão à notícias conforme a Política sobre Organizações e Indivíduos Perigosos, a fim de identificar problemas sistêmicos que causam erros de aplicação” ( Menção ao Talibã em notícias, recomendação n.º 5). Além disso, na mesma decisão (Menção ao Talibã em notícias, recomendação n.º 6), o Comitê declarou que “a Meta deveria conduzir uma análise do classificador HIPO [sistema de substituição de falsos positivos de alto impacto] para examinar se pode priorizar de forma mais eficaz possíveis erros na aplicação de permissões à Política sobre Organizações e Indivíduos Perigosos.” Para ambas as recomendações, a Meta relatou progresso na implementação.
O Comitê emitiu uma recomendação de que “a Meta deve garantir que tem procedimentos para analisar adequadamente o conteúdo e o contexto satírico e que os moderadores recebam incentivos apropriados para investigar o contexto do conteúdo potencialmente satírico” ( Meme dos dois botões, recomendação n.º 3). A Meta relatou a implementação parcial dessa recomendação.
O Comitê destaca que a implementação completa dessas recomendações poderia reduzir o número de erros na aplicação da Política sobre Organizações e Indivíduos Perigosos da Meta.
Decisão
O Comitê revoga a decisão original da Meta de remover o conteúdo. Além disso, após levar o caso ao conhecimento da empresa, ele reconhece que ela corrigiu o erro inicial.
Voltar para Decisões de Casos e Pareceres Consultivos sobre Políticas