Anulado
Protesto na Síria
27 de Fevereiro de 2024
Um usuário do Instagram apelou da decisão da Meta de remover um vídeo que encorajava os sírios a resistir ao regime de Bashar al-Assad. Depois que o Comitê levou a apelação à atenção da Meta, a empresa reverteu a decisão original e restaurou a publicação.
Esta é uma decisão sumária. As decisões sumárias examinam os casos em que a Meta reverteu a decisão original dela sobre um conteúdo depois que o Comitê o levou à atenção da empresa. Essas decisões incluem informações sobre os erros reconhecidos pela Meta, informam o público sobre o impacto do trabalho do Comitê e são aprovadas por um painel de Membros dele, não por ele inteiro. Elas não consideram comentários públicos e não têm valor precedente para o Comitê. As decisões sumárias dão transparência às correções da Meta e destacam áreas em que a empresa poderia melhorar a aplicação de suas políticas.
Resumo do caso
Um usuário do Instagram apelou da decisão da Meta de remover um vídeo que encorajava os sírios a resistir ao regime de Bashar al-Assad. Depois que o Comitê levou a apelação à atenção da Meta, a empresa reverteu a decisão original e restaurou a publicação.
Descrição do caso e histórico
Em agosto de 2023, um usuário do Instagram publicou um vídeo mostrando Abdul Baset al-Sarout, um jogador de futebol, ativista e símbolo público sírio da oposição ao presidente do país, Bashar al-Assad. Sarout foi morto em 2019. No vídeo, é possível ouvir Sarout dizendo em árabe: "We have one liberated neighborhood in Syria, we are a thorn in this regime, we will return to this neighborhood" (Temos um bairro libertado na Síria, somos um incômodo para este regime, voltaremos a este bairro) e que "the revolution continues," (a revolução continua) para encorajar os sírios a resistirem ao regime de Bashar al-Assad. O vídeo teve cerca de 30 mil visualizações.
A publicação no Instagram foi removida por não seguir a Política sobre Organizações e Indivíduos Perigosos da Meta, que proíbe a representação e o discurso específico sobre grupos e pessoas que a empresa julga estarem ligadas a danos significativos no mundo real.
Em sua apelação ao Comitê, o usuário descreveu sua conta como uma página sem fins lucrativos “dedicated to spreading information and raising awareness” (dedicada à divulgação de informações e à conscientização). Além disso, o usuário argumentou que o conteúdo seguia as diretrizes do Instagram.
Depois que o Comitê levou esse caso à atenção da Meta, a empresa determinou que o conteúdo não continha nenhuma referência a uma organização ou um indivíduo designado e seguia suas políticas. A empresa restaurou o conteúdo na plataforma.
Autoridade e escopo do Comitê
O Comitê tem autoridade para analisar a decisão da Meta após uma apelação do usuário cujo conteúdo foi removido (Artigo 2, Seção 1 do Estatuto; e Artigo 3, Seção 1 dos Regulamentos Internos).
Quando a Meta reconhece que cometeu um erro e reverte a decisão em um caso sob consideração para análise do Comitê, ele pode selecionar esse caso para uma decisão sumária (Artigo 2, Seção 2.1.3 dos Regulamentos Internos). O Comitê analisa a decisão original para aumentar a compreensão do processo de moderação de conteúdo, reduzir erros e aumentar a justiça para os usuários do Facebook e do Instagram.
Significância do caso
Esse caso destaca a remoção incorreta de conteúdo que não continha referências a uma organização ou um indivíduo designado.
A fim de reduzir erros de aplicação em locais com conflitos ou outras circunstâncias sensíveis, o Comitê recomendou que a Meta “melhore a capacidade alocada para análise do HIPO [sistema de substituição de falsos positivos de alto impacto] em vários idiomas a fim de garantir que mais decisões de conteúdo que possam ser erros de aplicação recebam análise humana adicional”, sobre a qual Meta relatou progresso na implementação ( Menção ao Talibã em notícias, recomendação n.º 7). O Comitê também recomendou que a Meta “avalie processos automatizados de moderação para aplicação da Política sobre Organizações e Indivíduos Perigosos” (Isolamento de Öcalan, recomendação n.º 2), que a Meta recusou.
Esse caso destaca a aplicação excessiva da Política sobre Organizações e Indivíduos Perigosos da Meta. Os casos do Comitê sugerem que erros desse tipo são muito frequentes. A empresa deve priorizar a redução desses erros. A adoção total dessas recomendações, juntamente com as informações publicadas para demonstrar a implementação bem-sucedida, poderia reduzir o número de remoções incorretas de acordo com a Política sobre Organizações e Indivíduos Perigosos da Meta.
Decisão
O Comitê revoga a decisão original da Meta de remover o conteúdo. Além disso, após levar o caso ao conhecimento da empresa, reconhece que ela corrigiu o erro inicial.
Voltar para Decisões de Casos e Pareceres Consultivos sobre Políticas