Anulado

Debate bengali sobre religião

Um usuário apelou da decisão da Meta que determinou a remoção de uma publicação no Facebook com um link para um vídeo do YouTube que abordava a relutância dos estudiosos islâmicos em discutir o ateísmo.

Tipo de decisão

Resumo

Políticas e tópicos

विषय
Comunidades marginalizadas, Liberdade de expressão, Religião
Padrão da comunidade
Planejamento de dano e divulgação de crimes

Regiões/países

Localização
Bangladesh, Índia

Plataforma

Plataforma
Facebook

Esta é uma decisão sumária. As decisões sumárias examinam os casos em que a Meta reverteu a decisão original dela sobre um conteúdo depois que o Comitê o levou à atenção da empresa. Essas decisões incluem informações sobre os erros reconhecidos da Meta e são aprovadas por um painel de Membros do Comitê, não pelo Comitê inteiro. Elas não envolvem um processo de comentários públicos e não têm valor precedente para o Comitê. As decisões sumárias dão transparência às correções da Meta e destacam áreas em que a empresa poderia melhorar a aplicação de suas políticas.

Resumo do caso

Um usuário apelou da decisão da Meta que determinou a remoção de uma publicação no Facebook com um link para um vídeo do YouTube que abordava a relutância dos estudiosos islâmicos em discutir o ateísmo. Depois que o Comitê levou a apelação à atenção da Meta, a empresa reverteu a decisão original e restaurou a publicação.

Descrição do caso e histórico

Em maio de 2023, um usuário que se identifica como ateu e crítico da religião publicou no Facebook um link para um vídeo do YouTube. A miniatura do vídeo mostra a pergunta, em bengali: “Why are Islamic scholars afraid to debate the atheists on video blogs?” (Por que os estudiosos islâmicos têm medo de debater com ateus em blogs de vídeo?) e uma imagem de dois estudiosos islâmicos. A legenda da publicação diz: “Join the premiere to get the answer!” (Participe da estreia para ver a resposta!). O conteúdo teve aproximadamente 4 mil visualizações.

Na apelação ao Comitê, o usuário alegou que o objetivo de compartilhar o vídeo era promover um “healthy debate or discussion” (debate ou discussão saudável) com estudiosos islâmicos, especificamente sobre tópicos como a teoria da evolução e a teoria do Big Bang. O usuário afirma que a publicação está de acordo com os Padrões da Comunidade do Facebook, por “promoting open discussion” (promover uma discussão aberta). Além disso, ele enfatizou que os ativistas ateus em Bangladesh sofrem frequentemente censura e danos físicos.

A Meta inicialmente removeu o conteúdo de acordo com a Política sobre Coordenação de Atos Danosos e Incentivo à Prática de Atividades Criminosas, que proíbe conteúdo que “facilite, organize, promova ou admita certas atividades criminosas ou prejudiciais direcionadas a pessoas, empresas, propriedades ou animais”. Ela reconheceu que o conteúdo em questão não viola a política referida, embora as opiniões defendidas pelo ateu possam ser vistas como “provocativas para muitos bangladeshianos”. A Meta não deu mais explicações sobre o motivo de o conteúdo ter sido removido da plataforma. Um ataque direto a pessoas com base em religião pode ser motivo para remoção por discurso de ódio, outra política da Meta. Porém, não há proibição nas políticas da empresa contra a crítica de conceitos ou ideologias religiosas.

Depois que o Comitê trouxe esse caso à atenção da Meta, a empresa determinou que o conteúdo seguia a Política sobre Coordenação de Atos Danosos e Incentivo à Prática de Atividades Criminosas e que a remoção estava incorreta. A empresa então restaurou o conteúdo no Facebook.

Autoridade e escopo do Comitê

O Comitê tem autoridade para analisar a decisão da Meta após uma apelação do usuário cujo conteúdo foi removido (Artigo 2, Seção 1 do Estatuto; e Artigo 3, Seção 1 dos Regulamentos Internos).

Quando a Meta reconhece que cometeu um erro e reverte a decisão em um caso sob consideração para análise do Comitê, ele pode selecionar esse caso para uma decisão sumária (Artigo 2, Seção 2.1.3 dos Regulamentos Internos). O Comitê analisa a decisão original para aumentar a compreensão do processo de moderação de conteúdo envolvido, reduzir erros e aumentar a justiça para os usuários do Facebook e do Instagram.

Significância do caso

Esse caso destaca um erro da Meta na aplicação da Política sobre Coordenação de Atos Danosos e Incentivo à Prática de Atividades Criminosas. Esses tipos de erros de aplicação limitam ainda mais a liberdade de expressão dos membros de grupos que já estão sujeitos a intensa censura por parte de atores estatais.

A Política sobre Coordenação de Atos Danosos e Incentivo à Prática de Atividades Criminosas da Meta estabelece que a empresa permite aos usuários discutir e debater “atividades prejudiciais”, mas somente “desde que não defendam nem coordenem atos danosos”. E muitas cláusulas da política giram em torno da intenção do usuário. Nesse caso, embora a publicação do usuário pudesse ser interpretada como provocativa, em face da animosidade documentada em relação aos ativistas ateus de Bangladesh, o usuário não estava defendendo nem coordenando atos danosos de acordo com a definição da Meta dessas atividades, o que evidencia uma interpretação equivocada da intenção do usuário. Anteriormente, o Comitê havia emitido recomendações para que a empresa esclarecesse aos usuários como eles podem deixar claro que a intenção deles não viola as regras da empresa em distinções semelhantes, como na Política sobre Organizações e Indivíduos Perigosos da empresa. Com relação a essa política, o Comitê solicitou que a Meta “Explique, nos Padrões da Comunidade, como os usuários podem deixar claro para a Meta a intenção deles nas publicações... O Facebook também deve fornecer exemplos ilustrativos da diferença entre conteúdo permitido e proibido” (Decisão sobre o caso Isolamento de Öcalan, recomendação n.º 6). A Meta implementou parcialmente essa recomendação.

Além disso, o Comitê emitiu recomendações destinadas a prevenir, de forma mais ampla, os erros de aplicação das políticas. Ele pediu que a Meta “implemente um procedimento de auditoria interna para analisar continuamente uma amostra estatisticamente representativa de decisões automatizadas de remoção de conteúdo para reverter e aprender com os erros de aplicação” (Decisão sobre o caso Sintomas de câncer de mama e nudez, recomendação n.º 5). A Meta afirmou que já toma essas medidas, mas não publicou informações comprobatórias. Além disso, o Comitê solicitou que a Meta “[a]primore o relatório de transparência para aumentar as informações públicas sobre as taxas de erro tornando-as visíveis por país e idioma para cada Padrão da Comunidade... Relatórios de transparência mais detalhados ajudarão o público a identificar as áreas em que os erros são mais comuns, incluindo possíveis impactos específicos sobre grupos minoritários, e alertar o Facebook para corrigi-los” (Decisão sobre o caso Preocupação de Punjab com a RSS na Índia, recomendação n.º 3). A Meta ainda está avaliando a viabilidade dessa recomendação.

Decisão

O Comitê revoga a decisão original da Meta de remover o conteúdo. Após levar o caso ao conhecimento da empresa, ele reconhece que ela corrigiu o erro inicial. O Comitê também pede à Meta que acelere a implementação das recomendações ainda em aberto para reduzir esses erros.

Voltar para Decisões de Casos e Pareceres Consultivos sobre Políticas