Anulado

Report on Violent Attack in Sri Lanka

A user appealed Meta’s decision to remove a Facebook post consisting of a link to a news article about a gunman firing at a church in Sri Lanka.

Tipo de decisão

Resumo

Políticas e tópicos

विषय
Eventos de notícias, Proteção, Violência
Padrão da comunidade
Conteúdo violento e explícito

Regiões/países

Localização
Sri Lanka

Plataforma

Plataforma
Facebook

As decisões sumárias examinam casos em que a Meta reverteu a decisão original dela sobre um conteúdo depois que o Comitê o levou à atenção da empresa e incluem informações sobre os erros reconhecidos por ela. Elas são aprovadas por um painel de membros do Comitê, e não por ele inteiro, não envolvem comentários públicos e não têm valor precedente para o Comitê. As decisões sumárias geram mudanças diretas nas decisões da Meta, proporcionando transparência nessas correções e identificando em que área a empresa poderia melhorar sua aplicação.

Resumo

Um usuário abriu um recurso contra a decisão da Meta de remover um post do Facebook contendo um link para um artigo de notícia sobre um atirador que abriu fogo em uma igreja no Sri Lanka. Depois que o Comitê levou a apelação à atenção da Meta, a empresa reverteu a decisão original e restaurou o post.

Sobre o caso

Em abril de 2025, um usuário do Facebook postou um link para um artigo de notícia em inglês sobre um atirador que abriu fogo em uma igreja no Sri Lanka. O artigo foi compartilhado em um grupo autodescrito como dedicado a “notícias e discussões” sobre conflitos e construção da paz. O link gerou automaticamente um título pop-up e uma legenda que incluíam uma descrição sobre o país estar em alerta máximo seis anos após os atentados a bomba em um domingo de Páscoa terem matado centenas de pessoas. Ele também destacava uma imagem das consequências de um bombardeio em abril de 2019 na Igreja St. Sebastian, na cidade de Negombo.

Inicialmente, a Meta removeu o conteúdo com base em seu Padrões da Comunidade sobre Conteúdo Violento e Explícito. Posteriormente, a empresa esclareceu que a política relevante para a remoção de conteúdo nesse caso são os Padrões da Comunidade sobre Violência e Incitação. Sob esta política, a empresa remove “ameaças de violência contra vários alvos”, definidas como “declarações ou imagens que representam uma intenção, aspiração ou incitação à violência contra um alvo”. Contudo, a Meta permite ameaças “quando compartilhadas em um contexto de conscientização ou condenação”.

Em seu recurso ao Comitê, o usuário observou que o grupo no qual o artigo foi publicado foi criado para que as pessoas saibam sobre escaladas e desescaladas de conflitos em todo o mundo, para ajudar na construção e resolução da paz.

Depois que o Comitê levou esse caso à atenção da Meta, a empresa determinou que o conteúdo seguia não deveria ter sido removido. A Meta destacou que a política de Violência e Incitação permite o compartilhamento de conteúdo para gerar conscientização sobre uma ameaça de violência por terceiros. Nesse caso, a empresa considerou que o post estava gerando conscientização, uma vez que o conteúdo era um link para uma reportagem de notícia sobre um atirador que abriu fogo em um local de adoração no Sri Lanka. A Meta também explicou que o link da notícia foi compartilhado em uma Página do Facebook um dia após o evento ter ocorrido, o que sugere que a intenção era informar outras pessoas sobre o evento. A empresa então restaurou o conteúdo no Facebook.

Autoridade e escopo do Comitê

O Comitê tem autoridade para analisar a decisão da Meta após uma apelação do usuário cujo conteúdo foi removido (Artigo 2, Seção 1 do Estatuto; e Artigo 3, Seção 1 dos Regulamentos Internos).

Quando a Meta reconhece que cometeu um erro e reverte a decisão em um caso sob consideração para análise do Comitê, ele pode selecionar esse caso para uma decisão sumária (Artigo 2, Seção 2.1.3 dos Regulamentos Internos). O Comitê analisa a decisão original para aumentar a compreensão do processo de moderação de conteúdo, reduzir erros e aumentar a justiça para os usuários do Facebook, do Instagram e do Threads.

Significância do caso

Esse caso destaca a overenforcement dos Padrões da Comunidade sobre Violência e Incitação. Os sistemas de moderação do conteúdo da empresa falharam em reconhecer o contexto de geração de conscientização, afetando diretamente a capacidade do usuário de compartilhar informações sobre ataques contra locais de adoração no Sri Lanka. O Comitê observa que a descrição do grupo em que o usuário postou o artigo destaca que se trata de um fórum para notícias e discussões que envolvam a resolução pacífica de conflitos. A falha de sistema também afetou a capacidade de outros usuários acessarem essa informação.

Anteriormente, o Comitê emitiu recomendações relevantes com o objetivo de aumentar a precisão da aplicação, do rastreamento e da transparência quanto a exceções à política de Violência e Incitação da Meta. Primeiramente, o Comitê recomendou que a Meta, “fornecesse ao Comitê os dados usados para avaliar a precisão da aplicação da política” para “informar futuras avaliações e recomendações para a política de Violência e Incitação” (Publicações nos Estados Unidos que discutem o aborto, recomendação nº 1). A implementação dessa recomendação está em andamento. Em seu relatório do 2º semestre de 2024, a Meta declarou, “Estamos no processo de compilar uma visão geral dos dados de aplicação dos Padrões da Comunidade para compartilhar a confidencialidade com o Comitê. Esse documento delineará pontos de dados que avaliam a precisão da nossa aplicação em várias políticas, incluindo a política de Violência e Incitação”.

O Comitê também recomendou que a Meta “adicionasse à linguagem voltada ao público do seu Padrão da Comunidade sobre Violência e Incitação que a empresa interpreta a política de forma a permitir conteúdo contendo declarações com ‘referência neutra a um resultado potencial de uma ação ou um aviso de advertência’ e conteúdo que ‘condena ou conscientiza sobre ameaças violentas’” (Poema russo, recomendação n.º 1). A implementação parcial da recomendação foi demonstrada por meio de informações publicadas. A Meta atualizou sua política de Violência e Incitação (consulte Relatório do 4º trimestre de 2023 da Meta) para incluir: “Não proibimos ameaças quando compartilhadas em contextos de conscientização ou condenação, quando ameaças menos graves são feitas no contexto de esportes de contato ou quando ameaças são dirigidas contra determinados agentes violentos, como grupos terroristas”. Porém, a Meta observou, em seu Relatório do 3º trimestre de 2023 que a empresa decidiu não adicionar uma informação específica sobre “referências neutras a um desfecho potencial de uma ação ou um aviso de advertência, quando o autor do posto não está fazendo uma ameaça violenta”, pois isso “geralmente está abrangido pelo fundamento da política e pela definição e enquadramento de uma ameaça”.

Além disso, o Comitê recomendou que “para informar melhor os usuários sobre quando poderiam ser concedidas exceções à política, a Meta deveria criar uma nova seção dentro de cada Padrão da Comunidade, detalhando quais exceções e permissões se aplicam. Quando a Meta tiver uma justificativa específica para não permitir certas exceções que se aplicam a outras políticas (como reportagens ou conscientização), ela deverá incluir a justificativa nessa seção do Padrão da Comunidade” (Documentário sobre abuso infantil no Paquistão, recomendação nº 1). A implementação dessa recomendação está em andamento. Em sua resposta inicial ao Comitê, em 2024, a Meta afirmou que a empresa iria “considerar atualizações sobre [seus] Padrões da Comunidade para deixar mais claras as permissões relevantes que podem ser aplicadas a seções específicas da política e as justificativas para sua aplicação ou não”. A Meta também explicou que “com base no escopo amplo e complexo” da recomendação, a implementação seria demorada.

O repetido overenforcement da política de Violência e Incitação da Meta prejudica a capacidade dos usuários de compartilhar notícias e informações sobre ataques violentos. O Comitê acredita que a implementação total da recomendação nº 1 do caso de Publicações nos Estados Unidos que discutem o aborto melhoraria ainda mais a capacidade da Meta de identificar e lidar com deficiências na precisão da aplicação, reduzindo, assim, a quantidade de erros de aplicação. Além disso, a implementação total das recomendações sobre transparência em relação às excepções à política de Violência e Incitação preveniria — e reverteria — remoções erradas, aumentando a conscientização dos usuários e dos revisores de conteúdo sobre exceções a políticas.

Decisão

O Comitê revoga a decisão original da Meta de remover o conteúdo. O Comitê reconhece que a Meta corrigiu seu erro inicial assim que o Comitê levou o caso ao conhecimento da empresa.

Voltar para Decisões de Casos e Pareceres Consultivos sobre Políticas