Anulado

Filmagens de massacres na Síria

Um usuário apelou da decisão da Meta de remover um post no Facebook de um vídeo contendo filmagens explícitas da violência na Síria.

Tipo de decisão

Resumo

Políticas e tópicos

विषय
Eventos de notícias, Guerra e conflitos, Violência
Padrão da comunidade
Conteúdo violento e explícito

Regiões/países

Localização
Síria

Plataforma

Plataforma
Facebook

As decisões sumárias examinam casos em que a Meta reverteu a decisão original dela sobre um conteúdo depois que o Comitê o levou à atenção da empresa e incluem informações sobre os erros reconhecidos por ela. Elas são aprovadas por um painel de membros do Comitê, e não por ele inteiro, não envolvem comentários públicos e não têm valor precedente para o Comitê. As decisões sumárias geram mudanças diretas nas decisões da Meta, proporcionando transparência nessas correções e identificando em que área a empresa poderia melhorar sua aplicação.

Resumo

Um usuário apelou da decisão da Meta de remover um post no Facebook de um vídeo contendo filmagens explícitas da violência na Síria. Depois que o Comitê levou a apelação à atenção da Meta, a empresa reverteu a decisão original e restaurou o post com uma tela de aviso.

Sobre o caso

Em dezembro de 2024, um usuário postou um vídeo no Facebook com cenas violentas, incluindo espancamentos, esfaqueamentos, pessoas sendo incendiadas e vítimas feridas ou mortas, incluindo crianças. A legenda em árabe acima do vídeo descreve que o conteúdo mostra cenas de massacres cometidos pelos “criminals of the Party of Satan in Syria” (criminosos do partido de Satã na Síria) e afirma que o povo não esqueceu e não esquecerá os crimes que foram cometidos. Veículos de imprensa reconhecidos indicam que “partido de Satã” é provavelmente uma referência ao Hezbollah.

De acordo com os Padrões da Comunidade sobre Conteúdo Violento e Explícito, a Meta remove “o conteúdo mais explícito e adiciona rótulos de aviso a outros conteúdos explícitos, de forma que, antes de acessá-los, as pessoas saibam que podem ser sensíveis ou perturbadores”. Portanto, não são permitidos “vídeos de pessoas, vivas ou mortas, em contextos não médicos” retratando “desmembramento”, “vísceras visíveis”, “pessoas queimadas ou carbonizadas” ou “gargantas cortadas”. A Meta também observa que, para “Imagens (vídeos e imagens estáticas) retratando a morte violenta de uma pessoa (incluindo o momento da morte ou após) ou uma pessoa em um evento com risco de morte”, a empresa aplica uma tela de aviso para que as pessoas estejam cientes de que o conteúdo pode ser perturbador. Nesses casos, a empresa também impede que menores de 18 anos vejam o conteúdo. Além disso, quando fornecido com contexto adicional, a Meta pode permitir conteúdo explícito “a fim de expor ou condenar atos como abusos de direitos humanos ou conflitos armados”, “dando espaço para discussão e conscientização”.

Depois que o Comitê levou esse caso à atenção da Meta, a empresa determinou que o conteúdo não deveria ter sido removido de acordo com a Política sobre Conteúdo Violento e Explícito. A empresa, então, restaurou o conteúdo no Facebook com uma tela de aviso.

Autoridade e escopo do Comitê

O Comitê tem autoridade para analisar a decisão da Meta após uma apelação do usuário cujo conteúdo foi removido (Artigo 2, Seção 1 do Estatuto; e Artigo 3, Seção 1 dos Regulamentos Internos).

Quando a Meta reconhece que cometeu um erro e reverte a decisão em um caso sob consideração para análise do Comitê, ele pode selecionar esse caso para uma decisão sumária (Artigo 2, Seção 2.1.3 dos Regulamentos Internos). O Comitê analisa a decisão original para aumentar a compreensão do processo de moderação de conteúdo, reduzir erros e aumentar a justiça para os usuários do Facebook, do Instagram e do Threads.

Significância do caso

Esse caso evidencia problemas contínuos na capacidade da Meta de moderar conteúdo que aumenta a conscientização e documenta graves violações dos direitos humanos. Embora a Política sobre Conteúdo Violento e Explícito da Meta reconheça que os usuários podem compartilhar conteúdo para expor ou condenar atos como “abusos de direitos humanos ou conflitos armados”, a empresa continua removendo de suas plataformas conteúdos com esse propósito.

O Comitê emitiu recomendações para orientar a Meta em suas práticas de aplicação relacionadas a conteúdo explícito ou violento compartilhado com o objetivo de condenar abusos ou aumentar a conscientização, visando garantir que essas permissões sejam aplicadas em larga escala e não se restrinjam a circunstâncias excepcionais. Por exemplo, na decisão do caso Vídeo explícito do Sudão, o Comitê recomendou que “a Meta altere os Padrões da Comunidade sobre Conteúdo Violento e Explícito de forma que permita o compartilhamento de vídeos que mostrem pessoas ou cadáveres com o objetivo de conscientizar ou registrar violações de direitos humanos. O conteúdo deve ser permitido com uma tela de aviso que informa às pessoas que o conteúdo pode ser perturbador”. (Vídeo explícito do Sudão, recomendação nº 1). A recomendação foi recusada após uma avaliação de viabilidade. A Meta relatou a elaboração de políticas sobre o tema e, por fim, decidiu manter o status quo para “remover conteúdo por padrão, mas permitir conteúdo com um rótulo de aviso quando houver contexto adicional” (Atualização trimestral da Meta sobre o Comitê de Supervisão, 4º trimestre de 2023 ).

Além disso, o Comitê recomendou anteriormente que “a Meta adicionasse à versão pública dos Padrões da Comunidade sobre Conteúdo Violento e Explícito detalhes das suas diretrizes internas sobre como a empresa determina se uma imagem mostra a morte violenta de uma pessoa ou pessoas por acidente ou assassinato”. (Poema russo, recomendação nº 2). A Meta demonstrou a implementação parcial dessa recomendação por meio de informações publicadas. A empresa atualizou a linguagem dos seus Padrões da Comunidade sobre Conteúdo Violento e Explícito, incluindo uma explicação entre parênteses para esclarecer o que entende por “morte violenta”. O texto agora diz: “Imagens (vídeos e imagens estáticas) retratando a morte violenta de uma pessoa (incluindo o momento da morte ou após)”. No entanto, a definição estendida da Meta não explicou suficientemente como a empresa determina se uma imagem “mostra a morte violenta de uma pessoa ou pessoas por acidente ou assassinato”.

Além disso, o Comitê recomendou que a Meta “melhore seus relatórios de transparência para aumentar as informações públicas sobre as taxas de erro, tornando essas informações visíveis por país e idioma para cada Padrão da Comunidade” (Preocupação de Punjab com a RSS na Índia, recomendação nº 3). O Comitê ressaltou, nessa recomendação, que “os relatórios de transparência mais detalhados ajudarão o público a identificar áreas em que os erros são mais comuns, incluindo possíveis impactos específicos sobre grupos minoritários”. A implementação dessa recomendação está em andamento. Em sua última atualização sobre essa recomendação, a Meta explicou que está “em processo de compilação de uma visão geral dos dados de aplicação para compartilhar confidencialmente com o Comitê”. O documento irá delinear os pontos de dados que indicam a precisão da aplicação em diferentes políticas. A Meta declarou que “continua empenhada em compilar uma visão geral que atenda ao apelo geral do Comitê para aumentar a transparência na precisão da aplicação das políticas” (Relatório bianual da Meta sobre o Comitê de Supervisão, 2º semestre de 2024 - Apêndice”).

O Comitê enfatiza a importância de a Meta continuar aprimorando sua capacidade de detectar com precisão conteúdos que visam aumentar a conscientização ou condenar abusos dos direitos humanos, e de manter esse conteúdo na plataforma com uma tela de aviso, conforme a Política sobre Conteúdo Violento e Gráfico da empresa.

Decisão

O Comitê revoga a decisão original da Meta de remover o conteúdo. Além disso, após levar o caso ao conhecimento da empresa, reconhece que ela corrigiu o erro inicial.

Voltar para Decisões de Casos e Pareceres Consultivos sobre Políticas