Decisão de múltiplos casos

Relatos de israelenses vítimas de estupro

Um usuário apelou das decisões da Meta de remover duas publicações do Facebook que descrevem a violência sexual cometida por militantes do Hamas durante os ataques terroristas de 7 de outubro de 2023 contra Israel. Após o Comitê levar as apelações à atenção da Meta, a empresa reverteu suas decisões originais e restaurou as publicações.

2 casos incluídos neste pacote

Anulado

FB-YCJP0Q9D

Caso sobre organizações e indivíduos perigosos no Facebook

Plataforma
Facebook
विषय
Igualdade de gênero e sexo,Violência,Guerra e conflitos
Padrão
Indivíduos e organizações perigosos
Localização
Israel,Territórios Palestinos
Date
Publicado em 4 de Abril de 2024
Anulado

FB-JCO2RJI1

Caso sobre organizações e indivíduos perigosos no Facebook

Plataforma
Facebook
विषय
Igualdade de gênero e sexo,Violência,Guerra e conflitos
Padrão
Indivíduos e organizações perigosos
Localização
Israel,Estados Unidos,Territórios Palestinos
Date
Publicado em 4 de Abril de 2024

Esta é uma decisão sumária. As decisões sumárias examinam casos em que a Meta reverteu a decisão original dela sobre um conteúdo depois que o Comitê o levou à atenção da empresa e incluem informações sobre os erros reconhecidos por ela. Elas são aprovadas por um painel de membros do Comitê, e não por ele inteiro, não envolvem comentários públicos e não têm valor precedente para o Comitê. As decisões sumárias geram mudanças diretas nas decisões da Meta, proporcionando transparência nessas correções e identificando em que área a empresa poderia melhorar sua aplicação.

Resumo do caso

Um usuário apelou das decisões da Meta de remover duas publicações do Facebook que descrevem a violência sexual cometida por militantes do Hamas durante os ataques terroristas de 7 de outubro de 2023 contra Israel. Após o Comitê levar as apelações à atenção da Meta, a empresa reverteu suas decisões originais e restaurou as publicações.

Descrição do caso e histórico

Em outubro de 2023, um usuário do Facebook carregou duas publicações separadas, uma após a outra, contendo conteúdo idêntico que apresentava um vídeo de uma mulher descrevendo o estupro de mulheres israelitas cometido pelo Hamas durante os ataques terroristas de 7 de outubro. A legenda contém um “aviso de gatilho”, e o locutor do vídeo alerta os usuários sobre o conteúdo explícito. O vídeo continua mostrando imagens de duas mulheres diferentes sendo sequestradas pelo Hamas, com um clipe envolvendo uma mulher gravemente ferida deitada de bruços em um caminhão e, no outro, uma mulher ferida sendo arrastada da traseira de um veículo. Essas imagens foram amplamente compartilhadas após o ataque. A primeira publicação foi compartilhada cerca de 4 mil vezes, e a segunda teve menos de 50 compartilhamentos.

Ambas as publicações foram inicialmente removidas pela Meta por não seguir o Padrão da Comunidade sobre Organizações e Indivíduos Perigosos. De acordo com essa política, a empresa proíbe imagens de terceiros que retratem o momento de um ataque terrorista designado contra vítimas identificáveis em quaisquer circunstâncias, mesmo que sejam compartilhadas para condenar ou conscientizar sobre o ataque. Além disso, de acordo com o Padrão da Comunidade sobre Violência e Incitação da Meta, a empresa remove “conteúdo que retrata sequestros ou raptos se estiver claro que o conteúdo não está sendo compartilhado por uma vítima ou sua família como um pedido de ajuda, ou compartilhado para fins informativos, de condenação ou de conscientização”.

No início do ataque do Hamas, em 7 de outubro, a Meta começou a aplicar rigorosamente sua Política sobre Organizações e Indivíduos Perigosos em vídeos que mostravam momentos de ataques individuais a vítimas visíveis. A Meta explicou essa abordagem em sua publicação no Newsroom de 13 de outubro, dizendo que o fez “para priorizar a segurança das pessoas sequestradas pelo Hamas”. Os dois conteúdos nesses dois casos foram, portanto, removidos por não seguir a Política sobre Organizações e Indivíduos Perigosos da Meta.

Após essa decisão, muitos meios de comunicação começaram a transmitir imagens relacionadas, e os usuários também começaram a publicar conteúdos semelhantes para conscientizar sobre os ataques e condená-los. Como resultado, por volta de 20 de outubro, a Meta atualizou suas políticas para permitir que os usuários compartilhassem essas imagens apenas no contexto de conscientização ou para condenar as atrocidades e aplicou uma tela de aviso para informar aos usuários que as imagens podem ser perturbadoras. A Meta publicou essa mudança em sua política em uma atualização de 5 de dezembro de sua publicação original no Newsroom de 13 de outubro (veja Reféns sequestrados de Israel para obter informações adicionais e histórico).

A Meta inicialmente removeu ambos os conteúdos do Facebook nesses dois casos. O usuário apelou das decisões da empresa ao Comitê. Depois que o Comitê levou esses casos à atenção da Meta, a empresa determinou que as publicações não violavam mais suas políticas, dada a permissão atualizada, e restaurou ambas.

Autoridade e escopo do Comitê

O Comitê tem autoridade para analisar as decisões da Meta após apelações da pessoa cujo conteúdo foi removido (Artigo 2, Seção 1 do Estatuto; e Seção 1 do Artigo 3 dos Regulamentos Internos).

Quando a Meta reconhece que cometeu um erro e reverte a decisão em um caso sob consideração para análise do Comitê, ele pode selecionar esse caso para uma decisão sumária (Artigo 2, Seção 2.1.3 dos Regulamentos Internos). O Comitê analisa a decisão original para aumentar a compreensão do processo de moderação de conteúdo, reduzir erros e aumentar a justiça para os usuários do Facebook e do Instagram.

Significância do caso

Esses dois casos destacam os desafios na capacidade da Meta de monitorar conteúdo em uma situação de conflito de alto risco que está em constante e rápida evolução. Tal como o Comitê concluiu na sua decisão célere, no caso Reféns sequestrados de Israel, a política inicial da Meta de proibir conteúdo que retratasse reféns protegia a dignidade deles e visava garantir que não fossem expostos à curiosidade pública. No entanto, ele também concluiu que, em circunstâncias excepcionais, quando um grande interesse público ou o interesse vital dos reféns assim o exigir, exceções temporárias e limitadas podem ser justificadas. Dado o contexto, restaurar esse tipo de conteúdo na plataforma com uma tela de aviso “marcar como perturbador” é consistente com as políticas de conteúdo, os valores e as responsabilidades de direitos humanos da Meta. Isso também seria consistente com o direito humanitário internacional e com a prática de preservar a documentação de alegadas violações para responsabilização futura, inclusive para conscientizar o público. Nesse caso, o Comitê também observou que a Meta demorou muito para implementar a aplicação dessa exceção a todos os usuários e que a abordagem em rápida mudança da empresa na moderação de conteúdos durante o conflito foi acompanhada por uma contínua falta de transparência.

Anteriormente, o Comitê emitiu recomendações relevantes para esse caso. O Comitê recomendou que a Meta anunciasse exceções aos seus Padrões da Comunidade, observando “sua duração e aviso de expiração, a fim de fornecer às pessoas que usam suas plataformas um aviso sobre mudanças nas políticas que permitem determinada expressão” ( Slogan de protesto no Irã , recomendação n.º 5). A Meta implementou parcialmente essa recomendação, conforme demonstrado por meio de informações publicadas. O Comitê também recomendou anteriormente que a empresa preservasse evidências de possíveis crimes de guerra, crimes contra a humanidade e graves violações dos direitos humanos no interesse de responsabilização futura ( Vídeo explícito do Sudão, recomendação n.º 1 e Vídeo de prisioneiros de guerra armênios, recomendação nº 1). A Meta concordou em implementar essa recomendação, e o processo ainda está em andamento. O Comitê enfatiza a necessidade de a empresa agir de acordo com essas recomendações para garantir que o conteúdo relativo aos direitos humanos seja aplicado com precisão nas suas plataformas.

Decisão

O Comitê revoga as decisões originais da Meta de remover os dois itens de conteúdo. Além disso, após levar os dois casos ao conhecimento dela, reconhece que ela corrigiu os erros iniciais.

Voltar para Decisões de Casos e Pareceres Consultivos sobre Políticas