Anulado

Resposta ao antissemitismo

Um usuário recorreu da decisão da Meta de remover uma publicação no Instagram com um vídeo que condenava os comentários do artista musical Ye (o rapper americano conhecido anteriormente como Kanye West) elogiando Hitler e negando o Holocausto. Depois que o Comitê levou a apelação à atenção da Meta, a empresa reverteu a decisão original e restaurou a publicação.

Tipo de decisão

Resumo

Políticas e tópicos

विषय
Liberdade de expressão
Padrão da comunidade
Indivíduos e organizações perigosos

Regiões/países

Localização
Estados Unidos, Turquia

Plataforma

Plataforma
Instagram

Esta é uma decisão sumária.As decisões sumárias examinam os casos em que a Meta reverteu a decisão original dela sobre um conteúdo depois que o Comitê o levou à atenção da empresa. Essas decisões incluem informações sobre os erros reconhecidos da Meta e são aprovadas por um painel de Membros do Comitê, não pelo Comitê completo. Elas não consideram comentários públicos e não têm valor precedente para o Comitê. As decisões sumárias dão transparência às correções da Meta e destacam áreas em que a empresa poderia melhorar a aplicação de suas políticas.

Resumo do caso

Um usuário recorreu da decisão da Meta de remover uma publicação no Instagram com um vídeo que condenava os comentários do artista musical Ye (o rapper americano conhecido anteriormente como Kanye West) elogiando Hitler e negando o Holocausto. Depois que o Comitê levou a apelação à atenção da Meta, a empresa reverteu a decisão original e restaurou a publicação.

Descrição do caso e histórico

Em janeiro de 2023, um usuário do Instagram da Turquia publicou um vídeo contendo um trecho de uma entrevista em inglês em que Ye afirma que “likes” (gosta) de Adolph Hitler e que Hitler “didn't kill 6 million Jews”(não matou seis milhões de judeus). O vídeo em seguida mostra uma pessoa que parece ser um repórter de TV expressando indignação com as declarações de Ye e relatando como seus parentes foram mortos no Holocausto. O vídeo está legendado em turco e tem um título que pode ser traduzido como “TV reporter responds to Kanye West.”(Repórter de TV reage a Kanye West).

A Meta removeu originalmente a publicação do Instagram citando suas políticas sobre Organizações e indivíduos perigosos e Discurso de ódio. De acordo com sua politica sobre Organizações e indivíduos perigosos, a empresa remove elogios a indivíduos designados, incluindo Adolf Hitler. Entretanto, a empresa reconhece que os “usuários podem compartilhar conteúdo que inclui referências a organizações e indivíduos perigosos designados com a finalidade de denunciar, condenar ou discutir de forma neutra sobre eles ou suas atividades”. De acordo com sua política sobre Discurso de ódio, a empresa remove alegações que negam o Holocausto como uma forma de estereótipo prejudicial que está “historicamente ligado à intimidação, exclusão ou violência com base em uma característica protegida”. Ela também reconhece que “as pessoas às vezes compartilham conteúdo que inclui calúnias ou discurso de ódio de outra pessoa para condenar essas práticas ou aumentar a conscientização”.

Em sua apelação ao Comitê, o usuário argumentou que foi mal compreendido e que o vídeo não apoia Adolf Hitler.

Depois que o Comitê levou esse caso à atenção da Meta, a empresa determinou que o conteúdo não violava suas políticas. Embora o vídeo contivesse elogios a Adolf Hitler e alegações negando o Holocausto, a segunda parte do vídeo condenou claramente essas declarações, colocando-as num contexto aceitável. Portanto, a empresa concluiu que sua remoção inicial foi um erro e restaurou o conteúdo na plataforma.

Autoridade e escopo do Comitê

O Comitê tem autoridade para analisar a decisão da Meta após uma apelação do usuário cujo conteúdo foi removido (Artigo 2, Seção 1 do Estatuto; e Artigo 3, Seção 1 dos Regulamentos Internos).

Quando a Meta reconhece que cometeu um erro e reverte a decisão em um caso sob consideração para análise do Comitê, o Comitê pode selecionar esse caso para uma decisão sumária (Artigo 2, Seção 2.1.3 dos Regulamentos Internos). O Comitê analisa a decisão original para aumentar a compreensão sobre o processo de moderação de conteúdo, reduzir erros e dar um tratamento justo maior para as pessoas que usam o Facebook e o Instagram.

Significância do caso

Esse caso mostra um exemplo de erro na aplicação de exceções nas políticas sobre Organizações e indivíduos perigosos e Discurso de ódio da Meta. Esses erros podem suprimir falas destinadas a responder ao discurso de ódio, incluindo alegações que negam o holocausto, ou condenar elogios a indivíduos perigosos como Hitler. Proteger o contradiscurso é essencial para promover a liberdade de expressão e é uma ferramenta para combater conteúdos prejudiciais, como a desinformação e o discurso de ódio. O Comitê recomendou anteriormente que: a Meta deve avaliar a precisão dos moderadores que aplicam a permissão para “reportagens” de acordo com a política sobre Organizações e indivíduos perigosos a fim de identificar problemas sistêmicos que causam erros de aplicação ( Menção ao Talibã em reportagens, recomendação n.º 5); A Meta deve avaliar processos automatizados de moderação na aplicação da política sobre Organizações e indivíduos perigosos (Isolamento de Öcalan, recomendação n.º 2); e deve realizar avaliações de precisão centradas nas permissões em sua política sobre Discurso de ódio que abrangem formas de expressão como condenação, conscientização, autorreferência e para fins de empoderamento (Cinto Wampum, recomendação n.º 3). A Meta relatou o progresso na recomendação nº. 5 do caso Menção ao Talibã em reportagens, recusou-se a implementar a recomendação nº. 2 do caso Isolamento de Öcalan e demonstrou a implementação da recomendação nº. 3 do caso Cinto Wampum.

O Comitê reitera que a implementação integral dessas recomendações pode reduzir as taxas de erro na aplicação de permissões no âmbito das políticas sobre Discurso de ódio e Organizações e indivíduos perigosos. Isso, por sua vez, protegerá melhor o contradiscurso e aumentará a liberdade de expressão em geral.

Decisão

O Comitê revoga a decisão original da Meta de remover o conteúdo. Além disso, após levar o caso ao conhecimento da empresa, reconhece que ela corrigiu o erro inicial.

Voltar para Decisões de Casos e Pareceres Consultivos sobre Políticas