Comitê de Supervisão revoga decisão original da Meta no caso Negação do Holocausto
23 de Janeiro de 2024
OComitê de Supervisão revogou a decisão original da Meta de deixar ativa uma publicação no Instagram contendo alegações falsas e distorcidas sobre o Holocausto. O Comitê considera que o conteúdo não seguiu o Padrão da Comunidade da Meta sobre Discurso de Ódio, que proíbe a negação do Holocausto. Essa proibição está de acordo com as responsabilidades da Meta em relação aos direitos humanos. O Comitê está preocupado com a decisão da Meta de não remover o conteúdo e questiona a efetividade do monitoramento da empresa. Ele recomenda que a Meta adote medidas para garantir uma avaliação sistemática da precisão de seu monitoramento de conteúdo que nega o Holocausto, em um nível mais detalhado.
Sobre o caso
Em 8 de setembro de 2020, um usuário do Instagram publicou um meme do Lula Molusco, um personagem de desenho animado da série de TV Bob Esponja. O meme inclui um balão de diálogo com o título “Fun Facts About The Holocaust” (Fatos curiosos sobre o Holocausto) e alegações falsas e distorcidas sobre o período histórico. As alegações, em inglês, questionam o número de vítimas do Holocausto, sugerindo que não é possível que seis milhões de judeus tenham sido assassinados, com base em supostos números da população citados pelo usuário referentes aos períodos antes e depois da Segunda Guerra Mundial. A publicação também questiona a existência de crematórios em Auschwitz alegando que as chaminés foram construídas após a guerra e que os líderes mundiais da época não reconheceram o Holocausto em suas memórias escritas.
Em 12 de outubro de 2020, várias semanas após a publicação do conteúdo, a Meta revisou seu Padrão da Comunidade sobre Discurso de Ódio para proibir explicitamente a negação ou a distorção do Holocausto.
Desde que o conteúdo foi publicado em setembro de 2020, os usuários o denunciaram seis vezes por não seguir a Política da Meta sobre Discurso de Ódio. Quatro dessas denúncias foram analisadas pelos sistemas automatizados da Meta, que avaliaram o conteúdo como não violador ou encerraram automaticamente as denúncias devido às políticas de automação da empresa relacionadas à COVID-19. Essas políticas, implementadas no início da pandemia em 2020, encerraram automaticamente alguns trabalhos de análise para reduzir o volume de denúncias sendo enviadas para analistas humanos, mantendo abertas aquelas com um “alto risco” potencial.
Duas das seis denúncias de usuários foram enviadas para análise humana, que avaliou o conteúdo como não violador. Um usuário que denunciou a publicação em maio de 2023, após a Meta anunciar que não permitiria mais a negação do Holocausto, fez uma apelação contra a decisão da empresa de deixar o conteúdo ativo. No entanto, isso também foi automaticamente encerrado devido às políticas de automação da Meta relacionadas à COVID-19, que ainda estavam em vigor em maio de 2023. O usuário então fez uma apelação ao Comitê de Supervisão.
Principais descobertas
O Comitê considera que esse conteúdo viola o Padrão da Comunidade da Meta sobre Discurso de Ódio, que proíbe a negação do Holocausto no Facebook e no Instagram. Especialistas consultados pelo Comitê confirmaram que todas as alegações da publicação sobre o Holocausto eram absolutamente falsas ou deturpavam fatos históricos. O Comitê acredita que a política da Meta que proíbe a negação do Holocausto está de acordo com suas responsabilidades em relação aos direitos humanos. Além disso, ele mostra-se preocupado com o fato de a Meta não ter removido esse conteúdo mesmo depois de ter alterado suas políticas para proibir explicitamente a negação do Holocausto, apesar das análises humanas e automatizadas.
Como parte dessa decisão, o Comitê encomendou uma avaliação do conteúdo que nega o Holocausto nas plataformas da Meta, que revelou o uso do formato do meme do Lula Molusco para propagar vários tipos de narrativas antissemitas. Embora a avaliação tenha mostrado um claro declínio, desde outubro de 2020, de conteúdo usando termos como “Holohoax” (alusão a um “falso Holocausto”), ela identificou falhas da Meta na remoção de conteúdo que nega o Holocausto. A avaliação mostrou que conteúdo negando o Holocausto ainda pode ser encontrado nas plataformas da Meta, possivelmente porque alguns usuários tentam escapar do monitoramento de formas alternativas, como substituindo vogais de palavras por símbolos ou criando narrativas implícitas sobre a negação do Holocausto com o uso de memes e desenhos animados.
É importante entender a negação do Holocausto como um elemento de antissemitismo, cuja consequência é a discriminação.
O Comitê tem dúvidas sobre a efetividade e a precisão dos sistemas de moderação da Meta na remoção, em suas plataformas, de conteúdo que nega o Holocausto. A análise humana da Meta não tem a possibilidade de classificar os dados de monitoramento de forma detalhada, ou seja, o conteúdo violador é classificado como “discurso de ódio” em vez de “negação do Holocausto”. Com base no insight obtido de perguntas feitas à Meta nesse e em outros casos, o Comitê entende que, com os recursos necessários, esses desafios podem ser tecnicamente superados. A Meta deve criar sistemas para classificar os dados de monitoramento em um nível mais detalhado, especialmente em vista das consequências da negação do Holocausto no mundo real. Isso poderia aprimorar sua precisão na moderação de conteúdo que nega o Holocausto fornecendo melhores materiais de treinamento para os classificadores e analistas humanos. Conforme a Meta amplia o uso da inteligência artificial para moderar conteúdo, o Comitê está interessado em como o desenvolvimento desses sistemas pode ser modelado para priorizar um monitoramento mais preciso do discurso de ódio em um nível detalhado de política.
O Comitê também se preocupa com o fato de que, em maio de 2023, a Meta ainda aplicava suas políticas de automação relacionadas à COVID-19. Em resposta às perguntas do Comitê, a Meta revelou que encerrou automaticamente a apelação do usuário contra sua decisão de manter esse conteúdo no Instagram em maio de 2023, mais de três anos após o início da pandemia e um pouco depois de a Organização Mundial da Saúde e os Estados Unidos declararem que a COVID-19 não era mais uma “emergência de saúde pública de nível internacional”. Havia uma grande necessidade de a Meta priorizar a remoção de discurso de ódio, e é preocupante que medidas implementadas como uma contingência da pandemia tenham durado muito além do período em que as circunstâncias as justificavam.
A decisão do Comitê de Supervisão
O Comitê de Supervisão revoga a decisão original da Meta de manter o conteúdo ativo.
O Comitê recomenda que a Meta faça o seguinte:
- Adote medidas técnicas para garantir a avaliação suficiente e sistemática da precisão de seu monitoramento de conteúdo que nega o Holocausto, a fim de incluir a obtenção de informações mais detalhadas.
- Confirme publicamente se encerrou, de forma integral, todas as políticas de automação relacionadas à COVID-19 aplicadas durante a pandemia.
Mais informações
Para ler a decisão na íntegra, clique aqui.
Para ler um resumo dos comentários públicos sobre o caso, clique aqui.