Anulado
Ilustração retratando o golpe no Níger
8 de Dezembro de 2023
Um usuário apelou da decisão da Meta de remover uma publicação do Facebook sobre o golpe militar no Níger.
Esta é uma decisão sumária. As decisões sumárias examinam os casos em que a Meta reverteu a decisão original dela sobre um conteúdo depois que o Comitê o levou à atenção da empresa. Essas decisões incluem informações sobre os erros reconhecidos da Meta e são aprovadas por um painel de Membros do Comitê, não pelo Comitê inteiro. Elas não envolvem um processo de comentários públicos e não têm valor precedente para o Comitê. As decisões sumárias dão transparência às correções da Meta e destacam áreas em que a empresa poderia melhorar a aplicação de suas políticas.
Resumo do caso
Um usuário apelou da decisão da Meta de remover uma publicação do Facebook sobre o golpe militar no Níger. Esse caso destaca erros na moderação de conteúdo da Meta, incluindo seus sistemas automatizados para a detecção de discurso de ódio. Depois que o Comitê levou a apelação à atenção da Meta, a empresa reverteu a decisão original e restaurou a publicação.
Descrição do caso e histórico
Em julho de 2023, um usuário do Facebook na França publicou uma ilustração retratando uma bota militar com a inscrição “Níger” chutando uma pessoa que usava chapéu e vestido vermelhos. O vestido mostra o contorno geográfico da África. No início desse mesmo mês, ocorreu um golpe militar no Níger, quando o general Abdourahamane Tchiani, com a ajuda da guarda presidencial sob seu comando, depôs o presidente Mohamed Bazoum e se autoproclamou líder do país.
A Meta originalmente removeu a publicação do Facebook, citando sua Política sobre Discurso de Ódio, que permite que a empresa remova conteúdo que contenha ataques contra pessoas com base em uma característica protegida, incluindo algumas representações de violência direcionadas a esses grupos.
Depois que o Comitê trouxe esse caso à atenção da Meta, a empresa determinou que o conteúdo não violava a Política sobre Discurso de Ódio e que sua remoção estava incorreta. A empresa então restaurou o conteúdo no Facebook.
Autoridade e escopo do Comitê
O Comitê tem autoridade para analisar a decisão da Meta após uma apelação do usuário cujo conteúdo foi removido (Artigo 2, Seção 1 do Estatuto; e Artigo 3, Seção 1 dos Regulamentos Internos).
Quando a Meta reconhece que cometeu um erro e reverte a decisão em um caso sob consideração para análise do Comitê, ele pode selecionar esse caso para uma decisão sumária (Artigo 2, Seção 2.1.3 dos Regulamentos Internos). O Comitê analisa a decisão original para aumentar a compreensão do processo de moderação de conteúdo envolvido, reduzir erros e aumentar a justiça para os usuários do Facebook e do Instagram.
Significância do caso
Esse caso destaca as imprecisões nos sistemas de moderação da Meta, especialmente na detecção de discurso de ódio. O Comitê emitiu recomendações sobre o aprimoramento da automação e da transparência, incluindo a solicitação para que a Meta “implemente um procedimento de auditoria interna a fim de analisar continuamente uma amostra estatisticamente representativa de decisões de remoção automatizadas para reverter e aprender com os erros de aplicação” (Decisão sobre sintomas de câncer de mama e nudez, recomendação n.º 5). A Meta informou que está implementando essa recomendação, mas ainda não publicou informações que demonstrem a implementação.
Decisão
O Comitê revoga a decisão original da Meta de remover o conteúdo. Além disso, após levar o caso ao conhecimento da empresa, ele reconhece que ela corrigiu o erro inicial. O Comitê também pede à Meta que acelere a implementação das recomendações ainda em aberto para reduzir esses erros.
Voltar para Decisões de Casos e Pareceres Consultivos sobre Políticas