Anulado
Relato de jornalista sobre entrevista em Gaza
4 de Abril de 2024
Um jornalista apelou da decisão da Meta de remover uma publicação no Facebook que relatava sua experiência pessoal ao entrevistar Abdel Aziz Al-Rantisi, cofundador do Hamas. Esse caso destaca um problema recorrente na over-enforcement (aplicação excessiva) da Política sobre Organizações e Indivíduos Perigosos da empresa, especificamente em relação a publicações neutras. Depois que o Comitê levou a apelação à atenção da Meta, a empresa reverteu a decisão original e restaurou a publicação.
Esta é uma decisão sumária. As decisões sumárias examinam casos em que a Meta reverteu a decisão original dela sobre um conteúdo depois que o Comitê o levou à atenção da empresa eincluem informações sobre os erros reconhecidos por ela. Elas são aprovadas por um painel de membros do Comitê, e não por ele inteiro, não envolvem comentários públicos e não têm valor precedente para o Comitê. As decisões sumárias geram mudanças diretas nas decisões da Meta, proporcionando transparência nessas correções e identificando em que área a empresa poderia melhorar sua aplicação.
Resumo do caso
Um jornalista apelou da decisão da Meta de remover uma publicação no Facebook que relatava sua experiência pessoal ao entrevistar Abdel Aziz Al-Rantisi, cofundador do Hamas. Esse caso destaca um problema recorrente na over-enforcement (aplicação excessiva) da Política sobre Organizações e Indivíduos Perigosos da empresa, especificamente em relação a publicações neutras. Depois que o Comitê levou a apelação à atenção da Meta, a empresa reverteu a decisão original e restaurou a publicação.
Descrição do caso e histórico
Logo após os ataques terroristas de 7 de outubro de 2023 em Israel, um jornalista publicou no Facebook seu relato escrito sobre uma entrevista feita com Abdel Aziz Al-Rantisi, cofundador do Hamas, que é uma organização designada de Nível 1 de acordo com a Política sobre Organizações e Indivíduos Perigosos da Meta. A publicação descreve a viagem do jornalista a Gaza, seus encontros com membros do Hamas e residentes locais, bem como a experiência de encontrar e entrevistar al-Rantisi. A publicação contém quatro fotografias, incluindo Al-Rantisi, o entrevistador e os militantes mascarados do Hamas.
Na sua apelação ao Comitê, o usuário esclareceu que a intenção da publicação era informar o público sobre sua experiência em Gaza e mostrar a entrevista com um dos fundadores originais do Hamas.
A Meta removeu a publicação do Facebook, citando sua Política sobre Organizações e Indivíduos Perigosos, na qual a empresa se baseia para remover de suas plataformas determinados conteúdos sobre indivíduos e organizações que ela designa como perigosos. Entretanto, a política reconhece que os “usuários podem compartilhar conteúdo que inclui referências a organizações e indivíduos perigosos designados no contexto do discurso social e político. Isso inclui denunciar conteúdo, discutir de forma neutra ou condenar organizações e indivíduos perigosos ou suas atividades”.
Depois que o Comitê levou o caso à atenção da Meta, a empresa determinou que era “conteúdo destinado a conscientizar sobre a situação” e, portanto, não violou o Padrão da Comunidade sobre Organizações e Indivíduos Perigosos. A Meta citou a permissão para discurso social e político no contexto de “descrições neutras e informativas da atividade ou comportamento de organizações e indivíduos perigosos”. Além disso, ela afirmou que “o contexto do discurso social e político é explicitamente mencionado no conteúdo, portanto, não há ambiguidade [sobre] a intenção do usuário” nesse caso.
Autoridade e escopo do Comitê
O Comitê tem autoridade para analisar a decisão da Meta após uma apelação do usuário cujo conteúdo foi removido (Artigo 2, Seção 1 do Estatuto; e Seção 1 do Artigo 3 dos Regulamentos Internos).
Quando a Meta reconhece que cometeu um erro e reverte a decisão em um caso sob consideração para análise do Comitê, ele pode selecionar esse caso para uma decisão sumária (Artigo 2, Seção 2.1.3 dos Regulamentos Internos). O Comitê analisa a decisão original para aumentar a compreensão do processo de moderação de conteúdo, reduzir erros e aumentar a justiça para as pessoas que usam o Facebook e o Instagram.
Significância do caso
Esse caso destaca a over-enforcement (aplicação excessiva) da Meta de sua Política sobre Organizações e Indivíduos Perigosos, especificamente para reportagens sobre entidades que a empresa designa como perigosas. Esse é um problema recorrente, que tem sido frequente sobretudo durante o conflito entre Israel e Hamas, em que uma das partes é uma organização designada. O Comitê emitiu diversas recomendações relativas à permissão para reportagens no âmbito da Política sobre Organizações e Indivíduos Perigosos. Erros contínuos na aplicação dessa importante permissão podem limitar significativamente a liberdade de expressão dos usuários, o acesso do público à informação e prejudicar o discurso público.
Em uma decisão anterior, o Comitê recomendou que a empresa “adicionasse critérios e exemplos ilustrativos à Política sobre Organizações e Indivíduos Perigosos da Meta para aumentar a compreensão das exceções, especificamente em torno de discussões neutras e reportagens” ( Publicação compartilhada da Al Jazeera, recomendação n.º 1). A Meta relatou a implementação dessa recomendação demonstrada por meio de informações publicadas. Em uma atualização à Política sobre Organizações e Indivíduos Perigosos datada de 29 de dezembro de 2023, a Meta modificou suas explicações e agora utiliza o termo “glorificação” em vez de “elogio” no seu Padrão da Comunidade.
Além disso, o Comitê recomendou que a Meta deveria “avaliar a precisão dos analistas que aplicam a permissão de reportagens de acordo com a Política sobre Organizações e Indivíduos Perigosos, a fim de identificar problemas sistêmicos que causam erros de aplicação” ( Menção ao Talibã em reportagens, recomendação n.º 5). A Meta relatou a implementação dessa recomendação, mas não publicou nenhuma informação que demonstrasse isso.
Em casos de moderação automatizada, o Comitê pediu para a Meta implementar um procedimento de auditoria interna a fim de analisar continuamente uma amostra estatisticamente representativa de decisões de remoção automatizadas para reverter e aprender com os erros de aplicação ( Sintomas de câncer de mama e nudez, recomendação n.º 5), sobre a qual a Meta relatou a implementação.
O Comitê acredita que a implementação completa dessas recomendações poderia reduzir o número de erros na aplicação da Política sobre Organizações e Indivíduos Perigosos da Meta.
Decisão
O Comitê revoga a decisão original da Meta de remover o conteúdo. Além disso, após levar o caso ao conhecimento da empresa, reconhece que ela corrigiu o erro inicial.
Voltar para Decisões de Casos e Pareceres Consultivos sobre Políticas