Decisão de múltiplos casos
Entrevista com o negociador de reféns tailandês
18 de Abril de 2024
O Comitê analisou duas publicações no Facebook contendo trechos quase idênticos de uma entrevista gravada pela Sky News com um negociador de reféns tailandês descrevendo sua experiência em libertar reféns capturados pelo Hamas. Após o Comitê levar as apelações à atenção da Meta, a empresa reverteu suas decisões originais e restaurou cada uma das publicações.
2 casos incluídos neste pacote
FB-XO941WWQ
Caso sobre organizações e indivíduos perigosos no Facebook
FB-U3Y5VV2E
Caso sobre organizações e indivíduos perigosos no Facebook
Esta é uma decisão sumária. As decisões sumárias examinam casos em que a Meta reverteu a decisão original dela sobre um conteúdo depois que o Comitê o levou à atenção da empresa e incluem informações sobre os erros reconhecidos por ela. Elas são aprovadas por um painel de membros do Comitê, e não por ele inteiro, não envolvem comentários públicos e não têm valor precedente para o Comitê. As decisões sumárias geram mudanças diretas nas decisões da Meta, proporcionando transparência nessas correções e identificando em que área a empresa poderia melhorar sua aplicação.
Resumo
O Comitê analisou duas publicações no Facebook contendo trechos quase idênticos de uma entrevista gravada pela Sky News com um negociador de reféns tailandês descrevendo sua experiência em libertar reféns capturados pelo Hamas. Após o Comitê levar as apelações à atenção da Meta, a empresa reverteu suas decisões originais e restaurou cada uma das publicações.
Sobre os casos
Em dezembro de 2023, dois usuários apelaram das decisões da Meta de remover as publicações, cada uma contendo clipes quase idênticos de uma entrevista transmitida pela Sky News em novembro de 2023. O vídeo apresenta um negociador tailandês que liderou uma equipe não oficial de negociadores e contribuiu para a libertação de cidadãos tailandeses sequestrados pelo Hamas em Israel no dia 7 de outubro.
No clipe, o entrevistado descreve a participação dele nas negociações. Ele afirma acreditar que os reféns tailandeses e todos os outros reféns “were well taken care of” (foram bem tratados) pelo Hamas, uma vez que seguem a lei islâmica, e que o Hamas não impôs condições para a libertação dos prisioneiros tailandeses.
O negociador, que simpatiza com o povo palestino, destacou as décadas de ele descreveu como maus-tratos de Israel aos palestinos nos Territórios Ocupados. Ele declara que o Hamas estava “targeting soldiers” (alvejando soldados) e que tinha justificativa para fazer reféns “to help the Palestinians” (a fim de ajudar os palestinos) e “to get the world’s attention focused on the Israeli treatment of Palestinians” (chamar a atenção do mundo para o tratamento dado pelos israelenses aos palestinos).
Em suas apelações ao Comitê, ambos os usuários disseram que publicaram o vídeo para chamar a atenção para as declarações do negociador tailandês, mas por motivos diferentes. Um usuário afirmou que sua intenção era destacar uma entrevista que “shows Hamas in a more balanced light” (apresenta o Hamas sob uma ótica mais equilibrada) em contraste com as atitudes comuns da “Western propaganda machine” (máquina de propaganda ocidental). Na legenda, o usuário indica que o negociador está se recusando a aderir à narrativa comum e explica que sua publicação foi censurada anteriormente porque mencionava uma organização política específica. Na segunda publicação, o usuário, que inicialmente publicou o vídeo sem legenda ou comentários adicionais, afirmou que estavam “calling out collaborators who lie and manipulate” (convocando colaboradores que mentem e manipulam) em apoio ao Hamas.
Inicialmente, a Meta removeu as publicações do Facebook, citando sua Política sobre Organizações e Indivíduos Perigosos, na qual se baseia para proibir a “glorificação” (anteriormente “elogio”), o “apoio” e a “representação” de indivíduos e organizações que a empresa designa como perigosos. Entretanto, a política reconhece que os “usuários podem compartilhar conteúdo que inclui referências a organizações e indivíduos perigosos designados no contexto do discurso social e político. Isso inclui denunciar conteúdo, discutir de forma neutra ou condenar organizações e indivíduos perigosos ou suas atividades”.
Depois que o Comitê levou esses casos à atenção da Meta, a empresa determinou que as publicações “não incluem nenhuma legenda que glorifique, apoie ou represente uma organização ou indivíduo perigoso”. Além disso, o vídeo foi “previamente compartilhado pela Sky News e por outros veículos de notícias no Facebook... e, [portanto], se enquadra no escopo da isenção na divulgação de notícias”. A Meta restaurou as duas publicações.
Autoridade e escopo do Comitê
O Comitê tem autoridade para analisar a decisão da Meta após uma apelação do usuário cujo conteúdo foi removido (Artigo 2, Seção 1 do Estatuto; e Seção 1 do Artigo 3 dos Regulamentos Internos).
Quando a Meta reconhece que cometeu um erro e reverte a decisão em um caso sob consideração para análise do Comitê, ele pode selecionar esse caso para uma decisão sumária (Artigo 2, Seção 2.1.3 dos Regulamentos Internos). O Comitê analisa a decisão original para aumentar a compreensão do processo de moderação de conteúdo, reduzir erros e aumentar a justiça para as pessoas que usam o Facebook e o Instagram.
Significância dos casos
Esses casos enfatizam a persistente over-enforcement (aplicação excessiva) do Padrão da Comunidade sobre Organizações e Indivíduos Perigosos da empresa, como destacado em decisões anteriores do Comitê. Erros frequentes na aplicação dessa política reduzem o acesso dos usuários a comentários neutros, reportagens e publicações críticas, prejudicando a liberdade de expressão.
Em uma decisão anterior, o Comitê instou a Meta a “incluir dados mais abrangentes sobre as taxas de erro do Padrão da Comunidade sobre Organizações e Indivíduos Perigosos em seu relatório de transparência” ( Isolamento de Öcalan, recomendação nº 12). A empresa se recusou a implementar essa recomendação após uma avaliação de viabilidade.
Além disso, o Comitê recomendou a inclusão de “critérios e exemplos ilustrativos à Política da Comunidade sobre Organizações e Indivíduos Perigosos da Meta para aumentar a compreensão das exceções, especificamente em torno de discussões neutras e reportagens”, a fim de fornecer maior orientação aos analistas humanos (Publicação compartilhada da Al Jazeera, recomendação nº 1). Essa recomendação é particularmente relevante, pois se relaciona com a remoção de uma publicação que compartilhava uma notícia sobre uma ameaça de violência das Brigadas Izz al-Din al-Qassam, a ala militar do grupo palestino Hamas. O Comitê também aconselhou a Meta a “avaliar a precisão dos analistas que aplicam a permissão para reportagens... a fim de identificar problemas sistêmicos que causam erros de aplicação” (Menção ao Talibã em reportagens, recomendação nº 5). Embora a Meta tenha relatado a implementação de ambas as recomendações, no caso da recomendação nº 5, que se refere à Menção ao Talibã em reportagens, a empresa não divulgou informações que demonstrem a implementação.
O Comitê recomendou melhorias na moderação de publicações contendo vídeos, solicitando que a empresa adote “mudanças nas diretrizes operacionais e/ou de produtos que permitam uma análise mais precisa de vídeos longos ,” (Primeiro-ministro do Camboja, recomendação nº 5). Em resposta, a Meta declarou que “continuaria a introduzir novas melhorias nos processos de análise de vídeos de longa duração e na criação e avaliação de métricas” na Atualização trimestral sobre o Comitê de Supervisão, terceiro trimestre de 2023.
O Comitê acredita que a implementação completa dessas recomendações poderia reduzir o número de erros na aplicação da Política sobre Organizações e Indivíduos Perigosos da Meta.
Decisão
O Comitê revoga as decisões originais da Meta de remover o conteúdo. Além disso, após levar esses casos ao conhecimento da empresa, reconhece que ela corrigiu o erro inicial.
Voltar para Decisões de Casos e Pareceres Consultivos sobre Políticas