Anulado

Clipe promovendo entrevista no Iraque

Um usuário apelou da decisão da Meta de remover um post no Facebook de um vídeo apresentando um trecho de uma entrevista televisionada com um proeminente clérigo xiita iraquiano e figura política. Depois que o Comitê levou a apelação à atenção da Meta, a empresa reverteu a decisão original e restaurou o post.

Tipo de decisão

Resumo

Políticas e tópicos

विषय
Eventos de notícias, Jornalismo, Política
Padrão da comunidade
Indivíduos e organizações perigosos

Regiões/países

Localização
Iraque

Plataforma

Plataforma
Facebook

As decisões sumárias examinam casos em que a Meta reverteu a decisão original dela sobre um conteúdo depois que o Comitê o levou à atenção da empresa e incluem informações sobre os erros reconhecidos por ela. Elas são aprovadas por um painel de membros do Comitê, e não por ele inteiro, não envolvem comentários públicos e não têm valor precedente para o Comitê. As decisões sumárias geram mudanças diretas nas decisões da Meta, proporcionando transparência nessas correções e identificando em que área a empresa poderia melhorar sua aplicação.

Resumo

Um usuário apelou da decisão da Meta de remover um post no Facebook de um vídeo apresentando um trecho de uma entrevista televisionada com um proeminente clérigo xiita iraquiano e figura política. Depois que o Comitê levou a apelação à atenção da Meta, a empresa reverteu a decisão original e restaurou o post.

Sobre o caso

Em agosto de 2023, o chefe da Iraqi Media Network, uma holding governamental de organizações de mídia, postou no Facebook um trecho de uma entrevista com Qais Hadi Sayed Hasan al-Khazali, político, clérigo e líder militante da Asa'ib Ahl al-Haq, uma organização paramilitar xiita iraquiana que também atua como partido político. No trecho em questão, al-Khazali fala sobre diversos assuntos, incluindo as relações dos Estados Unidos e do Iraque com Israel. A legenda em árabe diz: “Esta noite... uma importante discussão sobre os últimos desdobramentos políticos e os recentes movimentos das forças estrangeiras com o xeique Qais al-Khazali, secretário-geral do movimento Asa'ib Ahl al-Haq”, e contém a hashtag “#NotíciasdoIraque”. O texto sobreposto em árabe no vídeo diz o seguinte: “Entrevista exclusiva” e “Hoje à noite, às 22h”.

A Meta, com base na sua Política sobre Organizações e Indivíduos Perigosos, designa al-Khazali como indivíduo perigoso e Asa'ib Ahl al-Haq como organização perigosa. A empresa explica que o Nível 1 dessa política se concentra em “organizações terroristas, incluindo entidades e indivíduos designados pelo governo dos Estados Unidos como Organizações Terroristas Estrangeiras (FTOs, na sigla em inglês) ou Terroristas Globais Especialmente Designados (SDGTs, na sigla em inglês)”. No entanto, a Meta não divulga publicamente sua lista de Organizações e Indivíduos Perigosos.

De acordo com os Padrões da Comunidade sobre Organizações e Indivíduos Perigosos, a empresa remove “a glorificação, o apoio e a representação” de indivíduos ou organizações que “proclamam uma missão violenta ou que estejam envolvidos em violência”. A política permite “conteúdos que incluam referências a organizações e indivíduos perigosos designados no contexto do discurso social e político”, incluindo conteúdo “que relate, discuta de forma neutra ou condene” organizações e indivíduos perigosos e suas atividades. Conforme essa política, a Meta explica que as reportagens incluem “informações compartilhadas para conscientizar sobre eventos locais e globais nos quais organizações e indivíduos considerados perigosos estão envolvidos”.

Depois que o Comitê levou o caso à atenção da Meta, a empresa determinou que o conteúdo não deveria ter sido removido de acordo com a Política sobre Organizações e Indivíduos Perigosos, uma vez que o texto sobreposto “Entrevista exclusiva” e a hashtag “Notícias do Iraque” indicavam que o conteúdo era uma reportagem sobre uma entrevista com al-Khazali. Além disso, a empresa observou que “os vídeos não transmitem nenhuma opinião positiva sobre al-Khazali ou suas ações”. A empresa então restaurou o conteúdo no Facebook.

Autoridade e escopo do Comitê

O Comitê tem autoridade para analisar a decisão da Meta após uma apelação do usuário cujo conteúdo foi removido (Artigo 2, Seção 1 do Estatuto; e Artigo 3, Seção 1 dos Regulamentos Internos).

Quando a Meta reconhece que cometeu um erro e reverte a decisão em um caso sob consideração para análise do Comitê, ele pode selecionar esse caso para uma decisão sumária (Artigo 2, Seção 2.1.3 dos Regulamentos Internos). O Comitê analisa a decisão original para aumentar a compreensão do processo de moderação de conteúdo, reduzir erros e aumentar a justiça para os usuários do Facebook, do Instagram e do Threads.

Significância do caso

Esse caso destaca a overenforcement dos Padrões da Comunidade sobre Organizações e Indivíduos Perigosos da Meta. Os sistemas de moderação de conteúdo da empresa não reconheceram a permissão para reportagens envolvendo entidades designadas. O Comitê observou anteriormente na decisão sumária do caso Comentário sobre a eleição para prefeito de Karachi que esses erros podem afetar negativamente a capacidade dos usuários de “compartilhar comentários políticos e reportagens” sobre organizações rotuladas como “perigosas”, infringindo, assim, a liberdade de expressão.

Ele emitiu várias recomendações anteriores relevantes com o objetivo de aumentar a transparência e a precisão em relação à aplicação da Política sobre Organizações e Indivíduos Perigosos da Meta e suas exceções. Em primeiro lugar, o Comitê recomendou que a Meta “avaliasse a precisão dos analistas que aplicam a permissão de reportagens de acordo com a Política sobre Organizações e Indivíduos Perigosos, a fim de identificar problemas sistêmicos que causam erros de aplicação” ( Menção ao Talibã em reportagens, recomendação n.º 5). Em novembro de 2023, a Meta informou ter implementado uma atualização na Política sobre Organizações e Indivíduos Perigosos, que incluía detalhes sobre como a empresa aborda a divulgação de notícias, bem como discussões neutras e condenatórias. A Meta também informou que está “acompanhando a precisão da aplicação da exceção para discursos sociais e políticos” (Atualização trimestral da Meta sobre o Comitê de Supervisão, 3º trimestre de 2023). A empresa, no entanto, não publicou informações que comprovem a implementação.

Além disso, em um de seus pareceres consultivos sobre política, o Comitê pediu à Meta que “explicasse os métodos que usa para avaliar a precisão da análise humana e o desempenho de sistemas automatizados na aplicação de sua Política sobre Organizações e Indivíduos Perigosos” ( referindo-se ao caso Indivíduos Designados como “Shaheed”, recomendação n.º 6). O Comitê considerou que essa recomendação foi reformulada pela Meta. A empresa declarou que realiza auditorias para avaliar a precisão de suas decisões de moderação de conteúdo e que isso orienta as áreas para melhoria. No entanto, ela não explicou os métodos que utiliza para realizar essas avaliações.

A overenforcement repetida da Política sobre Organizações e Indivíduos Perigosos da empresa prejudica a capacidade dos usuários de compartilhar notícias legítimas e informações sobre as atividades de indivíduos ou organizações designados. O Comitê acredita que a implementação completa das duas recomendações mencionadas acima fortaleceria ainda mais a capacidade da Meta de melhorar a precisão da aplicação, reduzindo o impacto negativo dos erros sobre a liberdade de expressão dos usuários. A divulgação pública da precisão das análises e dos métodos utilizados para analisá-las aumentaria a transparência e geraria engajamento com a Meta, o que pode levar a melhorias adicionais.

Decisão

O Comitê revoga a decisão original da Meta de remover o conteúdo. Além disso, após levar o caso ao conhecimento da empresa, reconhece que ela corrigiu o erro inicial.

Voltar para Decisões de Casos e Pareceres Consultivos sobre Políticas