Decisão de múltiplos casos

Menção ao Al-Shabaab

Nesta decisão sumária, o Comitê analisou duas publicações referentes ao grupo terrorista Al-Shabaab.

2 casos incluídos neste pacote

Anulado

FB-41ERXHF1

Caso sobre organizações e indivíduos perigosos no Facebook

Plataforma
Facebook
विषय
Guerra e conflitos
Padrão
Indivíduos e organizações perigosos
Localização
Somália
Date
Publicado em 22 de Novembro de 2023
Anulado

FB-XP5K3L52

Caso sobre organizações e indivíduos perigosos no Facebook

Plataforma
Facebook
विषय
Guerra e conflitos
Padrão
Indivíduos e organizações perigosos
Localização
Somália
Date
Publicado em 22 de Novembro de 2023

Esta é uma decisão sumária. As decisões sumárias examinam os casos em que a Meta reverteu a decisão original dela sobre um conteúdo depois que o Comitê o levou à atenção da empresa. Essas decisões incluem informações sobre os erros reconhecidos pela Meta, informam o público sobre o impacto do trabalho do Comitê e são aprovadas por um painel de Membros do Comitê, não pelo Comitê inteiro. Elas não envolvem um processo de comentários públicos e não têm valor precedente para o Comitê. As decisões sumárias dão transparência às correções da Meta e destacam áreas em que a empresa poderia melhorar a aplicação de suas políticas.

Resumo do caso

Nesta decisão sumária, o Comitê analisou duas publicações referentes ao grupo terrorista Al-Shabaab. Após o Comitê levar essas duas apelações à atenção da Meta, a empresa reverteu suas decisões originais e restaurou ambas as publicações.

Descrição do caso e histórico

No primeiro caso, em julho de 2023, um usuário do Facebook, que parece ser um meio de comunicação, publicou uma foto mostrando uma arma e equipamentos militares no chão, aos pés de soldados, com a legenda afirmando que as "Somali government forces" (forças do governo somali) e “residents" (residentes) empreenderam uma operação militar e mataram forças do Al-Shabaab na região de Mudug, na Somália.

No segundo caso, também em julho de 2023, um usuário do Facebook publicou duas fotos com uma legenda. A primeira foto mostra uma mulher pintando de preto uma pilastra azul. A segunda foto mostra um emblema preto do Al-Shabaab pintado sobre a pilastra. A legenda diz: “the terrorists that used to hide have come out of their holes, and the world has finally seen them” (os terroristas que se escondiam saíram de seus buracos, e o mundo finalmente os viu).

Harakat al-Shabaab al-Mujahideen, popularmente conhecido como Al-Shabaab, ou “a Juventude” (em árabe) é um grupo terrorista islâmico relacionado com a Al-Qaeda, que age para derrubar o governo somali. O grupo opera principalmente na Somália e realizou vários ataques em países vizinhos.

A Meta removeu originalmente a publicação do Facebook, citando sua Política sobre Organizações e Indivíduos Perigosos, na qual se baseia para remover conteúdo que “elogia, apoia substancialmente ou representa” indivíduos e organizações que a empresa designa como perigosos. Entretanto, a política reconhece que os “usuários podem compartilhar conteúdo que inclui referências a organizações e indivíduos perigosos designados com a finalidade de denunciar, condenar ou discutir de forma neutra sobre eles ou suas atividades”.

Em sua apelação ao Comitê, ambos os usuários argumentaram que o conteúdo não violava os Padrões da Comunidade da Meta. O usuário do primeiro caso descreveu sua conta como um meio de comunicação e afirmou que a publicação é uma reportagem sobre a operação governamental contra o grupo terrorista Al-Shabaab. O usuário do segundo caso afirmou que o objetivo da publicação é informar e conscientizar sobre as atividades do Al-Shabaab e condená-lo.

Depois que o Comitê levou esses dois casos à atenção da Meta, a empresa determinou que as publicações não violavam suas políticas. Embora as publicações se refiram ao Al-Shabaab, uma organização considerada perigosa, elas não o elogiam, mas sim o denunciam e o condenam. A Meta concluiu que sua remoção inicial foi incorreta, pois as publicações se enquadravam na exceção da Política sobre Organizações e Indivíduos Perigosos e restaurou ambos os itens de conteúdo na plataforma.

Autoridade e escopo do Comitê

O Comitê tem autoridade para analisar a decisão da Meta após uma apelação do usuário cujo conteúdo foi removido (Artigo 2, Seção 1 do Estatuto; e Artigo 3, Seção 1 dos Regulamentos Internos).

Quando a Meta reconhece que cometeu um erro e reverte a decisão em um caso sob consideração para análise do Comitê, ele pode selecionar esse caso para uma decisão sumária (Artigo 2, Seção 2.1.3 dos Regulamentos Internos). O Comitê analisa a decisão original para aumentar a compreensão do processo de moderação de conteúdo, reduzir erros e aumentar a justiça para as pessoas que usam o Facebook e o Instagram.

Significância do caso

Esses casos destacam uma over-enforcement (aplicação excessiva) da Política sobre Organizações e Indivíduos Perigosos da Meta em um país que enfrenta conflitos armados e ataques terroristas. Esse tipo de erro mina os esforços genuínos para condenar, denunciar e conscientizar sobre organizações terroristas, incluindo alegadas violações dos direitos humanos e atrocidades cometidas por esses grupos.

Anteriormente, o Comitê emitiu várias recomendações em relação à Política sobre Organizações e Indivíduos Perigosos da Meta. Isso inclui uma recomendação para “avaliar a precisão dos analistas que aplicam a permissão a reportagens de acordo com a Política sobre Organizações e Indivíduos Perigosos a fim de identificar problemas sistêmicos que causam erros de aplicação”, na qual a Meta mostrou progresso na implementação (“Menção ao Talibã em reportagens,” recomendação n.º 5). Ele também recomendou que a Meta “adicione critérios e exemplos ilustrativos à Política sobre Organizações e Indivíduos Perigosos da empresa para aumentar a compreensão das exceções, especificamente em torno de discussões neutras e reportagens”, uma recomendação para a qual a Meta demonstrou a implementação por meio de informações publicadas (“ Publicação compartilhada da Al Jazeera”, recomendação n.º 1). Além disso, recomendou que ela "implemente um procedimento de auditoria interna para analisar continuamente uma amostra estatisticamente representativa de decisões automatizadas de remoção de conteúdo para reverter e aprender com os erros de aplicação" (Sintomas de câncer de mama e nudez, recomendação n.º 5). A Meta descreveu essa recomendação como um processo que já realiza, mas não publicou informações para demonstrar a implementação.

Decisão

O Comitê anula as decisões originais da Meta de remover os dois itens de conteúdo. Além disso, após levar esses casos ao conhecimento da empresa, reconhece que ela corrigiu o erro inicial.

Voltar para Decisões de Casos e Pareceres Consultivos sobre Políticas