Anulado
Vídeo de reportagem sobre o futuro da Somália
9 de Dezembro de 2025
Um usuário apelou da decisão da Meta de remover um vídeo que apresentava um trecho de uma reportagem sobre uma conferência internacional a respeito da Somália.
As decisões sumárias examinam casos em que a Meta reverteu a decisão original dela sobre um conteúdo depois que o Comitê o levou à atenção da empresa e incluem informações sobre os erros reconhecidos por ela. Elas são aprovadas por um painel de membros do Comitê, e não por ele inteiro, não envolvem comentários públicos e não têm valor precedente para o Comitê. As decisões sumárias geram mudanças diretas nas decisões da Meta, proporcionando transparência nessas correções e identificando em que área a empresa poderia melhorar sua aplicação.
Resumo
Um usuário apelou da decisão da Meta de remover um vídeo que apresentava um trecho de uma reportagem sobre uma conferência internacional a respeito da Somália. O vídeo mostra um jornalista entrevistando pessoas na Somália e exibe imagens de líderes e bandeiras do grupo armado Al-Shabaab. Depois que o Comitê levou a apelação à atenção da Meta, a empresa reverteu a decisão original e restaurou o post.
Sobre o caso
Em maio de 2025, um usuário do Facebook, que é um jornalista verificado, postou um vídeo com um trecho de uma reportagem acompanhado da pergunta: “Who gets to decide Somalia’s future?” (Quem decide o futuro da Somália?). A legenda também incluía referências à Conferência de Londres sobre a Somália, realizada em 2012. Tanto o vídeo quanto a legenda estão em inglês. O vídeo original foi ao ar em 2013 pelo Channel 4, emissora pública de televisão do Reino Unido.
Nele, o jornalista aborda as controvérsias em torno da conferência sobre a Somália, uma importante reunião internacional convocada pelo governo britânico para discutir o futuro do país africano. A legenda observa que a conferência excluiu o Al-Shabaab, destacando que o grupo atuava para derrubar o governo da Somália e que, à época, “controlled most of the country” (“controlava a maior parte do país”). O jornalista também destaca a distância metafórica entre os líderes ocidentais e o povo da Somália, ressaltando que muitos moradores locais não reconheceram os principal líderes do Reino Unido ao verem fotos deles discutindo o futuro da Somália. O vídeo também exibe imagens dos líderes e das bandeiras do Al-Shabaab.
O Harakat al-Shabaab al-Mujahideen, comumente conhecido como Al-Shabaab, é um grupo insurgente islâmico com ligações à Al-Qaeda. O grupo opera principalmente na Somália e já realizou vários ataques em países vizinhos. O Al-Shabaab foi designado como uma organização perigosa nos termos da Política sobre Organizações e Indivíduos Perigososda Meta.
De acordo com sua Política sobre Organizações e Indivíduos Perigosos, a empresa remove “a glorificação, o apoio e a representação” de indivíduos ou organizações que “proclamam uma missão violenta ou que estejam envolvidos em violência”. No entanto, a política permite “conteúdo que relate, discuta de forma neutra ou condene organizações e indivíduos perigosos ou suas atividades” no contexto do “discurso social e político”. De acordo com a política, “as reportagens incluem informações compartilhadas para aumentar a conscientização sobre eventos locais e globais nos quais organizações e indivíduos perigosos designados estão envolvidos”.
Em sua apelação ao Comitê, o usuário afirmou que aborda “questões importantes para informar o público” e que a reportagem havia sido exibida por um canal de televisão em conformidade com as diretrizes nacionais. O usuário destacou que o “jornalismo não é crime”.
Depois que o Comitê levou o caso à atenção da Meta, a empresa reverteu sua decisão original. A Meta determinou que o conteúdo é uma reportagem que questiona a exclusão do Al-Shabaab, pelo governo do Reino Unido, de uma conferência sobre o futuro da Somália, considerando que o grupo controla grande parte do país. A empresa também mencionou que as imagens dos líderes e das bandeiras do Al-Shabaab, “são apresentadas com intervenção editorial apropriada e não contêm qualquer glorificação ou apoio” ao grupo. A Meta concluiu que sua remoção inicial foi incorreta, pois o post se enquadra na exceção da Política sobre Organizações e Indivíduos Perigosos para discursos sociais e políticos. A empresa então restaurou o conteúdo no Facebook.
Autoridade e escopo do Comitê
O Comitê tem autoridade para analisar a decisão da Meta após uma apelação do usuário cujo conteúdo foi removido (Artigo 2, Seção 1 do Estatuto; e Artigo 3, Seção 1 dos Regulamentos Internos).
Quando a Meta reconhece que cometeu um erro e reverte a decisão em um caso sob consideração para análise do Comitê, ele pode selecionar esse caso para uma decisão sumária (Artigo 2, Seção 2.1.3 dos Regulamentos Internos). O Comitê analisa a decisão original para aumentar a compreensão do processo de moderação de conteúdo, reduzir erros e aumentar a justiça para os usuários do Facebook, do Instagram e do Threads.
Significância do caso
Esse caso destaca a overenforcement contínua dos Padrões da Comunidade sobre Organizações e Indivíduos Perigosos da Meta, inclusive em relação a conteúdo postado por um jornalista verificado e exibido por um serviço de transmissão convencional, que se enquadra na exceção da política para discursos sociais e políticos. Erros de aplicação como esse podem afetar não apenas a liberdade de expressão dos usuários que postaram o conteúdo, mas também o acesso de outros usuários à informação, especialmente em países em conflito, onde esse acesso é fundamental.
O Comitê já emitiu uma decisão envolvendo dois posts que faziam referência ao Al-Shabaab. Nesses casos, a Meta cometeu erros ao remover conteúdo com base em sua Política sobre Organizações e Indivíduos Perigosos, uma vez que, no primeiro caso, o post denunciava claramente uma entidade designada e, no segundo, a condenava. O Comitê também emitiu várias recomendações sobre a aplicação da Política sobre Organizações e Indivíduos Perigosos da Meta. Isso inclui, entre outras, uma recomendação para que a empresa “avalie a precisão dos analistas que aplicam a permissão para reportagens de acordo com a Política sobre Organizações e Indivíduos Perigosos, a fim de identificar problemas sistêmicos que causam erros de aplicação” (caso Menção ao Talibã em notícias, recomendação n.º 5). Em novembro de 2023, a Meta informou ter implementado uma atualização na Política sobre Organizações e Indivíduos Perigosos, que incluía detalhes sobre como a empresa “aborda a divulgação de notícias, bem como discussões neutras e condenatórias”. A empresa também informou que está “acompanhando a precisão da aplicação da exceção para discursos sociais e políticos” (Atualização trimestral da Meta sobre o Comitê de Supervisão, 3º trimestre de 2023). No entanto, a Meta não compartilhou os resultados com o Comitê. O Comitê considera, portanto, que a Meta não publicou informações que demonstrem a implementação dessa recomendação.
Além disso, em um de seus pareceres consultivos sobre política, o Comitê recomendou que a Meta “explicasse os métodos que usa para avaliar a precisão da análise humana e o desempenho de sistemas automatizados na aplicação de sua Política sobre Organizações e Indivíduos Perigosos” (caso Uso do termo “shaheed” em referência a indivíduos designados como perigosos, recomendação n.º 6). O Comitê considerou que essa recomendação foi reformulada pela Meta. A empresa declarou que realiza auditorias para avaliar a precisão de suas decisões de moderação de conteúdo e que essas auditorias orientam as áreas para melhoria. No entanto, a Meta não explicou os métodos que usa para realizar essas avaliações, o que melhoraria ainda mais a transparência de sua aplicação, incluindo em relação às diferenças entre mercados e idiomas. A empresa se recusou a divulgar esses métodos.
O Comitê também emitiu uma recomendação focada na aplicação automatizada, solicitando à Meta que “implemente um procedimento de auditoria interna para analisar continuamente uma amostra estatisticamente representativa de decisões automatizadas de remoção de conteúdo para reverter e aprender com os erros de aplicação” (caso Sintomas de câncer de mama e nudez, recomendação n.º 5). O Comitê considera que a Meta não abordou essa recomendação, uma vez que a empresa a agrupou com outra recomendação sem se envolver no procedimento de auditoria interna delineado pelo Comitê.
A overenforcement repetida da Política sobre Organizações e Indivíduos Perigosos da empresa prejudica a capacidade dos usuários de postar e compartilhar notícias e informações sobre organizações designadas, violando a liberdade de expressão dos usuários. Os casos analisados pelo Comitê sugerem que erros desse tipo são muito frequentes. Nesse caso, o Comitê também levou em consideração o fato de que o vídeo era de um jornalista verificado e havia sido exibido por um serviço de transmissão convencional do Reino Unido em 2013. A Meta deve priorizar a redução desses erros. A implementação completa das recomendações mencionadas acima poderia reduzir o número de remoções indevidas de acordo com a Política sobre Organizações e Indivíduos Perigosos da empresa.
Decisão
O Comitê revoga a decisão original da Meta de remover o conteúdo. Além disso, após levar o caso ao conhecimento da empresa, reconhece que ela corrigiu o erro inicial.
Voltar para Decisões de Casos e Pareceres Consultivos sobre Políticas