Decisão de múltiplos casos

Comunicado de imprensa da Frente de Libertação Oromo

Em outro caso, dois usuários recorreram das decisões da Meta de remover um post de cada um deles, ambas contendo um comunicado de imprensa da Frente de Libertação Oromo (OLF, na sigla em inglês), um partido político que defende a autodeterminação do povo Oromo na Etiópia.

2 casos incluídos neste pacote

Anulado

FB-KW5ZYLJ8

Caso sobre organizações e indivíduos perigosos no Facebook

Plataforma
Facebook
विषय
Liberdade de expressão,Política
Padrão
Indivíduos e organizações perigosos
Localização
Etiópia
Date
Publicado em 24 de Fevereiro de 2026
Anulado

FB-A41GXKK9

Caso sobre organizações e indivíduos perigosos no Facebook

Plataforma
Facebook
विषय
Liberdade de expressão,Política
Padrão
Indivíduos e organizações perigosos
Localização
Etiópia
Date
Publicado em 24 de Fevereiro de 2026

As decisões sumárias examinam casos em que a Meta reverteu a decisão original dela sobre um conteúdo depois que o Comitê o levou à atenção da empresa e incluem informações sobre os erros reconhecidos por ela. Elas são aprovadas por um painel de membros do Comitê, e não por ele inteiro, não envolvem comentários públicos e não têm valor precedente para o Comitê. As decisões sumárias geram mudanças diretas nas decisões da Meta, proporcionando transparência nessas correções e identificando em que área a empresa poderia melhorar sua aplicação.

Resumo

Em outro caso, dois usuários recorreram das decisões da Meta de remover um post de cada um deles, ambas contendo um comunicado de imprensa da Frente de Libertação Oromo (OLF, na sigla em inglês), um partido político que defende a autodeterminação do povo Oromo na Etiópia. Após o Comitê levar as apelações à atenção da Meta, a empresa reverteu suas decisões e restaurou ambos os posts.

Sobre os casos

O Comitê analisou dois trechos de conteúdo, incluindo um comunicado de imprensa da OLF. Em ambos os casos, dois usuários diferentes do Facebook compartilharam um comunicado de imprensa e uma legenda no idioma oromo, afirmando que a sede da OLF na capital da Etiópia, Adis Abeba, havia sido oficialmente devolvida ao partido em junho de 2025. No comunicado de imprensa, a OLF descreveu o evento como resultado de esforços prolongados e expressou gratidão a todas as instituições e membros que apoiaram o processo.

A OLF foi estabelecida em 1973 como uma organização política que defende a autodeterminação do povo Oromo, o maior grupo étnico da Etiópia. Historicamente, a OLF se envolveu em lutas armadas contra o governo etíope, que a designou como um grupo terrorista. No entanto, em 2018, o governo etíope removeu a OLF de sua lista de terroristas, permitindo que seus líderes retornassem do exílio. Uma facção dissidente que servia como braço armado da OLF recusou-se a desarmar-se e continuou a sua resistência armada contra o governo federal. Em 2021, as autoridades etíopes designaram a facção como uma organização terrorista.

De acordo com sua Política sobre Organizações e Indivíduos Perigosos, a empresa remove “a glorificação, o apoio e a representação” de indivíduos ou organizações que “proclamam uma missão violenta ou que estejam envolvidos em violência”.

Em seus recursos ao Comitê, os usuários afirmaram que os posts compartilham um comunicado de imprensa da OLF sobre a reabertura de sua sede em Addis Abeba e não violam as políticas da Meta. Eles enfatizaram que a OLF é um partido político legalmente registrado e reconhecido pelo Conselho Eleitoral Nacional da Etiópia.

Após o Comitê ter levado esses casos ao conhecimento da Meta, a empresa determinou que os posts se referem à Frente de Libertação Oromo, distinta de uma organização com nome semelhante designada como um agente não estatal violento de Nível 2 conforme a Política sobre Organizações e Indivíduos Perigosos. Segundo a Meta, como os posts não se referiam a uma entidade designada, eles não violaram a política. Portanto, as decisões iniciais da Meta de remover os posts estavam incorretas. A empresa então restaurou os dois conteúdos no Facebook.

Autoridade e escopo do Comitê

O Comitê tem autoridade para analisar a decisão da Meta após uma apelação do usuário cujo conteúdo foi removido (Artigo 2, Seção 1 do Estatuto; e Artigo 3, Seção 1 dos Regulamentos Internos).

Quando a Meta reconhece que cometeu um erro e reverte a decisão em um caso sob consideração para análise do Comitê, ele pode selecionar esse caso para uma decisão sumária (Artigo 2, Seção 2.1.3 dos Regulamentos Internos). O Comitê analisa a decisão original para aumentar a compreensão do processo de moderação de conteúdo, reduzir erros e aumentar a justiça para os usuários do Facebook, do Instagram e do Threads.

Significância dos casos

Esses casos destacam a contínua aplicação negligente dos Padrões da Comunidade sobre Organizações e Indivíduos Perigosos da Meta, mesmo contra conteúdo que não faz referência a uma entidade designada. Esses erros de aplicação, que infringem a liberdade de expressão dos usuários, são particularmente preocupantes em um país como a Etiópia, onde há um conflito em curso e a liberdade de expressão é restrita.

O Comitê já emitiu diversas recomendações sobre esse tema. Entre elas, o Comitê recomendou que a Meta “explique os métodos que [a empresa] usa para avaliar a precisão da análise humana e o desempenho de sistemas automatizados na aplicação de sua Política sobre Organizações e Indivíduos Perigosos” (caso Uso do termo “shaheed” em referência a indivíduos designados como perigosos, recomendação n.º 6). O Comitê considera que essa recomendação foi reformulada pela Meta. A empresa declarou que realiza auditorias para avaliar a precisão de suas decisões de moderação de conteúdo e que essas auditorias orientam as áreas para melhoria. A Meta, no entanto, não explicou e se recusou a divulgar os métodos que utiliza para fazer essas avaliações, o que melhoraria ainda mais a transparência da empresa em relação à aplicação de suas políticas e padrões, inclusive em diferentes regiões, mercados e idiomas.

Além disso, para melhorar a transparência geral em relação à designação e à desdesignação de entidades, o Comitê recomendou: “A Meta deveria explicar com mais detalhes o procedimento pelo qual entidades e eventos são designados.” A Meta deveria também publicar regularmente informações agregadas sobre sua lista de designações, incluindo o número total de entidades em cada nível da lista, bem como o número de entidades que foram adicionadas e removidas de cada nível no último ano” (caso Uso do termo “shaheed” em referência a indivíduos designados como perigosos, recomendação n.º 4). A Meta implementou parcialmente essa recomendação. Em novembro de 2024, a Meta publicou informações sobre como e por que a empresa designa organizações ou indivíduos e como e quando considerará sua remoção da lista de organizações e indivíduos perigosos. A Meta, no entanto, não publicou dados sobre o número total de entidades em cada nível da lista, nem quantas foram removidas da lista.

O Comitê também emitiu uma recomendação focada na aplicação automatizada, solicitando à Meta que “implemente um procedimento de auditoria interna para analisar continuamente uma amostra estatisticamente representativa de decisões automatizadas de remoção de conteúdo para reverter e aprender com os erros de aplicação” (caso Sintomas de câncer de mama e nudez, recomendação n.º 5). O Comitê considera que a Meta não atendeu a essa recomendação, visto que a empresa a agrupou com a recomendação nº 1 do mesmo caso, que solicitava à Meta que “aprimorasse a detecção automática de imagens com sobreposição de texto para garantir que os posts que conscientizam sobre os sintomas do câncer de mama não sejam sinalizados indevidamente para análise”. Embora a Meta tenha relatado melhorias na detecção automatizada de imagens, a empresa não se envolveu no procedimento de auditoria interna descrito pelo Comitê na recomendação n.º 5 ( Atualização da Meta no T2 + T3 de 2021 no Comitê de Supervisão, p. 32).

A overenforcement repetida da Política sobre Organizações e Indivíduos Perigosos da empresa, conforme destacado em decisões sumárias anteriores (por exemplo, Link para um artigo da Wikipedia sobre o Hayat Tahrir al-Sham, Menção ao Al-Shabaab, Líder anticolonialista Amílcar Cabral), prejudica a capacidade dos usuários de compartilhar notícias nas plataformas da Meta. O Comitê acredita que a implementação integral dessas recomendações fortalecerá ainda mais a capacidade da empresa de aprimorar a precisão da aplicação e proteger melhor a liberdade de expressão dos usuários. Além disso, compartilhar informações adicionais sobre a designação das entidades aumentaria a transparência geral e geraria engajamento com a Meta, o que tem o potencial de levar a melhorias adicionais.

Decisão

O Comitê revoga as decisões originais da Meta de remover os dois trechos de conteúdo. Além disso, após levar os casos ao conhecimento da empresa, ele reconhece que ela corrigiu os erros iniciais.

Voltar para Decisões de Casos e Pareceres Consultivos sobre Políticas