Decisão de múltiplos casos
Ameaças retóricas contra autoridades
29 de Janeiro de 2026
Quatro usuários enviaram uma apelação da decisão da Meta de remover seus posts no Facebook e no Instagram que continham ameaças retóricas contra autoridades. Após o Comitê levar as apelações à atenção da Meta, a empresa reverteu suas decisões originais e restaurou todos os quatro posts.
4 casos incluídos neste pacote
IG-NCZ5E9W0
Caso sobre violência e incitação no Instagram
FB-FSSEO67W
Caso sobre violência e incitação no Facebook
FB-K4GVOGGB
Caso sobre violência e incitação no Facebook
FB-XYOQF1VK
Caso sobre violência e incitação no Facebook
As decisões sumárias examinam casos em que a Meta reverteu a decisão original dela sobre um conteúdo depois que o Comitê o levou à atenção da empresa e incluem informações sobre os erros reconhecidos por ela. Elas são aprovadas por um painel de membros do Comitê, e não por ele inteiro, não envolvem comentários públicos e não têm valor precedente para o Comitê. As decisões sumárias geram mudanças diretas nas decisões da Meta, proporcionando transparência nessas correções e identificando em que área a empresa poderia melhorar sua aplicação.
Resumo
Quatro usuários enviaram uma apelação da decisão da Meta de remover seus posts no Facebook e no Instagram que continham ameaças retóricas contra autoridades. Após o Comitê levar as apelações à atenção da Meta, a empresa reverteu suas decisões originais e restaurou todos os quatro posts.
Sobre os casos
Em julho e agosto de 2025, quatro usuários de diferentes países (Etiópia, Paquistão, Ucrânia e Itália) postaram trechos de conteúdo com ameaças retóricas contra autoridades, que foram inicialmente removidos pela Meta por violarem os Padrões da Comunidade sobre Violência e Incitação.
No primeiro caso, um usuário comentou em amárico em um post do Facebook com fotos do primeiro-ministro etíope, Abiy Ahmed, com o primeiro-ministro chinês, Li Qiang. O post também inclui a mensagem do primeiro-ministro Ahmed sobre o 55º aniversário das relações entre Etiópia e China e os benefícios resultantes dessa cooperação. O comentário expressava apoio à reivindicação da Etiópia sobre o Porto de Assab, localizado na Eritreia. O usuário também mencionou que espera paz e colaboração entre a Etiópia e a Eritreia, afirmando que “This Nazi Isaias” (Este nazista Isaias) [o primeiro-ministro eritreu Isaias Afwerki] “should be eliminated” (deveria ser eliminado). Em sua apelação ao Comitê, o usuário mencionou que seu post não inclui palavras ou declarações “sensitive” (sensíveis).
O segundo caso envolve um post no Facebook em urdu que criticava a corrupção no recrutamento do setor público no Baluchistão, uma província do Paquistão. O post inclui uma foto de uma pessoa caminhando descalça no deserto ao lado de um burro, destacando que a pobreza na província está “increasing day by day” (aumentando a cada dia). O usuário também acusa representantes do governo de aceitarem subornos para contratar candidatos não qualificados para cargos públicos e afirmou: “May Allah damn these corrupt and conscienceless officers who sell away our rights for money.” (Que Alá amaldiçoe esses oficiais corruptos e sem escrúpulos que vendem nossos direitos por dinheiro). Essa declaração foi originalmente traduzida para o inglês pela Meta como “May Allah drown those bastards, shameless and unscrupulous officers who sell our rights on us for money.” (Que Alá afogue esses bastardos, oficiais sem vergonha e sem escrúpulos que vendem nossos direitos por dinheiro). A legenda termina com um emoji de rosto chorando. Em sua declaração ao Comitê, o usuário explicou que este é “an important and serious issue in Pakistan,” (um problema importante e sério no Paquistão) e que ele apenas escreve sobre a realidade de seu país.
No terceiro caso, um usuário postou em ucraniano uma foto de duas mulheres usando máscaras faciais com uma legenda dirigida a membros do Parlamento ucraniano, políticos e ao presidente por aquilo que descreveram como erros na resposta à ofensiva russa com consequências “catastrophic” (catastróficas), alegando que os ucranianos pagaram com suas vidas. O post afirma: “You will be judged and beaten harshly – not by your words but by your actions.” (Vocês serão julgados e punidos severamente – não por suas palavras, mas por suas ações). Em sua apelação ao Comitê, o usuário afirmou que a Meta estava errada porque a empresa “did not take into account the wording and context.” (não levou em consideração o texto e o contexto). Ele também afirmou que fez “information-raising statements to show people the problems of the corrupt government” (declarações informativas para mostrar às pessoas os problemas do governo corrupto), mas “did not call for violence.” (não incitou a violência). O usuário mencionou ainda que a crítica a partidos políticos e a políticos é um componente importante da democracia e que a remoção desse post “will negatively affect the state of civil society in Ukraine,” (afetará negativamente o estado da sociedade civil na Ucrânia), pois privará as pessoas de saberem “the truth about the government and those stealing their money.” (a verdade sobre o governo e aqueles que roubam seu dinheiro).
Por fim, no quarto caso, um usuário do Instagram comentou em italiano em um carrossel de fotos de um evento artístico onde artistas jogavam futebol usando uma réplica da cabeça do ditador espanhol Francisco Franco como bola. O comentário afirma que isso deveria ser repetido “with the head of the big bald that someone is still revering today,” (com a cabeça do careca grandalhão que alguém ainda reverencia hoje), sendo a expressão “big bald” (careca grandalhão) uma alusão ao ditador italiano Benito Mussolini. O comentário acrescenta então que enviariam essas pessoas para Piazzale Loreto, o local onde o cadáver de Mussolini foi exibido publicamente em abril de 1945. Em sua apelação ao Comitê, o usuário afirmou que seu post “nothing against [the] community or Instagram,” (não tinha nada contra a comunidade ou o Instagram), classificando-o como um “friendly antifa comment.” (comentário amigável da Antifa).
De acordo com os Padrões da Comunidade sobre Violência e Incitação, a Meta proíbe “ameaças de violência que possam levar à morte” ou “ferimentos graves” e “declarações codificadas em que a ameaça de violência não é claramente articulada, mas a ameaça é velada ou implícita”. No entanto, o fundamento da política afirma que a empresa tenta “levar em consideração a linguagem e o contexto para distinguir declarações casuais ou de conscientização de conteúdo que constitua uma ameaça real à segurança pública ou pessoal”. O fundamento da política também destaca que a Meta “considera informações adicionais, como a visibilidade pública da pessoa e os riscos para sua segurança física”, para determinar se as ameaças são reais.
Após o Comitê ter levado esses casos ao conhecimento da Meta, a empresa concluiu que nenhum dos quatro trechos de conteúdo violava a Política sobre Violência e Incitação da Meta, e que as remoções foram incorretas. A empresa identificou que as declarações dirigidas às autoridades são expressões retóricas de crítica, desprezo ou desaprovação, e não ameaças críveis.
No primeiro caso, a Meta concluiu que o termo “eliminated” (eliminado) deveria ser interpretado como uma incitação à destituição do primeiro-ministro Afwerki do cargo, e não como uma ameaça de violência, visto que as discussões sobre sua possível destituição têm sido um tema recorrente no discurso político regional. No segundo caso, a Meta concluiu que a declaração do usuário – que foi originalmente traduzida para o inglês pela Meta como “drown those bastards, shameless and unscrupulous officers,” (afogue esses bastardos, oficiais sem vergonha e sem escrúpulos), mas posteriormente atualizada pela empresa para “damn these corrupt and conscienceless officers,” (malditos sejam esses oficiais corruptos e sem escrúpulos) – é melhor compreendida como uma expressão de forte desprezo (na forma de uma oração a Deus) em relação aos líderes locais. No terceiro caso, a Meta decidiu que a declaração “you will be judged and beaten harshly – not by your words but by your actions” (vocês serão julgados e punidos severamente – não por suas palavras, mas por suas ações) é melhor interpretada como uma crítica aos líderes ucranianos. Por fim, no quarto caso, a Meta identificou a referência à Piazzale Loreto como um sinal de ameaça, dado o histórico de violência no local, mas concluiu que o comentário não representa um risco iminente de violência contra simpatizantes de Mussolini. A Meta concluiu então que o comentário não atendia aos critérios para ser classificado como uma ameaça velada. A empresa, portanto, restaurou todos os quatro trechos de conteúdo em suas plataformas.
Autoridade e escopo do Comitê
O Comitê tem autoridade para analisar a decisão da Meta após uma apelação do usuário cujo conteúdo foi removido (Artigo 2, Seção 1 do Estatuto; e Artigo 3, Seção 1 dos Regulamentos Internos).
Quando a Meta reconhece que cometeu um erro e reverte a decisão em um caso sob consideração para análise do Comitê, ele pode selecionar esse caso para uma decisão sumária (Artigo 2, Seção 2.1.3 dos Regulamentos Internos). O Comitê analisa a decisão original para aumentar a compreensão do processo de moderação de conteúdo, reduzir erros e aumentar a justiça para os usuários do Facebook, do Instagram e do Threads.
Significância dos casos
Este pacote destaca a overenforcement da Política sobre Violência e Incitação da Meta a declarações retóricas e como as deficiências da empresa em distinguir entre ameaças de violência críveis e não críveis continuam a restringir a liberdade de expressão política.
O Comitê tem reiteradamente enfatizado a importância de diferenciar ameaças críveis de violência que possam causar danos concretos de ameaças retóricas de violência usadas para expressar desprezo, desaprovação, crítica ou ressentimento em relação a regimes políticos ou figuras no poder, bem como a necessidade de salvaguardar estas últimas. Por exemplo, na decisão do caso Slogan de protesto no Irã, o Comitê determinou que um slogan de protesto amplamente usado, cuja tradução literal é um apelo à morte do líder supremo do Irã, o Aiatolá Khamenei, foi empregado de forma retórica para expressar desaprovação. Além disso, na decisão do caso Declarações sobre o primeiro-ministro japonês, o Comitê destacou que “a ameaça contra um líder político [o ex-primeiro-ministro japonês Fumio Kishida] tinha a intenção de ser uma crítica política não literal, chamando a atenção para uma suposta corrupção, usando linguagem forte”.
Nesses dois casos, o Comitê emitiu recomendações relevantes para o caso em questão. Em primeiro lugar, o Comitê recomendou que a Meta “alterasse os Padrões da Comunidade sobre Violência e Incitação para (i) explicar que ameaças retóricas como declarações de “morte a X” são geralmente permitidas, exceto quando o alvo da ameaça é uma pessoa de alto risco; (ii) incluir uma lista ilustrativa de pessoas de alto risco, explicando que podem incluir chefes de Estado; (iii) estabelecer critérios para quando declarações ameaçadoras dirigidas a chefes de Estado são permitidas a fim de proteger o discurso político claramente retórico em contextos de protesto que não incite a violência” (Slogan de protesto no Irã, recomendação n.º 1). Em segundo lugar, o Comitê recomendou que a Meta “atualizasse as diretrizes internas [da empresa] para analistas em escala sobre apelos à morte usando a frase “morte a” quando direcionados a pessoas de alto risco”, especificamente para “permitir posts que, no contexto e idioma locais, expressem desdém ou desacordo por meio de ameaças de violência casuais e pouco sérias” ( Declarações sobre o primeiro-ministro japonês, recomendação n.º 2).
A Meta relatou progressos na implementação de ambas as recomendações, explicando que a empresa tem estado “comprometida em desenvolver políticas relacionadas à [sua] abordagem às ‘incitações à morte’” e em “aprimorar definições e trabalho em toda a Política sobre Violência e Incitação” (Relatório da Meta para o 1.º semestre de 2025 sobre o Comitê de Supervisão – Apêndice).
Além disso, para garantir que as potenciais ameaças veladas sejam avaliadas com mais precisão, o Comitê recomendou que a Meta “produza uma avaliação anual de precisão para esta área problemática”, incluindo um “foco específico nas taxas de falsos negativos de detecção e remoção de ameaças contra ativistas dos direitos humanos e nas taxas de false positive para discursos políticos” (Conteúdo direcionado a ativistas de direitos humanos no Peru, recomendação n.º 2). A implementação está em andamento. Em sua resposta inicial ao Comitê em relação a essa recomendação, a Meta explicou que “realizar uma avaliação de ‘precisão’ é desafiador, pois a avaliação final é o resultado de fatores complexos que podem ser específicos de um contexto regional, histórico ou situacional”, mas enfatizou que a empresa trabalhará para “aprimorar a forma como o conteúdo é apresentado para avaliação de ameaças veladas”. O Comitê acredita que a implementação integral dessas recomendações contribuiria para a redução do número de erros de aplicação da Política sobre Violência e Incitação, fazendo com que a avaliação da empresa sobre a credibilidade das ameaças tenha mais nuances e seja mais focada em contexto. Além disso, isso permitiria à Meta identificar mais facilmente as deficiências na aplicação das políticas relacionadas a ameaças veladas, alocando recursos para melhorar as taxas de precisão onde necessário.
Decisão
O Comitê revoga as decisões originais da Meta de remover os quatro trechos de conteúdo. Além disso, após levar os casos ao conhecimento da empresa, ele reconhece que ela corrigiu os erros iniciais.
Voltar para Decisões de Casos e Pareceres Consultivos sobre Políticas