Decisão de múltiplos casos
Conteúdo explícito em contexto de conscientização
21 de Abril de 2026
Quatro usuários enviaram uma apelação da decisão da Meta de remover seus posts no Facebook e Instagram que continham conteúdo explícito em um contexto de conscientização.
4 casos incluídos neste pacote
FB-PW4MPO8J
Caso sobre conteúdo violento e explícito no Facebook
FB-GKN5CHBI
Caso sobre conteúdo violento e explícito no Facebook
FB-S5ZFX6W8
Caso sobre conteúdo violento e explícito no Facebook
IG-IA95C08R
Caso sobre conteúdo violento e explícito no Instagram
As decisões sumárias examinam casos em que a Meta reverteu a decisão original dela sobre um conteúdo depois que o Comitê o levou à atenção da empresa e incluem informações sobre os erros reconhecidos por ela. Elas são aprovadas por um painel de membros do Comitê, e não por ele inteiro, não envolvem comentários públicos e não têm valor precedente para o Comitê. As decisões sumárias geram mudanças diretas nas decisões da Meta, proporcionando transparência nessas correções e identificando em que área a empresa poderia melhorar sua aplicação.
Resumo
Quatro usuários enviaram uma apelação da decisão da Meta de remover seus posts no Facebook e Instagram que continham conteúdo explícito em um contexto de conscientização. Após o Comitê levar as apelações à atenção da Meta, a empresa reverteu suas decisões originais e restaurou todos os quatro posts.
Sobre os casos
Em agosto e setembro de 2025, quatro usuários de três países diferentes (México, Ucrânia e Brasil) postaram conteúdo com imagens explícitas em um contexto de conscientização que foram inicialmente removidos pela Meta por violarem a Política sobre Conteúdo Violento e Explícito.
No primeiro caso, o usuário postou um vídeo no Facebook mostrando um indivíduo segurando um balde de água perto de várias pessoas com queimaduras visíveis, aparentemente após a explosão de um caminhão de gás na Cidade do México.. A legenda, traduzida do espanhol, diz: "Mistakes you should not make." (Erros que você não deve cometer.) No áudio, uma pessoa explica que o indivíduo com o balde pretendia jogar água nas vítimas das queimaduras, o que introduziria bactérias na pele exposta. Em sua apelação ao Comitê, o usuário afirmou que o vídeo era sobre uma explosão no México.
O segundo caso envolve um post no Facebook com um vídeo mostrando vítimas feridas aparentemente na mesma explosão na Cidade do México. À medida que o vídeo se concentra em algumas das vítimas, que estão nuas, a imagem escurece e torna-se mais obscura. A legenda, traduzida do espanhol, diz "Strong images" (Imagens fortes), seguida de hashtags como "#fire" (#incêndio) e "#news" (#notícias). Em sua apelação ao Comitê, o usuário afirmou que estava "informing the public about important issues" (informando o público sobre questões importantes).
No terceiro caso, uma organização de notícias postou um vídeo que, em dois momentos diferentes, apresenta a imagem de uma garganta cortada. A legenda, traduzida do ucraniano, diz: "With his throat cut, [name] crawled for five days from captivity to Ukrainian positions [...] Together with his comrades, he fell into an ambush by Russian soldiers." ("Com a garganta cortada, [nome] rastejou por cinco dias do cativeiro até as posições ucranianas [...] Juntamente com seus companheiros, ele caiu em uma emboscada feita por soldados russos.") O post também afirma que o combatente e seus companheiros foram torturados enquanto estavam em cativeiro. Em sua apelação ao Comitê, a organização de notícias explicou que o vídeo foi postado como "prova importante de tortura e graves violações dos direitos humanos" e "serve ao interesse público ao documentar crimes e aumentar a conscientização sobre as [suas] consequências".
No quarto caso, um usuário do Instagram postou um vídeo de uma pessoa retirando a pele da mão para revelar a carne exposta. A legenda, traduzida do português, fornece informações sobre os riscos de infecção e desidratação associados à perda da continuidade da pele. Ela ressalta a importância dos cuidados adequados para lesões de pele. A legenda também contém hashtags relacionadas à enfermagem e à saúde. Em sua apelação ao Comitê, o usuário afirmou ser um professor especializado em dermatologia e que seu conteúdo tem o objetivo de ser educativo para estudantes e profissionais da área da saúde.
De acordo com a Política sobre Conteúdo Violento e Explícito, a Meta proíbe "vídeos de pessoas, vivas ou mortas, em contextos não médicos, que mostrem [...] vísceras visíveis, como órgãos expostos, ossos ou tecido muscular em pessoas vivas ou mortas; pessoas queimadas ou carbonizadas; ou cortes na garganta".
Após a seleção dos casos pelo Comitê, a Meta determinou que havia removido incorretamente todos os quatro posts. No primeiro caso, a empresa concluiu que, embora as lesões sejam visíveis, o conteúdo não viola a política porque não retrata vermelhidão, bolhas, descamação ou secreção. No segundo caso, ela chegou à mesma conclusão, desta vez porque as lesões não são visíveis devido ao escurecimento da imagem à medida que entram em foco. Em relação ao terceiro caso, a Meta explicou que, para imagens estáticas que mostram uma garganta cortada, aplica "uma tela de aviso para indicar que o conteúdo é sensível e restringe a visualização a pessoas com 18 anos ou mais". Portanto, ela concluiu que o conteúdo deveria ser permitido, desde que fosse exibido atrás de uma tela de aviso com visibilidade limitada a adultos. No quarto caso, observou que "o conteúdo retrata carne superficial sem órgãos, ossos ou tecido muscular visíveis", acrescentando que "as queimaduras não parecem graves o suficiente para constituir uma violação" da Política sobre Conteúdo Violento e Explícito. Consequentemente, a Meta restaurou todos os quatro posts, sendo que, no terceiro caso, foi aplicada uma tela de aviso com restrição de idade ao conteúdo.
Autoridade e escopo do Comitê
O Comitê tem autoridade para analisar a decisão da Meta após uma apelação do usuário cujo conteúdo foi removido (Artigo 2, Seção 1 do Estatuto; e Artigo 3, Seção 1 dos Regulamentos Internos).
Quando a Meta reconhece que cometeu um erro e reverte a decisão em um caso sob consideração para análise do Comitê, ele pode selecionar esse caso para uma decisão sumária (Artigo 2, Seção 2.1.3 dos Regulamentos Internos). O Comitê analisa a decisão original para aumentar a compreensão do processo de moderação de conteúdo, reduzir erros e aumentar a justiça para os usuários do Facebook, do Instagram e do Threads.
Significância dos casos
Este pacote fornece vários exemplos de overenforcement dos Padrões da Comunidade sobre Conteúdo Violento e Explícito da Meta, mostrando como isso pode afetar a conscientização sobre eventos de notícias envolvendo assuntos de interesse público, questões relacionadas à saúde e violações de direitos humanos.
No caso Vídeo explícito do Sudão, o Comitê observou que, embora o fundamento da política dos Padrões da Comunidade sobre Conteúdo Violento e Explícito declare que a Meta permite a conscientização, as regras específicas dentro deles não incluem uma exceção de "conscientização". O Comitê recomenda que a “Meta deve alterar os Padrões da Comunidade sobre Conteúdo Violento e Explícito de forma que permita o compartilhamento de vídeos que mostrem pessoas ou cadáveres com o objetivo de conscientizar ou registrar violações de direitos humanos. O conteúdo deve ser permitido com uma tela de aviso que informa às pessoas que o conteúdo pode ser perturbador” (Vídeo explícito do Sudão, recomendação n.º 1). O Comitê considera que essa recomendação foi reformulada pela Meta. A empresa afirmou: "No ano passado, convidamos o Comitê para participar de um Fórum de Políticas relacionado a esta recomendação [...] Por fim, considerando o feedback recebido durante o desenvolvimento desta política, alinhamos-nos à política atual de remover o conteúdo por padrão, mas permitir conteúdo com um aviso quando houver contexto adicional." Embora isso não altere os Padrões da Comunidade para permitir vídeos de pessoas ou cadáveres quando compartilhados com o objetivo de conscientizar ou documentar violações de direitos humanos em grande escala, continua permitindo que esse conteúdo seja avaliado em caso de escalation" (Atualização Trimestral do 4º Trimestre de 2023 da Meta sobre o Comitê de Supervisão).
Em relação ao terceiro caso, que mostra o resultado de aparente violência contra um soldado ucraniano capturado, o Comitê recomendou anteriormente que "a Meta se comprometa a preservar e, quando apropriado, compartilhar com as autoridades competentes as provas de crimes de atrocidade ou graves violações dos direitos humanos, como as especificadas no Estatuto de Roma do Tribunal Penal Internacional, atualizando suas políticas internas para deixar claros os protocolos que possui a esse respeito" ( Vídeo de prisioneiros de guerra armênios, recomendação n.º 1). Na mesma decisão, o Comitê também recomendou que "após o desenvolvimento do protocolo sobre preservação de provas relacionadas com crimes de atrocidades e graves violações dos direitos humanos, a Meta deve compartilhar publicamente este protocolo na Central de Transparência" ( Vídeo de prisioneiros de guerra armênios, recomendação n.º 4). A Meta informou ter implementado essas recomendações, mas não publicou informações para comprovar isso. Em resposta a ambas as recomendações, a Meta declarou: "Informamos o Comitê de Supervisão [...] para compartilhar detalhes sobre nossa nova abordagem a fim de reter possíveis evidências de crimes de atrocidade e violações graves do direito internacional dos direitos humanos" (Atualização semestral da Meta sobre o Comitê de Supervisão no primeiro semestre de 2024).
O Comitê acredita que a implementação integral das recomendações acima mencionadas permitiria aos usuários de notícias que envolvam assuntos de interesse público, questões relacionadas à saúde e violações dos direitos humanos.
Decisão
O Comitê revoga as decisões originais da Meta de remover os quatro trechos de conteúdo. Além disso, após levar os casos ao conhecimento da empresa, ele reconhece que ela corrigiu os erros iniciais.
Voltar para Decisões de Casos e Pareceres Consultivos sobre Políticas