Decisões abrangentes protegem o discurso e resolvem danos 

Hoje, o Comitê de Supervisão divulgou decisões relativas a 11 casos originados de apelações feitas por usuários em três continentes. Essas decisões são as primeiras a considerar as mudanças nas políticas e na aplicação das regras que a Meta anunciou em 7 de janeiro de 2025. Como em todas as nossas deliberações, somos guiados pelo compromisso com a liberdade de expressão online e pela convicção de que a Meta tem o dever de enfrentar os danos negativos no mundo real decorrentes do uso de suas plataformas. Reforçamos também a importância de maior transparência, coerência e equidade na forma como a empresa modera conteúdos.

Os casos analisados hoje tratam de temas como liberdade de expressão relacionada à identidade de gênero, representações do apartheid, discurso anti-imigrante, ódio contra pessoas com deficiência, silenciamento de vozes LGBTQIA+ e protestos ocorridos no Reino Unido em 2024. As análises exigiram que o Comitê refletisse sobre questões complexas, muitas das quais envolvem a atual política de Conduta de Ódio da Meta, anteriormente conhecida como política de Discurso de Ódio. Nas decisões de hoje, reafirmamos que discursos controversos podem — e em muitos casos devem — permanecer na plataforma. No entanto, também destacamos que a Meta tem a obrigação de remover conteúdos que estejam claramente ligados a danos concretos.

Mais de mil indivíduos e organizações de cinco continentes participaram desses casos por meio de comentários públicos, enriquecendo a análise com diferentes pontos de vista. Essas contribuições se somaram às reflexões dos 21 membros do Comitê, que representam uma ampla diversidade geográfica e cultural. Essa pluralidade reflete a própria base de usuários da Meta, sendo que 95% dos usuários da empresa estão fora dos Estados Unidos.

As decisões de hoje ilustram os desafios crescentes à liberdade de expressão no ambiente digital e reforçam a importância contínua de protegê-la. Nosso compromisso com essa causa vai além de divisões políticas. Diante do intenso engajamento que essas questões geraram, esperamos que nossas decisões e recomendações incentivem um debate mais transparente e construtivo, contribuindo para que a Meta preste contas aos seus usuários.

Os resultados dos casos de hoje

Devido à apelação de usuários das plataformas da Meta, os 11 casos foram analisados, todos escolhidos por tratarem de questões relevantes de liberdade de expressão e por questionarem os limites das políticas e práticas de aplicação da Meta. O Comitê adota um rigoroso padrão ao avaliar a restrição da liberdade de expressão, sempre dentro de uma estrutura internacional de direitos humanos. As divergências entre as opiniões majoritária e minoritária nas decisões de hoje refletem a complexidade de equilibrar um compromisso forte com a liberdade de expressão e a preocupação legítima com outros direitos humanos, mostrando que discussões ponderadas podem gerar diferentes visões sobre esses temas.

  • Nos casos envolvendo vídeos sobre identidade de gênero, a maioria dos membros do Comitê decidiu que a Meta deveria permitir duas publicações que abordam o acesso de pessoas transgênero a banheiros e sua participação em eventos esportivos nos Estados Unidos. Embora as publicações tivessem um tom provocativo, substituindo o gênero de pessoas trans de formas que poderiam ser consideradas ofensivas, a maioria do Comitê concluiu que as publicações tratavam de questões de interesse público e não incitariam violência ou discriminação iminente.
  • Em outro conjunto de casos, em que o Comitê analisou duas publicações com imagens relacionadas ao apartheid, incluindo a antiga bandeira da África do Sul, a maioria manteve a decisão da Meta de deixar as publicações disponíveis no Facebook. Embora todos os membros do Comitê tenham reconhecido que a bandeira representava um símbolo do apartheid na África do Sul, evocando memórias dolorosas, a maioria dos membros entendeu que a remoção das publicações não teria sido a maneira menos invasiva de lidar com os danos causados. Apesar de ter identificado uma violação de uma regra específica sobre “ideologias de ódio”, o Comitê concluiu que as publicações deveriam ser mantidas, com base nos padrões internacionais de liberdade de expressão. O Comitê também sugeriu que o Padrão da Comunidade fosse mais claro em relação a esse tipo de conteúdo.
  • Em dois casos envolvendo discurso anti-imigrante na Polônia e na Alemanha, a maioria do Comitê decidiu que a Meta deveria remover conteúdos que continham insultos racistas e generalizações sobre migrantes, retratando-os como predadores sexuais. Os membros do Comitê argumentaram que esse tipo de conteúdo aumentava os riscos de discriminação e violência contra migrantes, especialmente em um contexto de polarização política em torno de uma eleição, em que a migração era um tema importante.

Nos três conjuntos de casos mencionados, que envolvem seis publicações, as opiniões minoritárias destacam a diversidade de membros do Comitê e as diferentes abordagens sobre a melhor forma de proteger os direitos humanos no ambiente online. As diferenças de opinião sobre as respostas mais apropriadas para as questões mais complexas de discurso são essenciais para a estrutura do Comitê. Em cada uma de nossas decisões, explicamos claramente os motivos por trás de nossos resultados.

  • O anúncio de hoje também traz decisões unânimes do Comitê em relação a três publicações vinculadas aos protestos no Reino Unido no verão de 2024. Cada uma dessas publicações defendia a violência contra imigrantes e muçulmanos durante essa semana de protestos em grande escala. O Comitê revogou a decisão da Meta, exigindo que as publicações fossem removidas do Facebook, devido à alta probabilidade de que elas incitassem distúrbios e violência iminentes. Nos casos mencionados, uma análise cuidadosa da maneira como a Meta aplicou suas políticas de conteúdo durante uma crise revelou falhas na capacidade da empresa de avaliar com precisão formas visuais de incitação baseadas em desinformação viral e informações falsas.
  • Além dessas decisões principais, o Comitê também divulgou duas decisões resumidas, que abordam erros na aplicação das políticas da Meta. No primeiro caso, a Meta removeu indevidamente um vídeo de um artista drag, decidindo erradamente que ele continha um insulto proibido. No entanto, o termo em questão foi utilizado de maneira autorreferencial, o que é explicitamente permitido pelas políticas da Meta. O Comitê destacou que remoções equivocadas como essa não só comprometem a liberdade de expressão, mas também podem afetar negativamente os meios de subsistência das pessoas envolvidas. No segundo caso, o Comitê identificou um exemplo claro de discurso desumanizante contra pessoas com deficiência, o que gerou preocupações sobre a falha nos sistemas de monitoramento da Meta em identificar esse tipo de conteúdo.

Respondendo às últimas mudanças da Meta

Embora as mudanças na política da Meta em 7 de janeiro não tenham influenciado os resultados dos casos publicados hoje, as recomendações presentes nas decisões de hoje ainda respondem a algumas dessas alterações.

Em nossas decisões, expressamos preocupação de que as mudanças na política e na execução da Meta em 7 de janeiro de 2025 foram anunciadas de maneira apressada, sem seguir o procedimento habitual, e sem a divulgação pública de informações sobre qualquer diligência prévia relacionada aos direitos humanos que a empresa tenha realizado.

O Comitê faz um apelo à Meta para que cumpra seu compromisso público de respeitar os Princípios Orientadores da ONU sobre Empresas e Direitos Humanos, incluindo o engajamento com as partes interessadas afetadas. Com a implementação dessas mudanças em nível global, o Comitê destaca que é crucial que a Meta identifique e enfrente os potenciais impactos negativos nos direitos humanos que possam surgir como resultado delas. Isso deve envolver uma avaliação sobre se a redução da dependência da Meta na detecção automatizada de violações de políticas poderia gerar impactos desiguais em diferentes regiões, especialmente em países que enfrentam crises atuais ou recentes, como conflitos armados.

Hoje, o Comitê emitiu 17 recomendações relacionadas às mudanças realizadas pela Meta em 7 de janeiro, suas políticas e seus sistemas de monitoramento. Os principais pontos incluem o apelo do Comitê à Meta para:

  • Avaliar o impacto das atualizações na política de Conduta de Ódio, feitas em 7 de janeiro, especialmente os possíveis efeitos negativos sobre países da Maioria Global, pessoas LGBTQIA+ (inclusive menores) e imigrantes, com a obrigação de informar o Comitê sobre os progressos a cada seis meses e divulgar publicamente essa atualização em breve.
  • Melhorar a forma como a Meta fiscaliza as violações de suas políticas de Bullying e Assédio, particularmente as regras que exigem que os usuários denunciem o conteúdo de forma independente.
  • Esclarecer as referências às ideologias de ódio proibidas pela política de Organizações e Indivíduos Perigosos.
  • Avaliar continuamente a eficácia das Notas da Comunidade em comparação com a verificação de fatos realizada por terceiros, especialmente em casos em que a rápida disseminação de desinformação cria riscos à segurança pública.
  • Aperfeiçoar a detecção de incitação à violência em imagens visuais, oferecendo melhores orientações para os revisores.

Responsabilizando a Meta

Durante quase cinco anos, as nossas decisões influenciaram as políticas de conteúdo e as práticas de moderação da Meta, proporcionando maior proteção para discursos políticos, jornalismo, conscientização e expressão cultural e artística. O debate público sobre temas políticos e sociais, como imigração, aborto e críticas a Estados e líderes, continua presente nas plataformas da Meta graças ao Comitê. Nossos casos forçaram a Meta a ser mais transparente quanto à maneira como lida com a pressão de governos para remover conteúdos. Cientes dos riscos elevados à democracia devido à censura de discursos por plataformas, o Comitê deu prioridade a casos que garantem o direito das pessoas de se engajarem em eleições e protestos, especialmente em países em que o espaço cívico está encolhendo.

Nossas recomendações, por sua vez, resultaram na implementação de novas ferramentas pela Meta, ajudando os usuários a compreender as regras e evitar a remoção injusta de seus conteúdos. Elas também incentivaram a empresa a adotar alternativas à remoção de conteúdos, como a inserção de telas de aviso e rótulos de “informações de IA” para identificar quando o conteúdo foi gerado por inteligência artificial. Essas soluções fortalecem os usuários e reduzem os obstáculos à liberdade de expressão.

No futuro, o Comitê continuará selecionando casos que enfrentem questões complexas e de grande importância na moderação de conteúdo global. Além disso, o Comitê está em conversações com a Meta, que está disposta a aceitar uma opinião consultiva política, para colaborar na definição da abordagem da empresa quanto à verificação de fatos em áreas fora dos Estados Unidos. Como o único órgão global que oferece supervisão independente da moderação de conteúdo da Meta, o Comitê ocupa uma posição única para desempenhar esse papel, avaliando como as mudanças na plataforma podem afetar a liberdade de expressão dos usuários e outros direitos humanos em diversas regiões e comunidades ao redor do mundo.


Vídeos de debate sobre identidade de gênero

(2024-046-FB-UA, 2024-047-IG-UA)

Em duas publicações contendo vídeos — uma mostrando uma mulher trans sendo confrontada por usar um banheiro feminino e outra de um atleta trans vencendo uma corrida de atletismo — a maioria dos integrantes do Comitê decidiu manter a posição da Meta de não remover o conteúdo. O Comitê ressalta que o debate público sobre políticas relacionadas aos direitos e à inclusão de pessoas trans é permitido, e que opiniões potencialmente ofensivas ainda estão protegidas pelo direito internacional à liberdade de expressão. Nessas situações, a maioria dos membros concluiu que não havia justificativa suficiente para restringir as publicações com base na proteção contra danos a pessoas trans, uma vez que elas não apresentavam risco concreto ou iminente de incitar violência. Além disso, o conteúdo não configurava assédio nem bullying. O acesso de mulheres e meninas trans a banheiros femininos, assim como sua participação em competições esportivas, continua sendo um tema de intenso debate público que envolve múltiplas dimensões dos direitos humanos. Diante disso, é justificável que se exija um padrão elevado para justificar a remoção desse tipo de discurso. Além de avaliar o conteúdo dos casos mencionados, o Comitê também fez recomendações sobre como as mudanças feitas pela Meta, em 7 de janeiro de 2025, em sua agora chamada Política de Conduta de Ódio, podem afetar negativamente pessoas LGBTQIA+, incluindo menores.

Clique aqui para ver a decisão na íntegra.

Para ler os comentários públicos sobre esses casos, clique aqui.


Publicações exibindo a bandeira da era do Apartheid da África do Sul

(2025-001-FB-UA, 2025-002-FB-UA)

Após revisar duas publicações no Facebook que exibiam a antiga bandeira da África do Sul (usada entre 1928 e 1994), a maioria dos integrantes do Comitê decidiu manter a escolha da Meta de não removê-las. Os membros do Comitê reconhecem o impacto profundo e duradouro do regime do apartheid no país. Contudo, essas publicações não expressam apoio explícito à segregação ou exclusão, tampouco representam incitação à violência ou à discriminação. A análise desses casos também levou o Comitê a sugerir melhorias na linguagem ambígua presente na política sobre Indivíduos e Organizações Perigosas.

Clique aqui para ver a decisão na íntegra.

Para ler os comentários públicos sobre esses casos, clique aqui.


Críticas às políticas migratórias da União Europeia e aos imigrantes

(2025-003-FB-UA, 2025-004-FB-UA)

A maioria dos membros do Comitê concluiu que duas publicações relacionadas à imigração, feitas no Facebook antes das eleições para o Parlamento Europeu em junho de 2024, violaram a Política de Conduta de Ódio e que a Meta deveria removê-las. O Comitê reconhece que a liberdade de expressão é um direito essencial, especialmente ao se avaliar discussões e posicionamentos políticos. No entanto, essas duas publicações, em particular, contribuíram para o agravamento dos riscos de violência e discriminação num período eleitoral delicado, em que a imigração era um tema central e os sentimentos anti-imigrantes estavam crescendo. Dessa forma, a maioria considerou sua remoção uma medida necessária e proporcional. Uma das publicações, feita por um partido político polonês, utilizava deliberadamente linguagem racista para explorar o sentimento anti-imigrante. A outra fazia uma generalização grave, retratando imigrantes como estupradores em grupo — uma afirmação que, ao ser repetida, incita o medo e o ódio.

Clique aqui para ver a decisão na íntegra.

Para ler os comentários públicos sobre esses casos, clique aqui.


Publicações em apoio aos motins no Reino Unido

(2025-009-FB-UA, 2025-010-FB-AU, 2025-011-FB-UA)

Ao revisar três publicações diferentes compartilhadas durante os protestos ocorridos no Reino Unido no verão de 2024, o Comitê decidiu reverter a decisão original da Meta de mantê-las no Facebook. Cada uma dessas publicações representava um risco real e iminente de causar danos. Portanto, elas deveriam ter sido removidas. Esses conteúdos circularam em um momento marcado por forte indignação pública e uma escalada de violência, alimentadas por desinformação e conteúdos enganosos nas redes sociais. Durante esse período, observou-se a disseminação de sentimentos antimuçulmanos e anti-imigrantes nas ruas. Em resposta aos protestos, a Meta ativou seu Protocolo de Política de Crise (CPP) e, em 6 de agosto, classificou o Reino Unido como um Local de Alto Risco — mas essas ações foram tomadas tarde demais. Naquele ponto, os três conteúdos já haviam sido publicados. O Comitê expressou preocupação com a demora da Meta em aplicar medidas de crise, destacando que uma resposta mais rápida era necessária para conter a propagação de conteúdos nocivos.

Clique aqui para ver a decisão na íntegra.

Para ler os comentários públicos sobre esses casos, clique aqui.


Termo reivindicado em performance de drag

(2025-013-IG-UA)

Clique aqui para ver a decisão resumida.


Comentário direcionado a pessoas com Síndrome de Down

(2025-014-FB-UA)

Clique aqui para ver a decisão resumida.


Voltar às Notícias