Novos casos envolvem publicações compartilhadas em apoio aos motins no Reino Unido

Hoje, o Comitê anunciou novos casos a serem levados em consideração. Como parte disso tudo, estamos convidando pessoas e organizações a enviarem comentários públicos usando o botão abaixo.

Seleção de casos

Como não podemos ouvir todas as apelações, o Comitê coloca como prioridade casos que possam afetar muitos usuários no mundo todo, que sejam de importância fundamental para o discurso público ou que levantem questões importantes sobre as políticas da Meta.

Hoje, os casos que estamos anunciando são:

Publicações em apoio aos motins no Reino Unido

2025-009-FB-UA, 2025-010-FB-UA, 2025-011-FB-UA

Apelações de usuários para remoção de conteúdo

Envie um comentário público usando o botão abaixo

O Comitê de Supervisão abordará os três casos a seguir de forma conjunta, decidindo se defende ou invalida as determinações da Meta em cada situação.

Durante os motins que ocorreram no Reino Unido entre 30 de julho e 7 de agosto de 2024, três usuários do Facebook compartilharam conteúdo relacionado. Os tumultos começaram após um ataque com faca em Southport, Inglaterra, no dia 29 de julho, que resultou na morte de três meninas e feriu outras oito. O incidente ocorreu durante um workshop de dança inspirado na Taylor Swift. Após o ataque, desinformações começaram a circular nas redes sociais, alegando incorretamente que o agressor era um muçulmano solicitante de asilo. A violência e os distúrbios que se seguiram envolveram milhares de pessoas, incluindo grupos anti-muçulmanos e anti-imigração. Foram registrados danos a propriedades, como centros de refugiados e hotéis que abrigam imigrantes, além de ferimentos em policiais.

A primeira publicação expressava apoio aos tumultos, pedindo que mais mesquitas fossem destruídas e prédios fossem incendiados onde a “escória está vivendo”, referindo-se também a “migrantes e terroristas”. A pessoa que fez a publicação reconheceu os danos às propriedades privadas e aos policiais feridos, mas argumentou que, sem essa violência, as autoridades não escutariam e permitiriam que “toda a escória” continuasse a chegar à Grã-Bretanha. A publicação ainda fez referência aos assassinatos, afirmando que as três meninas não seriam as últimas vítimas se a população não tomasse uma atitude. A publicação foi visualizada mais de 1.000 vezes e recebeu menos de 50 comentários.

O segundo conteúdo é o compartilhamento de outra publicação. Ela apresenta o que parece ser uma imagem gerada por IA, mostrando um homem gigante usando uma camiseta com a bandeira do Reino Unido, perseguindo vários homens muçulmanos. A imagem contém uma sobreposição de texto que fornece o horário e o local de um dos protestos, além de incluir a hashtag “EnoughIsEnough”. Esse conteúdo teve menos de 1.000 visualizações.

A terceira publicação é uma republicação de uma imagem, provavelmente gerada por IA, mostrando quatro homens muçulmanos vestidos com kurtas (túnicas) brancas, correndo em frente ao Parlamento, enquanto perseguem uma criança loira chorando que usa uma camiseta com a bandeira do Reino Unido. Um dos homens segura uma faca, enquanto, acima, um avião voa em direção ao Big Ben. A imagem é acompanhada pela legenda “acorde”. Esse conteúdo também teve mais de 1.000 visualizações e menos de 50 comentários.

As três publicações foram denunciadas por outros usuários do Facebook por violar as políticas de Discurso de Ódio ou de Violência e Incitação. Após avaliação pelas ferramentas automatizadas da Meta, as três publicações permaneceram no Facebook. Os usuários que denunciaram o conteúdo apelaram contra as publicações que continuaram no ar, mas os sistemas automatizados da Meta confirmaram as decisões iniciais. Nenhuma das publicações foi analisada por moderadores humanos. Os mesmos usuários então recorreram ao Comitê, alegando que o conteúdo incita violência contra migrantes, promove a narrativa de que os imigrantes são responsáveis pelos assassinatos de Southport ou encoraja a participação nos tumultos.

O Comitê selecionou esses casos para avaliar a política e a resposta da Meta em relação à crise, especialmente no que diz respeito aos tumultos violentos que visam comunidades migrantes e muçulmanas. Esse caso se enquadra na prioridade estratégica de Discurso de Ódio contra grupos marginalizados do Comitê.

Como resultado da seleção desses casos pelo Comitê, a Meta reconheceu que sua decisão anterior de manter a primeira publicação no Facebook foi um erro. A empresa então removeu a publicação com base em sua política de Violência e Incitação. A empresa confirmou que suas decisões de manter a segunda e a terceira publicações no Facebook estavam corretas. Em relação à segunda publicação (do homem gigante), a empresa afirmou que não houve violação de sua política de Violência e Incitação, pois a imagem não fazia apelos diretos à violência contra um alvo específico. Quanto à terceira publicação (dos quatro homens correndo atrás de uma criança), a Meta explicou que a imagem não violava sua política de discurso de ódio, pois foi interpretada como uma referência a um homem ou a homens muçulmanos específicos, e não a todos os muçulmanos. A Meta concluiu que a imagem deveria ser interpretada como uma referência a um crime específico, e não como um discurso desumanizador direcionado a muçulmanos ou imigrantes muçulmanos. A empresa baseou essa interpretação no que descreveu como um “boato falso” amplamente disseminado, alegando que o autor do ataque de Southport era um muçulmano ou imigrante. A empresa acrescentou que sua abordagem para a aplicação da lei em contextos de protesto é priorizar a proteção máxima à liberdade de expressão.

O Comitê gostaria de comentários públicos que abordassem:

  • O papel das mídias sociais nos tumultos de 2024 no Reino Unido, incluindo a disseminação de desinformação, a organização dos tumultos e a transmissão de informações ao público sobre eventos relevantes.
  • Quaisquer vínculos documentados entre discurso anti-imigrante e anti-muçulmano online e a violência e a discriminação no Reino Unido.
  • O papel das imagens (como fotos, gráficos, memes, vídeos, incluindo os gerados por IA) no discurso de ódio na Internet.
  • Os desafios da automação na avaliação de incitação ou discurso de ódio em imagens, especialmente as geradas por IA.
  • Os riscos de uma aplicação excessiva dos Padrões da Comunidade nesses contextos e os possíveis impactos negativos nos direitos de liberdade de expressão de falantes e ouvintes.
  • Se a Meta deveria considerar medidas de moderação de conteúdo além da simples remoção desse tipo de conteúdo.

Como parte de suas decisões, o Comitê pode emitir recomendações de políticas para a Meta. Enquanto as recomendações não forem obrigatórias, a Meta deverá respondê-las em 60 dias. Como tal, o Comitê está aberto a comentários públicos que proponham recomendações que sejam relevantes para os casos mencionados.

Comentários públicos

Se você ou sua organização acharem que podem contribuir com pontos de vista pertinentes que possam auxiliar na tomada de decisão em relação aos casos mencionados hoje, use o botão abaixo para enviar a sua contribuição. Lembre-se de que comentários públicos podem ser fornecidos de maneira anônima. O envio de comentários públicos ficará disponível por 14 dias, encerrando às 23h59, horário padrão do Pacífico (PST), na terça-feira, 17 de dezembro.

Próximos passos

Nas próximas semanas, os Membros do Comitê deliberarão sobre esses casos. Assim que chegarem a uma decisão, faremos a publicação na página Decisões.

Voltar às Notícias