Decisão de múltiplos casos

Emojis direcionados a pessoas negras

O Comitê de Supervisão revoga as decisões originais da Meta de manter dois trechos de conteúdo que usam emojis para expressar ódio, discriminação e assédio contra pessoas negras, comparando-as a macacos.

2 casos incluídos neste pacote

Anulado

FB-QGOKEDPY

Caso sobre no Facebook

Plataforma
Facebook
विषय
Discriminação,Raça e etnia
Localização
Brasil
Date
Publicado em 10 de Fevereiro de 2026
Anulado

IG-EJNOH07S

Caso sobre no Instagram

Plataforma
Instagram
विषय
Discriminação,Raça e etnia
Localização
Irlanda,Estados Unidos,Zimbábue
Date
Publicado em 10 de Fevereiro de 2026

Resumo

O Comitê de Supervisão revoga as decisões originais da Meta de manter dois trechos de conteúdo que usam emojis para expressar ódio, discriminação e assédio contra pessoas negras, comparando-as a macacos. O Comitê solicitou que a Meta impedisse práticas de direcionamento discriminatórias e odiosas contra grupos, por meio do aprimoramento da moderação automatizada e humana, de forma a considerar de maneira abrangente a chamada “algospeak” (linguagem algorítmica), incluindo o uso de emojis. Essa medida deve assegurar que os dados de treinamento para a aplicação automatizada de políticas sejam atualizados e regionalmente adequados, que os esforços sejam coordenados para interromper proativamente campanhas de ódio e que as medidas de mitigação incluam o monitoramento ativo de conteúdos com emojis que incitem a discriminação e a hostilidade durante grandes eventos esportivos, como a Copa do Mundo da FIFA (Federação Internacional de Futebol).

Sobre os casos

Esses casos fazem referência a dois posts feitos em maio de 2025, que usaram emojis de macaco para se referir a pessoas negras.

No primeiro caso, um usuário no Brasil postou um vídeo curto no Facebook contendo uma cena do filme “Se Beber, Não Case”, na qual dois personagens discutem, dublados em português, a posse de um macaco. Um texto sobreposto ao vídeo identifica os personagens como os clubes de futebol espanhóis “Barcelona” e “Real Madrid”. Um texto adicional faz referência a jovens jogadores que tiveram destaque no futebol brasileiro. A legenda é composta de um emoji de macaco. O post foi visualizado mais de 22 mil vezes e foi denunciado por 12 pessoas.

O segundo caso envolve um comentário postado em resposta a um vídeo de uma conta do Instagram na Irlanda. No vídeo, o usuário expressa indignação após presenciar um episódio de racismo em via pública, e a legenda apela à rejeição do racismo no país. O comentário de outro usuário afirma não apoiar a mensagem, manifestando o desejo de que a situação “blow up” (saísse do controle) e de “to have some glorious fun with all the [monkey emojis] & out in the street” (ter uma diversão gloriosa com todos os [emojis de macaco] e nas ruas). O comentário incluía também diversos emojis de macaco, de risadas e de mãos em oração, enfatizando que haveria “glorious days ahead” (dias gloriosos pela frente). O post original foi visualizado mais de 4 mil vezes, e 62 pessoas denunciaram o comentário.

Os sistemas automatizados da Meta e, após apelações dos usuários, os analistas humanos optaram por manter os dois posts ativos. Os usuários, então, fizeram uma apelação ao Comitê. Após a seleção dos casos para análise do Comitê, a Meta determinou que as decisões iniciais foram incorretas e removeu os posts em julho de 2025, por violação aos Padrões da Comunidade sobre Conduta de Ódio da empresa.

A linguagem codificada por meio de expressões ou emojis (chamada “algospeak”) pode servir para disseminação de ódio e desumanização, visando burlar os sistemas automatizados de moderação de conteúdo.

Principais descobertas

O Comitê manifestou preocupação com a precisão na aplicação da Política sobre Conduta de Ódio, especialmente na avaliação de emojis usados como algospeak. Embora os classificadores tenham identificado o conteúdo, nenhuma medida foi adotada. A Meta afirma que os analistas devem considerar todos os aspectos do conteúdo, como imagens, legendas e textos sobrepostos, além de fatores extrínsecos ao conteúdo imediato, incluindo o post principal e os comentários. A Meta explicou ainda que seus classificadores são treinados com conjuntos de dados de exemplos denunciados e rotulados, incluindo casos em que emojis são usados de formas potencialmente violadoras. Contudo, tanto a análise humana quanto a automatizada falharam em avaliar os posts com precisão.

A Meta deve aprimorar a detecção automatizada do uso violador de emojis por meio de auditorias periódicas em seus dados de treinamento. Os processos de aplicação de políticas devem sempre direcionar o conteúdo a analistas com competência linguística e regional adequada.

Em resposta aos questionamentos do Comitê, a Meta declarou que, após o anúncio da empresa em 7 de janeiro de 2025, os grandes modelos de linguagem (LLMs) passaram a ser integrados de forma mais ampla como uma camada adicional de análise, inclusive para conteúdos que possam violar a Política sobre Conduta de Ódio. De acordo com a Meta, os LLMs não substituem os modelos existentes, mas fornecem uma segunda opinião sobre decisões de aplicação de políticas, com foco em conteúdos sinalizados para remoção. Nesses casos específicos, os LLMs não foram usados no processo de análise.

O Comitê considera que os dois posts violam o Padrão da Comunidade sobre Conduta de Ódio, que proíbe comparações desumanizantes com animais. Ambos usam o emoji de macaco para atacar pessoas negras com base em suas características protegidas.

Manter esses posts também contraria as responsabilidades da Meta em matéria de direitos humanos, visto que emojis empregados para desumanizar ou incentivar discriminação ou hostilidade contra grupos com características protegidas devem ser removidos. A remoção dos dois posts é medida necessária e proporcional.

Ambos os posts representam formas de “algospeak” usadas para expressar ódio, discriminação e assédio contra grupos com características protegidas, ilustrando como emojis podem ser empregados para incitar terceiros a adotar comportamentos discriminatórios e potencialmente hostis.

O post brasileiro foi feito no contexto de um racismo estrutural amplamente documentado e de hostilidade no futebol, particularmente direcionada a jogadores negros. O comentário no caso irlandês foi compartilhado em um contexto de crescente discriminação racial e afrofobia na Irlanda.

Para melhor coordenar seus esforços e proteger pessoas que, embora não nomeadas diretamente, sejam alvos implícitos de campanhas de ódio, a Meta deve desenvolver uma estrutura para consolidar as medidas vigentes de interrupção proativa de campanhas de ódio, especialmente aquelas que envolvem o uso de emojis. A Meta deve assegurar que seus esforços de mitigação em tempo real, seja por meio da Central de Operações de Integridade de Produto ou de outro sistema de mitigação de riscos, incluam o monitoramento ativo de conteúdos com emojis que incitem discriminação ou hostilidade direcionada antes, durante e imediatamente após grandes eventos esportivos, como a Copa do Mundo da FIFA de 2026.

A decisão do Comitê de Supervisão

O Comitê revoga a decisão original da Meta de deixar ativos os dois trechos de conteúdo.

Ele também recomenda que a empresa faça o seguinte:

  • Realize auditorias em seus dados de treinamento para os sistemas automatizados de aplicação da Política sobre Conduta de Ódio, assegurando que esses dados sejam atualizados periodicamente para incluir exemplos de conteúdos com emojis em todos os idiomas, casos de uso violador de emojis e novos casos de emprego de emojis para fins de ódio.
  • Integre os esforços vigentes para desarticular proativamente campanhas de ódio, especialmente aquelas que envolvem o uso de emojis, visando proteger de forma mais eficaz indivíduos que não são nomeados diretamente, mas que constituem os alvos implícitos dessas campanhas.
  • Assegure que seus esforços de mitigação em tempo real, seja por meio da Central de Operações de Integridade de Produto ou de outro sistema de mitigação de riscos, incluam o monitoramento ativo de conteúdos com emojis que incitem discriminação ou hostilidade direcionada antes, durante e imediatamente após grandes eventos esportivos, como a Copa do Mundo da FIFA.

O Comitê reitera a importância de sua recomendação anterior, na qual a Meta deve:

  • Oferecer aos usuários uma oportunidade de autocorreção semelhante à intervenção pós-postagem criada em decorrência do caso “Protestos a favor de Navalny na Rússia”, recomendação n.º 6. Se essa intervenção não estiver mais em vigor, a empresa deverá fornecer uma intervenção equivalente.

*Os resumos de casos fornecem uma visão geral dos casos e não têm valor de precedente.

Decisão completa sobre o caso

  1. Descrição do caso e histórico

Essa decisão aborda dois casos que envolvem o uso de emojis de macaco para se referir a pessoas negras.

O primeiro caso refere-se a um vídeo curto postado no Facebook em maio de 2025 por um usuário no Brasil. O vídeo apresenta uma cena do filme “Se Beber, Não Case”, na qual dois personagens discutem, dublados em português, a posse de um macaco. O texto sobreposto ao vídeo identifica os personagens como “Barcelona” e “Real Madrid”, que são clubes de futebol espanhóis. Durante a discussão, o personagem identificado como “Real Madrid” ameaça brevemente o personagem identificado como “Barcelona” com uma arma de fogo. Um texto adicional sobreposto faz referência a jovens jogadores que ganharam destaque no futebol brasileiro, e a legenda do vídeo contém apenas um emoji de macaco. O post foi visualizado mais de 22 mil vezes, e o conteúdo foi denunciado por 12 pessoas.

O segundo caso envolve um comentário feito em maio de 2025 em resposta a um vídeo postado por um usuário de uma conta do Instagram na Irlanda. No vídeo, o autor do post aparece em frente à câmera expressando indignação após presenciar um caso de racismo em uma rua na Irlanda, no qual um grupo de adolescentes proferiu um insulto racial contra uma mulher negra. Na legenda, o autor do post manifesta profunda tristeza pela vítima e enfatiza que ser negro e irlandês é possível, mas que esta é uma conversa que “white privileged people” (pessoas brancas privilegiadas) não querem ter. O usuário também pede que outras pessoas se manifestem e enfrentem diálogos difíceis, incentivando a sociedade a ser mais eficaz no combate ao racismo. A legenda termina com uma hashtag convocando a rejeição ao racismo na Irlanda.

Em resposta ao vídeo no caso irlandês, outro usuário comentou que não apoia a mensagem. Em vez disso, desafiou o criador do vídeo, questionando o que ele pretendia fazer a respeito da situação. O autor do comentário também manifestou o desejo de que a situação “blow up” (saísse do controle) e de “to have some glorious fun with all the [monkey emojis] & out in the street” (ter uma diversão gloriosa com todos os [emojis de macaco] e nas ruas). O comentário incluía diversos emojis de macaco, de risadas e de mãos em oração, enfatizando que haveria “glorious days ahead” (dias gloriosos pela frente). O post original foi visualizado mais de 4 mil vezes, e 62 pessoas denunciaram o comentário.

Os sistemas automatizados da Meta detectaram que os dois posts eram potencialmente violadores da Política sobre Conduta de Ódio. O classificador considerou o conteúdo do caso brasileiro como não violador, enquanto não conseguiu determinar com segurança o idioma do caso irlandês (inglês) e, consequentemente, não tomou nenhuma medida a respeito.

Os usuários denunciaram os dois posts por Conduta de Ódio, os quais foram enviados para análise. No entanto, eles não foram priorizados para análise humana e permaneceram na plataforma.

Nos dois casos, os usuários que denunciaram os posts fizeram uma apelação da decisão da Meta para mantê-los ativos. Após a análise humana, a Meta manteve suas decisões iniciais na apelação, e os usuários fizeram uma apelação ao Comitê.

Após a seleção dos casos para análise pelo Comitê, a Meta reconheceu que as decisões iniciais estavam incorretas e removeu os posts em julho de 2025, por violação aos Padrões da Comunidade sobre Conduta de Ódio da empresa.

O Comitê observa o seguinte contexto ao tomar uma decisão:

O racismo enfrentado por jogadores de futebol brasileiros, especialmente negros, tem atraído significativacoberturamidiática, evidenciando o problema mais amplo do racismo contra atletas e entre torcedores. Por exemplo, Vinícius Júnior, jogador do Real Madrid, sofreu múltiplos ataques racistas, incluindo comparações a macacos. O racismo cresceu a ponto de o estado do Rio de Janeiro aprovar a “ Lei Vinícius Júnior em 2023 para combater o racismo em eventos esportivos. A lei determina a interrupção ou até o encerramento de um evento esportivo quando ocorre um ato racista.

Diversos outros incidentes de grande repercussão contra jogadores de futebol de ascendência africana, envolvendo principalmente abusos cometidos por torcedores em estádios e em redes sociais, foram relatados em países europeus (por exemplo, na Espanha, na Itália, na França e na Inglaterra). A competição Euro 2020 atraiu a atenção pública para o tema, pois os jogadores enfrentaram uma avalanche de ódio online. A CONMEBOL, entidade máxima do futebol na América do Sul, instituiu em março de 2025 uma força-tarefa voltada à erradicação do racismo, da discriminação e da violência no futebol. Essa medida foi, em parte, uma resposta ao racismo enfrentado por jogadores brasileiros, incluindo cânticos imitando macacos durante as partidas.

Estudos documentaram ondas sustentadas de abusos após partidas e picos repentinos de notícias. A Professional Footballers’ Association (PFA), sindicato de jogadores profissionais da Inglaterra e do País de Gales, e a empresa de ciência de dados Signify revelaram que, em 2020, mais de 3 mil tweets enviados a alguns jogadores continham mensagens explicitamente abusivas, das quais 56% tinham cunho racista. Desses posts com ofensas raciais, 29% apresentavam-se sob a forma de emojis. O mesmo estudo constatou que 43% dos jogadores da Premier League, o mais alto nível do sistema de ligas de futebol inglês, receberam ofensas explicitamente racistas. Da mesma forma, um monitoramento recente da União das Federações Europeias de Futebol (UEFA) revelou que 33% dos posts sinalizados como conteúdo abusivo à Meta, TikTok e X durante as finais de clubes da UEFA foram classificados como racistas.

Como parte da pesquisa para esses casos, o Comitê realizou buscas na Biblioteca de Conteúdo da Meta por conteúdos que usassem o emoji de macaco. Uma análise de 150 posts públicos com maior engajamento, tanto no Facebook quanto no Instagram, entre 1º de outubro de 2024 e 1º de outubro de 2025, mostra que o emoji é mais frequentemente usado para acompanhar vídeos de macacos, memes ou conteúdos de pegadinhas leves, com finalidade de viralização. Contudo, a pesquisa evidenciou que, quando o emoji aparecia em discussões sobre pessoas negras, ele carregava diversas conotações dependendo do contexto. É empregado de forma desumanizante para comparar pessoas negras a animais. Em outras situações, é usado para evidenciar ou comentar experiências de racismo. Há ainda usos aparentemente realizados por usuários que se identificam como pertencentes à comunidade negra, de maneira autorreferencial ou humorística, embora o Comitê não tenha condições de verificar a identidade desses usuários. No contexto do futebol, grande parte dos posts analisados usou o emoji de macaco de forma desumanizante, frequentemente direcionada a jogadores específicos, enquanto outros, em menor escala, tinham como objetivo discutir ou condenar o racismo enfrentado por jogadores de futebol.

O relatório da Comissão Irlandesa de Direitos Humanos e Igualdade referente ao 6º ciclo de monitoramento da Comissão Europeia contra o Racismo e a Intolerância destacou um aumento do racismo, da discriminação e da intolerância na Irlanda, observando que “o crescimento da ideologia de extrema direita, que levou a eventos como os episódios de violência em Dublin, foi facilitado por lacunas sistêmicas na proteção contra o racismo e a intolerância no país”. A transição da Irlanda, a partir da década de 90, de uma nação predominantemente branca para um país mais diverso e receptor de imigração resultou em mudanças nas relações sociopolíticas. Esse processo incluiu o aumento da chamada “afrofobia”, isto é, o racismo direcionado a pessoas de ascendência africana, em todo o território irlandês.

A Agência de Direitos Fundamentais da União Europeia relatou que quase metade das pessoas de ascendência africana entrevistadas sobre suas experiências de vida em 13 Estados-Membros da UE, incluindo a Irlanda, “sofreu discriminação racial, um aumento de 39% em 2016 para 45% em 2022”. Mais de 44% dos entrevistados na Irlanda sofreram assédio racial e 34% manifestaram preocupação em se tornarem vítimas de um ataque físico devido à sua origem étnica ou imigrante. O relatório sobre Crimes de Ódio de 2024 do Escritório para Instituições Democráticas e Direitos Humanos (ODIHR) da OSCE observa que 587 dos 676 crimes de ódio registrados pela polícia irlandesa foram classificados como motivados por viés racista e xenofóbico.

Linguagens codificadas por meio de locuções ou emojis (também conhecidas como “algospeak”) são usadas para contornar sistemas automatizados de moderação de conteúdo. Pesquisas indicam que o uso de emojis “constitui uma forma comum de evasão que os usuários exploram, de forma deliberada ou não, para transmitir significados ofensivos por meio de associações estereotipadas”. Pesquisadores explicam ainda que, embora “os modelos de linguagem tenham uma compreensão ampla de construções textuais, ainda há necessidade de que sejam ensinados sobre o que os emojis significam em vários contextos e como diferentes emojis condicionam a probabilidade de discurso de ódio em um determinado tweet, post ou comentário”.

2. Envios de usuários

Em depoimentos ao Comitê, os usuários que denunciaram os posts explicaram que eles continham linguagem racista, pois comparavam pessoas negras a macacos. O autor da denúncia no caso irlandês enfatizou que o uso de emojis em substituição a palavras era claramente racista e que a permanência do post na plataforma evidenciava falhas nos sistemas de detecção automatizada do Instagram.

3. Políticas de conteúdo e envios da Meta

I. Políticas de conteúdo da Meta

O Padrão da Comunidade sobre Conduta de Ódio proíbe conteúdos que “tenham como alvo uma pessoa ou um grupo de pessoas … com base em sua(s) … característica(s) protegida(s)”, incluindo raça, etnia e nacionalidade, “em forma escrita ou visual”. Essa proibição inclui a “linguagem desumanizante, na forma de comparações ou generalizações envolvendo … animais em geral ou tipos específicos de animais culturalmente percebidos como inferiores (incluindo, entre outros: pessoas negras e macacos ou seres semelhantes a macacos).” Essas comparações podem ser demonstradas visualmente por meio do uso de emojis e identificadas pelo contexto do conteúdo.

Na introdução dos seus Padrões da Comunidade, a Meta declara que poderá remover conteúdo que use “linguagem ambígua ou implícita” quando o contexto adicional permite compreender, de forma razoável, que esses conteúdos violam os Padrões da Comunidade.

II. Envios da Meta

Em razão da seleção desses casos pelo Comitê, a Meta reverteu suas decisões originais e removeu os dois posts. Após uma análise realizada pelos especialistas da empresa no tema, a Meta concluiu que ambos os posts constituíam discurso desumanizante que compara indivíduos a animais com base em suas características protegidas, prática proibida pela Política sobre Conduta de Ódio.

No caso brasileiro, a Meta explicou que o conteúdo parece reaproveitar uma cena de filme para comentar sobre as práticas de contratação de clubes de futebol europeus, sugerindo que o Real Madrid e o Barcelona competem por jogadores brasileiros (geralmente negros) da mesma forma que os personagens na cena discutem pela posse de um macaco. Considerando episódios recentes de cunho racista, nos quais torcedores rivais compararam alguns desses jogadores a macacos, a empresa determinou que o emoji de macaco estava sendo usado para comparar brasileiros negros a primatas.

No caso irlandês, a Meta concluiu que o autor do comentário parece equiparar pessoas negras a macacos quando usa o emoji de macaco para se referir a elas. Segundo a Meta, tendo em vista que o vídeo descrevia uma mulher negra sendo assediada na rua, o uso do emoji de macaco pelo autor do comentário reproduz esse comportamento, pois compara pessoas negras a macacos e expressa a intenção de assediá-las de maneira semelhante à praticada pelos jovens retratados no vídeo.

A Meta informou ao Comitê que seus analistas em escala permitiram que os dois posts permanecessem nas plataformas devido a uma combinação de ambiguidade contextual, análise incompleta, aplicação incorreta das diretrizes da política para indicadores visuais como emojis e limitações de idioma e ferramentas. A empresa informou ao Comitê que treinamentos e feedbacks foram fornecidos aos analistas. Outras investigações também identificaram um problema nas ferramentas que impediu a tradução adequada e o correto encaminhamento dos casos, resultando na atribuição do conteúdo brasileiro para avaliação inicial a um analista sem domínio da língua portuguesa. Segundo a Meta, o problema de encaminhamento já foi resolvido e todas as análises devem ser direcionadas a filas com a devida competência linguística e regional.

A Meta destacou que sua decisão de remover os dois trechos de conteúdo visa proteger os direitos de terceiros à não discriminação, alinhando-se ao Artigo 20(2) do Pacto Internacional sobre Direitos Civis e Políticos (PIDCP), que proíbe “qualquer apologia ao ódio nacional, racial ou religioso que constitua incitação à discriminação, hostilidade ou violência”. A empresa considerou ainda que a remoção era necessária para preservar um ambiente onde os usuários estejam livres de discriminação ou hostilidade.

Em resposta aos questionamentos do Comitê, a Meta declarou que emojis podem, às vezes, influenciar o significado do conteúdo, mas sua interpretação varia amplamente entre usuários e regiões, podendo ter significados distintos em diferentes posts. Portanto, a empresa não considera os emojis violadores por natureza. Em vez disso, a Meta fornece orientações e exemplos em suas diretrizes internas aos analistas humanos quanto aos possíveis significados de emojis comumente usados, como o emoji de macaco, e orienta os analistas a sempre considerar o contexto completo em que o emoji aparece para determinar se seu uso viola as políticas. Isso envolve a análise de todos os aspectos do conteúdo, como imagens, legendas e textos sobrepostos, além de fatores extrínsecos ao conteúdo imediato, incluindo o post principal e os comentários relacionados.

Da mesma forma, a Meta afirmou que seus sistemas automatizados são projetados para identificar usos de emojis que possam violar políticas, considerando o contexto em que aparecem. Assim, segundo a Meta, os sistemas analisam o post na íntegra, capturando todos os seus elementos e metadados fundamentais, o que “permite que os modelos detectem padrões e sinais que podem indicar violações de políticas, mesmo quando emojis são usados em substituição a palavras ou conceitos”. Isso inclui a consideração de padrões de violação anteriores. A Meta observou, contudo, que seus classificadores priorizam a remoção apenas de violações explícitas de Conduta de Ódio “para minimizar o risco de remoções indevidas e da overenforcement”, o que é particularmente relevante para emojis, que podem ter significados altamente dependentes do contexto.

A Meta explicou que, após o anúncio da empresa em 7 de janeiro de 2025, está alterando sua abordagem quanto aos sistemas automatizados de violação de políticas. Antes dessa data, o sistema usava a aplicação proativa, que envolvia a detecção e remoção automatizada de todo o conteúdo violador. Embora os sistemas automatizados da Meta ainda possam detectar potenciais violações de Conduta de Ódio, a remoção dessas violações agora se baseia em denúncias de usuários e encaminhamentos de Parceiros Confiáveis, em vez de se basear exclusivamente na detecção automatizada. A empresa observou que essa abordagem se aplica globalmente, mas poderá “manter a aplicação proativa em países que passam por crises”. A Meta acrescentou que está continuamente avaliando suas obrigações legais em todo o mundo para determinar se esses esforços proativos se alinham à legislação local. Além disso, a Meta explicou que adota uma “abordagem personalizada” para o uso das ferramentas automatizadas, adaptando sua resposta ao problema específico em questão. Por exemplo, a Meta mantém a flexibilidade para implantar suas ferramentas automatizadas e lidar com tendências de alto risco identificadas na plataforma, bem como para fins direcionados, como a supressão de eleitores. Em alguns países que enfrentam crises (o que pode incluir países designados sob o Protocolo de Política de Crise) ou instabilidade prolongada, onde riscos significativos de integridade e regulatórios exigem um sistema de monitoramento robusto, a empresa poderá remover proativamente conteúdos violadores com base no contexto local.

Em resposta aos questionamentos do Comitê, a Meta declarou que, após o anúncio da empresa em 7 de janeiro de 2025, os grandes modelos de linguagem (LLMs) passaram a ser integrados de forma mais ampla como uma camada adicional de análise, inclusive para conteúdos que possam violar a Política sobre Conduta de Ódio. De acordo com a Meta, os LLMs não substituem os modelos existentes, mas fornecem uma segunda opinião sobre decisões de aplicação de políticas, com foco em conteúdos sinalizados para remoção. Nesses casos, os LLMs não foram usados no processo de análise.

A Meta declarou ainda possuir diversos sistemas para reduzir vieses no processo de análise. Para os analistas humanos, isso inclui auditorias semanais em todas as equipes de análise, o que permite à Meta identificar onde erros estão sendo cometidos para que possam ser corrigidos. Além disso, segundo a Meta, os analistas são regularmente treinados em relação às políticas. A empresa realiza ainda sessões quinzenais para que os analistas possam esclarecer dúvidas sobre detalhes das políticas, garantindo que os padrões sejam aplicados de forma correta e consistente. A Meta observou que, quanto aos sistemas automatizados, a empresa treina seus classificadores com base em denúncias analisadas por humanos e seleciona uma ampla gama de conteúdos para assegurar que os classificadores aprendam tanto com os casos mais graves quanto com conteúdos que, de outra forma, poderiam ser negligenciados.

Em resposta aos questionamentos do Comitê, a Meta explicou que os usuários do Instagram podem ser notificados de que um comentário ou post foi sinalizado, oferecendo a opção de remover o conteúdo. Segundo a Meta, como suas políticas de retenção de dados não ultrapassam 30 dias, não é possível confirmar se o usuário no caso irlandês recebeu uma notificação sobre o comentário dele.

A Meta define “assédio em massa direcionado” como “tentativas, dentro ou fora da plataforma, de mobilizar um grande grupo de pessoas para atacar um alvo específico”. A Meta remove esses conteúdos quando o alvo, em qualquer interface da plataforma, são “indivíduos em alto risco de danos no meio físico”, como defensores dos direitos humanos ou menores de idade. Da mesma forma, a Meta remove esse conteúdo quando o alvo é qualquer indivíduo, por meio de seus perfis pessoais ou caixas de entrada, e envolve: (1) conteúdo que viole as Políticas sobre Bullying e Assédio aplicáveis a figuras privadas; ou (2) conteúdo ofensivo baseado em uma característica protegida. A Meta observou que não permite conteúdos de Conduta de Ódio, independentemente de o alvo ser uma figura pública ou uma figura privada.

O Comitê fez perguntas sobre considerações de política e de aplicação relativas a conteúdos que envolvem emojis, histórico de moderação dos posts, atualizações na aplicação da Política sobre Conduta de Ódio após o anúncio de 7 de janeiro de 2025 e detalhes sobre os mecanismos de monitoramento atualmente em vigor. A Meta respondeu a todas as perguntas.

4. Comentários públicos

O Comitê recebeu nove comentários públicos que cumpriam os termos para envio. Oito dos comentários foram enviados dos Estados Unidos e do Canadá e um do Oriente Médio e Norte da África. Para ler comentários públicos enviados com consentimento de publicação, clique aqui.

Os envios abordaram os seguintes temas: a evolução do uso de emojis como algospeak; os desafios na detecção automatizada de linguagem codificada, bem como na aplicação de políticas a conteúdos que usam emojis com múltiplos significados; a importância de avaliações contextuais e do treinamento de moderadores para identificar tentativas de evasão da aplicação por meio da algospeak; e insights sobre o racismo no esporte.

Em outubro de 2025, como parte do engajamento em andamento das partes interessadas, o Comitê consultou representantes de organizações de defesa de interesses sociais, acadêmicos, organizações intergovernamentais e outros especialistas sobre a questão da moderação de conteúdo com emojis. Os participantes ressaltaram os desafios da análise contextual de conteúdos com emojis, que possuem significados em constante evolução e ampla variação. Destacou-se que, embora alguns emojis possam ser usados como substitutos de grupos com características protegidas ou para intensificar a natureza prejudicial de uma mensagem, esses mesmos emojis também podem ser empregados em contextos de condenação, empoderamento ou conscientização. Ressaltou-se ainda que, embora sistemas automatizados e LLMs demonstrem potencial na detecção de linguagem codificada, a moderação ainda requer análise humana para definir corretamente o contexto e o significado do conteúdo.

5. Análise do Comitê de Supervisão

O Comitê selecionou esses casos para explorar o uso de emojis como uma forma de “algospeak”, bem como de assédio racial e discriminação online. Ele também visa avaliar as práticas de monitoramento da Meta em relação a essas formas evolutivas de expressão, tanto por moderadores humanos quanto por sistemas automatizados, particularmente após o anúncio da Meta em 7 de janeiro de 2025, no qual a empresa comunicou alterações na sua abordagem de aplicação automatizada das políticas. Os casos são pertinentes a uma das sete prioridades estratégicas do Comitê: discurso de ódio contra grupos marginalizados.

O Comitê analisou as decisões da Meta nesses casos em relação às políticas de conteúdo, aos valores e às responsabilidades de direitos humanos da empresa. Ele também avaliou as implicações desses casos quanto à abordagem mais ampla da Meta em relação à governança de conteúdo.

5.1 Conformidade com as políticas de conteúdo da Meta

  1. Regras sobre conteúdo

O Comitê considerou que os dois posts violaram o Padrão da Comunidade sobre Conduta de Ódio, que proíbe comparações desumanizantes com animais. A linha da política aplicável menciona especificamente a comparação de pessoas negras a macacos ou criaturas semelhantes a macacos como exemplo de linguagem desumanizante. Ambos usam o emoji de macaco para atacar pessoas negras com base em suas características protegidas. Portanto, ambos os trechos de conteúdo violam a Política sobre Conduta de Ódio.

No caso brasileiro, o post usa uma cena de um filme na qual dois personagens discutem e reivindicam a posse de um macaco. O texto sobreposto aos personagens sugere que times de futebol, como o Real Madrid e o Barcelona, discutem por jogadores brasileiros promissores (que são geralmente negros) da mesma forma que os homens no vídeo discutem pela posse do macaco. Essa interpretação é sustentada pelo texto adicional sobreposto que faz referência a jovens jogadores de destaque no futebol brasileiro. O uso do emoji de macaco na legenda serve para reforçar a intenção do post, comparando implicitamente jogadores de futebol brasileiros a macacos. O Comitê reconhece a existência de uma tendência alarmante nos esportes, especialmente no futebol, em que torcedores recorrem a referências a macacos para discriminar racialmente atletas negros. Diante desse padrão estabelecido e do contexto existente, o post viola o significado claro da Política sobre Conduta de Ódio da Meta, ao desumanizar pessoas negras por meio de comparações ou generalizações com animais.

No caso irlandês, o comentário se opõe ao post principal, que condena o racismo contra pessoas negras na Irlanda. O comentário também expressa o desejo de que a situação “blow up” (saísse do controle) e de “to have some glorious fun with all the [monkey emojis] & out in the street” (ter uma diversão gloriosa com todos os [emojis de macaco] e nas ruas). Essa referência a pessoas negras como macacos, somada ao uso de emojis de riso e oração e o desejo de “glorious days ahead” (dias gloriosos pela frente), transmite a intenção do usuário de desumanizar, equiparando pessoas negras a macacos. Considerando o aumento da afrofobia na Irlanda e o fato de o comentário ter sido postado em um vídeo que expressa indignação sobre o racismo no país, o uso de emojis de macaco no comentário constitui uma clara referência a pessoas negras, um grupo com características protegidas, equiparando-as a macacos. Portanto, esse post viola a Política sobre Conduta de Ódio.

2. Medida de aplicação

Esses casos levantam questões sobre a precisão na aplicação da Política sobre Conduta de Ódio, especialmente no que se refere à avaliação do uso de emojis como forma de algospeak.

A Meta orienta seus analistas a sempre considerar o contexto completo em que o emoji aparece, para determinar se seu uso pode violar as políticas. Isso significa que os analistas devem analisar todos os aspectos do conteúdo, como imagens, legendas e textos sobrepostos, além de fatores extrínsecos ao conteúdo imediato, incluindo o post principal e os comentários relacionados. Como os emojis podem transmitir significados variados, essa abordagem está em consonância com as orientações anteriores do Comitê sobre avaliação contextual e integral dos posts (ver, entre outros, o caso Cinto Wampum).

Nesses casos, tanto as análises automatizadas quanto as múltiplas análises humanas em diversos níveis de aplicação falharam em avaliar os posts com precisão, mantendo-os nas plataformas. O Comitê demonstra preocupação com o fato de que, embora os classificadores tenham detectado o conteúdo em ambos os casos, nenhuma medida foi adotada: o post brasileiro foi considerado não violador, enquanto o classificador foi incapaz de determinar com segurança que o post irlandês estava em inglês.

Além disso, a análise inicial no caso brasileiro envolveu problemas de encaminhamento e tradução, e essa decisão inicial não foi analisada posteriormente, apesar de dezenas de denúncias. Para garantir uma análise adequada, os processos de aplicação da Meta devem ser projetados para direcionar sempre o conteúdo a analistas com competência linguística e regional adequada. Por fim, o Comitê observa com preocupação que, nos dois casos, apesar das orientações detalhadas para avaliação contextual e abrangente de conteúdos envolvendo emojis, os analistas humanos da apelação mantiveram a decisão inicial de deixar os posts ativos na plataforma, mesmo sendo evidente a natureza violadora do conteúdo.

A Meta explicou ainda que seus classificadores são treinados com conjuntos de dados de exemplos denunciados e rotulados, incluindo casos em que emojis são usados de formas potencialmente violadoras. A empresa deve aprimorar a capacidade de seus sistemas automatizados de detectar com precisão o uso de emojis em contextos de violação. Dada a ampla utilização de emojis com significados variados, a Meta deve auditar periodicamente os dados de treinamento usados na aplicação da Política sobre Conduta de Ódio, especialmente no que se refere a exemplos com emojis em todos os idiomas, e garantir que conjuntos de dados mais robustos sejam incluídos. A empresa deve considerar a natureza mutável do uso de emojis, baseando-se em resultados de pesquisas que possam incluir informações sobre tendências de uso de emojis em suas plataformas em diferentes idiomas e regiões (ver também PC-31493). Em consonância com os compromissos da Meta de desenvolver e aplicar suas regras globais de forma não discriminatória, a empresa deve garantir que os conjuntos de dados incluam exemplos de conteúdos em idiomas não ingleses com emojis.

5.2. Conformidade com as responsabilidades da Meta relativas aos direitos humanos

O Comitê considera que manter ambos os posts nas plataformas não está em conformidade com as responsabilidades da Meta relativas aos direitos humanos.

Liberdade de expressão (Artigo 19 do PIDCP)

O Artigo 19, parágrafo 2 do PIDCP dispõe que “toda pessoa terá direito à liberdade de expressão; esse direito incluirá a liberdade de procurar, receber e difundir informações e ideias de qualquer natureza, independentemente de considerações de fronteiras, verbalmente ou por escrito, em forma impressa ou artística, ou por qualquer outro meio.” O Comentário Geral n.º 34 especifica ainda que a expressão protegida inclui a expressão que pode ser considerada “profundamente ofensiva” (parágrafo 11).

Quando um Estado aplica restrições à expressão, elas devem atender aos requisitos de legalidade, objetivo legítimo e necessidade e proporcionalidade (Artigo 19, parágrafo 3 do PIDCP). Esses requisitos costumam ser chamados de “teste tripartite”. O Comitê usa essa estrutura para interpretar as responsabilidades de direitos humanos da Meta de acordo com os Princípios Orientadores da Organização das Nações Unidas (ONU) sobre Empresas e Direitos Humanos, com os quais a própria Meta se comprometeu em sua Política Corporativa sobre Direitos Humanos. O Comitê faz isso em relação tanto à decisão de conteúdo individual sob análise quanto ao que isso diz sobre a abordagem mais ampla da empresa à governança de conteúdo. Como afirmou o Relator Especial da ONU sobre liberdade de expressão, embora “as empresas não tenham obrigações governamentais, o impacto delas exige que avaliem o mesmo tipo de questões sobre a proteção do direito de seus usuários à liberdade de expressão” (A/74/486, parágrafo 41).

I. Legalidade (clareza e acessibilidade das regras)

O princípio da legalidade exige que as regras que limitam a expressão sejam acessíveis e claras, formuladas com precisão suficiente para permitir que um indivíduo regule sua conduta de acordo com elas (Comentário Geral n.º 34, parágrafo 25). Além disso, essas regras “não podem conceder liberdade de ação irrestrita para a restrição da liberdade de expressão aos encarregados de [sua] execução” e devem “fornecer instrução suficiente aos encarregados de sua execução para permitir-lhes determinar quais tipos de expressão são adequadamente restritas e quais tipos não são” (ibid.). O Relator Especial da ONU sobre a liberdade de expressão declarou que, quando aplicadas à governação do discurso online por parte de intervenientes privados, as regras devem ser claras e específicas (A/HRC/38/35, parágrafo 46). As pessoas que usam as plataformas da Meta devem ser capazes de acessar e entender as regras, e os analistas de conteúdo devem ter orientações claras sobre sua aplicação.

O Comitê conclui que as regras sobre comparações desumanizantes com animais, em geral ou com tipos específicos culturalmente percebidos como inferiores, são claras o suficiente quando aplicadas a esses casos. Dessa forma, o Padrão da Comunidade sobre Conduta de Ódio declara de forma clara e pública que a comparação de pessoas negras a macacos ou criaturas semelhantes a macacos é proibida, ressaltando o reconhecimento amplo dessa analogia racista. Além disso, as orientações internas da Meta incluem uma lista ilustrativa e não exaustiva de emojis, incluindo os emojis de macaco e de banana, que podem indicar uma comparação visual entre grupos com características protegidas e animais.

II. Objetivo legítimo

Qualquer restrição à liberdade de expressão também deve perseguir um ou mais dos objetivos legítimos listados no PIDCP, o que inclui a proteção dos direitos de terceiros (Artigo 19, parágrafo 3 do PIDCP).

O Relator Especial da ONU sobre formas contemporâneas de racismo, discriminação racial, xenofobia e intolerâncias correlatas observou que o discurso de ódio, incluindo em suas formas online, “tem um efeito prejudicial poderoso em nível societário, destruindo o tecido social das comunidades e minando as normas de direitos humanos e democracia, incluindo a igualdade e a não discriminação” ( A/78/538, parágrafo 31, (2023)). O Relator Especial da ONU sobre a promoção e proteção do direito à liberdade de opinião e expressão alertou as empresas de redes sociais que os “discursos inflamados não apenas colocam em risco indivíduos e incentivam a autocensura, mas também dividem comunidades ao alimentar medo, suspeita e hostilidade, corroendo a confiança social e enfraquecendo o diálogo democrático e a participação cívica” ( A/80/341, parágrafo 30 (2025)).

O Comitê reconheceu previamente que os Padrões da Comunidade sobre Discurso de Ódio (agora Política sobre Conduta de Ódio) buscam o objetivo legítimo de proteger os direitos de outras pessoas. Esses direitos incluem os direitos à igualdade e à não discriminação (Artigo 2, parágrafo 1 do PIDCP; Artigo 2 e 5, Convenção Internacional sobre a Eliminação de Todas as Formas de Discriminação Racial. Ver também os casos Posts exibindo a bandeira da África do Sul da época do Apartheid e Comentário sobre a política queniana usando uma calúnia designada).

III. Necessidade e proporcionalidade

Nos termos do artigo 19(3) do PIDCP, a necessidade e a proporcionalidade exigem que as restrições à expressão “devem ser adequadas para atingir sua função de proteção; devem ser o instrumento menos intrusivo entre aqueles que podem atingir sua função de proteção; devem ser proporcionais ao interesse a ser protegido” (Comentário Geral n.º 34, parágrafo 34).

Posts individuais

O Comitê reconhece que conteúdos com emojis podem carregar múltiplos significados, inclusive para expressar condenação, autorreferência ou empoderamento. De forma semelhante ao discurso que pode ser usado de forma odiosa ou não odiosa, os emojis exigem análise contextual para compreender plenamente seu significado pretendido. No entanto, conteúdos que usem emojis com a intenção de incitar discriminação, hostilidade ou violência contra grupos com características protegidas devem estar sujeitos à remoção.

O Artigo 20, parágrafo 2 do PIDCP prevê que “qualquer defesa do ódio nacional, racial ou religioso que constitua incitação à discriminação, hostilidade ou violência deve ser proibida por lei”. Essa proibição é “totalmente compatível com o direito à liberdade de expressão, tal como consta no artigo 19 [PIDCP], cujo exercício acarreta deveres e responsabilidades especiais” (Comentário Geral n.º 11, (1983), parágrafo 2). A proibição prevista no Artigo 20 também está subordinada ao teste tripartite do Artigo 19 ( Comentário Geral n.º 34, parágrafos 50-52).

O Comitê considera que a remoção desses posts é necessária e proporcional para impedir que as plataformas da Meta sejam exploradas para incitar discriminação ou atos hostis contra grupos com características protegidas, nesses casos, pessoas negras. O Comitê para a Eliminação da Discriminação Racial observa que: “A incitação busca, caracteristicamente, influenciar outros a engajar-se em certas formas de conduta, incluindo a prática de crimes, por meio de defesa ou ameaças. A incitação pode ser expressa ou implícita, por ações como exibição de símbolos racistas, distribuição de materiais ou palavras” (Recomendação Geral n.º 35, parágrafo 16 (2013)). O Comitê ressalta que, embora “a noção de incitação como um crime autônomo não exija que a incitação tenha sido efetivada, ao regulamentar as formas de incitação [...] os Estados-partes devem levar em conta, como elementos importantes nos crimes de incitação [...] a intenção do falante e o risco iminente ou a probabilidade de que a conduta desejada ou pretendida pelo falante resulte do discurso em questão”. (Id.)

Um Guia da ONU de 2023, destinado a formuladores de políticas e profissionais, enfatiza a importância de identificar e abordar o “discurso de ódio não verbal”, expresso por vídeos, músicas, memes e outros meios, bem como linguagem codificada, que pode ser mais difícil de detectar. O Comitê citou anteriormente a expressão “criatividade maligna”, cunhada pelo Wilson Center, para referir-se ao “uso de linguagem codificada; memes visuais e textuais iterativos e baseados em contexto; e outras táticas para evitar a detecção em plataformas de redes sociais”. (ver decisão Posts em polonês contra pessoas trans).

Em alguns contextos, os emojis podem representar formas de “algospeak” para expressar ódio, discriminação e assédio contra grupos com características protegidas específicas. O Comitê conclui que o conteúdo em ambos os casos se enquadra nessa tendência, ao se referir e comparar claramente pessoas negras a macacos.

No caso brasileiro, a imagem e o emoji de macaco foram usados para comparar jogadores de futebol brasileiros, a maioria negra, a macacos. O conteúdo foi postado em um contexto mais amplode racismo sistêmico e hostilidade amplamente documentados no futebol, com foco particular em ataques direcionados a jogadores negros. O conteúdo foi visualizado mais de 22 mil vezes e mostra uma tendência preocupante de perpetuar estereótipos racistas e incitar discriminação provável e iminente e ações hostis contra grupos específicos com características protegidas, nesse caso, pessoas negras.

No caso irlandês, o autor do comentário usou o emoji de macaco para comparar todas as pessoas negras, mencionadas no post principal, a macacos. O comentário foi compartilhado em meio ao aumento da discriminação e exclusão de pessoas negras na Irlanda, em um post original que recebeu mais de 293 mil curtidas e 9.500 comentários. No caso Animação Knin, o Comitê determinou que “descrever os sérvios como ratos e o pedido de exclusão ao fazer referência a atos históricos de violência afetam os direitos à igualdade e à não discriminação das pessoas visadas”. Neste caso, o autor do comentário também estava retratando pessoas negras como macacos. O comentário incentivou um comportamento hostil semelhante ao descrito no post principal, incitando, portanto, a discriminação e a hostilidade.

Esses posts ilustram como emojis podem ser usados para instigar outras pessoas a agir de forma discriminatória e potencialmente hostil. Intervenções menos severas, como rótulos, telas de aviso ou outras medidas para reduzir a disseminação, não teriam gerado a proteção adequada contra os efeitos de deixar o conteúdo dessa natureza na plataforma. Portanto, a remoção foi justificada.

Em casos mais ambíguos, o Comitê incentiva a Meta a continuar avaliando cuidadosamente medidas menos intrusivas, de acordo com a recomendação do Comitê na decisão Protestos a favor de Navalny na Rússia. Essas medidas permitiriam que os usuários corrigissem voluntariamente seu conteúdo ou promoveriam a compreensão de que seus posts podem estar impactando negativamente outras pessoas. Nesse contexto, a Meta deve garantir que essas medidas sejam eficazes e não resultem em impactos adversos aos direitos humanos (ver caso Comentário sobre a política queniana usando uma calúnia designada, recomendação n.º 1).

Questões mais amplas

As próprias pesquisas e relatórios do Comitê demonstram que esse tipo de conteúdo geralmente tem como alvo indivíduos específicos com base em suas características protegidas, especialmente no contexto esportivo, como o futebol. A Meta remove o assédio em massa direcionado sob a Política sobre Bullying e Assédio, quando o conteúdo é encaminhado para a análise de seus especialistas no tema. A empresa também introduziu diversas medidas de controle do usuário para combater abusos. Por exemplo, no Instagram, os usuários podem gerenciar múltiplos comentários indesejados de uma só vez, bloquear contas em massa que tenham postado esses comentários, ou configurar filtros de comentários “para evitar que outras pessoas deixem comentários ofensivos e usem palavras, frases ou emojis que elas não desejam ver”.

Para melhor coordenar seus esforços e proteger usuários que, embora não nomeados diretamente, sejam alvos implícitos de campanhas de ódio, a Meta deve desenvolver uma estrutura para consolidar as medidas vigentes de interrupção proativa de campanhas de ódio, especialmente aquelas que envolvem o uso de emojis. Essa estrutura deve incluir campanhas direcionadas tanto a figuras privadas quanto públicas, por meio de menções diretas/explícitas e indiretas/implícitas que se enquadrem nas Políticas sobre Bullying e Assédio ou sobre Conduta de Ódio. A estrutura assegurará que a Meta tenha uma abordagem integrada para corrigir deficiências em seus sistemas de moderação, analisar e avaliar campanhas de ódio coordenadas e direcionadas, e manter canais de feedback permanentes.

Garantir que seus sistemas estejam bem equipados para lidar com campanhas direcionadas é também fundamental na preparação para grandes eventos esportivos, em particular, o futebol. Diversos incidentesdocumentados, tanto online quanto em estádios, indicam uma tendência alarmante de animosidade racista entre grupos de torcedores e espectadores. A Meta deve assegurar que seus esforços de mitigação em tempo real incluam o monitoramento ativo de conteúdos com emojis que incitem discriminação ou hostilidade direcionada antes, durante e imediatamente após grandes eventos esportivos, como a Copa do Mundo da FIFA de 2026. Isso poderia ser alcançado por meio da criação de uma equipe multifuncional de especialistas de diversas áreas da empresa para “responder em tempo real a potenciais problemas e tendências”, semelhante a uma Central de Operações de Integridade de Produto; da implementação de um processo de análise acelerada para apelações relacionadas a violações vinculadas a eventos esportivos e do monitoramento em tempo real de tendências, para detectar picos de conteúdo com emojis que tenham como alvo indivíduos específicos ou grupos com características protegidas. A Meta também deve manter diálogo com a FIFA e outras associações esportivas profissionais para se manter informada sobre tendências e dinâmicas relevantes.

6. A decisão do Comitê de Supervisão

O Comitê revoga a decisão original da Meta de manter o conteúdo em ambas as situações em análise.

7. Recomendações

Aplicação

1. Para aprimorar a capacidade de seus sistemas automatizados em detectar com maior precisão o uso de emojis em contextos violadores, a Meta deve auditar os dados de treinamento usados para a aplicação da Política sobre Conduta de Ódio e assegurar que esses dados sejam atualizados periodicamente para incluir exemplos de conteúdos com emojis em todos os idiomas, casos de uso violador de emojis e novos casos de emprego de emojis para fins de ódio.

O Comitê considerará esta recomendação implementada quando a Meta fornecer ao Comitê os resultados detalhados de sua primeira auditoria e as melhorias necessárias para a implementação da empresa.

2. Para proteger de forma mais eficaz usuários que não são nomeados diretamente, mas que constituem os alvos implícitos dessas campanhas, a Meta deve integrar os esforços vigentes para desarticular proativamente campanhas de ódio, especialmente aquelas que envolvem o uso de emojis. Essa estrutura deve incluir campanhas direcionadas tanto a figuras privadas quanto públicas, por meio de menções diretas/explícitas e indiretas/implícitas que se enquadrem nas Políticas sobre Bullying e Assédio ou sobre Conduta de Ódio.

O Comitê considerará esta recomendação implementada quando a Meta compartilhar com o Comitê suas práticas de aplicação atualizadas para campanhas de ódio direcionadas.

3. Para assegurar que seus sistemas possam enfrentar campanhas de ódio durante grandes eventos esportivos, como a Copa do Mundo da FIFA, a Meta deve garantir que suas ações de mitigação em tempo real, seja por meio da Central de Operações de Integridade de Produto ou de outro sistema de mitigação de riscos, incluam o monitoramento ativo de conteúdos com emojis que incitem discriminação ou hostilidade direcionada antes, durante e imediatamente após esses eventos.

O Comitê considerará esta recomendação implementada quando a Meta compartilhar as evidências que confirmem a execução de suas avaliações de risco e esforços de mitigação usados durante grandes eventos esportivos.

O Comitê também reitera a importância de suas recomendações anteriores, destacando sua relevância para esta questão (recomendação n.º 1 do caso Comentário sobre a política queniana usando uma calúnia designada). Em linha com essas recomendações, a Meta deve:

  • Oferecer aos usuários uma oportunidade de autocorreção semelhante à intervenção pós-postagem criada em decorrência do caso “Protestos a favor de Navalny na Rússia”, recomendação n.º 6. Se essa intervenção não estiver mais em vigor, a Meta deverá fornecer uma intervenção equivalente.

Nota processual:

  • As decisões do Comitê de Supervisão são tomadas por painéis de cinco membros e aprovadas por maioria de votos do Comitê inteiro. As decisões dele não representam, necessariamente, as opiniões de todos os membros.
  • De acordo com seu Estatuto, o Comitê de Supervisão pode analisar apelações de usuários cujo conteúdo foi removido pela Meta, apelações de usuários que denunciaram conteúdo que a Meta manteve ativo e decisões que a Meta encaminha a ele (Seção 1 do Artigo 2 do Estatuto). O Comitê tem autoridade vinculativa para manter ou anular as decisões de conteúdo da Meta (Seção 5 do Artigo 3 e Artigo 4 do Estatuto). Ele pode emitir recomendações não vinculativas às quais a Meta é obrigada a responder (Seção 4 do Artigo 3 e Artigo 4 do Estatuto). Quando a Meta se compromete a agir de acordo com as recomendações, o Comitê monitora sua implementação.
  • Para a decisão sobre o caso em questão, uma pesquisa independente foi encomendada em nome do Comitê. O Comitê recebeu assistência da Duco Advisors, uma empresa de consultoria especializada na intercessão entre as áreas de geopolítica, confiança e segurança, e tecnologia.

Voltar para Decisões de Casos e Pareceres Consultivos sobre Políticas