Anulado

Animação Knin

O Comitê de Supervisão anulou a decisão original da Meta de permitir uma publicação no Facebook que mostrava os sérvios como se fossem ratos.

Tipo de decisão

Padrão

Políticas e tópicos

विषय
Discriminação, Liberdade de expressão, Raça e etnia
Padrão da comunidade
Discurso de ódio

Regiões/países

Localização
Croácia

Plataforma

Plataforma
Facebook

Esta decisão também está disponível em sérvio e croata.

Да бисте прочитали ову одлуку на српском језику, кликните овде.

Da biste ovu odluku pročitali na hrvatskom, kliknite ovdje.

Resumo do caso

O Comitê de Supervisão anulou a decisão original da Meta de permitir uma publicação no Facebook que mostrava os sérvios como se fossem ratos. Apesar de a Meta ter removido a publicação por violar a política de discurso de ódio, cerca de 40 moderadores haviam decidido anteriormente que o conteúdo não violava essa política. Isso indica que os moderadores interpretaram de forma unânime a política de discurso de ódio, já que eles deveriam identificar uma comparação explícita, em vez de implícita, entre sérvios e ratos antes de encontrar uma violação.

Sobre o caso

Em dezembro de 2021, uma página pública do Facebook publicou uma versão editada da animação da Disney “O Flautista Encantado” com uma legenda em croata que a Meta traduziu como “O músico de Čavoglave e os ratos de Knin”.

O vídeo retrata uma cidade infestada por ratos. Na animação original, a entrada da cidade foi nomeada “Hamelin”. Entretanto, no vídeo editado, ela aparece como a cidade croata de “Knin”. O narrador descreve como os ratos decidiram que queriam viver em um “pure rat country” (país somente de ratos), por isso começaram a atacar e a perseguir os moradores locais.

Ele explica que, quando os ratos tomaram a cidade, apareceu um flautista de Čavoglave, um vilarejo croata. Depois de tocar uma melodia em sua “magic flute” (“flauta mágica”), os ratos começam a cantar “their favorite song” (“sua música favorita”) e seguiram o flautista para fora da cidade. A letra da música homenageia Momčilo Dujić, um padre ortodoxo sérvio que foi líder das forças de resistência sérvias na Segunda Guerra Mundial.

O flautista conduz os ratos para dentro de um trator, que depois desaparece. O narrador conclui que os ratos “disappeared forever from these lands” (“desapareceram para sempre dessas terras”) e “everyone lived happily ever after” (“todos viveram felizes para sempre”).

O conteúdo neste caso foi visualizado mais de 380.000 vezes. Apesar de os usuários denunciarem o conteúdo à Meta 397 vezes, a empresa não removeu o conteúdo. Depois da apelação enviada ao Comitê, a Meta realizou uma análise humana adicional e identificou novamente que o conteúdo não violava suas políticas.

Em janeiro de 2022, quando o Comitê indicou o caso para análise completa, a Meta decidiu que, apesar de a publicação não violar a declaração da política de discurso de ódio, ela violava sua intenção, e a publicação do Facebook foi removida. Mais tarde, ao elaborar uma explicação da sua decisão ao Comitê, a Meta mudou de ideia novamente e concluiu que a publicação violava a declaração da política de discurso de ódio e todas as análises anteriores estavam erradas.

Embora a Meta tenha informado aos 397 usuários que denunciaram a publicação sobre a sua decisão inicial de que o conteúdo não violava suas políticas, a empresa não relatou a esses usuários que posteriormente reverteu essa decisão.

Principais conclusões

Neste caso, o Comitê considera que o conteúdo viola os Padrões da Comunidade sobre discurso de ódio e violência e incitação do Facebook.

A política de discurso de ódio da Meta proíbe ataques contra pessoas com base em características protegidas, inclusive etnia. Neste caso, o conteúdo, que compara sérvios a ratos e celebra atos históricos de tratamento discriminatório, é degradante e intolerante.

Embora a publicação não cite os sérvios pelo nome, as referências históricas do conteúdo deixam claro que os ratos removidos da cidade representam esse grupo. Com a substituição do nome “Hamelin” pela cidade croata de “Knin”, a identificação do flautista com a vila croata de Čavoglave (uma referência à música contra a Sérvia “Bojna Čavoglave” da banda 'Thompson' cujo vocalista é de Čavoglave) e a imagem de ratos fugindo em tratores têm relação com a “Operation Storm” (“Operação Tempestade”) dos militares croatas. Esta operação em 1995 teria resultado na fuga, execução e desaparecimento forçado de civis de etnia sérvia. Os comentários na publicação confirmam que essa conexão ficou clara para as pessoas que visualizaram o conteúdo.

O Comitê está preocupado que cerca de 40 moderadores falantes de croata consideraram que o conteúdo não viola os Padrões da Comunidade sobre discurso de ódio do Facebook. Isso indica que os analistas interpretaram a política de forma unânime, exigindo que descubram uma comparação explícita entre sérvios e ratos antes de encontrar uma violação.

O Comitê também considera que esse conteúdo viola os Padrões da Comunidade sobre violência e incitação do Facebook. O Comitê discorda da avaliação da Meta de que o conteúdo constitui um pedido de expulsão sem violência. Pela referência aos eventos da “Operation Storm” (“Operação Tempestade”), a publicação invoca pessoas de conflitos anteriores e contém uma ameaça violenta. A animação celebra a retirada violenta da população de etnia sérvia de Knin e pode contribuir para a justificativa de ataques a esse grupo.

Uma questão importante deste caso é o motivo pelo qual a Meta concluiu que o conteúdo não violou suas políticas, apesar de ter sido analisado várias vezes. O fato de o conteúdo não ter sido enviado às equipes especializadas da Meta para avaliação antes de chegar ao Comitê demonstra que os processos de encaminhamento de conteúdo da empresa não são muito claros e eficazes. Assim, o Comitê incentiva a Meta a disponibilizar mais informações sobre o encaminhamento de conteúdo.

A decisão do Comitê de Supervisão

O Comitê de Supervisão revoga a decisão original da Meta de deixar o conteúdo ativo.

Como recomendação de política, o Comitê de Supervisão aconselha que a Meta:

  • Esclareça os Padrões da Comunidade sobre discurso de ódio e as instruções dadas aos analistas, indicando que são proibidas até mesmo as referências implícitas a grupos protegidos, quando a referência seria razoavelmente compreendida.
  • De acordo com o compromisso da Meta após o caso "Cinto Wampum" (2021-012-FB-UA), o Comitê recomenda que a Meta notifique todos os usuários que denunciaram o conteúdo quando, em análise posterior, ela alterar sua determinação inicial. A Meta também deve divulgar os resultados de qualquer experimento que avaliem a viabilidade de apresentar essa alteração ao público.

*Os resumos de caso dão uma visão geral da ocorrência e não têm valor precedente.

Decisão completa sobre o caso

1. Resumo da decisão

O Comitê de Supervisão revoga a decisão original da Meta de manter o conteúdo no Facebook. Após mais de 390 denúncias de usuários para remoção do conteúdo e sua análise adicional quando o Comitê selecionou o caso, a Meta considerou que esse conteúdo não violava a política. No entanto, ao desenvolver a explicação de sua decisão ao Comitê, a Meta reverteu sua posição e declarou que se tratava de um “enforcement error” (“erro de monitoramento”), removendo o conteúdo por violação da política de discurso de ódio. O Comitê considera que o conteúdo viola os Padrões da Comunidade sobre discurso de ódio e violência e incitação da Meta. Ele conclui que a política de discurso de ódio se aplica ao conteúdo porque compara pessoas a animais e é direcionado a grupos por meio de referências implícitas a características protegidas. Nesse caso, o conteúdo comparou sérvios a ratos. O Comitê também considera que a remoção do conteúdo é uma medida consistente com as responsabilidades de direitos humanos e valores da Meta.

2. Descrição do caso e histórico

No início de dezembro de 2021, uma página pública do Facebook descrita como um portal de notícias da Croácia publicou um vídeo e uma legenda em croata. A Meta traduziu a legenda como “The Player from Čavoglave and the rats from Knin” (O músico de Čavoglave e os ratos de Knin). O vídeo é uma versão editada de uma animação da Disney “The Pied Piper” (O Flautista Encantado). O vídeo tinha duração de dois minutos e dez segundos, com uma narração em croata sobreposta com a palavra “pretjerivač”, referindo-se a uma plataforma online croata de mesmo nome.

O vídeo retratava uma cidade infestada por ratos. Na animação original da Disney, a entrada da cidade foi nomeada “Hamelin”. Entretanto, no vídeo editado, ela aparecia como a cidade croata de “Knin”. No início do vídeo, o narrador descrevia como os ratos e os seres humanos viviam na cidade real de Knin por muitos anos. O narrador conta que os ratos decidiram que queriam viver em um “pure rat country” (país somente de ratos), por isso começaram a atacar e a perseguir os moradores locais. O narrador explica que, quando os ratos tomaram a cidade, apareceu um flautista de Čavoglave, um vilarejo croata. No início, o flautista não foi levado a sério pelos ratos e continuaram com “the great rat aggression” (a grande ofensiva dos ratos). Entretanto, fascinados pela melodia que saía da “magic flute” (flauta mágica) do músico, os ratos começaram a entoar “their favorite song” (a canção favorita deles) e a seguir o flautista para fora da cidade. A Meta traduziu a letra da música cantada pelos ratos como: “What is that thing shining on Dinara, Dujić’s cockade on his head [...] Freedom will rise from Dinara, it will be brought by Momčilo the warlord.” (O que é essa coisa brilhando em Dinara, é o cocar de Dujić na cabeça dele [...] A liberdade renascerá em Dinara, ela será trazida por Momčilo, o senhor da guerra). Assim, o vídeo retratava os moradores da cidade fechando o portão após a saída do flautista e dos ratos. O vídeo termina com o flautista conduzindo os ratos para dentro de um trator, que depois desapareceu. O narrador concluiu que, assim que foram atraídos para o “magical tractor” (trator mágico), os ratos “disappeared forever from these lands” (desapareceram de vez destas terras), e “everyone lived happily ever after” (todos viveram felizes para sempre).

O contexto histórico real a seguir é importante para a decisão do Comitê. A Croácia declarou a independência da República Socialista Federativa da Iugoslávia no dia 25 de junho de 1991. O restante da Iugoslávia (mais tarde chamada de República Federal da Iugoslávia), que se tornou predominantemente sérvio, mas continha diversas minorias étnicas, inclusive croatas, usou as forças armadas na tentativa de impedir a secessão. A guerra subsequente, que durou até 1995, resultou em extrema brutalidade dos dois lados, inclusive o deslocamento forçado de mais de 200.000 sérvios da Croácia ( Relatório da Human Rights Watch, Croácia, agosto de 1996). A minoria étnica sérvia na Croácia, com o apoio do Exército Nacional Iugoslavo, se opôs à independência croata e estabeleceu (entre outras ações) uma entidade estatal conhecida como República Sérvia de Krajina (RSK). Knin tornou-se a capital de RSK. Durante este período, muitos croatas foram expulsos de Knin. Em 1995, as forças croatas reocuparam Knin em uma operação militar chamada “Operação Tempestade”. Foi a última grande batalha da guerra. Como alguns sérvios fugiram em tratores, as referências podem ser usadas para humilhar e ameaçar os sérvios.

Čavoglave é uma vila na Croácia perto de Knin, conhecida como o local de nascimento do vocalista e compositor da banda Thompson. Esta banda croata ficou conhecida durante a Guerra da Independência da Croácia pela música contra a Sérvia “Bojna Čavoglave”, que permanece disponível online. A música, que foi adicionada ao vídeo e tem imagens violentas, celebra a retomada de Knin durante a Operação Tempestade. O flautista que conduz os ratos para fora de Knin na animação é identificado como o “piper from Čavoglave” (“flautista de Čavoglave”). A melodia e a letra cantada pelos ratos da animação também têm significados específicos. A letra é da música chamada “What is that thing that shines above Dinara” (“O que é essa coisa brilhando em Dinara”), que homenageia o passado da Sérvia e Momčilo Dujić, um padre ortodoxo sérvio que foi líder das forças de resistência sérvias durante a Segunda Guerra Mundial.

A página que compartilhou o conteúdo tem mais de 50 mil seguidores. O conteúdo foi visualizado mais de 380 mil vezes, obteve mais de 540 compartilhamentos, recebeu mais de 2.400 reações e teve mais de 1.200 comentários. A maioria dos usuários que reagiram, comentaram ou compartilharam o conteúdo tem contas na Croácia. Entre os comentários em croata estavam declarações traduzidas pela Meta como: “Hate is a disease” (“O ódio é uma doença”) e “Are you thinking how much damage you are doing with this and similar stupidities to your Croatian people who live in Serbia?” (“Você pensou nos danos que está causando e outros absurdos parecidos ao povo croata que vive na Sérvia?”)

Os usuários denunciaram o conteúdo 397 vezes, mas a Meta não removeu o conteúdo. Dentre aqueles que denunciaram a publicação, 362 usuários fizeram a denúncia por discurso de ódio. Diversos usuários fizeram uma apelação contra a decisão de deixar ativo o conteúdo ao Comitê. Esta decisão tem como base a apelação feita por um desses usuários, cuja conta está localizada na Sérvia. A denúncia do usuário foi automaticamente rejeitada pelo sistema. Esse sistema soluciona denúncias nos casos que já foram analisados e considerados não violadores pelos analistas humanos da Meta algumas vezes, para que o mesmo conteúdo não seja analisado novamente. Neste caso, o conteúdo foi avaliado como não violador por vários analistas humanos antes que a decisão automática fosse acionada. Em outras palavras, apesar de a denúncia de usuário que gerou essa apelação ter sido analisada por um sistema automático, as denúncias anteriores do mesmo conteúdo foram feitas por analistas humanos, que decidiram que o conteúdo não era violador.

Depois que o usuário que denunciou o conteúdo recorreu da decisão da Meta de não tomar nenhuma ação junto ao Comitê, foi realizada uma análise humana adicional no nível de apelação e, novamente, foi constatado que o conteúdo não violava as políticas da Meta. A Meta explicou ainda que, no total, cerca de 40 “human reviewer decisions (…) assessed the content as non-violating" (“decisões de analistas humanos (…) avaliaram o conteúdo como não violador”) e “no human reviewer escalated the content” (“nenhum analista humano encaminhou o conteúdo”). A maior parte dessas análises humanas ocorreu durante a apelação. A Meta acrescentou que todos os analistas que avaliaram o conteúdo são falantes da língua croata.

Quando o Comitê de Supervisão incluiu esse caso na lista enviada à Meta para confirmar a elegibilidade da análise completa, a Meta não alterou a avaliação do conteúdo, como geralmente faz nessa fase. No final de janeiro de 2022, quando o Comitê encaminhou o caso para análise completa, a equipe de Política de Conteúdo da Meta fez uma nova avaliação. Nesse momento, a Meta determinou que a publicação da animação de Knin não violava a declaração da política de discurso de ódio, mas violava a intenção dessa política e decidiu removê-la do Facebook. A Meta explicou que uma “‘spirit of the policy’ decision is made when the policy rationale section of one the Community Standards makes clear that the policy is meant to address a given scenario that the language of the policy itself does not address directly”. (“decisão de ‘intenção da política’ é tomada quando a seção de fundamento da política de um dos Padrões da Comunidade deixa claro que a política tem como intuito tratar um determinado cenário que a linguagem da política não trata diretamente.) In those circumstances, we may nonetheless remove the content through a ‘spirit of the policy’ decision.” (Nessas circunstâncias, podemos, no entanto, remover o conteúdo por meio de uma decisão de "intenção da política"). Mais tarde, ao elaborar uma justificativa ao Comitê, a Meta mudou de ideia novamente e, dessa vez, concluiu que a publicação violava a declaração da política de discurso de ódio e todas as análises anteriores estavam erradas.

De acordo com a Meta, os 397 usuários que denunciaram o conteúdo foram informados apenas sobre as determinações iniciais da Meta de que o conteúdo não violava suas políticas. Eles não foram notificados quando a Meta mudou sua decisão e removeu o conteúdo. A Meta informou que, devido a “technical and resource limitations” (“limitações técnicas e de recursos”), não notificou os usuários sobre o conteúdo denunciado que foi inicialmente avaliado como não violador e permaneceu ativo, e somente depois foi avaliado como violador e removido.

3. Escopo e autoridade do Comitê de Supervisão

O Comitê tem autoridade para analisar a decisão da Meta após apelação do usuário que denunciou que o conteúdo estava ativo (Artigo 2, Seção 1 do Estatuto; Seção 1 do Artigo 3 dos Regulamentos Internos). De acordo com o Artigo 3 da Seção 5 do Estatuto, o Comitê pode manter ou revogar a decisão da Meta, decisão essa que é vinculante para a empresa, segundo o Artigo 4 do Estatuto. A Meta também deve avaliar a viabilidade de aplicar sua decisão no que diz respeito a conteúdo idêntico em contexto paralelo, segundo o Artigo 4 do Estatuto. As decisões do Comitê podem incluir recomendações de política, além de sugestões não vinculantes às quais a Meta deve responder, de acordo com o Artigo 3 e 4 da Seção 4 do Estatuto .

4. Fontes de autoridade

O Comitê de Supervisão considerou as seguintes fontes de autoridade:

I. Decisões do Comitê de Supervisão:

As decisões anteriores mais importantes do Comitê de Supervisão incluem:

  • Decisão sobre o caso 2021-002-FB-UA (“O Flautista Encantado”): Neste caso, a maioria do Comitê observou que a “moderating content to address the cumulative harms of hate speech, even where the expression does not directly incite violence or discrimination, can be consistent with Facebook’s human rights responsibilities in certain circumstances.” (“moderação do conteúdo para abordar os danos cumulativos do discurso de ódio, mesmo quando a manifestação não incita diretamente a violência ou discriminação, pode estar de acordo com as responsabilidades dos direitos humanos do Facebook em determinadas circunstâncias”). O Comitê também afirmou que “less severe interventions, such as labels, warning screens, or other measures to reduce dissemination, would not have provided adequate protection against the cumulative effects of leaving (...) content of this nature on the platform” (“intervenções menos severas, como rótulos, telas de aviso ou outras medidas para reduzir a disseminação, não teriam gerado a proteção adequada contra os efeitos cumulativos de deixar o conteúdo dessa natureza na plataforma”.)
  • Decisão sobre o caso 2020-003-FB-UA (“Armênios no Azerbaijão”): No contexto da linguagem que era direcionado a um grupo com base na nacionalidade durante o conflito, o Comitê observou que “left up, an accumulation of such content may create an environment in which acts of discrimination and violence are more likely” (“o conteúdo ficou ativo, e o acúmulo desse conteúdo pode criar um ambiente no qual atos de discriminação e violência são mais prováveis”).
  • Decisão sobre o caso 2021-011-FB-UA (“Calúnia na África do Sul”: O Comitê concluiu que a decisão está de acordo com as responsabilidades de direitos humanos da Meta de proibir “some discriminatory expression” (“alguma expressão discriminatória”) mesmo “absent any requirement that the expression incite violence or discriminatory acts” (“na ausência de qualquer requisito de que a expressão incita violência ou atos discriminatórios”).

II. Políticas de conteúdo da Meta:

O fundamento da política de Padrões da Comunidade sobre discurso de ódio do Facebook estabelece que o discurso de ódio não é permitido na plataforma “because it creates an environment of intimidation and exclusion and, in some cases, may promote real-world violence” (“por criar um ambiente de intimidação e de exclusão que, em alguns casos, pode promover violência no mundo real”). Os Padrões da Comunidade definem discurso de ódio como um ataque direto contra pessoas com base em características protegidas, inclusive raça, etnia e/ou nacionalidade. A Meta proíbe conteúdo direcionado a uma pessoa ou a um grupo de pessoas com base em característica(s) protegida(s) com “dehumanizing speech or imagery in the form of comparisons, generalizations, or unqualified behavioral statements (in written or visual form) to or about: [a]nimals that are culturally perceived as intellectually or physically inferior” (discurso degradante ou imagens sob a forma de comparações, generalizações ou declarações de comportamento não qualificadas (de forma visual ou escrita) voltadas para ou sobre: animais culturalmente percebidos como inferiores física ou intelectualmente”). A Meta também proíbe “[e]xclusion in the form of calls for action, statements of intent, aspirational or conditional statements, or statements advocating or supporting, defined as [...] Explicit exclusion, which means things such as expelling certain groups or saying they are not allowed” (“[e]xclusão na forma de pedidos de ação, declarações de intenção, declarações aspiracionais ou condicionais ou declarações de defesa ou apoio, definidas como [...] Exclusão explícita, o que significa ações como a expulsão de certos grupos ou que não são permitidos”).

O fundamento da política para Padrões da Comunidade sobre Violência e Incitação afirma que a Meta "aim[s] to prevent potential offline harm that may be related to Facebook” ("tem como objetivo prevenir potenciais ataques na vida real que possam estar relacionados ao conteúdo do Facebook") e que restringe a expressão “when [it] believe[s] there is a genuine risk of physical harm or direct threats to public safety” ("quando [ele] julgar que existe um risco verdadeiro de violência física ou ameaças diretas à segurança pública"). Especificamente, a Meta proíbe “coded statements where the method of violence or harm is not clearly articulated, but the threat is veiled or implicit,” (“declarações codificadas em que o método de violência ou dano não é claramente articulado, mas a ameaça é velada ou implícita”), inclusive quando o conteúdo contém “references to historical [...] incidents of violence” (“referências a incidentes [...] históricos de violência”).

III. Os valores da Meta:

Os valores da Meta são descritos na introdução aos Padrões da Comunidade do Facebook. O valor “Voz” é definido como “fundamental”:

  • O objetivo de nossos Padrões da Comunidade sempre foi criar um espaço para expressão e dar voz às pessoas. [...] Queremos que as pessoas possam falar abertamente sobre assuntos importantes para elas, ainda que sejam temas que geram controvérsias e objeções.

A Meta limita a “Voz” com base em outros quatro valores, e dois são relevantes aqui:

  • “Segurança”: temos o compromisso de fazer com que o Facebook seja um lugar seguro. Manifestações contendo ameaças podem intimidar, excluir ou silenciar pessoas e isso não é permitido no Facebook.
  • “Dignidade”: acreditamos que todas as pessoas são iguais no que diz respeito à dignidade e aos direitos. Esperamos que as pessoas respeitem a dignidade alheia e não assediem nem difamem outras pessoas.

IV. Padrões internacionais dos direitos humanos

Os Princípios Orientadores sobre Empresas e Direitos Humanos (UNGPs) da ONU, sancionados pelo Conselho dos Direitos Humanos da ONU em 2011, estabelecem uma estrutura voluntária de responsabilidades sobre direitos humanos das empresas. Em 2021, a Meta anunciou sua Política Corporativa de Direitos Humanos, em que reafirmou seu compromisso com relação aos direitos humanos de acordo com os UNGPs. Neste caso, os Padrões de Direitos Humanos a seguir foram levados em consideração na análise que o Comitê fez das responsabilidades da Meta em termos de direitos humanos.

  • Liberdade de expressão: Artigo 19 do Pacto Internacional dos Direitos Civis e Políticos, (PIDCP); Comentário geral n.º 34, do Comitê de Direitos Humanos, de 2011; Relatório do Relator Especial da ONU sobre discurso de ódio, A/74/486, 2019; Relatório do Relator Especial da ONU sobre moderação de conteúdo online, A/HRC/38/35, 2018;
  • Igualdade e não discriminação: Artigo 2, parágrafo 1 e Artigo 26 ( PIDCP); Artigo 2 e 5, Convenção Internacional sobre a Eliminação de Todas as Formas de Discriminação Racial (ICERD); Recomendação Geral n.º 35, Comitê para a Eliminação da Discriminação Racial,CERD/C/GC/35, 2013;
  • Responsabilidades das empresas: empresas, direitos humanos e regiões afetadas por conflitos: em direção à maior ação, relatório do grupo de trabalho da ONU na questão de direitos humanos e corporações transnacionais e outras empresas (A/75/212).

5. Envios de usuário

O usuário, que denunciou o conteúdo e fez uma apelação ao Comitê em croata, afirma que “[t]he Pied Piper symbolises the Croatian Army, which in 1995 conducted an expulsion of Croatia’s Serbs, portrayed here as rats.” (“o Flautista Encantado simboliza o Exército croata, que em 1995 levou à expulsão dos sérvios da Croácia, retratados aqui como ratos”). De acordo com esse usuário, a Meta não avaliou o vídeo corretamente. Ele afirma que o conteúdo representa discurso de ódio étnico e que “fosters ethnic and religious hatred in the Balkans” (“incentiva o ódio étnico e religioso nos Bálcãs”). Ele também afirma que “this and many other Croatian portals have been stoking up ethnic intolerance between two peoples who have barely healed wounds of the war the video refers to” (“esse e muitos outros portais croatas vêm alimentando a intolerância étnica entre dois povos que mal cicatrizaram as feridas da guerra a que faz referência o vídeo”).

Ao ser notificado de que o Comitê havia selecionado este caso, o usuário que publicou o conteúdo foi convidado a fornecer uma declaração. Um administrador respondeu que eles faziam parte da página apenas como parceiros.

6. Envios da Meta

Na justificativa que a Meta enviou ao Comitê, ela descreveu seu processo de análise para esta decisão, mas teve como foco explicar o motivo da eventual remoção do conteúdo de acordo com a política de discurso de ódio. Após denúncias repetidas, vários analistas humanos consideraram o conteúdo não violador. Somente depois de o caso ser selecionado pelo Comitê de Supervisão, a empresa mudou de ideia. Em seguida, a Meta determinou que o conteúdo não violava a declaração da política de discurso de ódio, mas que tomou uma decisão baseada na “intenção da política” de remover o conteúdo. Nesse momento, o Comitê informou à Meta que havia selecionado o conteúdo para análise completa. A Meta então mudou de ideia novamente, desta vez concluindo que o conteúdo violava a declaração da política. Especificamente, declara que o conteúdo violava a política que proíbe conteúdo direcionado a membros de um grupo protegido e contém “dehumanizing speech or imagery in the form of comparisons, generalizations, or unqualified behavioral statements (in written or visual form) to or about: [a]nimals that are culturally perceived as intellectually or physically inferior” (“discurso degradante ou imagens sob a forma de comparações, generalizações ou declarações de comportamento não qualificadas (de forma visual ou escrita) voltadas para ou sobre: animais culturalmente percebidos como inferiores física ou intelectualmente”). Nesta determinação analisada, a Meta afirmou que o conteúdo era violador, pois continha um ataque direto aos sérvios em Knin, comparando-os a ratos.

A Meta explicou que sua determinação anterior de que o conteúdo apenas violava a “intenção” da política de discurso de ódio se baseava na premissa de que o idioma da política não proibia ataques contra grupos com base em uma característica protegida identificada implicitamente. Após uma análise adicional dessa justificativa, a Meta “concluded that it is more accurate to say that the policy language also prohibits attacks that implicitly identify” (“concluiu que é mais correto dizer que a linguagem da política também proíbe ataques identificados implicitamente”) a uma característica protegida.

A Meta também afirmou que a remoção final do conteúdo estava de acordo com os valores de “Dignidade” e “Segurança” em contrapartida ao valor de “Voz”. De acordo com a Meta, as comparações degradantes de pessoas com animais que são culturalmente percebidos como inferiores podem contribuir para um tratamento desfavorável e prejudicial “in social integration, public policy, and other societally-impactful processes at institutional or cultural levels through implicit or explicit discrimination or explicit violence.” (“na integração social, políticas públicas e outros processos de impacto social em níveis institucionais ou culturais por meio de discriminação implícita ou explícita ou violência explícita”). A Meta acrescentou que, por conta do histórico de tensões étnicas e discriminação contínua contra sérvios na Croácia, o vídeo pode contribuir para um risco de danos no mundo real. A esse respeito, a Meta se referiu à decisão sobre o caso “O Flautista Encantado” do Comitê.

A Meta também declarou que a remoção estava de acordo com os padrões internacionais de direitos humanos. De acordo com a Meta, sua política poderia ser “easily accessible” (“facilmente acessada”) no site da Central de Transparência da Meta. Além disso, a decisão de remover o conteúdo era legítima por proteger os direitos de terceiros contra discriminação. Por fim, a Meta afirmou que sua decisão de remover o conteúdo era necessária e proporcional porque o conteúdo “does not allow users to freely connect with others without feeling as if they are being attacked on the basis of who they are” (“não permite que os usuários se relacionem livremente com outras pessoas sem sentir que estão sendo atacados por sua etnia”) e porque “no less intrusive means available for limiting this content other than removal” (“não há meios intrusivos disponíveis para limitar este conteúdo sem que seja a remoção”).

O Comitê também questionou a Meta se esse conteúdo violava os Padrões da Comunidade sobre violência e incitação. A Meta não concordou porque “the content did not contain threats or statements of intent to commit violence” (“o conteúdo não continha ameaças ou declarações de intenção de cometer violência”) contra sérvios e a “exclusion or expulsion without violence does not constitute a violent threat” (“exclusão ou expulsão sem violência não constitui uma ameaça violenta”). De acordo com a Meta, para que o conteúdo fosse removido de acordo com essa política, seria necessária “a more overt connection tying the rats in the video to the violent and forcible displacement” (“uma relação mais clara que liga os ratos do vídeo ao deslocamento violento e forçado”) dos sérvios.

7. Comentários públicos

O Comitê de Supervisão recebeu dois comentários públicos relacionados a este caso. Um dos comentários foi apresentado pela Ásia-Pacífico e Oceania e outro pela Europa. Os envios abordaram os seguintes temas: se o conteúdo deve permanecer na plataforma, se a comparação de sérvios com ratos viola a política de discurso de ódio da Meta e sugestões sobre como aplicar as regras de conteúdo no Facebook de forma mais eficaz.

Para ler os comentários públicos enviados sobre este caso, clique aqui.

8. Análise do Comitê de Supervisão

O Comitê avaliou se esse conteúdo deve ser restaurado com base em três óticas: as políticas de conteúdo da Meta, os valores da empresa e suas responsabilidades sobre os direitos humanos.

8.1 Conformidade com as políticas de conteúdo da Meta

Neste caso, o Comitê considera que o conteúdo viola os Padrões da Comunidade sobre discurso de ódio. Além disso, viola os Padrões sobre violência e incitação.

Discurso de ódio

A política de discurso de ódio da Meta proíbe ataques contra pessoas com base em características protegidas, inclusive etnia. O grupo atacado são sérvios que vivem na Croácia, especificamente em Knin, com base em sua etnia. Embora a legenda e o vídeo não citem os sérvios pelo nome, o conteúdo do vídeo em seu contexto histórico, a substituição do nome “Hamelin” por “Knin”, a letra usada no vídeo, a identificação do flautista com Čavoglave e, portanto, com a música da Banda Thompson sobre a Operação Tempestade e o uso da imagem do trator são referências inconfundíveis aos moradores sérvios de Knin. Os sérvios são descritos como ratos que devem ser retirados da cidade. Os comentários na publicação e as várias denúncias de usuário confirmam que essa conexão ficou muito clara para as pessoas que visualizaram o conteúdo.

O conteúdo contém dois “attacks” (“ataques”) de acordo com a definição desse termo na política de discurso de ódio. Primeiro, a política de discurso de ódio proíbe comparações a “[a]nimals that are culturally perceived as intellectually or physically inferior” (“animais culturalmente percebidos como inferiores física ou intelectualmente”). Os Padrões de Implementação Interna da Meta, que são diretrizes fornecidas aos analistas de conteúdo, especificam que as comparações com “vermin” (“vermes”) são proibidas de acordo com esta política. O vídeo contém uma comparação visual entre sérvios e ratos. Isso constitui uma comparação degradante em violação à política de discurso de ódio e aos Padrões de Implementação Interna.

O Comitê considera que as comparações implícitas do tipo neste conteúdo são proibidas pela política de discurso de ódio da Meta.

A Meta explicou que as decisões anteriores de não remover o conteúdo foram baseadas na premissa de que a declaração da política não se aplicava a referências implícitas de características protegidas. O Comitê discorda desta premissa. A declaração da política proíbe ataques com base em características protegidas, independente das referências serem explícitas ou implícitas. Os Padrões sobre discurso de ódio afirmam que as comparações podem ser escritas ou visuais, como vídeo, e a linguagem dos Padrões não exige que as referências a grupos-alvo sejam explícitas. Embora essa leitura da política esteja de acordo com o texto e o fundamento, a política não explica claramente que as referências implícitas também estão incluídas na política.

Em segundo lugar, o conteúdo apoia a expulsão dos sérvios de Knin. O fundamento dos Padrões sobre discurso de ódio define um ataque “violent or dehumanising speech, harmful stereotypes, statements of inferiority, expressions of contempt, disgust or dismissal, cursing and calls for exclusion or segregation” (“como discursos violentos ou degradantes, estereótipos prejudiciais, declarações de inferioridade, expressões de desprezo, repugnância ou rejeição, xingamentos e apelos à exclusão ou segregação”). De acordo com a política dos Padrões da Comunidade sobre discurso de ódio aplicada neste caso, a exclusão explícita significa incentivar “things such as expelling certain groups or saying they are not allowed” (“ações como expulsar determinados grupos ou informar que não são permitidos”). Neste caso, o vídeo mostra um incidente histórico em que os sérvios foram expulsos à força de Knin, e o conteúdo afirma que os moradores da cidade viveram muito melhor depois que os ratos foram embora. Este vídeo apoia a limpeza étnica em violação aos Padrões sobre discurso de ódio.

Violência e incitação

A política sobre violência e incitação proíbe “content that threatens others by referring to known historical incidents of violence” (“conteúdo que ameace outras pessoas ao se referir a incidentes históricos conhecidos de violência”). A legenda e o vídeo contêm referências à “Operação Tempestade”, a operação militar de 1995 que supostamente resultou em deslocamento, execução e desaparecimento de civis de etnia sérvia. No vídeo, a cidade se chama Knin e os ratos fogem em tratores, ambas fazendo referência à Operação Tempestade. Os comentários à publicação deixam claro que estão se referindo aos sérvios e croatas.

O vídeo pode contribuir para a justificativa de ataques aos sérvios. A publicação foi criada para lembrar as pessoas de conflitos anteriores e reacender conflitos étnicos, com o objetivo de livrar a área de Knin da pequena minoria étnica sérvia (para ler sobre revisionismo histórico e nacionalismo radical na Croácia, consulte o Conselho do Comitê Consultivo Europeu sobre a Convenção-Quadro para a Proteção das Minorias Nacionais de 2021 do 15º Parecer sobre a Croácia, e sobre discurso de ódio online contra sérvios, consulteRelatório da Comissão Europeia contra Racismo e Intolerância 2018, parágrafo 30). Quando uma ameaça é “velada”, de acordo com a política do Facebook, ela requer “additional context to enforce” (“contexto adicional para ser aplicada”). Esse contexto está presente nesta publicação.

O Comitê discorda da avaliação da Meta de que o conteúdo não continha ameaças ou declarações com intenção de cometer violência e que pedidos de exclusão ou expulsão, sem especificar formas de violência, podem não constituir uma ameaça violenta. A expulsão forçada de pessoas é um ato de violência. O uso da história do Flautista Encantado não é uma defesa da remoção pacífica, mas uma referência clara a incidentes históricos conhecidos de violência, em particular com as imagens do trator.

Como comprovado pelos usuários que denunciaram esta publicação e os comentários do público, aos olhos dos observadores, os ratos da animação representam a população sérvia da área de Knin, incluindo aqueles que permaneceram lá. A animação claramente comemora sua retirada. No contexto da história do Flautista Encantado, os ratos são levados a deixar Knin por uma flauta mágica em vez de uso da força, mas a referência do trator está relacionada à remoção forçada real que é amplamente conhecida no país. O trator é uma metáfora, mas as ameaças podem ser feitas usando essa figura de linguagem, o que não as torna menos eficazes do que as declarações diretas.

Processo de análise da Meta

O Comitê está particularmente interessado em entender o motivo pelo qual a empresa concluiu, várias vezes, que esse conteúdo não violava a política. Teria sido interessante se a Meta tivesse focado nessa questão desde o início, em vez de se concentrar no motivo pelo qual a decisão de remoção da publicação estava correta. Se a empresa quiser reduzir o nível de violação de conteúdo na plataforma, ela precisa usar a seleção de casos de erro de monitoramento pelo Comitê como uma oportunidade para estudar as razões de seus erros.

O Comitê observa a complexidade de avaliar casos como este e a dificuldade de aplicar os Padrões da Comunidade do Facebook, o que leva em conta o contexto, especialmente considerando o volume de conteúdo que os analistas humanos avaliam todos os dias. Por conta desses desafios, o Comitê acredita que é importante que a Meta melhore as instruções dadas aos analistas e as formas e processos para encaminhamento. “Encaminhamento” significa que os analistas humanos enviam um caso para as equipes especializadas da Meta, que avaliam o conteúdo.

De acordo com o fundamento fornecido pela Meta, de evitar a subjetividade e obter consistência no monitoramento, os analistas humanos são instruídos a aplicar a declaração da política e não avaliar a intenção. Apesar da objetividade e consistência serem objetivos legítimos, o Comitê está preocupado que as instruções dadas aos analistas parecem ter levado cerca de 40 analistas humanos a qualificar de forma equivocada o conteúdo como não violador, e nenhum analista concluiu o que a Meta acreditava ser correto, que é a remoção.

O encaminhamento do conteúdo deve levar a melhores resultados em casos difíceis. A análise no nível de encaminhamento pode avaliar a intenção e está melhor preparada para levar em conta o contexto. Este conteúdo foi denunciado 397 vezes, teve um amplo alcance, gerou questões políticas, exigiu contexto para avaliação e envolveu o conteúdo de uma plataforma online croata que, de acordo com especialistas consultados pelo Comitê, foi anteriormente objeto de discussão pública e parlamentar sobre a liberdade do discurso no contexto de sátira. No entanto, nenhum analista encaminhou o conteúdo. A Meta informou ao Comitê que incentiva os analistas a encaminhar o “trending content” (“conteúdo em alta”) e a encaminhar em caso de dúvida. A Meta definiu o conteúdo em alta como “anything that is repetitive in nature (…) combined with the type of action associated with the content (i.e. potential harm or community risk(…))” (“qualquer coisa que seja de natureza repetitiva (…) combinada com o tipo de ação associada ao conteúdo (ou seja, dano potencial ou risco da comunidade (…))”. O fato de o conteúdo não ter sido encaminhado antes da seleção do Comitê indica que as formas de encaminhamento não são suficientemente claras e eficazes. A falha no encaminhamento foi um detalhamento sistêmico.

Um fator que pode ter impedido o encaminhamento de conteúdo neste caso é que a Meta não apresenta aos analistas os limites claros em larga escala de quando o conteúdo está “em alta”. Outro fator que pode ter contribuído para que os analistas não conseguissem identificar o conteúdo como “em alta” e, portanto, fazer o encaminhamento, foi o sistema de análise automatizado da Meta usado neste caso. A Meta explicou que usa a automação para responder às denúncias, quando há uma quantidade de decisões de não violação em um determinado período para evitar uma nova análise.

O Comitê está preocupado com as formas de encaminhamento da Meta e destaca que ela deve disponibilizar mais informações sobre elas. Ela deve analisar se são necessárias formas adicionais para encaminhar o conteúdo e se o sistema automatizado usado neste caso impede que conteúdo viral e normalmente denunciado seja encaminhado.

O caso também expôs falhas no processo de denúncia e apelação da Meta. O Comitê está preocupado com o fato de a Meta não notificar os usuários quando a empresa altera sua decisão em um caso. Um usuário que denunciou o conteúdo inicialmente avaliado como não violador, que permaneceu ativo e que posteriormente foi avaliado como violador e removido, deve receber uma atualização.

8.2 Conformidade com os valores da Meta

O Comitê considera que a remoção do conteúdo está de acordo com os valores de “Voz”, “Dignidade” e “Segurança” da Meta.

O Comitê reconhece que "Voz" é o valor primordial da Meta, mas a empresa permite que a expressão seja limitada para evitar abusos e outras formas de danos online e no meio físico. As pessoas alvos de estereótipos degradantes e negativos também podem ter sua “Voz” afetada, pois seu uso pode ter um impacto de silenciar os alvos e inibir sua participação no Facebook e no Instagram. Ao permitir que essas publicações sejam compartilhadas, a Meta pode contribuir para um ambiente discriminatório.

O Comitê considera os valores de “Dignidade” e “Segurança” de importância vital nesse caso. A este respeito, o Comitê observou o aumento contínuo de casos de violência física contra sérvios na Croácia ( Quinto parecer do Conselho da Europa de 2021, parágrafo 116). Isso justificou o anulamento do valor de “Voz” do usuário a fim de proteger os valores de “Voz”, “Dignidade” e “Segurança” de outras pessoas.

8.3 Conformidade com as responsabilidades sobre direitos humanos da Meta

O Comitê conclui que a remoção da publicação da plataforma é uma medida consistente com as responsabilidades da Meta, como empresa, para com os direitos humanos. A Meta se comprometeu a respeitar os direitos humanos de acordo com os Princípios Orientadores da ONU (UNGPs) sobre Empresas e Direitos Humanos. Sua Política Corporativa de Direitos Humanos afirma que isso também inclui o Pacto Internacional dos Direitos Civis e Políticos ( PIDCP).

Liberdade de expressão (Artigo 19 do PIDCP)

O escopo do direito de liberdade de expressão é amplo. O Artigo 19, parágrafo 2 do PIDCP oferece maior proteção à expressão em questões políticas e à discussão de alegações históricas (Comentário geral Nº 34, parágrafos 20 e 49). O artigo 19 do PIDCP exige que, quando um estado impõe restrições à expressão, elas devem atender aos requisitos de legalidade, objetivo legítimo e necessidade e proporcionalidade (artigo 19, parágrafo 3, PIDCP). O relator especial da ONU sobre liberdade de expressão encorajou as redes sociais a serem guiadas por esses princípios na moderação da expressão online.

I. Legalidade (clareza e acessibilidade das regras)

O princípio da legalidade exige que as regras usadas para limitar a expressão sejam claras e acessíveis (Comentário Geral nº 34, parágrafo 25). O padrão de legalidade também exige que as regras que restringem a expressão “may not confer unfettered discretion for the restriction of freedom of expression on those charged with [their] execution” (“podem não conceder liberdade de ação irrestrita para a restrição da liberdade de expressão aos encarregados de [sua] execução”) e “provide sufficient guidance to those charged with their execution to enable them to ascertain what sorts of expression are properly restricted and what sorts are not” (“fornecem instrução suficiente para aqueles encarregados de sua execução para permiti-los determinar quais tipos de expressão são propriamente restritas e quais tipos não são”) (Ibid.). As pessoas devem ter informações suficientes para determinar se e como sua expressão pode ser limitada e ajustar seu comportamento em conformidade. Aplicadas às regras de conteúdo da Meta para o Facebook, os usuários devem conseguir entender o que é permitido e o que é proibido, e os analistas devem receber orientações claras sobre como aplicar esses padrões.

O Comitê considera que os Padrões da Comunidade sobre discurso de ódio proíbem a segmentação implícita de grupos com base em características protegidas. Este é o caso das comparações degradantes com animais como declarações que defendem ou apoiam a exclusão. Os erros que ocorreram neste caso mostram que a linguagem da política e as orientações dadas aos analistas não são claras o suficiente.

No caso, cerca de 40 analistas humanos decidiram que o conteúdo não violava os Padrões da Comunidade sobre discurso de ódio. Antes da determinação final da Meta, nenhum analista humano considerou o conteúdo violador. Isso indica que os analistas interpretaram a política de forma unânime, exigindo que descubram uma comparação explícita entre sérvios e ratos antes de encontrar uma violação. A empresa primeiro informou ao Comitê que a intenção da política proibia comparações implícitas com animais e, mais tarde, que a declaração da política cobria comparações implícitas. A confusão ao longo deste processo evidencia a necessidade de políticas e guias de implementação mais claras.

II. Objetivo legítimo

O Comitê reconheceu previamente que os Padrões da Comunidade sobre discurso de ódio e violência e incitação buscam o objetivo legítimo de proteger os direitos de terceiros. Esses direitos incluem os direitos à igualdade e não discriminação (Artigo 2, parágrafo 1, PIDCP, Artigo 2 e 5 ICERD) e exercer sua liberdade de expressão na plataforma sem ser assediado ou ameaçado (Artigo 19 PIDCP).

III. Necessidade e proporcionalidade

Para as restrições à expressão serem consideradas necessárias e proporcionais, elas “must be appropriate to achieve their protective function; they must be the least intrusive instrument amongst those which might achieve their protective function; they must be proportionate to the interest to be protected” (“devem ser apropriadas para cumprir sua função protetora; devem ser o instrumento menos intrusivo entre aqueles que podem cumprir sua função protetora; devem ser proporcionais ao interesse a ser protegido”) (parágrafo 34 do Comentário geral n.º 34). O Relator Especial sobre liberdade de expressão também observou que, nas redes sociais, “the scale and complexity of addressing hateful expression presents long-term challenges” (“o tamanho e a complexidade de abordar a expressão de ódio apresenta desafios de longo prazo”) ( A/HRC/38/35, parágrafo 28). No entanto, de acordo com o Relator Especial, as empresas devem “demonstrate the necessity and proportionality of any content actions (such as removals or account suspensions)” (“demonstrar a necessidade e a proporcionalidade de qualquer ação no conteúdo (como remoções ou suspensões de contas)”). Além disso, as empresas são obrigadas a “to assess the same kind of questions about protecting their users’ right to freedom of expression” (“avaliar o mesmo tipo de perguntas sobre a proteção do direito de liberdade de expressão de seus usuários”) (ibid parágrafo 41.).

Os Padrões da Comunidade sobre discurso de ódio do Facebook proíbem algumas formas específicas de expressões discriminatórias, incluindo comparação a animais e pedidos de exclusão, na ausência de qualquer requisito de que a expressão incite violência ou atos discriminatórios. O Comitê, com base na orientação do Relator Especial da ONU, explicou anteriormente que, embora essas proibições suscitassem preocupações se impostas por um governo de forma mais ampla, principalmente se aplicadas por meio de sanções criminais ou civis, o Facebook pode regular essa expressão, demonstrando a necessidade e proporcionalidade da ação (consulte a decisão “ Calúnia na África do Sul”).

Neste caso, o conteúdo, que compara sérvios a ratos e celebra atos históricos de tratamento discriminatório, é degradante e intolerante. O Comitê teria chegado a uma conclusão semelhante sobre qualquer conteúdo que tenha como alvo um grupo étnico dessa forma, especialmente em uma região com histórico recente de conflito étnico. O Comitê considera que a remoção desse conteúdo da plataforma foi necessária para tratar os sérios danos causados pelo discurso de ódio com base em etnia.

O Comitê considerou os fatores do Plano de Ação de Rabat ( O Plano de Ação de Rabat, OHCHR, A/HRC/22/17/Ad.4, 2013) para orientar sua análise, ao mesmo tempo em que leva em conta as diferenças entre as obrigações do direito internacional dos Estados e as responsabilidades de direitos humanos das empresas . A Meta tem a responsabilidade de “seek to prevent or mitigate adverse human rights impacts that are directly linked to [its] operations, products or services” (“tentar prevenir ou mitigar impactos adversos aos direitos humanos que estejam diretamente ligados a [suas] operações, produtos ou serviços” (UNGPs, Princípio 13)”). Em sua análise, o Comitê concentrou-se no contexto social e político, na intenção, no conteúdo e na forma do discurso e na extensão de sua divulgação.

No que diz respeito ao contexto, trata-se de uma região que passou recentemente por conflitos étnicos e um cenário envolvendo discursos de ódio online e incidentes de discriminação contra minorias étnicas na Croácia (consulte a Seção 8.1. na seção Violência e incitação). Ele pretende incitar o ódio étnico e pode contribuir para que os indivíduos tomem medidas discriminatórias. A forma da manifestação e seu amplo alcance também são importantes. O vídeo foi compartilhado por um administrador de uma página que, de acordo com informações de especialistas recebidas pelo Comitê, é um portal de notícias croata conhecido por sentimentos contra sérvios. A forma do vídeo da animação pode ser particularmente prejudicial porque gera engajamento. O seu alcance era amplo. Apesar de o vídeo ter sido criado por outra pessoa, é provável que a popularidade da página (que tem mais de 50.000 seguidores) aumente o alcance do vídeo, principalmente porque mostra as visualizações da página e seus seguidores. O conteúdo foi visualizado mais de 380 mil vezes, obteve mais de 540 compartilhamentos, recebeu mais de 2.400 reações e teve mais de 1.200 comentários.

Na decisão “Calúnia na África do Sul”, o Comitê concluiu que a decisão está de acordo com as responsabilidades de direitos humanos da Meta de proibir “some discriminatory expression” (“alguma expressão discriminatória”) mesmo “absent any requirement that the expression incite violence or discriminatory acts” (“na ausência de qualquer requisito de que a expressão incite violência ou atos discriminatórios”). O Comitê declara que o Artigo 20, parágrafo 2 do PIDCP, conforme interpretado no Plano de Ação de Rabat, exige dano iminente para justificar restrições à expressão. O Comitê não acredita que esta publicação resultaria em dano iminente. No entanto, a Meta pode remover legitimamente as publicações do Facebook que incentivam a violência de forma menos imediata. Isso ocorre porque as responsabilidades de direitos humanos da Meta como empresa diferem das obrigações de direitos humanos dos estados. A Meta pode aplicar padrões menos rígidos para remover o conteúdo da plataforma do que aqueles aplicados aos estados que impõem sanções criminais ou civis.

Nesse caso, o retrato dos sérvios como ratos e o pedido de exclusão ao fazer referência a atos históricos de violência afetam os direitos à igualdade e à não discriminação daqueles a quem são direcionados. Esta justificativa remove a publicação. Muitos membros do Comitê também acreditavam que o conteúdo tinha impacto negativo na liberdade de expressão de terceiros na plataforma, pois contribuía para um ambiente em que alguns usuários se sentiriam ameaçados.

O Comitê considera que a remoção do conteúdo da plataforma é uma medida necessária e proporcional. Intervenções menos severas, como rótulos, telas de aviso ou outras medidas para reduzir a disseminação, não teriam gerado a proteção adequada contra os efeitos cumulativos de deixar o conteúdo dessa natureza na plataforma (para um análise semelhante, consulte o caso “Representação do Flautista Encantado”)

9. Decisão do Comitê de Supervisão

O Comitê de Supervisão revoga a decisão original da Meta de deixar ativo o conteúdo e exige que a publicação seja removida.

10. Declaração de parecer consultivo

Política de conteúdo

1. A Meta deve explicar os Padrões da Comunidade sobre discurso de ódio e as instruções dadas aos analistas, que indicam que são proibidas até mesmo as referências implícitas a grupos protegidos, quando a referência seria razoavelmente compreendida. O Comitê considerará esta recomendação implementada quando a Meta atualizar seus Padrões da Comunidade e Padrões de Implementação Interna para os analistas de conteúdo incorporarem a esta análise.

Monitoramento

2. De acordo com o compromisso da Meta após o caso "Cinto Wampum" (2021-012-FB-UA), o Comitê recomenda que a Meta notifique todos os usuários que denunciaram o conteúdo quando, em análise posterior, ela alterar sua determinação inicial. A Meta também deve divulgar os resultados de qualquer experimento que avaliem a viabilidade de apresentar essa alteração ao público. O Comitê considerará esta recomendação implementada quando a Meta compartilhar informações sobre experimentos e, por fim, a notificação atualizada com o Comitê e confirma que é usada em todos os idiomas.

*Nota processual:

As decisões do Comitê de Supervisão são preparadas por grupos com cinco membros e aprovadas pela maioria do Comitê. As decisões do Comitê não representam, necessariamente, as opiniões pessoais de todos os membros.

Para a decisão sobre o caso em apreço, uma pesquisa independente foi contratada em nome do Comitê. Um instituto de pesquisa independente com sede na Universidade de Gotemburgo e com uma equipe de mais de 50 cientistas sociais de seis continentes, bem como mais de 3.200 especialistas de países do mundo todo. O Comitê também foi auxiliado pela Duco Advisors, uma empresa de consultoria especializada na intercessão entre as áreas de geopolítica, de confiança e segurança e de tecnologia. A empresa Lionbridge Technologies, LLC, cujos especialistas são fluentes em mais de 350 idiomas e trabalham de 5.000 cidades pelo mundo, forneceu a consultoria linguística.

Voltar para Decisões de Casos e Pareceres Consultivos sobre Políticas