Anulado

Bot de Mianmar

O Comitê de Supervisão revogou uma decisão do Facebook de remover uma publicação em birmanês de acordo com os Padrões da Comunidade sobre discurso de ódio.

Tipo de decisão

Padrão

Políticas e tópicos

विषय
Liberdade de expressão, Política
Padrão da comunidade
Discurso de ódio

Regiões/países

Localização
Mianmar

Plataforma

Plataforma
Facebook

Resumo do caso

O Comitê de Supervisão revogou uma decisão do Facebook de remover uma publicação em birmanês de acordo com os Padrões da Comunidade sobre discurso de ódio. O Comitê constatou que a publicação não foi direcionada a pessoas chinesas, mas ao estado chinês. A publicação utilizou, especificamente, linguagem ofensiva para fazer referência à política governamental chinesa em Hong Kong como parte da discussão política sobre o papel do governo chinês em Myanmar.

Sobre o caso

Em abril de 2021, um usuário do Facebook que aparentava estar em Myanmar publicou conteúdo em birmanês na linha do tempo. A publicação discutia maneiras de limitar o financiamento dos militares de Myanmar após o golpe de estado que ocorreu em 1 de fevereiro de 2021. Ela propunha que a receita de impostos fosse dada ao Comitê Representante do Pyidaungsu Hlutaw (CRPH), um grupo de legisladores opositores ao golpe. A publicação recebeu cerca de meio milhão de visualizações e nenhum usuário do Facebook a denunciou.

O Facebook traduziu o trecho que contém a suposta violação na publicação do usuário como “Hong Kong people, because the fucking Chinese tortured them, changed their banking to UK, and now (the Chinese) they cannot touch them.” (O povo de Hong Kong, porque os porras dos chineses torturaram eles, mudaram seus bancos para o Reino Unido e agora eles [os chineses] não podem mais encostar neles). O Facebook removeu essa publicação de acordo com os seus Padrões da Comunidade sobre discurso de ódio. Ele proíbe conteúdo direcionado a uma pessoa ou a um grupo de pessoas com base em raça, etnia ou nacionalidade que contenha “termos ofensivos ou frases com a intenção de insultar”.

Os quatro analistas de conteúdo que examinaram a publicação concordaram que ela violava as regras do Facebook. Em sua apelação ao Comitê, o usuário afirmou que publicou o conteúdo para “stop the brutal military regime” (parar o regime militar brutal).

Principais conclusões

Esse caso evidencia a importância de se considerar o contexto ao aplicar as políticas sobre discurso de ódio, assim como a importância de proteger a liberdade do discurso político. Isso é particularmente importante em Myanmar, considerando o golpe de fevereiro de 2021 e o papel fundamental do Facebook como meio de comunicação no país.

O usuário usou a frase em birmanês “$တရုတ်”, que Facebook traduziu como “fucking Chinese” (ou “sout ta-yote”, “a porra dos chineses”). De acordo com o Facebook, na palavra “ta-yote” “percebe-se, culturalmente e linguisticamente, uma sobreposição de identidades/significados entre o país China e as pessoas chinesas”. O Facebook afirmou que devido à natureza da palavra e ao fato do usuário não ter “indicado, de forma clara, que o termo se refere ao país/governo da China”, determinou que “o usuário está, no mínimo, se referindo a pessoas chinesas”. Sendo assim, o Facebook removeu a publicação de acordo com os Padrões da Comunidade sobre discurso de ódio.

Como a mesma palavra é utilizada em birmanês para se referir ao estado e às pessoas deste estado, o contexto é fundamental para entender o significado pretendido. Vários fatores convenceram o Comitê de que o usuário não estava se direcionando à pessoas chinesas, mas sim ao estado chinês;

A parte da publicação que supostamente violou as regras do Facebook refere-se às políticas financeiras da China em Hong Kong como “torture” (tortura) ou “persecution”(perseguição), e não à ação de indivíduos ou de pessoas chinesas em Myanmar. Ambos os tradutores do Comitê indicaram que, nesse caso, a palavra “ta-yote” refere-se ao estado. Ao serem questionados se poderia haver a possibilidade de ambiguidade nessa referência, os tradutores não indicaram nenhuma dúvida. Os tradutores do Comitê também afirmaram que a publicação continha termos comumente utilizados pelo governo de Myanmar e pela embaixada chinesa para se dirigirem uns aos outros. Além disso, enquanto meio milhão de usuários visualizaram a publicação e mais de 6.000 pessoas a compartilharam, nenhum usuário a denunciou. Os comentários públicos também descrevem o tom geral da publicação como uma discussão política.

Dado que a publicação não foi direcionada a pessoas com base em raça, etnia ou nacionalidade, mas ao estado, o Comitê constatou que ela não violou os Padrões da Comunidade sobre discurso de ódio do Facebook.

A decisão do Comitê de Supervisão

O Comitê de Supervisão revoga a decisão do Facebook de remover o conteúdo e exige que a publicação seja restaurada.

Em uma declaração de parecer consultivo, o Comitê recomenda ao Facebook:

  • Garantir que a Implementação Interna dos Padrões estejam disponíveis na língua em que os moderadores de conteúdo analisam o conteúdo. Caso seja necessário priorizar, o Facebook deve se concentrar primeiro em contextos em que os riscos aos direitos humanos são mais graves.

*Os resumos de caso dão uma visão geral da ocorrência e não têm valor precedente.

Decisão completa sobre o caso

1. Resumo da decisão

O Comitê de Supervisão revogou a decisão do Facebook de remover um conteúdo em conformidade com os Padrões da Comunidade sobre discurso de ódio. O comitê decidiu que a publicação não era discurso de ódio.

2. Descrição do caso

Em abril de 2021, um usuário do Facebook que aparentava estar em Myanmar publicou conteúdo em birmanês na linha do tempo. A publicação discutia maneiras de limitar o financiamento dos militares de Myanmar após o golpe de estado que ocorreu em 1 de fevereiro de 2021. Ela propunha que a receita de impostos fosse dada ao Comitê Representante do Pyidaungsu Hlutaw (CRPH), um grupo de legisladores opositores ao golpe. A publicação recebeu cerca de 500.000 visualizações, em torno de 6.000 reações e foi compartilhada cerca de 6.000 vezes. Nenhum usuário do Facebook denunciou a publicação.

O Facebook traduziu o trecho que contém a suposta violação na publicação do usuário como “Hong Kong people, because the fucking Chinese tortured them, changed their banking to UK, and now (the Chinese) they cannot touch them.” (O povo de Hong Kong, porque os porras dos chineses torturaram eles, mudaram seus bancos para o Reino Unido e agora eles [os chineses] não podem mais encostar neles). O Facebook removeu a publicação como discurso de ódio “Nível 2” de acordo com os Padrões da Comunidade sobre discurso de ódio no dia seguinte de sua publicação. Ele proíbe conteúdo direcionado a uma pessoa ou a um grupo de pessoas com base em raça, etnia ou nacionalidade que contenha “termos ofensivos ou frases com a intenção de insultar”.

Um recompartilhamento da publicação foi, de acordo com o Facebook, “automaticamente selecionado como parte de uma amostra e enviado para um analista humano para ser utilizado como treinamento de classificador”. Isso se trata do Facebook realizar a criação de conjuntos de dados com exemplos de conteúdos em violação e que não estão em violação para treinar seus processos de detecção e monitoramento automáticos para prever conteúdos que violam as políticas do Facebook ou não. O analista determinou que a publicação compartilhada violou os Padrões da Comunidade sobre discurso de ódio. Enquanto o propósito do processo era criar conjuntos de conteúdo para treinar o classificador, uma vez que a publicação compartilhada foi considerada violadora, ela foi excluída.

Considerando que foi constatado que a publicação violou as regras do Facebook, um “Bot de Ação Administrativa” identificou automaticamente a publicação original para análise. O Facebook explicou que o Bot de Ação Administrativa é uma conta interna do Facebook que não faz nenhuma análise de conteúdo mas realiza “uma variedade de ações em todo o sistema de monitoramento baseadas em decisões feitas por humanos ou automação”. Dois analistas humanos analisaram a publicação original, e ambos determinaram que continha discurso de ódio “Nível 2”. O conteúdo foi removido. O usuário apelou da remoção do Facebook, onde um quarto analista humano a manteve. De acordo com o Facebook, “os analistas de conteúdo nesse caso eram todos membros da equipe birmanesa de análise de conteúdo do Facebook”. O usuário então enviou sua apelação ao Comitê de Supervisão.

3. Autoridade e escopo

O Comitê tem autoridade para analisar a decisão do Facebook após uma apelação do usuário cuja publicação foi removida (Artigo 2, Seção 1 do Estatuto; Artigo 2, Seção 2.1 dos Regulamentos Internos). O Comitê pode manter ou reverter essa decisão (Artigo 3, Seção 5 do Estatuto). As decisões do Comitê são vinculativas e podem incluir declarações de parecer consultivo com recomendações. Essas recomendações não são vinculativas, mas o Facebook deve responder a elas (Artigo 3, Seção 4 do Estatuto). O Comitê é um mecanismo de reclamações independente com o objetivo de abordar contestações de uma maneira transparente e íntegra.

4. Padrões relevantes

Em sua decisão, o Comitê de Supervisão considerou os seguintes padrões:

I. Padrões da Comunidade do Facebook

Os Padrões da Comunidade do Facebook definem o discurso de ódio como “um ataque direto a pessoas com base no que chamamos de características protegidas: raça, etnia, nacionalidade, religião, orientação sexual, casta, sexo, gênero, identidade de gênero e doença ou deficiência grave”. De acordo com o “Nível 2”, é proibido publicar conteúdo que inclua xingamentos, definidos como “termos ou frases ofensivas com a intenção de insultar, incluindo mas não limitado a: foder, puta, filho da puta”.

II. Valores do Facebook

Os valores do Facebook são descritos na introdução aos Padrões da Comunidade. O valor “Voz” é definido como “fundamental”:

o objetivo de nossos Padrões da Comunidade sempre foi criar um local de expressão e dar voz às pessoas. [...] Queremos que as pessoas possam falar abertamente sobre os assuntos importantes para elas, ainda que sejam temas que geram controvérsias e objeções.

O Facebook limita a “Voz” com base em quatro valores, e dois são relevantes aqui:

“Segurança”: Temos o compromisso de fazer com que o Facebook seja um lugar seguro. Manifestações contendo ameaças podem intimidar, excluir ou silenciar pessoas e isso não é permitido no Facebook.

“Dignidade” : acreditamos que todas as pessoas são iguais no que diz respeito à dignidade e aos direitos. Esperamos que as pessoas respeitem a dignidade alheia e não assediem nem difamem umas às outras.

III. Padrões de Direitos Humanos

Os Princípios Orientadores da ONU sobre Empresas e Direitos Humanos (UNGPs, na sigla em inglês), endossados pelo Conselho de Direitos Humanos da ONU em 2011, estabelecem uma estrutura voluntária de responsabilidades sobre direitos humanos das empresas privadas. Em 2021, o Facebook anunciou sua Política Corporativa de Direitos Humanos, onde comemorou o seu compromisso com o respeito aos direitos humanos de acordo com os UNGPs. Neste caso, os seguintes padrões de direitos humanos foram levados em consideração na análise do Comitê:

  1. Liberdade de expressão: Artigo 19, Pacto Internacional dos Direitos Civis e Políticos (PIDCP), Comentário Geral N° 34, Comitê de Direitos Humanos (2011);
  2. Responsabilidades das empresas: Empresas, direitos humanos e regiões afetadas por conflitos: em direção à maior ação, relatório ( A/75/212), Grupo de trabalho da ONU na questão de direitos humanos e corporações transnacionais e outras empresas

5. Declaração do usuário

O usuário afirmou em sua apelação ao Comitê que ele publicou esse conteúdo para “ [to] stop the brutal military regime” (parar o regime militar brutal) e fornecer conselhos aos líderes democráticos em Myanmar. O usuário também reiterou a necessidade de limitar o financiamento do regime militar em Myanmar. O usuário se identificou como um “ativista” e especulou que os informantes do regime militar de Myanmar denunciaram sua publicação. O usuário também afirmou que “someone who understands Myanmar Language” (“alguém que entenda o idioma de Myanmar”) deveria analisar a publicação.

6. Explicação sobre a decisão do Facebook

O Facebook removeu o conteúdo como um ataque de “Nível 2” de acordo com os Padrões da Comunidade sobre discurso de ódio, especialmente por violar sua política de proibição de xingamentos direcionados a pessoas com base em raça, etnia e/ou nacionalidade. De acordo com o Facebook, o suposto conteúdo violador foi considerado como um ataque à pessoas chinesas.

O conteúdo incluiu a frase em birmanês ““$တရုတ်”, que a equipe regional do Facebook traduziu como “a porra dos chineses” (ou “sout ta-yote”). A equipe regional do Facebook especificou ainda que “$” pode ser utilizado como uma abreviação para “စောက်” ou “sout”, que se traduz como “porra”. De acordo com a equipe do Facebook, a palavra “ta-yote” “é percebida, cultural e linguisticamente, como uma sobreposição de identidades/significados entre o país China e as pessoas chinesas”. O Facebook forneceu ao Comitê orientações internas relevantes e confidenciais que ele oferece aos moderadores, ou Padrões de Implementação Interna, sobre como distinguir expressões direcionadas a pessoas com base em características protegidas e conceitos relacionados a características protegidas.

O Facebook também observou em sua fundamentação da decisão que após o golpe de fevereiro de 2021 “houve relatos de aumento de xenofobia contra pessoas chinesas” em Myanmar e que “várias pessoas chinesas foram feridas, encurraladas ou mortas em supostos incêndios criminosos em uma fábrica de roupas financiada por chineses em Yangon, em Myanmar”. Em resposta a uma pergunta do Comitê, O Facebook afirmou que não entrou em contato com o regime militar de Myanmar para falar sobre a publicação.

O Facebook afirmou que devido à natureza da palavra e ao fato do usuário não ter “ indicado, de forma clara, que o termo refere-se ao país/governo da China”, determinou que “o usuário está, no mínimo, se referindo a pessoas chinesas”. Sendo assim, o Facebook afirmou que a remoção da publicação é consistente com seus Padrões da Comunidade sobre discurso de ódio.

O Facebook também afirmou que a remoção do conteúdo estava de acordo com os valores de “Dignidade” e “Segurança” em contrapartida ao valor de “Voz”. De acordo com o Facebook, xingamentos direcionados a pessoas chinesas “podem resultar em danos a essas pessoas” e que são “humilhantes, desumanizantes e diminuem a dignidade individual”.

O Facebook argumentou que sua decisão estava de acordo com os padrões internacionais de direitos humanos. O Facebook afirmou que sua decisão segue os requisitos legais de legalidade, objetivo legítimo e de necessidade e de proporcionalidade dos direito internacional dos direitos humanos. De acordo com o Facebook, sua política era “de fácil acesso” nos Padrões da Comunidade e que “a escolha de palavras do usuário se encaixou dentro da proibição de termos ofensivos”. Além disso, a decisão de remover o conteúdo foi legítima para proteger “os direitos de outras pessoas contra danos e discriminação”. Finalmente, a decisão de remover o conteúdo foi “necessária e proporcional”, uma vez que “ a acumulação de conteúdo contendo xingamentos direcionados a pessoas chinesas ‘cria um ambiente onde atos de violência são mais prováveis de serem tolerados e reproduzem discriminação em uma sociedade’”, citando a decisão do Comitê 2021-002-FB-UA, relacionada a Zwarte Piet. O Facebook afirmou que era semelhante pois “ambos os casos envolvem discurso de ódio direcionado a pessoas com base em raça ou etnia”.

7. Envios de terceiros

O Comitê de Supervisão recebeu 10 comentários públicos relacionados a este caso. Cinco dos comentários eram da Ásia-Pacífico e Oceania, especificamente de Myanmar, e cinco eram dos Estados Unidos e do Canadá. O Comitê recebeu comentários de partes interessadas, incluindo defensores de direitos humanos e organizações da sociedade civil com foco na liberdade de expressão e discurso de ódio em Myanmar.

Os envios cobriram temas que incluem a tradução e a análise da palavra “sout ta-yote”; se o conteúdo foi um ataque à China ou a pessoas chinesas; se a publicação foi uma expressão política que deveria ser protegida no contexto do conflito de Myanmar depois do golpe de fevereiro 2021; as relações entre a China e o regime militar em Myanmar; e as práticas do Facebook de moderação de conteúdo, particularmente o uso, o treinamento e a auditoria das ferramentas de automação do Facebook para conteúdo em birmanês.

Para ler os comentários públicos enviados sobre este caso, clique aqui.

8. Análise do Comitê de Supervisão

Esse caso destaca a importância do contexto ao aplicar políticas de conteúdo feitas para proteger usuários contra discurso de ódio, ao mesmo tempo em que respeita o discurso político. Isso é particularmente relevante em Myanmar, devido ao golpe de fevereiro de 2021 e o papel fundamental do Facebook como meio de comunicação no país. O Comitê avaliou se esse conteúdo deve ser restaurado com base em três óticas: os Padrões da Comunidade do Facebook, os valores da empresa e suas responsabilidades sobre os direitos humanos.

8.1 Conformidade com os Padrões da Comunidade

O Comitê constatou que a restauração deste conteúdo está de acordo com os Padrões da Comunidade do Facebook sobre discurso de ódio. A política do Facebook proíbe “termos ofensivos com a intenção de insultar” que sejam direcionados a uma pessoa ou a pessoas com base em raça, etnia ou nacionalidade. O Comitê conclui que a publicação não foi direcionada a pessoas, mas à política governamental chinesa em Hong Kong, feita no contexto de discussão do papel do governo chinês em Myanmar.

Além dos comentários públicos, o Comitê também buscou duas traduções do texto. Elas incluíam traduções de um falante birmanês localizado dentro de Myanmar e outro falante birmanês localizado fora de Myanmar. Os comentários públicos e os tradutores do Comitê observaram que, em birmanês, a mesma palavra é utilizada para se referir a estados e a pessoas daquele estado. Portanto, o contexto é essencial para entender o significado pretendido. Isso é particularmente relevante para a aplicação da política sobre discurso de ódio do Facebook. Quando o conteúdo foi removido, os Padrões da Comunidade sobre discurso de ódio afirmavam que proibiam ataques contra pessoas com base na nacionalidade mas não proibia ataques contra países.

O Comitê considerou vários fatores ao decidir que a publicação não foi direcionada a pessoas chinesas com base em etnia, raça ou nacionalidade. Primeiro, a publicação como um todo sugeria maneiras de limitar o financiamento do regime militar e fornecer apoio financeiro ao CRPH. Segundo, a parte da publicação que supostamente violou as regras do Facebook se refere às políticas financeiras da China em Hong Kong como “tortura” ou “perseguição”, e não à ação de indivíduos ou pessoas chinesas em Myanmar. Terceiro, embora a ausência de denúncias de uma publicação amplamente compartilhada nem sempre indique que ela não é violadora, mais de 500.000 pessoas a visualizaram e mais de 6.000 pessoas compartilharam a publicação e nenhum usuário a denunciou. Quarto, ambos os tradutores consultados pelo Comitê indicaram que, enquanto o mesmo termo é utilizado para se referir ao estado e as pessoas dele, o termo aqui refere-se ao estado. Ao serem questionados sobre a possibilidade de haver a possibilidade de ambiguidade nessa referência, os tradutores não indicaram nenhuma dúvida. Quinto, ambos os tradutores afirmaram que a publicação continha termos comumente utilizados pelo governo de Myanmar e pela embaixada chinesa para se dirigirem uns aos outros. Por último, os comentários públicos denotam de forma geral que o teor da publicação foi, em sua grande parte, uma discussão política.

Sendo assim, dado que a publicação não foi direcionada a pessoas com base em raça, etnia ou nacionalidade, mas sim direcionada ao estado, o Comitê deliberou que ela não violou os Padrões da Comunidade sobre discurso de ódio do Facebook. É crucial garantir que as proibições de se direcionar a pessoas com base em características protegidas não sejam interpretadas de forma a proteger governos ou instituições de críticas. O Comitê reconhece que o discurso de ódio contra pessoas chinesas é uma preocupação séria, mas que essa publicação refere-se ao estado chinês.

O Comitê discorda da argumentação do Facebook de que sua decisão de remover o conteúdo seguiu a fundamentação do Comitê na decisão do caso 2021-002-FB-UA (onde o Comitê manteve a remoção de representação de pessoas com blackface). Nesse casso,o Facebook tinha uma regra contra representação de pessoas usando blackface, e o Comitê permitiu que o Facebook aplicasse essa regra ao conteúdo que incluía representações com blackface de Zwarte Piet. Aqui, em contraste, o contexto da publicação indica que a linguagem utilizada não violou as regras do Facebook de nenhuma forma.

Durante a deliberação do Comitê sobre esse caso, o Facebook atualizou seus Padrões da Comunidade sobre discurso de ódio para fornecer mais informações sobre como ele proíbe “conceitos” relacionados a características protegidas em certas circunstâncias. Essa nova regra afirma que o Facebook “necessita de mais informações e/ou de contexto” para a aplicação da regra e que os usuários não devem publicar “Conteúdo que ataca conceitos, instituições, ideias, práticas ou crenças associadas com características protegidas, que muito provavelmente irão contribuir para danos corporais iminentes, intimidação ou discriminação contra as pessoas associadas a aquela característica protegida”.

Como isso não fazia parte dos Padrões da Comunidade quando o Facebook removeu esse conteúdo, e o Facebook não argumentou com o Comitê que a remoção foi realizada de acordo com os Padrões atualizados, o Comitê não analisou a aplicação dessa política nesse caso. No entanto o comitê observa que “conceitos, instituições, ideias, práticas ou crenças” podem cobrir um leque muito grande de expressões, incluindo discursos políticos.

8.2 Conformidade com os valores do Facebook

O Comitê conclui que restaurar esse conteúdo é consistente com os valores do Facebook. Embora os valores do Facebook de “Dignidade” e “Segurança” sejam importantes, particularmente no contexto do golpe de 2021 em Myanmar, o conteúdo não é um risco para esses valores de forma a justificar a deslocar “Voz”. O Comitê também considera que a publicação contém expressão política que é fundamental para o valor “Voz”.

8.3 Conformidade com as responsabilidades sobre direitos humanos do Facebook

O Comitê conclui que restaurar o conteúdo é consistente com as responsabilidades do Facebook com os direitos humanos como empresa. O Facebook se comprometeu a respeitar os direitos humanos de acordo com os Princípios Orientadores da ONU sobre Empresas e Direitos Humanos (UNGPs). Sua Política Corporativa de Direitos Humanos afirma que também inclui o Pacto Internacional dos Direitos Civis e Políticos (PIDCP).

O artigo 19 do PIDCP fornece ampla defesa da expressão. Essa proteção é “particularmente alta” para expressão e debate político, incluindo sobre instituições públicas ( Comentário Geral 34, parágrafo 38). O artigo 19 requer restrições estatais na expressão para satisfazer o teste de três partes de legalidade, legitimidade e necessidade e proporcionalidade. O Comitê conclui que as ações do Facebook não satisfizeram suas responsabilidades como empresa sob esse teste.

I. Legalidade (clareza e acessibilidade das regras)

O princípio da legalidade no direito internacional dos direitos humanos exige que as regras usadas para limitar a expressão sejam claras e acessíveis (Comentário Geral nº 34, parágrafo 25). As regras de restrição à expressão também devem “fornecer orientação suficiente para aqueles responsáveis pela sua execução para que possam determinar os tipos de expressão que são ou não são propriamente restritos” ( Comentário Geral 34, parágrafo 25).

Os Padrões da Comunidade sobre discurso de ódio proíbem xingamentos direcionados a pessoas com base em raça, etnia ou nacionalidade. O Facebook disse ao Comitê que, devido às dificuldades de “determinar a intenção, o Facebook considera que a frase ‘a porra dos chineses’ se refere tanto a pessoas chinesas como ao país ou governo chinês, a não ser que o usuário forneça contexto adicional que se refira somente ao país ou ao governo”. A política que utiliza a remoção como política padrão não é indicada nos Padrões da Comunidade.

O Comitê conclui que o usuário forneceu contexto adicional de que a publicação se referia ao estado ou ao país, como observado na análise do Comitê sobre os Padrões da Comunidade sobre discurso de ódio (Seção 8.1 acima). Múltiplos analistas do Facebook chegaram a conclusões diferentes da dos tradutores do Comitê, pessoas que enviaram comentários públicos e presumivelmente muito mais dos 500.000 usuários que visualizaram a publicação e não a denunciaram. Dada essa divergência, o Comitê questiona a adequação das orientações, recursos, e o treinamento do Facebook fornecidos aos moderadores de conteúdo.

Considerando a conclusão do Comitê de que o usuário não violou a Política sobre Discurso de Ódio do Facebook, o Comitê não decide se a política não-pública de remoção do conteúdo como política padrão viola o princípio de legalidade. No entanto, o Comitê está preocupado com a remoção como política padrão não estar clara nos Padrões da Comunidade, quando o xingamento pode ser interpretado como direcionado a pessoas ou ao estado. Em geral, o Facebook deveria tornar públicas as orientações internas que alteram a intepretação dos Padrões da Comunidade públicos.

II. Objetivo legítimo

Qualquer restrição de estado na expressão deve perseguir um dos objetivos legítimos listados no PIDCP. Esses objetivos incluem o “direito de outros”. De acordo com o Facebook, sua Política sobre Discurso de Ódio tem como objetivo proteger usuários de discriminação. O Comitê concorda que este é um objetivo legítimo.

III. Necessidade e proporcionalidade

O princípio de necessidade e proporcionalidade sob o direito internacional de direitos humanos requer que as restrições na expressão “devem ser apropriadas para cumprir sua função protetora; devem ser o instrumento menos intrusivo entre aqueles que podem cumprir sua função protetora; devem ser proporcionais ao interesse a ser protegido” (Comentário Geral 34, parágrafo 34). Nesse caso, baseado nessa interpretação do conteúdo, o Comitê determinou que restringir a publicação não alcançaria função protetiva.

Os UNGPs afirmam que as empresas devem realizar as devidas diligências para verificar os impactos de suas atividades (UNGP 17) e reconhecer que o risco de danos aos direitos humanos é maior em contextos afetados por conflitos (UNGP 7). O Grupo de trabalho da ONU na questão de direitos humanos e corporações transnacionais e outras empresas notou que as responsabilidades de diligências das empresas devem refletir a grande complexidade e risco de danos em alguns cenários (A/75/212, parágrafos 41-49). De forma similar, na decisão sobre o caso 2021-001-FB-FBR o Comitê recomenda que o Facebook “garanta recursos e conhecimento adequados para avaliar o risco de danos de contas globalmente influentes”, reconhecendo que o Facebook deveria dar atenção a regiões com maiores riscos.

Nesse caso, o Comitê constatou que essas responsabilidades aumentadas não devem culminar na remoção como política padrão, já que os riscos são altos tanto ao deixar o conteúdo prejudicial quanto ao remover conteúdo que não apresenta nenhum ou pouco dano. Embora a preocupação do Facebook com o discurso de ódio em Myanmar seja bem fundamentada, ele também deve tomar cuidados extras para não remover críticas e expressões políticas, nesse caso em apoio a um governo democrático.

O Comitê observou que a política do Facebook de presumir que xingamentos mencionando nacionalidade (neste caso “$တရုတ်”) se referem ao estados e as pessoas pode levar a aplicação desproporcional em alguns contextos linguísticos, como neste, onde a mesma palavra é utilizada para ambos. O Comitê também notou que o impacto dessa remoção se estendeu além desse caso, uma vez que o Facebook indicou a sua utilização para o treinamento de classificador como exemplo de conteúdo que violou os Padrões da Comunidade sobre discurso de ódio.

De acordo com o exposto acima, os padrões internacionais de direitos humanos apoiam a restauração do conteúdo no Facebook.

9. Decisão do Comitê de Supervisão

O Comitê de Supervisão revoga a decisão do Facebook de remover o conteúdo e exige que o conteúdo seja restaurado. O Facebook é obrigado, sob o Estatuto do Comitê, a aplicar essa decisão em contextos paralelos, e deve marcar esse conteúdo como não-violador se utilizado em treinamento de classificador.

10. Recomendação de políticas

O Facebook deve garantir que a Implementação Interna dos Padrões estejam disponíveis na língua em que os moderadores de conteúdo analisam o conteúdo. Caso seja necessário priorizar, o Facebook deve se concentrar primeiro em contextos em que os riscos aos direitos humanos são mais graves.

*Nota processual:

As decisões do Comitê de Supervisão são preparadas por grupos com cinco membros e aprovadas pela maioria do Comitê. As decisões do Comitê não representam, necessariamente, as opiniões pessoais de todos os membros.

Para a decisão sobre o caso em apreço, uma pesquisa independente foi contratada em nome do Comitê. Um instituto de pesquisa independente, com sede na Universidade de Gotemburgo e com uma equipe de mais de 50 cientistas sociais de seis continentes, bem como mais de 3.200 especialistas de nações do mundo todo, forneceu informações especializadas sobre contexto sociopolítico e cultural. A empresa Lionbridge Technologies, LLC, cujos especialistas são fluentes em mais de 350 idiomas e trabalham de 5.000 cidades pelo mundo, forneceu a consultoria linguística.

Voltar para Decisões de Casos e Pareceres Consultivos sobre Políticas