Mantido

Alegação de crimes em Raya Kobo

O Comitê de Supervisão manteve a decisão original da Meta de remover uma publicação que alegava envolvimento de civis de etnia tigrínia em atrocidades na região de Amara, na Etiópia.

Tipo de decisão

Padrão

Políticas e tópicos

विषय
Guerra e conflitos, Liberdade de expressão
Padrão da comunidade
Discurso de ódio

Regiões/países

Localização
Etiópia

Plataforma

Plataforma
Facebook

Esta decisão também está disponível em amárico e tigrínio.

ሙሉ ውሳኔውን በአማርኛ ለማንበብ፣ እዚህ ይጫኑ

ብትግርኛ እተገብረ ውሳነ ምሉእ ከተንብቦ እንተ ደሊኻ ኣብዚ ጠውቕ

Resumo do caso

Nota: Em 28 de outubro de 2021, o Facebook anunciou que mudaria o nome de sua empresa para Meta. Neste texto, Meta refere-se à empresa, e Facebook continua a se referir ao produto e às políticas associadas ao aplicativo específico.

O Comitê de Supervisão manteve a decisão original da Meta de remover uma publicação que alegava envolvimento de civis de etnia tigrínia em atrocidades na região de Amara, na Etiópia. No entanto, como a Meta restaurou a publicação após a apelação do usuário ao Comitê, a empresa deve, mais uma vez, remover o conteúdo da plataforma.

Sobre o caso

No final de julho de 2021, um usuário do Facebook da Etiópia fez uma publicação em amárico. A publicação incluía alegações de que a Frente de Libertação do Povo Tigré (TPLF) matou e estuprou mulheres e crianças, além de ter roubado propriedades de civis em Raya Kobo e outras cidades na região de Amara, na Etiópia. O usuário também afirmou que civis da etnia tigrínia ajudaram a TPLF a cometer essas atrocidades. O usuário afirma na publicação que recebeu as informações dos moradores de Raya Kobo. O usuário termina a publicação com as seguintes palavras: “Garantiremos nossa liberdade com a nossa luta”.

Depois que os sistemas automáticos em amárico da Meta sinalizaram a publicação, um moderador de conteúdo determinou que o conteúdo violava os Padrões da Comunidade sobre discurso de ódio do Facebook e o removeu. Quando o usuário fez a apelação desta decisão para a Meta, um segundo moderador de conteúdo confirmou que a publicação violava os Padrões da Comunidade do Facebook. Ambos os moderadores pertenciam à equipe de análise de conteúdo em amárico da Meta.

Depois disso, o usuário enviou uma apelação ao Comitê de Supervisão. Depois que o Comitê selecionou este caso, a Meta identificou sua decisão original de remover a publicação como incorreta e a restaurou em 27 de agosto. A Meta informou ao Comitê que normalmente notifica os usuários de que seu conteúdo foi restaurado no dia em que ocorre a restauração. No entanto, devido a um erro humano, a Meta informou a este usuário que sua publicação foi restaurada em 30 de setembro, mais de um mês depois. Essa notificação aconteceu depois que o Comitê questionou a Meta se ela havia informado ao usuário que o conteúdo havia sido restaurado.

Principais conclusões

O Comitê indicou que o conteúdo violava os Padrões da Comunidade do Facebook sobre Violência e Incitação.

Embora a Meta inicialmente tenha removido a publicação por violar os Padrões da Comunidade sobre discurso de ódio, a empresa restaurou o conteúdo depois que o Comitê selecionou o caso, já que a Meta alegou que a publicação não tinha como alvo a etnia tigrínia e que as alegações do usuário não constituíam discurso de ódio. O Comitê acredita que esta explicação de restauração do conteúdo precisa de mais detalhes e está incorreta.

Por sua vez, o Comitê aplicou os Padrões da Comunidade sobre violência e incitação do Facebook a esta publicação. Estes Padrões proíbem a “desinformação e boatos não verificados que contribuam para o risco de violência ou danos corporais iminentes”. O Comitê considera que o conteúdo, neste caso, contém um boato não verificado de acordo com a definição da Meta sobre o termo. Embora o usuário afirme que as fontes dele são relatórios anteriores sem nome e pessoas no local, o Comitê não fornece evidências circunstanciais para dar suporte a suas alegações. Os boatos que alegam que um grupo étnico é cúmplice de atrocidades em massa, como encontrados nesta publicação, são perigosos e aumentam significativamente o risco de violência iminente.

O Comitê também considera que a remoção da publicação é uma medida consistente com as responsabilidades da Meta, como empresa, para com os direitos humanos. Boatos não verificados em um conflito violento e em andamento podem levar a atrocidades graves, como foi o caso em Mianmar. Na decisão 2020-003-FB-UA, o Comitê declarou que “em situações de conflito armado em particular, o risco de expressões de ódio e desumanas se acumularem e se espalharem em uma plataforma, levando a ações no mundo real, com impacto no direito à segurança pessoal e potencialmente à vida, é especialmente notório.” O impacto cumulativo pode levar à causalidade por meio de um “efeito gradual acumulado”, como aconteceu no genocídio de Ruanda.

O Comitê tomou sua decisão ciente das tensões entre proteger a liberdade de expressão e reduzir a ameaça de conflito sectário. O Comitê está ciente do envolvimento de civis nas atrocidades em várias partes da Etiópia, embora não em Raya Kobo, e de que a Meta não conseguiu verificar as alegações da publicação no momento em que foram feitas. O Comitê também está ciente de que relatórios reais sobre atrocidades podem salvar vidas em zonas de conflito, enquanto alegações infundadas sobre agressores civis podem aumentar o risco de violência a curto prazo.

A decisão do Comitê de Supervisão

O Comitê de Supervisão mantém a decisão original da Meta de remover a publicação. Já que a Meta restaurou o conteúdo após a apelação do usuário ao Comitê, a empresa deve, mais uma vez, remover o conteúdo da plataforma.

Em uma declaração de orientação sobre políticas, o Comitê recomenda que a Meta:

  • Reescreva seu valor de “Segurança” para mostrar que o discurso online pode representar risco à segurança física das pessoas e ao direito à vida, além dos riscos de intimidação, exclusão e silenciamento.
  • Reflita, nos Padrões da Comunidade do Facebook, que, em contextos de guerra e conflito violento, boatos não verificados representam um risco maior para os direitos à vida e à segurança das pessoas. Deve se refletir em todos os níveis do processo de moderação.
  • Solicite uma avaliação independente de auditoria dos direitos humanos sobre como o Facebook e o Instagram têm sido usados para espalhar discursos de ódio e boatos não verificados que aumentam o risco de violência na Etiópia. A avaliação deve analisar o êxito das medidas tomadas pela Meta para prevenir o uso indevido de seus produtos e serviços na Etiópia. A avaliação também deve analisar o êxito das medidas tomadas pela Meta para permitir relatórios corroborados e de interesse público sobre atrocidades contra os direitos humanos na Etiópia. A avaliação deve analisar os recursos de idioma da Meta na Etiópia e se são adequados para proteger os direitos de seus usuários. A avaliação deve incluir o período de 1º de junho de 2020 até o momento. A empresa deve concluir a avaliação no prazo de seis meses a partir do momento em que responde a essas recomendações. A avaliação deve ser publicada na íntegra.

*Os resumos de caso dão uma visão geral da ocorrência e não têm valor precedente.

Decisão completa sobre o caso

1. Resumo da decisão

O Comitê de Supervisão mantém a decisão original da Meta de remover o conteúdo. A publicação alega o envolvimento de civis da etnia tigrínia nas atrocidades contra o povo na região de Amhara, na Etiópia. A Meta inicialmente aplicou os Padrões da Comunidade sobre discurso de ódio para remover a publicação do Facebook, mas a restaurou depois que o Comitê selecionou o caso. O Comitê acredita que a explicação da Meta para restaurar o conteúdo precisa de mais detalhes e está incorreta. O Comitê conclui que o conteúdo violou a proibição de boatos não verificados de acordo com os Padrões da Comunidade sobre Violência e Incitação.

2. Descrição do caso

No final de julho de 2021, um usuário do Facebook fez uma publicação em amárico na sua linha do tempo alegando que a Frente de Libertação do Povo Tigré (TPLF) matou e estuprou mulheres e crianças, além de ter roubado propriedades de civis em Raya Kobo e outras cidades na região de Amara, na Etiópia. O usuário também alegou que civis da etnia tigrínia ajudaram a TPLF nessas atrocidades (para a tradução específica e o significado da publicação em amárico, consulte a Seção 6 abaixo). O usuário termina a publicação com as seguintes palavras: “Garantiremos nossa liberdade com a nossa luta”. O usuário afirma na publicação que recebeu as informações dos moradores de Raya Kobo.

A publicação foi vista aproximadamente 5.000 vezes e recebeu menos de 35 comentários e mais de 140 reações. Além disso, foi compartilhada mais de 30 vezes. A publicação ficou disponível no Facebook por aproximadamente um dia. Entre os comentários em amárico, estavam as seguintes declarações, traduzidas pelos especialistas linguísticos do Comitê: "[nossa] única opção é lutarmos juntos pela vingança" e "vocês estão prontos, irmãos e irmãs, para resolver este assunto?". De acordo com a Meta, a conta do usuário que publicou o conteúdo está localizada na Etiópia, mas não nas regiões de Tigré ou Amara. A foto do perfil do usuário inclui uma hashtag indicando a desaprovação da TPLF. Com base nas informações disponíveis ao Comitê, o usuário se descreve como um homem etíope de Raya.

A publicação foi identificada pelo sistema automatizado do idioma amárico da Meta (classificador) como uma violação potencial de suas políticas. A Meta opera classificadores de aprendizado de máquina treinados para detectar automaticamente possíveis violações dos Padrões da Comunidade do Facebook. A Meta anunciou que está “usando essa tecnologia para identificar proativamente o discurso de ódio em amárico e oromo, com mais de 40 outros idiomas em todo o mundo”. O Comitê entende que a Etiópia é um país multilíngue, sendo oromo, amárico, somali e tigrínio os quatro idiomas mais falados no país. A Meta também relatou que contrata moderadores que podem analisar o conteúdo em amárico, oromo, tigrínio e somali.

A Meta usa um método de “amostragem tendenciosa” que faz a amostragem de conteúdo melhorar a qualidade do classificador amárico. Isso significa que o conteúdo amárico com pontuações de correspondência de baixo e alto potencial apresenta amostras contínuas e enfileiradas para análise humana para melhorar o desempenho do classificador.” Este conteúdo foi selecionado para análise humana como parte desse processo de melhoria. A Meta também explicou que seu sistema automatizado determinou que esse conteúdo tinha “um alto número de visualizações possíveis” e que a publicação recebeu “uma pontuação de violação baixa”. A baixa pontuação de violação mostra que o conteúdo não atende ao limite para remoção automática pelo sistema automatizado da Meta.

Um moderador de conteúdo da equipe de análise de conteúdo determinou que a publicação violava os Padrões da Comunidade sobre discurso de ódio do Facebook e a removeu. Estes Padrões proíbem o conteúdo direcionado a uma pessoa ou a um grupo de pessoas com base em raça, etnia ou nacionalidade com “discurso violento”. A Meta afirmou que notificou o usuário, informando que a publicação violava os Padrões da Comunidade sobre discurso de ódio do Facebook, mas não a regra específica violada. O usuário fez uma apelação da decisão para a Meta e, após uma segunda análise por outro moderador da equipe de análise de conteúdo amárico, a Meta confirmou que a publicação violava as políticas do Facebook.

Depois disso, o usuário enviou uma apelação ao Comitê de Supervisão. Como o Comitê selecionou o caso, a Meta identificou a remoção da publicação como um “erro de monitoramento” e restaurou o conteúdo em 27 de agosto. A Meta afirmou que normalmente notifica os usuários sobre a restauração de conteúdo no mesmo dia. No entanto, devido a um erro humano, a Meta informou este usuário sobre a restauração somente em 30 de setembro. Isso aconteceu depois que o Comitê questionou a Meta se o usuário foi informado de que o conteúdo havia sido restaurado.

O caso diz respeito a alegações não verificadas de que tigrínios que vivem na cidade de Raya Kobo estavam atuando em conjunto com a TPLF para cometer atrocidades, inclusive estupro, contra o grupo étnico Amara. Essas alegações foram publicadas no Facebook em meio a uma guerra civil em andamento na Etiópia que eclodiu em 2020 entre as forças da região de Tigré e as forças do governo federal da Etiópia e militares e seus aliados (International Crisis Group, Ethiopia’s Civil War: Cutting a Deal to Stop the Bloodshed 26 de outubro de 2021).

De acordo com instruções de especialistas recebidas pelo Comitê, o Facebook é um meio online importante, influente e popular para a comunicação na Etiópia. As instruções de especialistas também mostraram que há pouca ou nenhuma cobertura nas áreas afetadas pelo conflito na mídia etíope, e os etíopes usam o Facebook para compartilhar e receber informações sobre o conflito.

Na história recente, a Etiópia enfrentou conflitos étnicos recorrentes que envolvem, entre outros, grupos tigrínios (ACCORD, Ethnic federalism and conflict in Ethiopia, 2017). O Comitê está ciente das alegações de graves violações de direitos humanos e do direito humanitário na região de Tigré e em outras partes do país, inclusive Afar, Amara, Oromo e regiões da Somália pelas partes envolvidas no conflito atual (Relator Especial da ONU sobre a Prevenção de Genocídios sobre a contínua deterioração da situação na declaração da Etiópia, 30 de julho de 2021; Escritório do Alto Comissariado das Nações Unidas para os Direitos Humanos (ACNUDH), E tiópia: Bachelet urges end to ‘reckless’ war as Tigray conflict escalates, 3 de novembro de 2021). Além disso, de acordo com a investigação conjunta publicada recentemente pela Comissão Etíope de Direitos Humanos (EHRC) e pelo ACNUDH, civis tigrínios e amarianos estiveram envolvidos em violações de direitos humanos no final de 2020. No entanto, o escopo da investigação não incluía violações durante julho de 2021 nas áreas mencionadas na publicação do usuário (relatório EHRC e ACNUDH, Investigação Conjunta sobre Violações Alegadas da Legislação Internacional dos Direitos Humanos, Humanitários e de Refugiados cometidas por todas as partes no conflito na região de Tigré da República Federal Democrática da Etiópia, 3 de novembro de 2021).

De acordo com um relatório da Reuters, autoridades locais da região de Amara alegaram que as forças tigrínias mataram 120 civis em uma vila na região de Amara nos dias 1 e 2 de setembro (Reuters, 8 de setembro). Depois, as forças tigrínias emitiram um comunicado rejeitando o que chamaram de "alegação fabricada" pelo governo regional de Amara. Essas alegações não puderam ser confirmadas de forma independente. O Comitê também está ciente das alegações de que os tigrínios têm perfis étnicos, são perseguidos e estão cada vez mais sujeitos a discursos de ódio (Discursos do Alto Comissariado das Nações Unidas para os Direitos Humanos, Michelle Bachelet, em resposta a perguntas sobre a Etiópia, 9 de setembro de 2020; ONGs pedem resolução do Comitê de Direitos Humanos da ONU sobre Tigré, 11 de junho de 2021).

3. Autoridade e escopo

O Comitê tem autoridade para analisar a decisão da Meta após uma apelação do usuário cuja publicação foi removida (Artigo 2, Seção 1 do Estatuto). O Comitê pode manter ou reverter essa decisão, que é vinculante para a Meta (Artigo 3, Seção 5 e Artigo 4 do Estatuto). As decisões do Comitê podem incluir orientações sobre as políticas, além de recomendações não vinculantes às quais a Meta deve responder (Artigo 3, Seção 4 do Estatuto). Segundo o seu Estatuto, o Comitê de Supervisão é um órgão autônomo designado para proteger a liberdade de expressão por meio da tomada de decisões independentes e baseadas em princípios sobre conteúdos importantes. Ele opera de forma transparente, exercendo julgamentos neutros e independentes e tomando decisões com imparcialidade.

4. Padrões relevantes

Em sua decisão, o Comitê de Supervisão considerou os seguintes padrões:

I. Padrões da Comunidade do Facebook

De acordo com a justificativa da política de Padrões da Comunidade sobre discurso de ódio do Facebook, a Meta estabelece que o discurso de ódio não é permitido na plataforma “por criar um ambiente de intimidação e de exclusão que, em alguns casos, pode promover violência no mundo real”. O Padrão da Comunidade define discurso de ódio como “um ataque direto a pessoas, e não a conceitos e instituições, com base no que chamamos de características protegidas: raça, etnia, nacionalidade, religião, orientação sexual, casta, sexo, gênero, identidade de gênero e doença grave ou deficiência”. Além disso, a justificativa define um ataque “como discursos violentos ou desumanizantes, estereótipos prejudiciais, declarações de inferioridade, expressões de desprezo, repugnância ou rejeição, xingamentos e apelos à exclusão ou segregação”. Os Padrões da Comunidade sobre discurso de ódio do Facebook descrevem três níveis de ataques. No Nível 1, os Padrões da Comunidade do Facebook proíbem o “conteúdo visando um indivíduo ou grupo de pessoas (incluindo todos os subconjuntos, salvo os que descrevem o cometimento de crimes violentos ou ofensas sexuais), nos moldes da(s) referida(s) característica(s) protegida(s)” com “discurso desumanizante”. Esse discurso pode assumir a forma de generalizações ou declarações comportamentais não qualificadas sobre pessoas que compartilham uma característica protegida sendo "criminosos violentos e sexuais" ou "outros criminosos".

A justificativa dos Padrões da Comunidade do Facebook sobre violência e incitação declara que a Meta “tem como objetivo evitar potenciais danos reais que possam estar relacionados ao conteúdo na plataforma”. Especificamente, a Meta proíbe conteúdo contendo “desinformação e boatos não verificados que contribuam para o risco de violência ou danos físicos iminentes”. Como parte dos Padrões de Implementação Interna, a Meta considera boato não verificado as informações extremamente difíceis ou impossíveis de terem a fonte rastreada, ou que não podem ser confirmadas ou denunciadas em um período significativo, devido à extrema dificuldade ou impossibilidade de rastreamento da fonte. A Meta também considera um boato não verificado as informações sem especificidade suficiente para que a reclamação seja denunciada. A Meta declara que é necessário um contexto adicional para aplicar esta política encontrada nos Padrões da Comunidade sobre Violência e Incitação do Facebook.

II. Os valores da Meta

Os valores da Meta são descritos na introdução aos Padrões da Comunidade do Facebook. O valor “Voz” é definido como “fundamental”:

o objetivo de nossos Padrões da Comunidade sempre foi criar um local de expressão e dar voz às pessoas. [...] Queremos que as pessoas possam falar abertamente sobre os assuntos importantes para elas, ainda que sejam temas que geram controvérsias e objeções.

A Meta limita a “Voz” com base em outros quatro valores, e dois são relevantes aqui:

“Segurança”: Temos o compromisso de fazer com que o Facebook seja um lugar seguro. Manifestações contendo ameaças podem intimidar, excluir ou silenciar pessoas e isso não é permitido no Facebook.

“Dignidade” : acreditamos que todas as pessoas são iguais no que diz respeito à dignidade e aos direitos. Esperamos que as pessoas respeitem a dignidade alheia e não assediem nem difamem umas às outras.

III. Padrões de Direitos Humanos

Os Princípios Orientadores da ONU sobre Empresas e Direitos Humanos (UNGPs, na sigla em inglês), endossados pelo Conselho de Direitos Humanos da ONU em 2011, estabelecem uma estrutura voluntária de responsabilidades sobre direitos humanos das empresas privadas. Em 2021, a Meta anunciou sua Política Corporativa de Direitos Humanos, na qual se comprometeu a respeitar os direitos de acordo com os UNGPs. Neste caso, os seguintes padrões de direitos humanos foram levados em consideração na análise do Comitê:

  • Liberdade de expressão: Artigo 4 e 19, Pacto Internacional dos Direitos Civis e Políticos (PIDCP). Comitê de Direitos Humanos, Comentário Geral n° 34, 2011 (Comentário Geral 34); Relator Especial da ONU para a promoção e proteção do direito à liberdade de opinião e expressão,Regulamentação de Conteúdo Online, A/HRC/38/35.
  • Direito à vida: PIDCP Artigo 6; conforme interpretado pelo Comentário Geral N° 36, Comitê de Direitos Humanos (2018) (Comentário Geral 36); Grupo de trabalho da ONU na questão de direitos humanos e corporações transnacionais e outras empresas, empresas, direitos humanos e regiões afetadas por conflitos: em direção à maior ação, relatório ( A/75/212).

5. Declaração do usuário

O usuário declarou em sua apelação ao Comitê que publicou este conteúdo para proteger a comunidade que está em perigo e que a Meta deve ajudar as comunidades em zonas de guerra. Ele afirma que a publicação não é um discurso de ódio, "mas a verdade". Ele também disse que a TPLF tinha como alvo sua comunidade, formada por um milhão de pessoas, e a deixou sem comida, água e outras necessidades básicas. O usuário especulou que sua publicação foi denunciada “por membros e apoiadores do grupo terrorista citado” e afirmou “conhecer bem a maioria das regras” e que “nunca quebrou nenhuma regra do Facebook”.

6. Explicação sobre a decisão da Meta

A Meta explicou, em sua justificativa, que o conteúdo foi originalmente removido como um ataque sob os Padrões da Comunidade sobre discurso de ódio do Facebook, especificamente por violar sua política que proíbe "discurso violento" direcionado ao povo tigrínio com base em sua etnia. A Meta informou ao Comitê que seus moderadores não registram os motivos da remoção do conteúdo, além de indicar a violação dos Padrões da Comunidade. Portanto, a Meta não confirmou se os moderadores que analisaram a publicação inicialmente e na apelação aplicaram a mesma regra da política de discurso de ódio do Facebook para remover a publicação.

A Meta declarou, em sua justificativa, que, como resultado da escolha do caso pelo Comitê, a empresa determinou que a “decisão foi um erro” e restaurou a publicação. A Meta também afirmou que o conteúdo não violou suas regras porque não tinha como alvo a etnia tigrínia e as alegações do usuário sobre a TPLF ou tigrínios não chegaram ao nível de discurso de ódio.

A Meta confirmou, em sua resposta à pergunta do Comitê, que os sistemas automatizados amáricos estão em vigor e que são auditados e atualizados a cada seis meses. A Meta também explicou que foi o texto original em amárico que levou o sistema automatizado a identificar o conteúdo como potencialmente violador. Da mesma forma, a Meta confirmou que os dois moderadores de conteúdo eram falantes de amárico e que basearam sua análise no texto original no idioma.

A Meta explicou, em seus envios, que a equipe regional forneceu o contexto cultural e linguístico para desenvolver o arquivo do caso para esta apelação. Por exemplo, a justificativa de decisão da Meta apresentada ao Comitê é baseada na tradução do conteúdo pela equipe regional. A equipe regional da Meta traduziu a parte supostamente violadora da publicação do usuário como professores, profissionais de saúde e comerciantes “tigrínios” que "indicam o caminho para que as forças rebeldes da TPLF estuprem mulheres e saquem propriedades".

O Comitê solicitou e recebeu uma tradução adicional para o inglês do texto de seus próprios especialistas linguísticos e a Meta também forneceu um texto adicional de seu fornecedor linguístico externo. As duas versões confirmaram que o significado predominante do texto indica que os civis tigrínios ajudaram nas atrocidades cometidas pela TPLF. Para fins desta decisão, o Comitê destaca a versão fornecida pelo fornecedor externo da Meta. Essa versão contém o seguinte texto: “Conforme relatado anteriormente e por informações obtidas de pessoas que vivem na região como professores, profissionais de saúde, comerciantes, como diaristas e trabalhadores [de baixa remuneração], estamos recebendo relatórios diretos de que os tigrínios, que conhecem a área muito bem, estão levando o grupo rebelde de porta em porta e expondo mulheres a estupros e saques de propriedades.” Além disso, os comentários em amárico sobre a publicação dizem: “nossa única opção é lutarmos juntos pela vingança” e “vocês estão prontos, irmãos e irmãs, para resolver este assunto?”.

A Meta confirmou, em sua resposta à pergunta do Comitê, que a Etiópia é "considerada um país em risco de Nível 1". De acordo com a Meta, esse é o nível de risco mais alto. A Meta destacou que nomeou a Etiópia como “um local de crise” por sua política de conteúdo e trabalho de integridade. Desta forma, estabeleceu um Centro de Operações de Produtos de Integridade (IPOC) de “nível superior” para as eleições na Etiópia em junho de 2021 e outro IPOC para monitorar as evoluções pós-eleitorais em setembro. Ambos os IPOCs foram encerrados no mesmo mês em que foram constituídos. A Meta também afirmou que tem tratado a Etiópia como uma “crise de alto nível” por suas equipes de Operações, Política e Produto. A Meta afirmou que sua “equipe multifuncional de resposta à crise” com foco na Etiópia se reúne semanalmente para compreender e reduzir os riscos contínuos. A Meta acrescentou que este trabalho não altera a forma como analisa conteúdos que não apresentem esse risco e que o trabalho não afetou a determinação neste caso.

Em resposta à pergunta do Comitê, a Meta explicou que seu(s) Parceiro(s) de Confiança não encaminharam a publicação para análise adicional por violações de desinformação e políticas de danos. A Meta também destacou que, como não houve verificação de fatos de terceiros, “não havia evidências que sugerissem que as alegações feitas na publicação eram boatos falsos ou não verificados”.

7. Envios de terceiros

O Comitê de Supervisão recebeu 23 comentários públicos relacionados a este caso. Seis dos comentários eram da África Subsaariana, especificamente da Etiópia, um do Oriente Médio e Norte da África, um da Ásia-Pacífico e Oceania, cinco da Europa e 10 dos Estados Unidos e Canadá. O Comitê recebeu comentários de partes interessadas, incluindo acadêmicos, indivíduos e organizações da sociedade civil com foco na liberdade de expressão e discurso de ódio na Etiópia. Os envios incluíam temas como se o conteúdo deve permanecer na plataforma, dificuldades em distinguir críticas à TPLF de discurso de ódio contra o povo tigrínio e a falta de moderadores de conteúdo que falem línguas etíopes na Meta.

Para ler os comentários públicos enviados sobre este caso, clique aqui.

8. Análise do Comitê de Supervisão

O caso se refere a alegações feitas durante uma guerra civil e étnica em curso em uma região com um histórico de conflito étnico letal. Há uma tensão entre proteger a liberdade de expressão e reduzir a ameaça de conflito sectário. Essa tensão só pode ser resolvida por meio do cuidado às especificidades de um determinado conflito. O Comitê está ciente do envolvimento de civis nas atrocidades em várias partes da Etiópia, embora não em Raya Kobo (veja o contexto do conflito na Etiópia na Seção 2 acima). A Meta afirmou que não tinha nenhuma evidência de que o conteúdo era um boato falso ou não verificado. O Comitê aponta que, no momento da publicação, a Meta não podia e não verificou de forma proativa as alegações. Não foi possível verificar as alegações por conta da falta de comunicação na região de Amara. A situação em Amara estava fora do alcance de observadores e jornalistas internacionais. O Comitê também está ciente de que relatórios verdadeiros sobre atrocidades podem salvar vidas em zonas de conflito, já que informam as possíveis vítimas sobre os agressores em potencial. No entanto, em um conflito violento em curso, alegações infundadas a respeito de agressores civis podem representar riscos altos de violência a curto prazo.

8.1. Conformidade com os Padrões da Comunidade

A Meta restaurou o conteúdo porque descobriu que não tratava de discurso de ódio (consulte a Seção 6 acima). O Comitê considera que essa explicação precisa de mais detalhes e está incorreta. O Comitê considera os Padrões da Comunidade sobre violência e incitação apropriados para este caso. O Comitê conclui que a publicação violava a proibição da política de Violência e Incitação sobre "desinformação e boatos não verificados que contribuem para o risco de violência ou danos corporais iminentes" (consulte a Seção 4 para obter uma definição de "boato não verificado").

O conteúdo se enquadra na definição de boato não verificado dos Padrões de Implementação Interna da Meta (consulte a Seção 4 para obter uma definição de "boato não verificado"). O Comitê conclui que os boatos que alegam a participação de um grupo étnico em atrocidades em massa são perigosos e aumentam significativamente o risco de violência iminente durante um conflito violento em curso, como na Etiópia atualmente. O Comitê entende que os tigrínios na Etiópia, assim como outros grupos étnicos, já estão sujeitos a perigos iminentes e, em alguns casos reais, violência e danos corporais.

8.2. Conformidade com os valores da Meta

O Comitê considera que a decisão da Meta de restaurar e permitir o conteúdo não é consistente com seus valores de "Dignidade" e "Segurança". O Comitê reconhece que "Voz" é o valor primordial da Meta, mas a empresa permite que a expressão seja limitada para evitar abusos e outras formas de danos online e no meio físico.

No contexto deste caso, “Voz”, que expõe violações a direitos humanos, é de extrema importância. No entanto, a forma que uma expressão assume no meio de um conflito violento também é importante. O discurso, que parece chamar a atenção para as violações alegadas de direitos humanos ao fazer afirmações não verificadas durante um conflito violento em curso de que um grupo étnico é cúmplice de atrocidades, corre o risco de justificar ou gerar violência retaliatória. Isso é particularmente pertinente na Etiópia na crise atual.

8.3. Conformidade com as responsabilidades da Meta com os direitos humanos

O Comitê considera que a remoção do conteúdo neste caso está de acordo com as responsabilidades de direitos humanos da Meta como uma empresa sob o Princípio 13 dos UNGPs, que exige que as empresas "evitem causar ou contribuir para impactos adversos aos direitos humanos por meio de suas próprias atividades e tratar esses impactos quando ocorrerem". Em um conflito violento e contínuo, boatos não verificados podem levar a graves atrocidades, como mostrou a experiência em Mianmar. Para reduzir esse risco, é necessário um sistema transparente de moderação de conteúdo em zonas de conflito, inclusive uma política sobre boatos não verificados.

Liberdade de expressão e de informação e Artigo 19 do PIDCP

O Artigo 19 do PIDCP oferece ampla proteção à liberdade de expressão por qualquer meio e independentemente de fronteiras. No entanto, o Artigo permite que esse direito seja restrito em certas condições estreitas e limitadas, conhecidas como o teste tripartite de legalidade (clareza), legitimidade e necessidade, que também inclui uma avaliação de proporcionalidade. Embora o PIDCP não crie obrigações para a Meta como cria para os estados, a Meta se comprometeu a respeitar os direitos humanos como definido nos UNGPs. Esse compromisso abrange os direitos humanos internacionalmente reconhecidos, conforme definidos, entre outros instrumentos, pelo PIDCP. O relator especial da ONU sobre liberdade de opinião e expressão sugeriu que o parágrafo 3 do Artigo 19 do PIDCP oferece um sistema útil para orientar as práticas de moderação de conteúdo das plataformas, segundo o para. 6 do A/HRC/38/35 (parágrafo 6 do relatório A/HRC/38/35)

I. Legalidade (clareza e acessibilidade das regras)

O requisito de legalidade exige que: (a) qualquer restrição à liberdade de expressão esteja adequadamente acessível para que os indivíduos tenham uma orientação adequada de como a lei limita seus direitos; e (b) a lei deva ser formulada com precisão suficiente para que os indivíduos possam regular a conduta deles. Além disso, uma lei pode não conceder liberdade de ação irrestrita para a restrição da liberdade de expressão aos encarregados de executá-las (Comentário Geral 34, parágrafo 25).

O termo “boato não verificado” não é definido no público que lida com os Padrões da Comunidade. Quando a Meta não consegue explicar os termos principais e como suas políticas são aplicadas, os usuários podem ter dificuldades para entender se seu conteúdo viola os Padrões da Comunidade do Facebook. No entanto, conforme aplicado aos fatos deste caso em que uma alegação não verificada foi feita em meio a um conflito violento em andamento, o Comitê considera que o termo “boato não verificado” fornece clareza suficiente. O boato não foi verificado pela Meta, nem pelo usuário que não estava em Raya Kobo. Os observadores e jornalistas internacionais também não puderam verificar o boato devido ao conflito em andamento e à falta de comunicações. Nessas circunstâncias, é previsto para os usuários que essa publicação seja abrangida pela proibição.

II. Objetivo legítimo

As restrições à liberdade de expressão devem ter um objetivo legítimo, que inclui a proteção de direitos de terceiros, entre outros objetivos. O Comitê de Direitos Humanos interpretou o termo "direitos" de forma a incluir os direitos humanos reconhecidos no PIDCP e, em geral, no direito internacional dos direitos humanos ( Comentário Geral 34, parágrafo 28). Os Padrões da Comunidade do Facebook sobre Violência e Incitação existem em parte para evitar danos em meio físico que podem estar relacionados ao conteúdo do Facebook. As restrições com base nesta política atendem, portanto, ao objetivo legítimo de proteção do direito à vida.

III. Necessidade e proporcionalidade

O princípio de necessidade e proporcionalidade sob o direito internacional de direitos humanos requer que as restrições na expressão “devem ser apropriadas para cumprir sua função protetora; devem ser o instrumento menos intrusivo entre aqueles que podem cumprir sua função protetora; devem ser proporcionais ao interesse a ser protegido” (Comentário Geral 34, parágrafo 34). O princípio da proporcionalidade exige uma consideração pela forma de expressão em questão (Comentário Geral 34, parágrafo 34).

Ao avaliar se a restrição ao discurso do usuário cumpriu seu objetivo, conforme exigido pelas responsabilidades de direitos humanos da Meta, o Comitê considerou o que a Meta fez para prevenir e mitigar o risco de vida decorrente da disseminação de boatos não verificados sobre as partes no conflito etíope (consulte a Seção 6 acima, para uma descrição do trabalho da Meta na Etiópia).

O usuário alegou que civis tigrínios foram cúmplices de graves atrocidades cometidas por forças tigrínias. As fontes do usuário para esta reclamação são relatórios anteriores não identificados e fontes locais, mas ele não forneceu nem mesmo evidências circunstanciais para dar suporte às alegações que poderia ter adicionado sem colocar em risco suas fontes.

O Comitê está ciente da importância de esclarecer as violações dos direitos humanos em uma situação de conflito. Relatar atrocidades é uma atividade importante que serve ao direito de outras pessoas serem informadas. “O jornalismo é uma função compartilhada por vários intervenientes... [inclusive] blogueiros e outros que se envolvem em formas de autopublicação... na internet…”) (Comentário Geral 34, parágrafo 44). Quem se envolve em formas de autopublicação compartilha as responsabilidades relacionadas à função de fiscalização e, ao fazer relatórios sobre direitos humanos, deve atender a padrões de precisão. Além disso, as informações sobre atrocidades podem salvar vidas, especialmente onde as redes sociais são a fonte final de informações. No entanto, as qualidades acima estão ausentes na publicação do usuário, pois não contém informações sobre a ameaça real à vida e não contém informações específicas que podem ser usadas na documentação de violação dos direitos humanos. Conforme elaborado, o conteúdo pode contribuir para o ódio étnico. Situações de conflito étnico exigem maior controle sobre como as pessoas devem relatar e discutir as violações dos direitos humanos cometidas pelas partes em conflito. Essas considerações se aplicam às publicações do Facebook, que podem ser usadas para espalhar boatos não verificados em grande velocidade.

O Comitê destaca que alguns funcionários do governo etíope instigaram ou espalharam discursos de ódio contra tigrínios (consulte, por exemplo, o Amnesty International, Ethiopia: Sweeping emergency powers and alarming rise in online hate speech as Tigray conflict escalates, DW 2020 report). Não há evidências de que esta publicação faz parte desses esforços deliberados para fomentar a discórdia, mas o conteúdo atual deve ser analisado em relação a relatos de que alguns funcionários do governo etíope e figuras públicas instigaram ou espalharam discursos de ódio. Publicações ou informações de boa-fé sobre assuntos de interesse público podem permitir que as populações vulneráveis se protejam melhor. Além disso, uma melhor compreensão de eventos importantes pode ajudar na busca pela responsabilidade. No entanto, boatos não verificados podem aumentar as narrativas de ódio e contribuir para a aceitação, especialmente na falta de esforços de contradiscurso.

O Comitê conclui que, em um país onde há um conflito armado em curso e uma incapacidade das instituições governamentais de cumprir suas obrigações de direitos humanos de acordo com o direito internacional, a Meta pode restringir a liberdade de expressão que não ocorreria de outra forma (consulte Artigo 4 do PIDCP sobre derrogações em tempos de emergência pública). O princípio da proporcionalidade deve levar em consideração "a forma de expressão em questão, bem como os meios de sua difusão" (Comentário Geral 34, parágrafo 34). Por si só, um boato não verificado pode não causar danos diretos e imediatamente. No entanto, quando esse conteúdo aparece em uma plataforma de mídia social importante, influente e popular durante um conflito em andamento, o risco e a probabilidade de dano aumentam. O Comitê chegou a uma conclusão semelhante na decisão 2020-003-FB-UA. Assim, o Comitê descobriu que “em situações de conflito armado em particular, o risco de expressões de ódio e desumanas se acumularem e se espalharem em uma plataforma, levando a ações no mundo real, com impacto no direito à segurança pessoal e potencialmente à vida, é especialmente notório”. Além disso, o impacto cumulativo pode causar um "aumento gradual do efeito", como aconteceu em Ruanda, onde os apelos ao genocídio foram repetidos (consulte o caso Nahimana, Caso nº. ICTR-99-52-T, parágrafos 436, 478 e 484-485). Um apelo direto à violência não está presente na publicação deste caso, embora haja uma referência à "nossa luta". Além disso, o conteúdo foi visto por milhares de falantes de amárico nas 24 horas em que permaneceu online. Alguns deles deixaram comentários que incluem pedidos de vingança (consulte a Seção 2 acima).

O direito à vida implica uma responsabilidade de auditoria para tomar medidas positivas razoáveis, que não imponham encargos desproporcionais à liberdade de expressão, em resposta a ameaças previsíveis à vida provenientes de pessoas e entidades privadas, cuja conduta não é atribuída ao Estado. Devem ser tomadas medidas específicas de proteção para as pessoas em situação de vulnerabilidade (membros de minorias étnicas e religiosas), cujas vidas tenham sido colocadas em risco devido a ameaças específicas ou padrões de violência pré-existentes (Comentário Geral 36, parágrafos 21 e 23). Considerando as respectivas diferenças, essas análises são relevantes para as responsabilidades da Meta de proteger os direitos humanos, porque as empresas são obrigadas a "prevenir ou mitigar impactos adversos aos direitos humanos que estão diretamente ligados às [suas] operações, produtos ou serviços" (UNGPs, Princípio 13).

O Grupo de Trabalho das Nações Unidas sobre a questão dos direitos humanos e corporações transnacionais e outras empresas declarou que o UNGPs impõe às empresas uma grande responsabilidade de realizar a auditoria em um ambiente de conflito (“Negócios, direitos humanos e regiões afetadas por conflito: em ação intensificada”, A/75/212, parágrafos 41-54). Desta forma, o objetivo legítimo de proteger o direito à vida de outras pessoas significa que a Meta tem uma responsabilidade maior no atual cenário de conflito. O Comitê considerará isso em sua análise de proporcionalidade.

O Comitê observa as medidas tomadas pela Meta até agora na Etiópia. O conteúdo foi originalmente removido. No entanto, o sistema automatizado da Meta determinou que este conteúdo tinha "uma pontuação de violação baixa", portanto, a Meta não removeu automaticamente a publicação. Mesmo que o conteúdo específico tenha sido removido originalmente, a Meta acabou determinando que a remoção foi um erro de monitoramento. A Meta também informou ao Comitê que o tratamento da Etiópia como país em risco de nível 1 não afeta o desempenho do classificador ou sua capacidade de identificar o conteúdo como potencialmente violador. O Comitê concluiu, portanto, que sem outras medidas, a Meta não pode cumprir adequadamente suas responsabilidades de direitos humanos. O fato da Meta ter restaurado o conteúdo corrobora para essa questão.

Neste caso, o conteúdo foi publicado durante um conflito armado. Nessas situações, a Meta deve exercer a devida diligência para proteger o direito à vida. Boatos não verificados estão diretamente ligados a uma ameaça iminente à vida e a Meta deve provar que suas políticas e medidas específicas de conflito realizadas na Etiópia conseguem proteger a vida e prevenir atrocidades (consulte a Seção 6 para a resposta da Meta ao conflito etíope). Na ausência dessas medidas, o Comitê deve concluir que o conteúdo precisa ser removido. Para evitar que diversas publicações ajudem essa narrativa por meio de boatos não verificados, a remoção é uma medida necessária em casos em que há um conflito étnico violento em andamento.

Uma minoria do Comitê destacou seu entendimento da natureza limitada desta decisão. No contexto de um conflito violento em andamento, uma publicação que constitui um boato não verificado de violência de motivação étnica por civis contra outros civis apresenta sérios riscos de agravar a situação já violenta, principalmente quando a Meta não pode verificar o boato em tempo real. Esses riscos desencadearam a responsabilidade de direitos humanos da Meta de participar de auditoria com relação à moderação de conteúdo que envolve o conflito. Embora tenha vários tipos de alertas graves em vigor, a Meta confirmou que esses sistemas não afetaram sua determinação neste caso, o que é difícil de entender devido aos riscos de violência a curto prazo. Conforme observado em uma decisão anterior do Comitê (2021-001-FB-FBR), é difícil avaliar se medidas curtas de remoção de conteúdo causariam menos problemas para o discurso de um usuário para atingir um objetivo legítimo quando a Meta não apresenta informações relevantes sobre se suas próprias decisões de design e políticas aumentam o discurso potencialmente prejudicial.

9. Decisão do Comitê de Supervisão

O Comitê de Supervisão mantém a decisão original da Meta de remover o conteúdo. Já que a Meta restaurou imediatamente o conteúdo após a apelação do usuário ao Comitê, a empresa deve agora remover o conteúdo da plataforma.

10. Declaração de parecer consultivo

Política de conteúdo

1. A Meta deve reescrever o valor de “Segurança” para mostrar que o discurso online pode representar risco à segurança física das pessoas e ao direito à vida, além dos riscos de intimidação, exclusão e silenciamento.

2. Os Padrões da Comunidade do Facebook devem mostrar que, em contextos de guerra e conflito violento, boatos não verificados representam um risco maior para os direitos à vida e à segurança das pessoas. Deve se refletir em todos os níveis do processo de moderação.

Transparência

3. A Meta deve solicitar uma avaliação independente de auditoria dos direitos humanos sobre como o Facebook e o Instagram têm sido usados para espalhar discursos de ódio e boatos não verificados que aumentam o risco de violência na Etiópia. A avaliação deve analisar o êxito das medidas tomadas pela Meta para prevenir o uso indevido de seus produtos e serviços na Etiópia. A avaliação também deve analisar o êxito das medidas tomadas pela Meta para permitir relatórios corroborados e de interesse público sobre atrocidades contra os direitos humanos na Etiópia. A avaliação deve analisar os recursos de idioma da Meta na Etiópia e se são adequados para proteger os direitos de seus usuários. A avaliação deve incluir o período de 1º de junho de 2020 até o momento. A empresa deve concluir a avaliação no prazo de seis meses a partir do momento em que responde a essas recomendações. A avaliação deve ser publicada na íntegra.

*Nota processual:

As decisões do Comitê de Supervisão são preparadas por grupos com cinco membros e aprovadas pela maioria do Comitê. As decisões do Comitê não representam, necessariamente, as opiniões pessoais de todos os membros.

Para a decisão sobre o caso em apreço, uma pesquisa independente foi contratada em nome do Comitê. Um instituto de pesquisa independente, com sede na Universidade de Gotemburgo e com uma equipe de mais de 50 cientistas sociais de seis continentes, bem como mais de 3.200 especialistas de nações do mundo todo, forneceu informações especializadas sobre contexto sociopolítico e cultural. A empresa Lionbridge Technologies, LLC, cujos especialistas são fluentes em mais de 350 idiomas e trabalham de 5.000 cidades pelo mundo, forneceu a consultoria linguística. A Duco Advisers, uma empresa de consultoria especializada na intercessão entre as áreas de geopolítica, de confiança e segurança e de tecnologia, também forneceu serviços de pesquisa.

Voltar para Decisões de Casos e Pareceres Consultivos sobre Políticas