Mantido

Calúnias na África do Sul

O Comitê de Supervisão manteve a decisão do Facebook de remover uma publicação que discutia a sociedade sul-africana. A decisão foi tomada com base no Padrão da Comunidade sobre discurso de ódio.

Tipo de decisão

Padrão

Políticas e tópicos

विषय
Comunidades marginalizadas, Governos, Política
Padrão da comunidade
Discurso de ódio

Regiões/países

Localização
África do Sul

Plataforma

Plataforma
Facebook

Resumo do caso

O Comitê de Supervisão manteve a decisão do Facebook de remover uma publicação que discutia a sociedade sul-africana. A decisão foi tomada com base no Padrão da Comunidade sobre discurso de ódio. O Comitê concluiu que a publicação continha uma calúnia que, no contexto da África do Sul, era degradante, excludente e prejudicial para as pessoas a que se direcionava.

Sobre o caso

Em maio de 2021, um usuário do Facebook fez uma publicação em inglês em um grupo público cujo objetivo era abrir mentes. A foto do perfil do usuário no Facebook e a foto da capa eram de uma pessoa negra. A publicação discutia o “multirracialismo” na África do Sul e afirmava que a pobreza e a falta de moradias e de terras têm aumentado entre a população negra do país desde 1994.

Ela afirmava que a população branca possui e controla a maioria das riquezas e que os cidadãos negros ricos podem até ser donos de algumas empresas, mas não têm controle sobre elas. A publicação também dizia que, se “você acha” que morar no mesmo bairro, falar a mesma língua e estudar na mesma escola que pessoas brancas lhe garantem “o mesmo tratamento”, então “você não bate bem da cabeça”. A publicação foi concluída com a seguinte frase: “[v]ocê é” um “escravo sofisticado”, “um preto inteligente”, “um negro confiável” ou um “negro da casa grande” (doravante redigidos como “k***ir” e “n***er” em inglês).

Principais conclusões

Baseando-se no Padrão da Comunidade sobre discurso de ódio, o Facebook removeu o conteúdo por violar sua política que proíbe o uso de calúnias direcionadas a pessoas com base em raça, etnia e/ou nacionalidade. A empresa observou que tanto “k***ir” quanto “n***er” estão na lista de calúnias proibidas do Facebook para o mercado subsaariano.

O Comitê constatou que a remoção do conteúdo estava de acordo com os Padrões da Comunidade do Facebook. O Comitê avaliou comentários públicos e pesquisas de especialistas. Constatamos que “k***ir” e “n***er” têm usos discriminatórios e que, no contexto sul-africano, a palavra “k***ir” é particularmente prejudicial e incita o ódio.

O Comitê concordou com o Facebook que o conteúdo não condenava o uso da palavra “k***ir” nem procurava conscientizar as pessoas sobre o uso dela. A palavra também não era usada de forma autorreferencial nem empoderadora. Portanto, não se aplicava nenhuma exceção ao Padrão da Comunidade sobre discurso de ódio da empresa.

Apesar de a publicação do usuário discutir questões socioeconômicas e políticas relevantes e desafiadoras para a África do Sul, o usuário racializou a crítica por meio da escolha da terminologia mais grave possível no país.

No contexto da África do Sul, a calúnia “k***ir” é degradante, excludente e prejudicial para as pessoas a que se direciona. Especialmente em um país que ainda lida com o legado do apartheid, o uso de calúnias raciais na plataforma deve ser levado a sério pelo Facebook.

O Comitê apoia que o Facebook dê mais transparência à sua lista de calúnias. A empresa deveria fornecer mais informações sobre a lista, inclusive sobre como ela é aplicada em diferentes mercados e por que permanece confidencial.

O Comitê também pediu que o Facebook melhore a justiça processual na aplicação da sua Política sobre Discurso de Ódio, emitindo a recomendação abaixo. Isso ajudaria os usuários a entender por que o Facebook removeu um conteúdo e permitiria que mudassem o comportamento no futuro.

A decisão do Comitê de Supervisão

O Comitê de Supervisão mantém a decisão do Facebook de remover a publicação.

Em uma declaração de parecer consultivo, o Comitê recomenda ao Facebook:

  • Envie uma notificação aos usuários sobre a regra específica contida no Padrão da Comunidade sobre discurso de ódio que foi violada no idioma em que eles usam o Facebook, conforme recomendado na decisão sobre o caso 2020-003-FB-UA (Armênios no Azerbaijão) e na decisão sobre o caso 2021-002-FB-UA (Representação de Zwarte Piet). Nesse caso, por exemplo, o usuário deveria ter sido notificado de que violou a proibição contra calúnias. O Comitê observou a resposta do Facebook à Recomendação n.º 2 na decisão sobre o caso 2021-002-FB-UA, que descreve um novo classificador que deve ser capaz de notificar os usuários de língua inglesa do Facebook de que o conteúdo deles violou a regra sobre calúnias. O Comitê espera que o Facebook forneça informações que confirmem a implementação da recomendação para usuários do idioma inglês, bem como informações sobre o prazo de implementação para usuários de outros idiomas.

*Os resumos de caso dão uma visão geral da ocorrência e não têm valor precedente.

Decisão completa sobre o caso

1. Resumo da decisão

O Comitê de Supervisão manteve a decisão do Facebook de remover uma publicação que discutia a sociedade sul-africana. A decisão foi tomada com base nos Padrões da Comunidade sobre discurso de ódio, que proíbe o uso de calúnias.

2. Descrição do caso

Em maio de 2021, um usuário do Facebook fez uma publicação em inglês em um grupo público cujo objetivo era abrir mentes. A foto do perfil do usuário no Facebook e a foto da capa eram de uma pessoa negra. A publicação discutia o “multirracialismo” na África do Sul e afirmava que a pobreza e a falta de moradias e de terras têm aumentado entre a população negra daquele país desde 1994. Ela afirmava que a população branca possui e controla a maioria da riqueza e que os cidadãos negros ricos podem até ser donos de algumas empresas, mas não têm controle sobre elas. A publicação também dizia que, se “você acha” que morar no mesmo bairro, falar a mesma língua e estudar na mesma escola que pessoas brancas lhe garantem “o mesmo tratamento”, então “você não bate bem da cabeça”. A publicação foi concluída com a seguinte frase: “[v]ocê é” um “escravo sofisticado”, “um preto inteligente”, “um negro confiável” ou um “negro da casa grande” (doravante redigidos como “k***ir” e “n***er” em inglês).

A publicação foi vista mais de 1.000 vezes, recebeu menos de cinco comentários e mais de 10 reações. Além disso, foi compartilhada mais de 40 vezes. Um usuário do Facebook denunciou a publicação por violar o Padrão da Comunidade sobre discurso de ódio do Facebook. De acordo com o Facebook, o usuário que publicou o conteúdo, o usuário que denunciou o conteúdo e “todos os usuários que reagiram ao conteúdo, comentaram nele e/ou o compartilharam” têm contas localizadas na África do Sul.

A publicação ficou disponível na plataforma por aproximadamente um dia. Após a análise de um moderador, o Facebook removeu a publicação, de acordo com sua Política sobre Discurso de Ódio. O Padrão da Comunidade sobre discurso de ódio do Facebook proíbe conteúdo que “descreva ou insulte pessoas com calúnias, as quais são definidas como palavras intrinsecamente ofensivas e usadas como insultos” com base em raça, etnia e/ou nacionalidade. O Facebook observou que, embora a proibição contra a calúnia seja global, a designação do termo em sua lista interna de calúnias é feita de acordo com o mercado. Tanto “k***ir” quanto “n***er” estão na lista de calúnias proibidas do Facebook para o mercado subsaariano.

O Facebook notificou o usuário de que seu conteúdo violava o Padrão da Comunidade do Facebook sobre discurso de ódio. O Facebook afirmou que a notificação ao usuário explicava que esse Padrão proíbe, por exemplo, linguagem de incitação ao ódio, calúnias e alegações sobre o coronavírus. O usuário fez uma apelação da decisão ao Facebook e, após uma segunda análise feita por um moderador, a empresa confirmou que a publicação violava o padrão. Depois disso, o usuário enviou uma apelação ao Comitê de Supervisão.

3. Autoridade e escopo

O Comitê tem autoridade para analisar a decisão do Facebook após uma apelação do usuário cuja publicação foi removida (Artigo 2, Seção 1 do Estatuto; Artigo 2, Seção 2.1 dos Regulamentos Internos). O Comitê pode manter ou reverter essa decisão, que é vinculante para o Facebook (Artigo 3, Seção 5 do Estatuto). As decisões do Comitê podem incluir orientações sobre as políticas, além de recomendações não vinculantes às quais o Facebook deve responder (Artigo 3 do Estatuto, Seção 4). O Comitê é um mecanismo de reclamações independente com o objetivo de abordar contestações de uma maneira transparente e íntegra.

4. Padrões relevantes

Em sua decisão, o Comitê de Supervisão considerou os seguintes padrões:

I. Padrões da Comunidade do Facebook

Os Padrões da Comunidade do Facebook definem o discurso de ódio como “um ataque direto a pessoas com base no que chamamos de características protegidas: raça, etnia, nacionalidade, religião, orientação sexual, casta, sexo, gênero, identidade de gênero e doença ou deficiência grave”. No “Nível 3”, o conteúdo proibido inclui o conteúdo que “descreva ou insulte pessoas com calúnias, as quais são definidas como palavras intrinsecamente ofensivas e usadas como insultos com base nas características supramencionadas”.

II. Valores do Facebook

Os valores do Facebook são descritos na introdução aos Padrões da Comunidade. O valor “Voz” é definido como “fundamental”:

o objetivo de nossos Padrões da Comunidade sempre foi criar um local de expressão e dar voz às pessoas. [...] Queremos que as pessoas possam falar abertamente sobre os assuntos importantes para elas, ainda que sejam temas que geram controvérsias e objeções.

O Facebook limita a “Voz” com base em quatro valores, e dois são relevantes aqui:

“Segurança”: Temos o compromisso de fazer com que o Facebook seja um lugar seguro. Manifestações contendo ameaças podem intimidar, excluir ou silenciar pessoas e isso não é permitido no Facebook.

“Dignidade” : acreditamos que todas as pessoas são iguais no que diz respeito à dignidade e aos direitos. Esperamos que as pessoas respeitem a dignidade alheia e não assediem nem difamem umas às outras.

III. Padrões de Direitos Humanos

Os Princípios Orientadores da ONU sobre Empresas e Direitos Humanos ( UNGPs), sancionados pelo Conselho de Direitos Humanos da ONU em 2011, estabelecem uma estrutura voluntária de responsabilidades sobre direitos humanos por parte das empresas privadas. Em 2021, o Facebook anunciou sua Política Corporativa de Direitos Humanos, em que reafirmou o seu compromisso com o respeito aos direitos humanos de acordo com os UNGPs. Neste caso, os seguintes padrões de direitos humanos foram levados em consideração na análise do Comitê:

  • Liberdade de expressão: Artigo 19, Pacto Internacional dos Direitos Civis e Políticos (PIDCP); Comentário Geral n.º 34, Comitê de Direitos Humanos 2011; Artigo 5, Convenção Internacional sobre a Eliminação de Todas as Formas de Discriminação Racial (ICERD); Relatório do Relator Especial da ONU sobre discurso de ódio, A/74/486, 2019; Relatório do Relator Especial da ONU sobre moderação de conteúdo online, A/HRC/38/35, 2018.
  • Igualdade e não discriminação: Artigo 2, parágrafo 1 e Artigo 26 (PIDCP); Artigo 2, ICERD; Recomendação Geral n.º 35, Comitê para a Eliminação da Discriminação Racial, 2013.

5. Declaração do usuário

O usuário declarou, na apelação ao Comitê, que as pessoas têm o direito de expressar pontos de vista diferentes na plataforma e “participar de um debate saudável e civilizado”. O usuário também declarou que “não escreveu sobre nenhum grupo específico com o intuito de que ele ou seus membros fossem alvo de ódio ou atacados de qualquer forma por membros de um outro grupo”. O usuário argumentou que a publicação, na verdade, “incentivou membros de um determinado grupo a refletir e reavaliar as próprias prioridades e atitudes”. O usuário ainda declarou que não há nada na publicação ou “na intenção dela” que promova discurso de ódio, e que é uma pena que o Facebook não possa dizer qual parte da publicação apresenta discurso de ódio.

6. Explicação sobre a decisão do Facebook

Baseando-se no Padrão da Comunidade sobre discurso de ódio, o Facebook removeu o conteúdo, especificamente, por violar sua política que proíbe o uso de calúnias direcionadas a pessoas com base em raça, etnia e/ou nacionalidade. O Facebook constatou, na justificativa da decisão, que proíbe conteúdo que contenha calúnias, que são inerentemente ofensivas e usadas como rótulos insultuosos, a menos que o usuário demonstre claramente que o conteúdo “foi compartilhado para condenar, discutir a calúnia ou aumentar a conscientização sobre ela ou quando ela é usada de forma autorreferencial ou empoderadora”. O Facebook argumentou que essas exceções não se aplicavam nesse caso.

O Facebook argumentou que a publicação se dirigia a “pretos inteligentes” e que essa frase “foi usada para criticar os sul-africanos negros que são vistos como tendo uma 'necessidade excessiva de parecerem impressionantemente espertos ou inteligentes'”. O Facebook também observou que a publicação usava as palavras “k***ir” e “n***er”, e ambas estão na sua lista confidencial de calúnias. De acordo com o Facebook, a palavra “k***ir” é considerada “o epíteto mais ofensivo da África do Sul” e historicamente usada pelos brancos na África do Sul “como um termo depreciativo para se referir aos negros”. O Facebook acrescentou que esse termo “nunca foi reivindicado pela comunidade negra”. O Facebook declarou que a palavra “n***er” também é “altamente ofensiva na África do Sul”, mas que “foi reivindicada pela comunidade negra para ser usada com um sentido positivo”.

O Facebook também observou que, como parte do processo para determinar se uma palavra ou frase constitui uma calúnia, ela deve ser recomendada por suas partes interessadas externas ou internas. O Facebook especificou que recentemente consultou partes interessadas que confirmaram a necessidade de fazer uma exceção na política sobre discurso de ódio a fim de permitir o uso de calúnias quando “usadas de forma autorreferenciais ou empoderadoras”. De acordo com o Facebook, as partes interessadas externas geralmente concordam que é importante “permitir que as pessoas usem uma calúnia reivindicada de forma empoderadora”, mas também é fundamental que o Facebook não “adivinhe, tome decisões nem reúna dados sobre se o usuário tem uma característica protegida” para decidir se o uso de uma calúnia viola as políticas. O Facebook confirmou em sua resposta ao Comitê que as partes interessadas externas incluíam sete especialistas/organizações na América do Norte, 16 da Europa, 30 do Oriente Médio, dois da África, seis da América Latina e um da região Ásia Pacífico/Índia.

O Facebook concluiu que, embora a foto do perfil do usuário retrate uma pessoa negra, o usuário “não se identifica com as calúnias nem argumenta que elas devem ser reconsideradas ou reivindicadas”. Segundo o Facebook, “as calúnias dessa publicação estão sendo usadas de forma ofensiva para atacar” pessoas negras que convivem com pessoas brancas. Sendo assim, o Facebook afirmou que a remoção da publicação é consistente com seus Padrões da Comunidade sobre discurso de ódio.

O Facebook também afirmou que a remoção do conteúdo estava de acordo com os valores de “Dignidade” e “Segurança” em contrapartida ao valor de “Voz”. De acordo com o Facebook, as calúnias na publicação foram usadas “para atacar pessoas de forma prejudicial, contrária aos valores do Facebook”. A esse respeito, o Facebook se referiu à decisão sobre o caso do Comitê 2020-003-FB-UA.

O Facebook argumentou que sua decisão estava de acordo com os padrões internacionais de direitos humanos. O Facebook afirmou que sua decisão seguia os requisitos do direito internacional dos direitos humanos de que as restrições à liberdade de expressão respeitam os princípios da legalidade, objetivo legítimo, necessidade e proporcionalidade. De acordo com o Facebook, sua política era “de fácil acesso” nos Padrões da Comunidade e que “a escolha de palavras do usuário se encaixava perfeitamente na proibição de calúnias”. Além disso, a decisão de remover o conteúdo foi legítima para proteger “os direitos de terceiros contra danos e discriminação” e consistente com o requisito do Artigo 20, parágrafo 2 do PIDCP, para a proibição de discurso que faça apologia ao “ódio nacional, racial ou religioso que constitua incitamento à discriminação, à hostilidade ou à violência.” Por fim, o Facebook argumentou que sua decisão de remover o conteúdo era “necessária e proporcional para limitar os danos” contra membros da comunidade negra e “para outros visualizadores do discurso de ódio”, fazendo referência às “Recommendations for Reducing Online Hate Speech,” do Israel Democracy Institute e do Yad Vashem e a “Words That Wound: A Tort Action for Racial Insults, Epithets, and Name-Calling” de Richard Delgado.

7. Envios de terceiros

O Comitê de Supervisão recebeu seis comentários públicos relacionados ao caso. Três dos comentários eram da África Subsaariana, especificamente da África do Sul, um do Oriente Médio e Norte da África, um da Ásia-Pacífico e Oceania e um dos Estados Unidos e Canadá. O Comitê recebeu comentários de partes interessadas, incluindo acadêmicos e organizações da sociedade civil com foco na liberdade de expressão e discurso de ódio na África do Sul.

Os envios tratavam de temas como a análise das palavras “pretos inteligentes”, “n***er” e “k***ir;” se as palavras “n***er” e “k***ir” constituem discurso de ódio; a identidade do usuário e do denunciante e seu impacto sobre como a publicação foi percebida; e a aplicabilidade das exceções da política sobre discurso de ódio do Facebook.

Para ler os comentários públicos enviados sobre este caso, clique aqui.

8. Análise do Comitê de Supervisão

O Comitê avaliou se esse conteúdo deve ser restaurado com base em três óticas: os Padrões da Comunidade do Facebook, os valores da empresa e suas responsabilidades sobre os direitos humanos.

8.1 Conformidade com os Padrões da Comunidade

O Comitê conclui que a remoção do conteúdo está de acordo com os Padrões da Comunidade do Facebook. O uso da palavra “k***ir” na publicação do usuário violou o Padrão da Comunidade sobre discurso de ódio, e nenhuma exceção de política foi aplicada.

O Padrão da Comunidade sobre discurso de ódio proíbe ataques com base em características protegidas. Isso inclui “[c]onteúdo que descreva ou insulte pessoas com calúnias, as quais são definidas como palavras intrinsecamente ofensivas e usadas como insultos com base nas características supramencionadas”. O Facebook considera as palavras “k***ir” e “n***er” como calúnias raciais. O Comitê avaliou comentários públicos e pesquisas de especialistas. Constatamos que ambas as calúnias têm usos discriminatórios e que, no contexto sul-africano, a palavra “k***ir” é particularmente prejudicial e incita o ódio.

A internet é uma rede global, e o conteúdo publicado no Facebook por um usuário em um contexto pode circular e causar danos em outros contextos. Ao mesmo tempo, a lista confidencial de calúnias do Facebook é dividida por mercados devido ao fato de que as palavras têm significados distintos e podem causar impactos diferentes em algumas situações. O Comitê observa que já tratou do uso da palavra “kafir” na decisão sobre o caso 2020-007-FB-FBR, em que o Comitê determinou a restauração do conteúdo. Nesse caso, nos termos da Política sobre Violência e Incitação, o Facebook não tratou o termo como uma calúnia, mas sim com o significado de “descrentes” como o grupo-alvo de uma suposta “ameaça velada”. O termo com um “f”, usado nesse caso na Índia, tem as mesmas origens em árabe que o termo sul-africano com dois efes. Isso demonstra a dificuldade de o Facebook impor uma proibição geral de certas palavras no mundo inteiro, visto que termos semelhantes ou idênticos no mesmo idioma, ou em idiomas diferentes, podem ter significados distintos e representar riscos diversos dependendo do contexto em que foi usado.

O Comitê observa que a publicação foi direcionada a um grupo de pessoas sul-africanas negras. O Comitê observa ainda que a crítica do usuário discutiu o suposto status e privilégio econômico, educacional e profissional desse grupo. O usuário argumentou, em sua declaração ao Comitê, que não estava atacando nem incitando o ódio ou a discriminação contra pessoas por causa de sua raça. Alguns membros do Comitê consideraram esse argumento convincente. Todavia, o usuário escolheu a terminologia mais forte possível na África do Sul para racializar a crítica. O uso do termo “k***ir”, com o prefixo “bom” em Afrikaans, tem uma associação histórica clara que carrega um peso significativo na África do Sul. O Comitê considera que o uso do termo “k***ir” nesse contexto não pode ser separado do seu significado prejudicial e discriminatório.

O Facebook disse ao Comitê que analisa a lista de calúnias anualmente. Sobre a designação de “k***ir” na lista, o Facebook compartilhou que em 2019 consultou organizações da sociedade civil na África do Sul. Nessa reunião, as partes interessadas disseram ao Facebook que o termo “k***ir” “é usado de forma a depreciar e aviltar uma pessoa negra como inferior e digna de desprezo”. Para cumprir as suas responsabilidades de direitos humanos ao desenvolver e analisar políticas, incluindo a lista de calúnias, o Facebook deve consultar grupos potencialmente afetados e outras partes interessadas relevantes, incluindo especialistas em direitos humanos.

O Facebook tem quatro exceções à sua política sobre calúnia que são citadas no fundamento da política do Padrão da Comunidade sobre discurso de ódio: “Reconhecemos que as pessoas às vezes compartilham conteúdos que incluem discursos de ódio de outra pessoa para condenar ou aumentar a conscientização sobre algum fato. Em outros casos, o discurso que poderia violar nossas normas pode ser usado de forma autorreferencial ou empoderadora.” A maioria dos membros do Comitê concorda que as exceções do Facebook não se aplicam nesse caso, uma vez que o conteúdo não condenava o uso da palavra “k***ir”, não aumentava a conscientização sobre sua carga semântica negativa e não foi usado de forma empoderadora. O Comitê também concluiu que esse conteúdo não era autorreferencial, apesar de alguns membros considerarem que essa exceção deveria ter sido aplicada porque o conteúdo criticava alguns membros privilegiados do grupo-alvo. No entanto, o Comitê concluiu que nada na publicação sugere que o usuário se considera pertencente a esse grupo-alvo. Além disso, a referência do usuário a “você” e “seu” na publicação o distanciou do grupo.

Portanto, o Comitê considera que o Facebook agiu de acordo com seu Padrão da Comunidade sobre discurso de ódio quando decidiu remover o conteúdo em questão.

8.2 Conformidade com os valores do Facebook

O Comitê reconhece que “Voz” é o mais importante valor do Facebook e que o Facebook deseja que os usuários da plataforma possam se expressar livremente. Não obstante, os valores do Facebook também incluem “Dignidade” e “Segurança”.

O Comitê considera que o valor de “Voz” é de particular importância para o discurso político sobre igualdade racial e socioeconômica na África do Sul. Os argumentos sobre a distribuição da riqueza, a divisão racial e a desigualdade são altamente relevantes, sobretudo em uma sociedade que, segundo a opinião de muitos, ainda está passando por uma transição do apartheid para um estado de maior igualdade. A calúnia também pode impactar o valor de “Voz” das vítimas, pois essa agressão pode ter um efeito silenciador sobre as vítimas, inibindo a sua participação no Facebook.

O Comitê também considera os valores de “Dignidade” e “Segurança” uma preocupação vital nesse contexto. O Comitê concluiu que o uso da calúnia “k***ir” no contexto da África do Sul pode ser degradante, excludente e prejudicial para as vítimas (consulte, por exemplo, as páginas 12 e 13 do Léxico de Termos de Incitação ao Ódio de 2019 da PeaceTech Lab em parceria com a Media Monitoring Africa). Especialmente em um país que ainda lida com o legado do apartheid, a menção de calúnias raciais na plataforma deve ser levada a sério pelo Facebook.

É relevante que, nesse contexto, o usuário optou por usar uma calúnia particularmente revoltante na África do Sul. O usuário podia se engajar em discussões políticas e socioeconômicas no Facebook de formas que apelassem às emoções do público sem fazer referência a essa calúnia. Isso justificou o anulamento do valor de “Voz” do usuário a fim de proteger os valores de “Voz”, a “Dignidade” e a “Segurança” de outras pessoas.

8.3 Conformidade com as responsabilidades sobre direitos humanos do Facebook

O Comitê conclui que a remoção do conteúdo é uma medida consistente com as responsabilidades do Facebook para com os direitos humanos como empresa. O Facebook se comprometeu a respeitar os direitos humanos de acordo com os Princípios Orientadores da ONU (UNGPs) sobre Empresas e Direitos Humanos. Sua Política Corporativa de Direitos Humanos afirma que também inclui o Pacto Internacional dos Direitos Civis e Políticos (PIDCP).

O artigo 19 do PIDCP fornece ampla defesa da expressão. Embora essa proteção seja “particularmente alta” para expressão e debate político, (Comentário Geral 34, parágrafo 38). A Convenção Internacional sobre a Eliminação de Todas as Formas de Discriminação Racial (ICERD) também fornece proteção à liberdade de expressão (Artigo 5), e o Comitê encarregado de monitorar o cumprimento dos estados enfatizou a importância do direito de auxiliar “grupos vulneráveis a restabelecer o equilíbrio de poder entre os componentes da sociedade” e oferecer “visões e contrapontos alternativos” nas discussões (Comitê para a Eliminação da Discriminação Racial, Recomendação Geral 35, parágrafo 29). Ao mesmo tempo, o Comitê manteve as decisões do Facebook de restringir o conteúdo que atendesse ao teste de três partes (Artigo 19 do PIDCP) de legalidade, legitimidade, necessidade e proporcionalidade. O Comitê concluiu que as ações do Facebook atenderam às responsabilidades da empresa especificadas nesse teste.

I. Legalidade (clareza e acessibilidade das regras)

O princípio da legalidade no direito internacional dos direitos humanos exige que as regras usadas para limitar a expressão sejam claras e acessíveis (Comentário Geral nº 34, parágrafo 25). O Comitê de Direitos Humanos observou também que as regras “não podem conceder liberdade de ação irrestrita para a restrição da liberdade de expressão aos encarregados de executá-las” (Comentário Geral 34, parágrafo 25). Em algumas situações, os conceitos do Facebook de “inerentemente ofensivo” e “insultante” podem ser demasiadamente subjetivos e levantar dúvidas sobre a legalidade ( A/74/486, parágrafo 46, veja também A/HRC/38/35, parágrafo 26). Ademais, pode haver situações em que uma calúnia tem vários significados ou pode ser usada de forma que não seja considerada um “ataque”.

O Comitê perguntou ao Facebook como sua lista de calúnias específica ao mercado é aplicada, e se o fato de uma calúnia constar em qualquer lista de mercado significa que ela não pode ser usada globalmente. O Facebook respondeu que sua “proibição contra calúnias é global, mas a designação de calúnia é específica ao mercado, uma vez que o Facebook reconhece que variações culturais e linguísticas significam que palavras que são calúnias em alguns lugares podem não ser em outros”. O Comitê reiterou a pergunta inicial. O Facebook então respondeu “[s]e um termo aparece na lista de calúnias de um mercado, a política sobre discurso de ódio proíbe seu uso nesse mercado. É possível que o termo seja usado em outro lugar com um significado diferente. Portanto, o Facebook avaliaria de forma independente se deve adicioná-lo à lista de calúnias do outro mercado”. Ainda não está claro para o Comitê como o Facebook impõe a proibição de calúnias na prática e em escala. O Comitê não sabe como os processos de aplicação de regras do Facebook para identificar e remover conteúdo violador operam globalmente para termos específicos a mercados, como os mercados são definidos e quando e como essa avaliação independente ocorre.

Nesse caso, conforme observado acima, as fontes consultadas pelo Comitê concordam que “k***ir” é amplamente entendido como o epíteto racial mais ofensivo da África do Sul. Como a expressão se enquadrava inequivocamente na proibição, o Facebook cumpriu sua responsabilidade de legalidade nesse caso.

O Comitê observa a decisão tomada no caso 2021-010-FB-UA e sua recomendação de que o Facebook fornecesse exemplos ilustrativos da política de calúnias nos Padrões da Comunidade voltados ao público (Recomendação n.º 1). O Comitê apoia que se forneça transparência em torno da lista de calúnias e continua a discutir como o Facebook poderia fornecer aos usuários clareza suficiente, respeitando os direitos à igualdade e à não discriminação. Uma minoria do Comitê acredita que o Facebook deve tornar a lista de calúnias pública, de modo que esteja disponível para todos os usuários. A maioria acredita que o Comitê precisava entender melhor o procedimento e os critérios para a criação da lista e saber detalhadamente como ela é aplicada, além dos possíveis riscos da publicação, como o comportamento estratégico para evitar violações caluniosas e se certas palavras, quando usadas juntas, têm um efeito prejudicial. Para contribuir com essa discussão, o Facebook precisa publicar mais informações sobre a lista de calúnias, os processos de análise e designação, a aplicação de regras e a aplicabilidade globais e/ou por mercado ou idioma, e por qual motivo ela permanece confidencial.

II. Objetivo legítimo

Qualquer restrição de estado na expressão deve perseguir um dos objetivos legítimos listados no PIDCP. Esses objetivos incluem o “direito de outros”. Anteriormente, o Comitê declarou que a proibição de calúnias “visa proteger os direitos das pessoas à igualdade e à não discriminação (Artigo 2, parágrafo 1, PIDCP [e] exercer sua liberdade de expressão na plataforma sem serem assediadas ou ameaçadas (Artigo 19 , PIDCP)”, entre outros direitos (decisão sobre o caso 2020-003-FB-UA). O Comitê reitera que esses objetivos são legítimos.

III. Necessidade e proporcionalidade

O princípio de necessidade e proporcionalidade sob o direito internacional de direitos humanos requer que as restrições na expressão “devem ser apropriadas para cumprir sua função protetora; devem ser o instrumento menos intrusivo entre aqueles que podem cumprir sua função protetora; devem ser proporcionais ao interesse a ser protegido” (Comentário Geral 34, parágrafo 34). Nesse caso, o Comitê decide que a remoção do conteúdo foi adequada para o cumprimento de uma função protetiva. O Comitê também emite uma recomendação de política para o Facebook sobre como melhorar a aplicação do seu Padrão da Comunidade sobre discurso de ódio.

O Padrão da Comunidade sobre discurso de ódio do Facebook proíbe algumas expressões discriminatórias, incluindo calúnias, na ausência de qualquer requisito de que a expressão incite violência ou atos discriminatórios. Embora essas proibições possam causar preocupações se impostas por um governo em um nível mais amplo (A/74/486, parágrafo 48), particularmente se aplicadas por meio de sanções criminais ou civis, o Relator Especial indica que as entidades envolvidas na moderação de conteúdo como o Facebook podem regular esse discurso:

A escala e a complexidade de abordar a expressão de ódio apresentam desafios de longo prazo e podem levar as empresas a restringir essa expressão, mesmo que não esteja claramente ligada a resultados adversos (já que a defesa de ódio está relacionada à incitação no Artigo 20(2) do PIDCP). As empresas devem articular as bases para tais restrições, entretanto, e demonstrar a necessidade e proporcionalidade de quaisquer ações de conteúdo (A/HRC/38/35, parágrafo 28).

Nesse caso, o contexto histórico e social foi crucial, pois o Comitê observa que o uso da palavra “k***ir” está intimamente relacionado à discriminação e à história do apartheid na África do Sul. O Comitê também discutiu a situação da pessoa que usou o termo calunioso e suas intenções. O Comitê reconhece que pode haver casos em que a identidade racial da pessoa que usou o termo calunioso seja relevante para a análise do impacto do conteúdo. O Comitê observa as preocupações do Relator Especial de que a aplicação inconsistente de uma política sobre discurso de ódio pode “penaliza[r] minorias e reforçar o status de grupos dominantes ou poderosos”, na medida em que o assédio e o abuso permanecem online, enquanto “críticas aos fenômenos racistas e estruturas de poder” podem ser removidas (A/HRC/38/35, parágrafo 27). Uma foto de perfil pode ajudar a fazer inferências sobre o usuário, contudo, o Comitê observa que normalmente não é possível confirmar se as fotos do perfil retratam os responsáveis pelo conteúdo. Ademais, o Comitê discutiu as preocupações que o Facebook disse que as partes interessadas levantaram sobre a tentativa de determinar as identidades raciais dos usuários. O Comitê concordou que a coleta ou a manutenção de dados pelo Facebook sobre as identidades raciais percebidas dos usuários apresenta sérias questões de privacidade. Em relação à intenção, apesar de o usuário ter afirmado que desejava encorajar a introspecção, a publicação invocou uma calúnia racial com implicações históricas ofensivas para criticar algumas pessoas sul-africanas negras.

Essa decisão foi complexa para o Comitê, e resulta na remoção da expressão que discute questões socioeconômicas e políticas relevantes na África do Sul, que são desafiadoras. Essas discussões são importantes, e um certo grau de provocação precisa ser tolerado ao discutir esses assuntos no Facebook. No entanto, o Comitê considera que, dadas as informações analisadas nos parágrafos anteriores, a decisão do Facebook de remover o conteúdo foi adequada. O Comitê também emite uma recomendação de política para que o Facebook priorize a melhoria da justiça processual para os usuários sobre a aplicação da política sobre discurso de ódio, para que os usuários possam entender com maior clareza os motivos da remoção de um conteúdo e tenham a possibilidade de considerar uma mudança de comportamento.

9. Decisão do Comitê de Supervisão

O Comitê de Supervisão mantém a decisão do Facebook de remover o conteúdo.

10. Recomendação de políticas

Monitoramento

Para garantir a justiça processual para os usuários, o Facebook deve:

  1. Enviar uma notificação aos usuários sobre a regra específica contida no Padrão da Comunidade sobre discurso de ódio que foi violada no idioma em que eles usam o Facebook, conforme recomendado na decisão sobre o caso 2020-003-FB-UA (Armênios no Azerbaijão) e na decisão sobre o caso 2021-002-FB-UA (Representação de Zwarte Piet). Nesse caso, por exemplo, o usuário deveria ter sido notificado de que violou a proibição contra calúnias. O Comitê observou a resposta do Facebook à Recomendação n.º 2 na decisão sobre o caso 2021-002-FB-UA, que descreve um novo classificador que deve ser capaz de notificar os usuários de língua inglesa do Facebook de que o conteúdo deles violou a regra sobre calúnias. O Comitê espera que o Facebook forneça informações que confirmem a implementação da recomendação para usuários do idioma inglês, bem como informações sobre o prazo de implementação para usuários de outros idiomas.

*Nota processual:

As decisões do Comitê de Supervisão são preparadas por grupos com cinco membros e aprovadas pela maioria do Comitê. As decisões do Comitê não representam, necessariamente, as opiniões pessoais de todos os membros.

Para a decisão sobre o caso em apreço, uma pesquisa independente foi contratada em nome do Comitê. Um instituto de pesquisa independente, com sede na Universidade de Gotemburgo e com uma equipe de mais de 50 cientistas sociais de seis continentes, bem como mais de 3.200 especialistas de nações do mundo todo, forneceu informações especializadas sobre contexto sociopolítico e cultural. A empresa Lionbridge Technologies, LLC, cujos especialistas são fluentes em mais de 350 idiomas e trabalham de 5.000 cidades pelo mundo, forneceu a consultoria linguística.

Voltar para Decisões de Casos e Pareceres Consultivos sobre Políticas