Anulado

Meme “dois botões”

O Comitê de Supervisão revogou a decisão do Facebook de remover um comentário em conformidade com os Padrões da Comunidade sobre discurso de ódio.

Tipo de decisão

Padrão

Políticas e tópicos

विषय
Humor, Liberdade de expressão, Política
Padrão da comunidade
Cruel e insensível

Regiões/países

Localização
Estados Unidos

Plataforma

Plataforma
Facebook

Observe que esta decisão está disponível em turco (na aba "idioma" acessada pelo menu na parte superior desta tela) e armênio (neste link).

Որոշման ամբողջական տարբերակը հայերենով կարդալու համար սեղմեք այստեղ.

Resumo do caso

O Comitê de Supervisão revogou a decisão do Facebook de remover um comentário em conformidade com os Padrões da Comunidade sobre discurso de ódio. A maioria do Comitê considerou que a decisão entrou para os casos de exceção do Facebook em relação aos conteúdos que condenam ou aumentam a conscientização sobre o ódio.

Sobre o caso

Em 24 de dezembro de 2020, um usuário do Facebook nos Estados Unidos publicou um comentário com uma adaptação do meme “luta diária” ou “dois botões”. Esse meme mostrava o desenho em tela dividida do meme “dois botões” original, mas com o rosto do personagem do desenho substituído por uma bandeira da Turquia. O personagem do desenho está com a mão direita na cabeça e parece estar suando. Acima do personagem, na outra metade da tela dividida, há dois botões vermelhos com as declarações correspondentes em inglês: “The Armenian Genocide is a lie” (“O genocídio armênio é uma mentira”) e “The Armenians were terrorists who deserved it” (“Os armênios eram terroristas que mereceram isso”).

Apesar de um moderador de conteúdo entender que o meme violava os Padrões da Comunidade sobre discurso de ódio do Facebook, o outro considerou que ele violava os Padrões da Comunidade sobre conteúdo cruel e insensível. O Facebook removeu o comentário de acordo com os Padrões da Comunidade sobre conteúdo cruel e insensível e informou o usuário.

No entanto, após a apelação do usuário, o Facebook considerou que o conteúdo deveria ter sido removido de acordo com os Padrões da Comunidade sobre discurso de ódio. A empresa não informou o usuário de que manteve sua decisão de acordo com um Padrão da Comunidade diferente.

Principais conclusões

O Facebook declarou que removeu o comentário com a frase “Os armênios eram terroristas que mereceram isso” por conter alegações de que os armênios eram criminosos com base em sua nacionalidade e etnia. De acordo com o Facebook, o comentário violava os Padrões da Comunidade sobre discurso de ódio.

O Facebook também afirmou que o meme não estava incluído em uma exceção, o que permite aos usuários compartilhar conteúdo de ódio para condená-lo ou aumentar a conscientização. A empresa reivindicou que o personagem do desenho poderia ser visto como condenando ou aceitando as duas declarações apresentadas no meme.

Entretanto, a maioria do Comitê acredita que o conteúdo está incluído nessa exceção. O meme de “dois botões” contrasta duas opções diferentes, não para mostrar apoio a elas, mas para enfatizar possíveis contradições. Portanto, consideraram que o usuário compartilhou o meme para aumentar a conscientização e condenar os esforços do governo turco de negar o genocídio armênio, ao mesmo tempo em que justifica essas mesmas atrocidades históricas. A maioria notou um comentário público que sugeria que o meme “não zomba das vítimas do genocídio, mas zomba do negacionismo comum na Turquia contemporânea, que afirma que o genocídio não aconteceu e que as vítimas mereciam o extermínio”. A maioria também acredita que o conteúdo poderia estar incluído na exceção de sátira do Facebook, que não está nos Padrões da Comunidade.

No entanto, a minoria do Comitê concluiu que não ficou suficientemente claro se o usuário compartilhou o conteúdo para criticar o governo turco. Como o conteúdo incluía uma generalização perigosa sobre os armênios, a minoria do Comitê concluiu que violava os Padrões da Comunidade sobre discurso de ódio.

Nesse caso, o Comitê observou que o Facebook informou o usuário que ele violou os Padrões da Comunidade sobre conteúdo cruel e insensível quando a empresa baseou sua aplicação nos Padrões da Comunidade sobre discurso de ódio. O Comitê também questionou se os moderadores do Facebook tiveram o tempo e os recursos necessários para analisar o conteúdo que continha sátira.

A decisão do Comitê de Supervisão

O Comitê de Supervisão revoga a decisão do Facebook de remover o conteúdo e exige que o comentário seja restaurado.

Em uma declaração de parecer consultivo, o Comitê recomenda ao Facebook:

  • Informe os usuários sobre o Padrão da Comunidade aplicado pela empresa. Se o Facebook determinar que o conteúdo de um usuário viola um Padrão da Comunidade diferente daquele sobre qual o usuário foi informado originalmente, o usuário deverá ter direito a outra apelação.
  • Inclua a exceção de sátira, que não está disponível atualmente para os usuários, em linguagem acessível dos Padrões da Comunidade sobre discurso de ódio.
  • Adote procedimentos para moderar adequadamente o conteúdo satírico, levando em consideração o contexto relevante. Isso inclui oferecer aos moderadores de conteúdo acesso às equipes de operação local do Facebook e tempo suficiente para consultar essas equipes e fazer uma avaliação.
  • Permita que os usuários indiquem na apelação que seu conteúdo se enquadra em uma das exceções à Política de discurso de ódio. Isso inclui exceções para conteúdo satírico e onde os usuários compartilham conteúdo de ódio para condená-lo ou aumentar a conscientização.
  • Confirme que as apelações com base nas exceções da política tenham prioridade na análise humana.

*Os resumos de caso dão uma visão geral da ocorrência e não têm valor precedente.

Decisão completa sobre o caso

1. Resumo da decisão

O Comitê de Supervisão revogou a decisão do Facebook de remover um conteúdo em conformidade com os Padrões da Comunidade sobre discurso de ódio. A maioria do Comitê concluiu que o desenho animado, na forma de meme satírico, está dentro da exceção dos Padrões da Comunidade sobre discurso de ódio para conteúdo que condena o ódio ou aumenta sua conscientização.

2. Descrição do caso

Em 24 de dezembro de 2020, um usuário do Facebook nos Estados Unidos publicou um comentário com uma adaptação do meme “luta diária” ou “dois botões”. Um meme é um meio de comunicação, muitas vezes cômico, que viraliza rapidamente pela Internet. Esse meme mostrava o desenho em tela dividida do meme original, mas com o rosto do personagem do desenho substituído por uma bandeira da Turquia. O personagem do desenho está com a mão direita na cabeça e parece estar suando. Acima do personagem, na outra metade da tela dividida, há dois botões vermelhos com as declarações correspondentes em inglês: “The Armenian Genocide is a lie” (“O genocídio armênio é uma mentira”) e “The Armenians were terrorists who deserved it” (“Os armênios eram terroristas que mereceram isso”). Antes do meme, havia um emoji de “rosto pensativo”.

O comentário foi compartilhado em uma página pública do Facebook descrita como um fórum para discutir assuntos religiosos sob uma perspectiva secular. O comentário do usuário foi em resposta a uma publicação com uma imagem de uma pessoa usando um niqab e um texto sobreposto em inglês: “Not all prisoners are behind bars” (“Nem todos os prisioneiros estão atrás das grades”). No momento que o comentário foi removido, a publicação original tinha 260 visualizações, 423 reações e 149 comentários. Um usuário do Facebook no Sri Lanka denunciou o comentário por violar os Padrões da Comunidade sobre discurso de ódio.

O Facebook removeu o meme em 24 de dezembro de 2020. Em um curto período, dois moderadores de conteúdo analisaram o comentário em relação às políticas da empresa e chegaram a conclusões diferentes. Enquanto o primeiro moderador concluiu que o meme violou a Política de discurso de ódio do Facebook, o segundo determinou que o meme violou a Política de conteúdo cruel e insensível. O conteúdo foi removido e registrado nos sistemas do Facebook com base na segunda análise. Dessa forma, o Facebook notificou o usuário de que seu comentário “vai contra nossos Padrões da Comunidade sobre conteúdo cruel e insensível”.

Após a apelação do usuário, o Facebook manteve a decisão, mas considerou que o conteúdo deveria ter sido removido de acordo com a Política sobre Discurso de Ódio. Para o Facebook, a declaração “Os armênios eram terroristas que mereceram isso” especificamente violou a proibição de conteúdo que reivindicava que todos os membros com uma característica protegida são criminosos, inclusive terroristas. Nenhuma outra parte do conteúdo, como a alegação de que o genocídio armênio foi uma mentira, foi considerada violação. O Facebook não informou o usuário de que manteve a decisão de remover seu conteúdo de acordo com um Padrão da Comunidade diferente.

O usuário enviou sua apelação ao Comitê de Supervisão em 24 de dezembro de 2020.

Por último, nesta decisão, o Comitê se referiu às atrocidades cometidas contra o povo armênio a partir de 1915 como genocídio, já que este termo é geralmente usado para descrever os massacres e as deportações em massa sofridos pelos armênios e também é mencionado no conteúdo em análise. O Comitê não tem autoridade para classificar legalmente tais atrocidades e esta classificação não é o assunto desta decisão.

3. Autoridade e escopo

O Comitê tem autoridade para analisar a decisão do Facebook após uma apelação do usuário cuja publicação foi removida (Artigo 2, Seção 1 do Estatuto; Artigo 2, Seção 2.1 dos Regulamentos Internos). O Comitê pode manter ou reverter essa decisão (Artigo 3, Seção 5 do Estatuto). As decisões do Comitê são vinculativas e podem incluir declarações de parecer consultivo com recomendações. Essas recomendações não são vinculativas, mas o Facebook deve responder a elas (Artigo 3, Seção 4 do Estatuto). O Comitê é um mecanismo de reclamações independente com o objetivo de abordar contestações de uma maneira transparente e íntegra.

4. Padrões relevantes

Em sua decisão, o Comitê de Supervisão considerou os seguintes padrões:

I. Padrões da Comunidade do Facebook

Os Padrões da Comunidade do Facebook definem o discurso de ódio como “um ataque direto a pessoas com base no que chamamos de características protegidas: raça, etnia, nacionalidade, religião, orientação sexual, casta, sexo, gênero, identidade de gênero e doença ou deficiência grave”. De acordo com o “Nível 1”, o conteúdo proibido (“não publique”) inclui o conteúdo direcionado a uma pessoa ou grupo de pessoas com base em uma característica protegida com:

  • "Discurso ou imagens degradantes na forma de comparações, generalizações ou declarações comportamentais não qualificadas (em forma escrita ou visual) para ou sobre [...] criminosos (incluindo, entre outros, “ladrões”, “ladrões de banco” ou dizendo “Todos [características protegidas ou características quase protegidas] são ‘criminosos’)”.
  • “Deboche do conceito, de eventos ou de vítimas de crimes de ódio, mesmo que nenhuma pessoa real apareça na imagem.”
  • “Negacionismo ou distorção de informações sobre o Holocausto.”

No entanto, o Facebook permite o “conteúdo que inclui discurso de ódio de outra pessoa para condená-lo ou aumentar a conscientização”. De acordo com o fundamento da política dos Padrões da Comunidade sobre discurso de ódio, “discurso que pode de alguma forma violar nossos padrões e pode ser usado de forma autorreferencial ou fortalecedora. Nossas políticas visam dar espaço para estes tipos de discurso, mas exigimos que as pessoas indiquem claramente sua intenção. Se a intenção não estiver clara, poderemos remover o conteúdo”.

Além disso, o Comitê observou que os Padrões da Comunidade sobre conteúdo cruel e insensível do Facebook que proíbe o conteúdo direcionado a “vítimas de danos físicos ou emocionais graves”, incluindo “tentativas de zombar de vítimas [...] muitas delas sob a forma de memes e GIFs”. Esta política proíbe conteúdo (“não publique”) que “apresenta observações sádicas e qualquer representação visual ou escrita de pessoas reais sofrendo morte prematura”.

II. Valores do Facebook

Os valores do Facebook são descritos na introdução aos Padrões da Comunidade. O valor “Voz” é definido como “fundamental”:

o objetivo de nossos Padrões da Comunidade sempre foi criar um local de expressão e dar voz às pessoas. [...] Queremos que as pessoas possam falar abertamente sobre os assuntos importantes para elas, ainda que sejam temas que geram controvérsias e objeções.

O Facebook limita a “Voz” com base em quatro valores, e dois são relevantes aqui:

“Segurança”: Temos o compromisso de fazer com que o Facebook seja um lugar seguro. Manifestações contendo ameaças podem intimidar, excluir ou silenciar pessoas e isso não é permitido no Facebook.

“Dignidade” : acreditamos que todas as pessoas são iguais no que diz respeito à dignidade e aos direitos. Esperamos que as pessoas respeitem a dignidade alheia e não assediem nem difamem umas às outras.

II. Padrões de Direitos Humanos

Os Princípios Orientadores da ONU sobre Empresas e Direitos Humanos (UNGPs, na sigla em inglês), endossados pelo Conselho de Direitos Humanos da ONU em 2011, estabelecem uma estrutura voluntária de responsabilidades sobre direitos humanos das empresas privadas. Em 2021, o Facebook anunciou sua Política de Direitos Humanos Corporativos, onde se comprometeu a respeitar os direitos de acordo com os UNGPs. Neste caso, os seguintes padrões de direitos humanos foram levados em consideração na análise do Comitê:

  1. Liberdade de expressão: Artigo 19, Pacto Internacional dos Direitos Civis e Políticos (PIDCP), Comentário Geral 34, Comitê de Direitos Humanos (2011); Relator Especial da ONU sobre os relatórios de liberdade de opinião e expressão: A/HRC/35/22/Adendo 3 (2017), A/HRC/41/35/Adendo 2 (2019), A/HRC/38/35 (2018), A/74/486 (2019) e A/HRC/44/49/Adendo 2 (2020); Plano de ação de Rabat, OHCHR, (2013).
  2. Direito à não discriminação: Artigo 2, parágrafo 1, PIDCP; Artigo 1 e 2, Convenção sobre a Eliminação de Todas as Formas de Discriminação Racial (CERD).
  3. O direito de ser informado no contexto do acesso à justiça: Artigo 14, parágrafo 3(a), PIDCP; Comentário Geral N° 32, Comitê de Direitos Humanos (2007).

5. Declaração do usuário

O usuário declarou em sua apelação ao Comitê que "eventos históricos não devem ser censurados". Eles indicaram que os comentários não pretendiam ofender, mas apontar "a ironia de um evento histórico específico". O usuário observou que “talvez o Facebook tenha interpretado mal e entendido como um ataque”. O usuário afirma ainda que, mesmo que o conteúdo invoque “religião e guerra”, não é um “tema polêmico”. O usuário considerou o Facebook e suas políticas excessivamente restritivas e argumenta que “o humor, como muitas coisas, é subjetivo, e algo ofensivo para uma pessoa pode ser engraçado para outra”.

6. Explicação sobre a decisão do Facebook

O Facebook explicou que removeu o comentário como um ataque de Nível 1 de acordo com os Padrões da Comunidade sobre discurso de ódio, especificamente por violar sua política de proibição de conteúdo e alegar que todos os membros de uma característica protegida são criminosos, inclusive terroristas. De acordo com o Facebook, apesar de a primeira declaração no meme “O genocídio armênio é uma mentira” ser uma generalização negativa, ela não ataca diretamente os armênios e, portanto, não violou os Padrões da Comunidade da empresa. O Facebook considerou que a segunda declaração “Os armênios eram terroristas que mereceram isso” atacou diretamente os armênios, ao dizer que são criminosos com base em sua etnia e nacionalidade. Essa declaração violava a Política de discurso de ódio da empresa.

Na justificativa de sua decisão, o Facebook avaliou se deveria ser aplicada a exceção para o conteúdo que compartilha discurso de ódio para condená-lo ou aumentar a conscientização sobre ele. O Facebook argumentou que o meme não se enquadrou nessa exceção, já que o usuário não esclareceu se pretendia condenar o discurso de ódio. Particularmente, o Facebook explicou ao Comitê que o personagem do desenho no meme poderia estar condenando ou apoiando as declarações. O Facebook também explicou que sua Política de discurso de ódio incluía anteriormente uma exceção para humor. A empresa esclareceu que removeu essa exceção em resposta ao relatório de Auditoria de Direitos Civis (julho de 2020) e como parte de seu desenvolvimento da política. Em resposta ao Comitê, o Facebook afirmou que “criar uma definição para o que é considerado engraçado não era funcional para o monitoramento em grande escala do Facebook”. No entanto, no relatório de Auditoria de Direitos Civis, a empresa divulgou que manteve uma exceção mais restrita para a sátira que o Facebook define como conteúdo que “inclui o uso de ironia, exagero, deboche e/ou absurdos com a intenção de expor ou criticar pessoas, comportamentos ou opiniões, particularmente no contexto de temas políticos, religiosos ou sociais. Seu objetivo é chamar a atenção e expressar críticas sobre questões sociais mais amplas.” Esta exceção não está incluída nos Padrões da Comunidade. Parece ser diferente da exceção para conteúdo que inclui discurso de ódio para condená-lo ou aumentar a conscientização sobre ele.

O Facebook também esclareceu que o conteúdo não viola a Política de conteúdo cruel e insensível, que proíbe “tentativas explícitas de zombar das vítimas”, inclusive por meio de memes, porque não retratou ou nomeou uma vítima real.

O Facebook também afirmou que a remoção do conteúdo estava de acordo com os valores de “Dignidade” e “Segurança” em contrapartida ao valor de “Voz”. De acordo com o Facebook, o conteúdo que chama o povo armênio de terroristas “é uma afronta à sua dignidade, pode ser visto como humilhante ou degradante e pode até mesmo criar riscos de perseguição e violência offline”.

O Facebook argumentou que sua decisão estava de acordo com os padrões internacionais de direitos humanos. O Facebook declarou que (a) sua política era “de fácil acesso” nos Padrões da Comunidade, (b) a decisão de remover o conteúdo foi legítima para proteger “os direitos de terceiros contra danos e discriminação” e (c) sua decisão de remover o conteúdo foi “necessária e adequada para evitar danos contra armênios”. Para garantir que os limites de expressão fossem adequados, o Facebook argumentou que sua Política de discurso de ódio se aplicou a “um conjunto restrito de generalizações”.

7. Envios de terceiros

O Comitê de Supervisão recebeu 23 comentários públicos relacionados a este caso. Quatro dos comentários vieram da Europa, um do Oriente Médio e Norte da África e 18 dos Estados Unidos e Canadá.

O Comitê recebeu comentários de partes diretamente relacionadas às questões de interesse deste caso. Entre eles: um descendente de vítimas do genocídio armênio, organizações que estudam a natureza, as causas e as consequências do genocídio, bem como um ex-moderador de conteúdo.

Os envios incluíam temas como: o significado e o uso do meme de “luta diária” ou “dois botões” conforme adaptado pelo usuário neste caso, independente se o conteúdo era uma crítica política do governo turco e seu negacionismo do genocídio armênio, se o conteúdo zombava das vítimas do genocídio armênio e como os Padrões da Comunidade sobre discurso de ódio e conteúdo cruel e insensível do Facebook se relacionam com este caso.

Para ler os comentários públicos enviados sobre este caso, clique aqui.

8. Análise do Comitê de Supervisão

O Comitê avaliou se esse conteúdo deve ser restaurado com base em três óticas: os Padrões da Comunidade do Facebook, os valores da empresa e suas responsabilidades sobre os direitos humanos.

8.1 Conformidade com os Padrões da Comunidade

O Comitê analisou cada uma das duas declarações em relação aos Padrões da Comunidade do Facebook, antes de analisar o efeito de justapor essas declarações nesta versão do meme de “luta diária” ou “dois botões”.

8.1.1. Análise da declaração “O genocídio armênio é uma mentira”

O Comitê observou que o Facebook não considerou esta declaração como violação dos Padrões da Comunidade sobre discurso de ódio. O Facebook aplica os Padrões da Comunidade sobre discurso de ódio quando identifica (i) um “ataque direto” e (ii) uma “característica protegida” na qual se baseou o ataque direto. O fundamento da política lista “discurso degradante” como um exemplo de ataque. A etnia e a nacionalidade estão incluídas na lista de características protegidas.

Na seção "não publique" da Política de discurso de ódio, o Facebook proíbe o discurso que “zomba o conceito, eventos ou vítimas de crimes de ódio, mesmo que nenhuma pessoa real seja retratada em uma imagem”. A maioria do Comitê observou, no entanto, que a intenção do usuário não era zombar das vítimas dos eventos mencionados na declaração, mas usar o meme, na forma de sátira, para criticar a própria declaração. Para a minoria, a intenção do usuário não ficou suficientemente clara. O usuário poderia estar compartilhando o conteúdo para apoiar a declaração, em vez de refutá-la.

Nesse caso, o Facebook notificou o usuário de que seu conteúdo violava os Padrões da Comunidade sobre conteúdo cruel e insensível. De acordo com esta política, o Facebook proíbe “tentativas de zombar de vítimas [de danos físicos ou emocionais graves]”, inclusive conteúdo que “contenha comentários sádicos e qualquer representação visual ou escrita de pessoas reais sofrendo morte prematura”. O Comitê observou, mas não considerou a explicação do Facebook de que esta política não se aplica a este caso, porque o meme não retrata ou nomeia as vítimas dos eventos mencionados na declaração.

De acordo com a seção “não publique” da Política de discurso de ódio, o Facebook também proíbe a expressão “negar ou distorcer informações sobre o Holocausto”. O Comitê considerou a explicação da empresa de que esta política não se aplica ao genocídio armênio ou outros genocídios e que esta política foi baseada na “consulta com especialistas externos [da empresa], o aumento bem documentado do anti-semitismo global e o nível alarmante de ignorância sobre o Holocausto”.

8.1.2. Análise da declaração “Os armênios eram terroristas que mereceram isso”

O Comitê observou que o Facebook considerou esta afirmação como violação dos Padrões da Comunidade sobre discurso de ódio. A seção “não publique” destes Padrões da Comunidade sobre discurso de ódio proíbe “imagem ou discurso degradante sob a forma de comparações, generalizações ou declarações de comportamento não qualificadas (de forma visual ou escrita)”. A política inclui o discurso que retrata o grupo-alvo como “criminosos”. O Comitê julgou que o termo "terroristas" se enquadrava nesta categoria.

8.1.3 Análise das declarações combinadas no meme

O Comitê acredita que se deve avaliar o conteúdo como um todo, inclusive o efeito de justapor essas declarações em um meme conhecido. Um objetivo comum do meme de “luta diária” ou “dois botões” é contrastar duas opções diferentes para destacar potenciais contradições ou outras conotações, em vez de indicar apoio para as opções apresentadas.

Para a maioria, a exceção à Política de discurso de ódio é crucial. Esta exceção permite que as pessoas “compartilhem conteúdo que incluem discursos de ódio de outra pessoa para condená-lo ou aumentar a conscientização”. Também declara que: “nossas políticas visam dar espaço para esses discursos, mas exigimos que as pessoas indiquem claramente sua intenção. Se a intenção não estiver clara, poderemos remover o conteúdo”. A maioria constatou que o conteúdo também pode se enquadrar na exceção de sátira da empresa, que não está disponível publicamente.

Avaliando o conteúdo como um todo, a maioria do Comitê entendeu que a intenção do usuário foi clara. O meme foi compartilhado como sátira para aumentar a conscientização e condenar os esforços do governo turco para negar o genocídio armênio, ao mesmo tempo em que justifica essas mesmas atrocidades históricas. A intenção do usuário não era zombar das vítimas desses eventos, nem alegar que essas vítimas eram criminosas ou que a atrocidade era justificável. A maioria do Comitê levou em consideração a posição do governo turco sobre o genocídio sofrido pelos armênios a partir de 1915 ( República da Turquia, Ministério das Relações Exteriores), além da história entre a Turquia e a Armênia. Nesse contexto, observaram que o rosto suado do personagem do desenho substituído por uma bandeira turca e a ligação direta do conteúdo ao genocídio armênio significavam que o usuário compartilhou o meme para criticar a posição do governo turco sobre o assunto. O uso do emoji “rosto pensativo”, comumente usado de forma sarcástica, ao lado do meme, sustenta essa conclusão. A maioria notou um comentário público “PC-10007” (disponível de acordo com a seção 7 acima) que sugeria que “este meme, conforme descrito, não zomba das vítimas do genocídio, mas zomba do negacionismo comum na Turquia contemporânea, que afirma que o genocídio não aconteceu e que as vítimas mereciam o extermínio”. Portanto, seria errado remover este comentário em nome da proteção dos armênios, quando a publicação é uma crítica ao governo turco, em apoio aos armênios.

Dessa forma, a maioria do Comitê declarou que, como um todo, o conteúdo se enquadra na exceção de política de Padrões da Comunidade sobre discurso de ódio do Facebook. Para a minoria, na ausência de contexto específico, a intenção do usuário não foi suficientemente clara para concluir que o conteúdo foi compartilhado como uma sátira que criticava o governo turco. Além disso, a minoria identificou que o usuário não conseguiu articular adequadamente o que o suposto humor pretendia expressar. Já que o conteúdo incluía uma generalização perigosa sobre os armênios, a minoria concluiu que violava os Padrões da Comunidade sobre discurso de ódio.

8.2 Conformidade com os valores do Facebook

A maioria do Comitê acredita que a restauração deste conteúdo está de acordo com os valores do Facebook. O Comitê reconheceu a sensibilidade da comunidade armênia em relação às declarações sobre as atrocidades em massa sofridas pelos armênios a partir de 1915, além da longa luta da comunidade para buscar o reconhecimento do genocídio e a justiça para essas atrocidades. No entanto, a maioria não encontra nenhuma evidência de que o meme, neste caso, representa um risco para a “Dignidade” e “Segurança” que justifique o afastamento de “Voz”. A maioria também observou a ampla referência do Facebook à “Segurança”, sem explicar como esse valor foi aplicado neste caso.

A minoria constatou que, embora a sátira deva ser protegida, como a maioria do Comitê corretamente afirmou, as declarações no comentário causam desrespeito às pessoas cujos ancestrais sofreram genocídio. A minoria também considerou as declarações desrespeitosas com a honra daqueles que foram massacrados e prejudicados, pois podem aumentar o risco de discriminação e violência contra os armênios. Por isso, a justificativa de afastamento da “Voz” para proteger a “Segurança” e a “Dignidade”.

8.3 Conformidade com as responsabilidades sobre direitos humanos do Facebook

Liberdade de expressão (Artigo 19 do PIDCP)

O artigo 19, parágrafo 2 do PIDCP oferece ampla proteção para a expressão de “todos os tipos”, incluindo “discurso político” escrito e não verbal, bem como “expressão cultural e artística”. O Comitê de Direitos Humanos da ONU deixou claro que a proteção do Artigo 19 se estende a expressões que podem ser consideradas “extremamente ofensivas” (Comentário Geral n.º 34, parágrafos 11, 12).

Neste caso, o Comitê concluiu que o desenho, na forma de um meme satírico, teve um posicionamento político: a posição do governo turco sobre o genocídio armênio. O Comitê observou que “os desenhos que assumem posições políticas” e “memes que zombam de figuras públicas” podem ser considerados formas de expressão artística protegidas pelo direito internacional dos direitos humanos (Relator Especial da ONU sobre liberdade de expressão, relatório A/HRC/44/49/Adendo 2, no parágrafo 5). O Comitê enfatizou ainda que o valor atribuído pelo PIDCP à expressão ampla a respeito de figuras públicas no domínio político e instituições públicas “é particularmente alto” (Comentário Geral nº. 34, parágrafo 38).

O Comitê também observou que as leis que estabelecem proibições gerais de expressões com opiniões ou interpretações incorretas de fatos históricos, muitas vezes justificadas por meio de referências a discurso de ódio, são incompatíveis com o Artigo 19 do PIDCP, exceto se constituírem incitação de hostilidade, discriminação ou violência nos termos do Artigo 20 do PIDCP (Comentário Geral 34, parágrafo 29; Relator Especial da ONU sobre liberdade de expressão, relatório A/74/486, parágrafo 22).

Embora o direito à liberdade de expressão seja fundamental, ele não é absoluto. Pode ser restrito, mas as restrições devem atender aos requisitos de legalidade, objetivo legítimo e necessidade e proporcionalidade (Artigo 19, parágrafo 3, PIDCP). O Facebook deve tentar alinhar suas políticas de moderação de conteúdo sobre discurso de ódio a esses princípios (Relator Especial da ONU sobre liberdade de expressão, relatório A/74/486, parágrafo 58(b)).

I. Legalidade

Quaisquer regras que restrinjam a expressão devem ser claras, precisas e acessíveis ao público, segundo o parágrafo 25 do Comentário geral n.º 34. As pessoas devem ter informações suficientes para determinar se e como seu discurso pode ser limitado e ajustar seu comportamento em conformidade. Os Padrões da Comunidade do Facebook “permitem conteúdo que inclui discurso de ódio de outra pessoa para condená-lo ou aumentar a conscientização”, mas pedem aos usuários que “indiquem claramente suas intenções”. Além disso, o Comitê também observou que o Facebook removeu uma exceção para humor de sua Política de discurso de ódio após uma Auditoria de direitos civis concluída em julho de 2020. Apesar dessa exceção ter sido removida, a empresa manteve uma exceção mais restrita para a sátira que atualmente não é informada aos usuários em seus Padrões da Comunidade sobre discurso de ódio.

O Comitê também observou que o Facebook informou de forma incorreta ao usuário que violou os Padrões da Comunidade sobre conteúdo cruel e insensível, quando o Facebook baseou sua aplicação na Política sobre Discurso de Ódio. O Comitê concluiu que não está claro o suficiente para os usuários que os Padrões da Comunidade sobre conteúdo cruel e insensível somente se aplicam ao conteúdo que retrata ou nomeia vítimas de danos.

Além disso, o Comitê concluiu que notificar adequadamente os usuários sobre as razões para aplicação contra eles ajudaria os usuários a seguir as regras do Facebook. Esta questão está relacionada à legalidade, já que a falta de informações relevantes para os usuários sujeitos à remoção de conteúdo “cria um ambiente de normas secretas, inconsistentes com os padrões de clareza, especificidade e previsibilidade” que pode interferir na “capacidade do indivíduo de contestar ações de conteúdo ou acompanhar reclamações relacionadas ao conteúdo”. (Relator Especial da ONU sobre liberdade de expressão, relatório A/HCR/38/35, parágrafo 58). Neste caso, a abordagem do Facebook para aviso ao usuário, portanto, não ocorreu no teste de legalidade.

II. Objetivo legítimo

Qualquer restrição à liberdade de expressão também deve ter um "objetivo legítimo". O Comitê concordou que a restrição tinha o objetivo legítimo de proteger os direitos de terceiros (Comentário Geral Nº 34, parágrafo 28). Também inclui os direitos à igualdade e à não discriminação, inclusive com base em etnia e nacionalidade (Artigo 2, parágrafo 1, PIDCP; Artigos 1 e 2, ICERD).

O Comitê também reafirmou que suas conclusões na decisão sobre o caso 2021-002-FB-UA que “não é um objetivo legítimo restringir a expressão com o único propósito de proteger indivíduos contra crimes (Relator Especial da ONU sobre a liberdade de expressão, relatório A/74/486, parágrafo 24, pois o valor que a lei internacional dos direitos humanos atribui à expressão ampla é alto (Comentário Geral N°. 34, parágrafo 38)”.

III. Necessidade e proporcionalidade

Qualquer restrição à liberdade de expressão “deve ser apropriada para cumprir sua função protetora; deve ser o instrumento menos intrusivo entre aqueles que podem cumprir sua função protetora; deve ser proporcional ao interesse a ser protegido”, de acordo com o parágrafo 34 do Comentário geral n.º 34.

O Comitê avaliou se a remoção de conteúdo era necessária para proteger os direitos dos armênios à igualdade e à não discriminação. O Comitê observou que a liberdade de expressão enfrenta atualmente restrições relevantes na Turquia, com efeitos desproporcionais sobre as minorias étnicas que vivem no país, incluindo os armênios. Em um relatório sobre sua missão à Turquia em 2016, o Relator Especial da ONU sobre a liberdade de expressão concluiu que a censura está operando em “todos os lugares que são fundamentais para a vida democrática: a mídia, as instituições educacionais, o judiciário e os advogados, a burocracia governamental, o espaço político e as diversas regiões online da era digital” (Relator Especial da ONU sobre liberdade de expressão, relatório A/HRC/35/22/Adendo 3, parágrafo 7). No relatório de acompanhamento publicado em 2019, o Relator Especial da ONU mencionou que a situação não havia melhorado (Relator Especial da ONU para a liberdade de expressão, relatório A/HRC/41/35/Adendo 2, parágrafo 26).

As autoridades turcas têm como alvo específico a expressão que denuncia as atrocidades cometidas pelo Império Turco Otomano contra os armênios a partir de 1915. Em uma carta de alegação conjunta, uma série de procedimentos especiais da ONU mencionaram que o Artigo 301 do Código Penal turco parece constituir “um esforço deliberado para impedir o acesso à verdade sobre o que parece ser uma política de violência dirigida contra a comunidade armênia turca” e “o direito das vítimas à justiça e à reparação”. O Comitê também destacou o assassinato de Hrant Dink, em 2007, um jornalista de origem armênia que publicou uma série de artigos sobre a identidade de cidadãos turcos de origem armênia. Em um desses artigos, Dink discutiu a falta de reconhecimento do genocídio e como essa questão afeta a identidade dos armênios. Dink foi anteriormente considerado culpado por depreciar a “identidade turca” em seus escritos nos tribunais turcos. Em 2010, o Tribunal Europeu de Direitos Humanos concluiu que o veredicto de Dink e o fato das autoridades turcas não tomarem as medidas adequadas para proteger a sua vida constituíram uma violação da liberdade de expressão (ver Tribunal Europeu dos Direitos Humanos, Dink v Turkey, parágrafo 139).

A maioria do Comitê concluiu que a interferência do Facebook na liberdade de expressão do usuário foi equivocada. A remoção do comentário não protegeria os direitos dos armênios à igualdade e à não discriminação. O usuário não estava apoiando as declarações contrastadas no meme, mas atribuindo-as ao governo turco. Eles fizeram isso para condenar e aumentar a conscientização sobre a posição contraditória e egoísta do governo. A maioria constatou que os efeitos da sátira, como esse meme, seriam menores se as pessoas declarassem explicitamente sua intenção. O fato de que o meme de “dois botões” ou “luta diária” ter a intenção usual de ser cômico, mesmo que o assunto aqui seja sério, também contribuiu para a decisão da maioria.

A maioria também notou que o conteúdo foi compartilhado em inglês em uma página do Facebook com seguidores de vários países. Embora o meme possa ser mal interpretado por alguns usuários do Facebook, a maioria constatou que ele não aumenta o risco de os armênios estarem sujeitos à discriminação e à violência, especialmente porque o conteúdo é voltado para um público internacional. Concluíram que levar essa questão importante a um público internacional é de interesse público.

Além disso, o Comitê entendeu que remover informações sem justa causa pode não ser apropriado. A remoção do conteúdo exibida ao público por uma questão de interesse público exige razões particularmente importantes para que seja apropriada. Neste caso, o Comitê questionou a capacidade dos moderadores de conteúdo do Facebook de analisar este meme e partes semelhantes de conteúdo que contenham sátira. Os contratados devem seguir procedimentos adequados e ter tempo, recursos e apoio para avaliar o conteúdo satírico e o contexto relevante.

Embora apoie a opinião da maioria sobre a proteção da sátira na plataforma, a minoria não acredita que o conteúdo seja uma sátira. A minoria constatou que o usuário poderia apoiar as declarações contidas no meme e, portanto, praticar a discriminação contra os armênios. Portanto, a minoria considerou que os requisitos de necessidade e proporcionalidade foram atendidos neste caso. Na decisão sobre o caso 2021-002-FB-UA, o Comitê indicou a posição do Facebook de que o conteúdo que descreve o blackface seria removido, a menos que o usuário indicasse claramente sua intenção de condenar a prática ou aumentar a conscientização sobre ela. A minoria determinou que, da mesma forma, quando a natureza satírica do conteúdo não é óbvia, como neste caso, a intenção do usuário deve ser justificada. A minoria concluiu que, embora a sátira seja sobre ambiguidade, ela não deve ser ambígua em relação ao alvo do ataque, ou seja, o governo turco ou o povo armênio.

Direito a ser informado (Artigo 14, parágrafo 3(a), PIDCP)

O Comitê considerou que a notificação incorreta dada ao usuário sobre a regra de conteúdo específico violada implica o direito de ser informado no contexto do acesso à justiça (Artigo 14, parágrafo 3(a) do PIDCP). Ao restringir o direito de expressão de um usuário, o Facebook deve respeitar o devido processo e informar o usuário com precisão sobre a base de sua decisão, inclusive analisando esse aviso quando o motivo for alterado (Comentário Geral nº 32, parágrafo 31). Neste caso, o Facebook deixou de cumprir com esta responsabilidade.

9. Decisão do Comitê de Supervisão

O Comitê de Supervisão revoga a decisão do Facebook de remover o conteúdo e exige que o conteúdo seja restaurado.

10. Declaração de parecer consultivo

As recomendações abaixo estão numeradas e o Comitê solicita que o Facebook forneça uma resposta individual a cada uma delas, conforme o redigido:

Envio de notificações claras e precisas aos usuários

Para tornar as políticas e a aplicação mais claras para os usuários, o Facebook deve:

1. Fazer ajustes técnicos que garantam que a notificação aos usuários se refere aos Padrões da Comunidade aplicados pela empresa. Se o Facebook determinar que (i) o conteúdo não viola os Padrões da Comunidade notificado ao usuário e (ii) que o conteúdo viola um Padrão da Comunidade diferente, o usuário deve ser devidamente notificado e ter outra oportunidade de apelação. O usuário deve sempre ter acesso às informações corretas antes de recorrer ao Comitê.

2. Incluir a exceção de sátira, que não foi atualmente informada aos usuários, em linguagem acessível dos Padrões da Comunidade sobre discurso de ódio.

Ter ferramentas adequadas para lidar com questões de sátira

Para melhorar a precisão do monitoramento de suas políticas de conteúdo e benefício dos usuários, o Facebook deve:

3. Confirmar que há procedimentos adequados em vigor para avaliar o conteúdo satírico e o contexto relevante de forma adequada. Isso inclui fornecer aos moderadores de conteúdo: (i) acesso às equipes de operação local do Facebook para coletar informações culturais e históricas relevantes e (ii) tempo suficiente para consultar as equipes de operação local do Facebook e fazer a avaliação. O Facebook deve garantir que suas políticas para moderadores de conteúdo incentivem mais investigação ou encaminhamento quando um moderador de conteúdo não tiver certeza se um meme é satírico ou não.

Permitir que os usuários informem que seu conteúdo está dentro das exceções da política

Para melhorar a precisão da análise do Facebook na fase de apelação, a empresa deve:

4. Permitir que os usuários indiquem na apelação que seu conteúdo se enquadra em uma das exceções à Política de discurso de ódio. Isso inclui exceções para conteúdo satírico e onde os usuários compartilham conteúdo de ódio para condená-lo ou aumentar a conscientização.

5. Confirmar que as apelações com base nas exceções da política tenham prioridade na análise humana.

*Nota processual:

As decisões do Comitê de Supervisão são preparadas por grupos com cinco membros e aprovadas pela maioria do Comitê. As decisões do Comitê não representam, necessariamente, as opiniões pessoais de todos os membros.

Para a decisão sobre o caso em apreço, uma pesquisa independente foi contratada em nome do Comitê. Um instituto de pesquisa independente, com sede na Universidade de Gotemburgo e com uma equipe de mais de 50 cientistas sociais de seis continentes, bem como mais de 3.200 especialistas de nações do mundo todo, forneceu informações especializadas sobre contexto sociopolítico e cultural. A empresa Lionbridge Technologies, LLC, cujos especialistas são fluentes em mais de 350 idiomas e trabalham de 5.000 cidades pelo mundo, forneceu a consultoria linguística.

Voltar para Decisões de Casos e Pareceres Consultivos sobre Políticas