Anúncio dos próximos casos do Comitê e das alterações em nossos regulamentos internos

Hoje, o Comitê está anunciando novos casos, assim como alterações nos regulamentos internos que regem nosso trabalho.

Seleção dos casos

Desde que começamos a aceitar casos em outubro de 2020, mais de 220 mil apelações foram recebidas pelo Comitê. Como não podemos analisar todas as apelações, estamos priorizando os casos com potencial de afetar muitos usuários no mundo todo, com importância crucial para o discurso público ou que suscitam questões importantes em relação às políticas do Facebook.

Os casos que estamos anunciando hoje são:

2021-004-FB-UA

Caso encaminhado por um usuário

Envie um comentário público aqui.

Em janeiro de 2021, o Usuário A deixou um comentário resumindo sua experiência direta durante os recentes protestos em apoio ao líder da oposição russa Alexei Navalny. No comentário, o Usuário A chamou o Usuário B, que criticou os manifestantes, de “robô covarde comum” [банальный трусливый бот].

Em 24 de janeiro, o Usuário B comentou em uma publicação com várias fotos, um vídeo e um texto dos protestos em apoio a Alexei Navalny ocorridos em São Petersburgo e em toda a Rússia em 23 de janeiro. O Usuário B afirmou que não sabia o que tinha acontecido em São Petersburgo, mas que os manifestantes em Moscou eram todos crianças de escola, “retardados” mentais e que foram “usados”. Ele acrescentou que os manifestantes não representavam a voz do povo, mas sim uma “peça de teatro”. Outros usuários começaram a contestar essa opinião crítica sobre os manifestantes nos comentários.

O Usuário A contestou a afirmação do Usuário B. O Usuário A se identificou como pessoa de idade e alegou ter participado dos protestos em São Petersburgo com seus colegas e filhos adultos. O Usuário A afirmou que havia tantos manifestantes que ele se perdeu das pessoas que estavam com ele na multidão. Ele disse que viu manifestantes de idade e com deficiência. Ele expressou orgulho pelos jovens que participaram dos protestos e negou a afirmação de que foram manipulados. Em suas palavras finais, o Usuário A chamou o Usuário B de “robô covarde comum” [“банальный трусливый бот”].

O Usuário B foi a única pessoa que denunciou o comentário. O Facebook o removeu de acordo com seu Padrão da Comunidade sobre bullying e assédio, que estabelece a remoção de conteúdo destinado a degradar ou envergonhar indivíduos. Em alguns casos, o Facebook exige que a denúncia seja feita pela própria pessoa que foi alvo do bullying ou do assédio.

Como parte de sua apelação, o Usuário A explicou ao Comitê que tinha compartilhado sua experiência direta nos protestos e que estava respondendo a uma informação claramente falsa. Ele acrescentou que acreditava que o Usuário B era um “robô que trabalha cumprindo ordens sem ser testemunha e participante dos acontecimentos”. O Usuário A também indicou que sua opinião sobre esse usuário não tinha mudado, que o termo “robô” não era uma “palavra suja” e que ele não apoiava o terrorismo nem qualquer ação ilegal.

O Comitê gostaria de receber comentários públicos que abordassem:

  • Se a decisão do Facebook cumpriu com seu Padrão da Comunidade sobre bullying e assédio.
  • Se o Padrão da Comunidade sobre bullying e assédio e a decisão do Facebook cumpriram com seus valores e responsabilidades em relação aos direitos humanos, considerando tanto a importância da liberdade de expressão quanto a necessidade de garantir respostas em escala a danos causados por bullying e assédio.
  • As informações contextuais a respeito da aceitação ou do uso comum de termos equivalentes a “банальный трусливый бот” (“robô covarde comum”) na discussão de tópicos emotivos nas redes sociais, especificamente no idioma russo.
  • Qualquer impacto do monitoramento dos Padrões da Comunidade feito pelo Facebook em opiniões políticas minoritárias ou dissidentes em contextos em que os governos frequentemente restringem a expressão crítica.
  • Pesquisa sobre campanhas de desinformação contra participantes dos protestos de janeiro na Rússia e como ela é disseminada nas redes sociais, incluindo evidência de qualquer comportamento não autêntico coordenado e das pessoas envolvidas.

2021-005-FB-UA

Caso encaminhado por um usuário

Envie um comentário público aqui.

Em dezembro de 2020, um usuário do Facebook nos Estados Unidos publicou um comentário com uma adaptação do meme “dois botões”. Esse meme mostrava o mesmo desenho em tela dividida do meme original, mas com o rosto do personagem do desenho substituído por uma bandeira da Turquia. O personagem do desenho está com a mão direita na cabeça e parece estar suando. Acima do personagem, na outra metade da tela dividida, há dois botões vermelhos com os rótulos correspondentes, em inglês: “The Armenian Genocide is a lie” (“O Genocídio Armênio é uma mentira”) e “The Armenians were terrorists who deserved it” (“Os armênios eram terroristas que mereceram”). Antes e depois do meme, havia um emoji de “cara pensativa”.

O comentário do usuário foi em resposta a uma publicação com uma imagem de uma pessoa usando um niqab e um texto sobreposto em inglês que dizia: “Not all prisoners are behind bars” (“Nem todos os prisioneiros estão atrás das grades”). Neste momento, o Comitê não tem acesso a todos os comentários de intervenção, e o meme pode ter sido uma resposta a um desses comentários de intervenção.

O Facebook removeu a publicação de acordo com seu Padrão da Comunidade sobre conteúdo cruel e insensível após uma denúncia de outro usuário do Facebook. Segundo esse padrão, o Facebook remove conteúdo “direcionado a vítimas de danos físicos ou emocionais graves”, incluindo “tentativas explícitas de zombar de vítimas e tentativas implícitas indicadas como cruéis, muitas delas sob a forma de memes e GIFs”. Posteriormente, o Facebook reclassificou a remoção de acordo com seu Padrão da Comunidade sobre discurso de ódio.

O usuário afirma em sua apelação ao Facebook que os “acontecimentos históricos não devem ser censurados” e que seu comentário não teve a intenção de ofender, mas de destacar “a ironia de um acontecimento histórico específico”. O usuário também presume que o Facebook interpretou de forma equivocada seu comentário como um ataque. Ele afirma, ainda, que, mesmo que o conteúdo invoque “religião e guerra”, não é um “tema polêmico”. Além disso, o usuário considera o Facebook e suas políticas excessivamente restritivos e argumenta que o “humor, como muitas coisas, é subjetivo, e algo ofensivo para uma pessoa pode ser engraçado para outra”.

O Comitê gostaria de receber comentários públicos que abordassem:

  • A decisão do Facebook de remover a publicação foi coerente com o Padrão da Comunidade do Facebook sobre conteúdo cruel e insensível, especificamente a regra contra tentativas explícitas e implícitas de zombar de vítimas?
  • A decisão do Facebook de remover a publicação foi coerente com o Padrão da Comunidade do Facebook sobre discurso de ódio, por exemplo, com a regra sobre zombar de vítimas de um crime de ódio?
  • Se a decisão do Facebook de remover a publicação é coerente com as responsabilidades em relação aos direitos humanos e os valores declarados da empresa.
  • Qualquer informação específica de pessoas com conhecimento sobre o contexto social, político e cultural na Armênia, na Turquia e em comunidades refugiadas a respeito da provável intenção e impacto da publicação.
  • Como o Facebook pode e deve levar em consideração o humor e/ou a sátira no monitoramento de suas políticas.
  • Pesquisa sobre o discurso atual a respeito dos acontecimentos indicados no meme, incluindo os efeitos da supressão desse tipo de discurso, por iniciativa do Facebook ou como consequência de ação governamental.

Comentários públicos

Se você ou sua organização achar que pode contribuir com perspectivas valiosas capazes de ajudar na deliberação desses casos, poderá enviar contribuições usando os links acima.

Com a conclusão da primeira série de casos do Comitê, estamos repetindo e aprimorando o processo de comentários públicos com base no feedback compartilhado por participantes. Como parte disso, estamos ampliando para 14 dias o período de comentários públicos para todos os casos. Com isso, esperamos que o maior número possível de pessoas e organizações tenha a chance de se engajar com o trabalho do Comitê.

Em função dessas alterações, o período de comentários públicos para casos anunciados hoje terminará às 15h UTC de terça-feira, 16 de março de 2021.

Atualização em nossos regulamentos internos

Também estamos realizando uma série de alterações em nossos regulamentos internos para nos tornar mais eficazes como organização. Sendo assim, hoje estamos anunciando alterações nos cronogramas em relação a como os casos são decididos e implementados.

Nossos regulamentos internos estabeleciam um prazo de 90 dias para que os casos sejam decididos pelo Comitê e implementados pelo Facebook. Esse prazo começava após a última decisão do Facebook sobre um caso. De acordo com os regulamentos internos revisados, esse período de 90 dias começa quando o Comitê atribui um caso ao painel. Essa atualização ajudará a garantir que todos os casos tenham o mesmo tempo para deliberação, independentemente de o caso ter sido indicado ao Comitê pelo Facebook ou por um usuário.

Futuras alterações ajudarão o Comitê a avançar rapidamente ao decidir casos indicados pelo Facebook com análise célere, que deverão ser concluídos em até 30 dias. Por exemplo, os copresidentes, após reunião com o diretor do Comitê, agora podem garantir que os casos céleres sejam atribuídos aos painéis capazes de deliberar no prazo de 30 dias. Os painéis também poderão reduzir o tempo que um usuário tem para enviar sua declaração.

Você pode ler nossos regulamentos internos atualizados na íntegra aqui.

Próximos passos

Nas próximas semanas, os membros do Comitê deliberarão sobre os casos anunciados hoje. Depois que eles chegarem às decisões finais, nós as publicaremos no site do Comitê de Supervisão.

Voltar às Notícias