Anulado
Declaração sobre o Partido Comunista Chinês
1 de Agosto de 2024
Um usuário apelou da decisão da Meta de remover um comentário do Instagram pedindo a “morte” do Partido Comunista Chinês.
As decisões sumárias examinam casos em que a Meta reverteu a decisão original dela sobre um conteúdo depois que o Comitê o levou à atenção da empresa e incluem informações sobre os erros reconhecidos por ela. Elas são aprovadas por um painel de membros do Comitê, e não por ele inteiro, não envolvem comentários públicos e não têm valor precedente para o Comitê. As decisões sumárias geram mudanças diretas nas decisões da Meta, proporcionando transparência nessas correções e identificando em que área a empresa poderia melhorar seu monitoramento.
Resumo
Um usuário apelou da decisão da Meta de remover um comentário do Instagram pedindo a “morte” do Partido Comunista Chinês. Depois que o Comitê levou a apelação à atenção da Meta, a empresa reverteu a decisão original e restaurou a publicação.
Sobre o caso
Em março de 2024, um usuário do Instagram publicou um comentário dizendo: “Death to the Chinese Communist Party!” (Morte ao Partido Comunista Chinês!) seguido de emojis de caveira. Esse comentário foi feito em resposta a uma publicação de uma conta de um meio de comunicação, apresentando um vídeo de Wang Wenbin, um ex-porta-voz do Ministério das Relações Exteriores da China, condenando a aprovação de um projeto de lei na Câmara dos Representantes dos Estados Unidos que poderia impactar a presença do TikTok no país.
A Meta inicialmente removeu a publicação do usuário do Facebook conforme seus Padrões da Comunidade sobre Violência e Incitação, que proíbe “ameaças de violência”. A empresa explicou que a proibição inclui “determinadas incitações à morte se contiverem um alvo e um método de violência”.
Quando o Comitê levou esse caso à atenção da Meta, a empresa determinou que a remoção do comentário foi incorreta e restaurou o conteúdo no Instagram. A Meta esclareceu que, conforme explicado em suas diretrizes internas para analistas de conteúdo, incitações à morte de uma instituição como o Partido Comunista Chinês são tratadas como não violadoras.
Autoridade e escopo do Comitê
O Comitê tem autoridade para analisar a decisão da Meta após uma apelação do usuário cujo conteúdo foi removido (Artigo 2, Seção 1 do Estatuto; e Artigo 3, Seção 1 dos Regulamentos Internos).
Quando a Meta reconhece que cometeu um erro e reverte a decisão em um caso sob consideração para análise do Comitê, ele pode selecionar esse caso para uma decisão sumária (Artigo 2, Seção 2.1.3 dos Regulamentos Internos). O Comitê analisa a decisão original para aumentar a compreensão do processo de moderação de conteúdo, reduzir erros e aumentar a justiça para os usuários do Facebook, do Instagram e do Threads.
Significância do caso
Esse caso destaca uma inconsistência na forma como a Meta aplica sua Política sobre Violência e Incitação contra declarações metafóricas ou figurativas em um contexto político, o que pode impactar desproporcionalmente o discurso político que critica os estados e as instituições governamentais. O caso ressalta a importância de, ao projetar seus sistemas de moderação, a Meta levar em consideração o alvo do discurso (nesse caso, um partido político), bem como o uso que as pessoas fazem de discurso hiperbólico, retórico, irônico e satírico para criticar instituições.
Sobre o discurso retórico, o Comitê, no caso Poema russo, observou que trechos com linguagem violenta no poema “Mate-o!” podem ser lidos como “descrevendo, não encorajando, um estado de espírito”. O Comitê determinou que a linguagem foi empregada como um dispositivo retórico para transmitir a mensagem do usuário e que, como resultado, essa parte do conteúdo foi permitida pelas diretrizes internas da Meta na sua Política sobre Violência e Incitação.
Embora aborde Padrões da Comunidade diferentes (Discurso de Ódio) daqueles em questão nesse caso (Violência e Incitação), a decisão do caso Bot de Mianmar é relevante porque também diz respeito ao discurso direcionado a estados ou instituições políticas. Nele, o Comitê concluiu que, como os palavrões na publicação não tinham como alvo pessoas escolhidas com base em raça, etnia ou nacionalidade, mas sim um estado, ela seguia o Padrão da Comunidade sobre Discurso de Ódio. O Comitê enfatizou: “É crucial garantir que as proibições de se direcionar a pessoas com base em características protegidas não sejam interpretadas de forma a proteger governos ou instituições de críticas.”
O Comitê já havia pedido para a Meta implementar procedimentos adequados a fim de avaliar o conteúdo em seu contexto relevante (Meme “dois botões” , recomendação n.º 3). Ela também recomendou o seguinte: “Para informar melhor os usuários sobre os tipos de declarações que são proibidas, a Meta deve alterar os Padrões da Comunidade sobre Violência e Incitação para (i) explicar que ameaças retóricas como declarações de “morte a X” são geralmente permitidas, exceto quando o alvo da ameaça é uma pessoa de alto risco…” (Slogan de protesto no Irã, recomendação n.º 1); e “A Meta deve aplicar permissões quando (i) não houver probabilidade de gerar violência; (ii) o conteúdo potencialmente violador for usado em contextos de protesto; e (iii) o interesse público for grande” (Slogan de protesto no Irã, recomendação n.º 2).
A Meta relatou a implementação da recomendação do Meme “dois botões” e da recomendação n.º 2 da decisão do caso Slogan de protesto no Irã, mas não publicou informações para demonstrar isso. Para a recomendação n.º 1 do caso Slogan de protesto no Irã, na sua Atualização trimestral do Comitê do quarto trimestre de 2023, a Meta declarou: “Atualizamos nossos Padrões da Comunidade sobre Violência e Incitação fornecendo mais detalhes sobre o que constitui uma ‘ameaça’ e distinguindo nosso monitoramento com base no alvo. Como parte desse trabalho, também atualizamos as orientações internas.”
O Comitê acredita que a implementação integral dessas recomendações poderia contribuir para diminuir o número de erros de monitoramento no âmbito da Política sobre Violência e Incitação.
Decisão
O Comitê revoga a decisão original da Meta de remover o conteúdo. Além disso, após levar o caso ao conhecimento da empresa, reconhece que ela corrigiu o erro inicial.
Voltar para Decisões de Casos e Pareceres Consultivos sobre Políticas