Anulado

Suprema Corte usando capuzes brancos

Um usuário apelou da decisão da Meta de remover uma publicação do Facebook que continha uma imagem editada da Suprema Corte dos Estados Unidos, retratando seis de nove membros usando túnicas da Ku Klux Klan.

Tipo de decisão

Resumo

Políticas e tópicos

विषय
Humor, Liberdade de expressão, Política
Padrão da comunidade
Indivíduos e organizações perigosos

Regiões/países

Localização
Estados Unidos

Plataforma

Plataforma
Facebook

Esta é uma decisão sumária. As decisões sumárias examinam os casos em que a Meta reverteu a decisão original dela sobre um conteúdo depois que o Comitê o levou à atenção da empresa. Essas decisões incluem informações sobre os erros reconhecidos pela Meta, informam o público sobre o impacto do trabalho do Comitê e são aprovadas por um painel de Membros dele, não por ele inteiro. Elas não envolvem um processo de comentários públicos e não têm valor precedente para o Comitê. As decisões sumárias dão transparência às correções da Meta e destacam áreas em que a empresa poderia melhorar a aplicação de suas políticas.

Resumo do caso

Um usuário apelou da decisão da Meta de remover uma publicação do Facebook que continha uma imagem editada da Suprema Corte dos Estados Unidos, retratando seis de nove membros usando túnicas da Ku Klux Klan. Depois que o Comitê levou a apelação à atenção da Meta, a empresa reverteu a decisão original e restaurou a publicação.

Descrição do caso e histórico

Em julho de 2023, um usuário publicou uma imagem editada no Facebook que retratava seis juízes da Suprema Corte dos Estados Unidos como membros da Ku Klux Klan, enquanto os três juízes considerados mais liberais não foram alterados. A publicação não tinha legenda e recebeu menos de 200 visualizações.

Ela foi removida por não seguir a Política sobre Organizações e Indivíduos Perigosos da Meta. Essa política proíbe conteúdo que contenha elogios, apoio substancial ou representação de organizações ou indivíduos que a Meta considere perigosos.

Em sua apelação ao Comitê, o usuário enfatizou que a publicação tinha a intenção de ser uma crítica política e não um endosso à Ku Klux Klan. O usuário afirmou que o conteúdo destaca o que ele considera como “the six justices’ prejudicial, hateful, and destructive attitudes toward women, women’s rights to choose abortions, the gay, lesbian, transgender and queer communities, and the welfare of other vulnerable groups” (as atitudes prejudiciais, odiosas e destrutivas dos seis juízes em relação às mulheres, aos direitos delas de optar pelo aborto, às comunidades de gays, lésbicas, transgêneros e queer e ao bem-estar de outros grupos vulneráveis).

Depois que o Comitê trouxe esse caso à atenção da Meta, a empresa determinou que o conteúdo seguia sua Política sobre Organizações e Indivíduos Perigosos e que a remoção da publicação estava incorreta. A empresa então restaurou o conteúdo no Facebook.

Autoridade e escopo do Comitê

O Comitê tem autoridade para analisar a decisão da Meta após uma apelação do usuário cujo conteúdo foi removido (Artigo 2, Seção 1 do Estatuto; e Artigo 3, Seção 1 dos Regulamentos Internos).

Quando a Meta reconhece que cometeu um erro e reverte a decisão em um caso sob consideração para análise do Comitê, ele pode selecionar esse caso para uma decisão sumária (Artigo 2, Seção 2.1.3 dos Regulamentos Internos). O Comitê analisa a decisão original para aumentar a compreensão do processo de moderação de conteúdo envolvido, reduzir erros e aumentar a justiça para os usuários do Facebook e do Instagram.

Significância do caso

O caso destaca um erro na aplicação, por parte da Meta, da Política sobre Organizações e Indivíduos Perigosos, especificamente em relação ao conteúdo compartilhado como crítica política. A persistência de erros semelhantes pode limitar significativamente a liberdade essencial de expressão dos usuários, e a empresa deve priorizar a redução desses erros.

O Padrão da Comunidade para Organizações e Indivíduos Perigosos é a origem de muitas remoções equivocadas e foi abordado em várias decisões anteriores do Comitê. Em uma decisão anterior, ele solicitou à Meta que “explicasse, nos Padrões da Comunidade, como os usuários podem deixar claro para o Facebook a intenção deles nas publicações”. Ele também recomendou que a empresa divulgasse publicamente sua lista de indivíduos e organizações designados, e que “o Facebook também deveria fornecer exemplos ilustrativos para demonstrar o limite entre o conteúdo permitido e o proibido, inclusive em relação à aplicação da regra que esclarece o que ‘apoio’ exclui” (Decisão sobre o caso Isolamento de Öcalan, recomendação n.º 6). A Meta se comprometeu com a implementação parcial dessa recomendação. Além disso, o Comitê solicitou que a Meta “incluísse informações mais abrangentes sobre as taxas de erros na aplicação de regras sobre ‘elogio’ e ‘apoio’ de organizações e indivíduos perigosos” (Decisão sobre o caso Isolamento de Öcalan, recomendação n.º 12). A empresa se recusou a implementar essa recomendação após analisar a viabilidade.

O Comitê destaca que a implementação completa dessas recomendações poderia reduzir o número de erros na aplicação da Política sobre Organizações e Indivíduos Perigosos da Meta.

Decisão

O Comitê revoga a decisão original da Meta de remover o conteúdo. Além disso, após levar o caso ao conhecimento da empresa, reconhece que ela corrigiu o erro inicial.

Voltar para Decisões de Casos e Pareceres Consultivos sobre Políticas