Decisão de múltiplos casos

Citação de Goebbels

Nessa decisão sumária, o Comitê considera quatro publicações em conjunto. Quatro usuários distintos apelaram das decisões da Meta de remover publicações que continham uma citação atribuída a Joseph Goebbels.

4 casos incluídos neste pacote

Anulado

FB-EZ2SSLB1

Caso sobre organizações e indivíduos perigosos no Facebook

Plataforma
Facebook
विषय
Liberdade de expressão,Desinformação
Padrão
Indivíduos e organizações perigosos
Localização
Canadá,Reino Unido,Estados Unidos
Date
Publicado em 18 de Dezembro de 2023
Anulado

FB-GI0MEB85

Caso sobre organizações e indivíduos perigosos no Facebook

Plataforma
Facebook
विषय
Liberdade de expressão,Desinformação
Padrão
Indivíduos e organizações perigosos
Localização
Alemanha,Estados Unidos
Date
Publicado em 18 de Dezembro de 2023
Anulado

FB-2X73FNY9

Caso sobre organizações e indivíduos perigosos no Facebook

Plataforma
Facebook
विषय
Liberdade de expressão,Desinformação
Padrão
Indivíduos e organizações perigosos
Localização
Austrália
Date
Publicado em 18 de Dezembro de 2023
Anulado

FB-PFP42GAJ

Caso sobre organizações e indivíduos perigosos no Facebook

Plataforma
Facebook
विषय
Liberdade de expressão,Desinformação
Padrão
Indivíduos e organizações perigosos
Localização
Estados Unidos
Date
Publicado em 18 de Dezembro de 2023

Esta é uma decisão sumária. As decisões sumárias examinam os casos em que a Meta reverteu a decisão original dela sobre um conteúdo depois que o Comitê o levou à atenção da empresa. Essas decisões incluem informações sobre os erros reconhecidos pela Meta, informam o público sobre o impacto do trabalho do Comitêe são aprovadas por um painel de Membros dele, não por ele inteiro. Elas não envolvem um processo de comentários públicos e não têm valor precedente para o Comitê. As decisões sumárias dão transparência às correções da Meta e destacam áreas em que a empresa poderia melhorar a aplicação de suas políticas.

Resumo do caso

Nessa decisão sumária, o Comitê considera quatro publicações em conjunto. Quatro usuários distintos apelaram das decisões da Meta de remover publicações que continham uma citação atribuída a Joseph Goebbels, o chefe de propaganda nazista. Cada publicação compartilhava a citação para criticar a disseminação de informações falsas atualmente. Após o Comitê levar essas duas apelações à atenção da Meta, a empresa reverteu suas decisões originais e restaurou cada uma das publicações.

Descrição do caso e histórico

As quatro publicações contêm uma variação da mesma citação atribuída a Joseph Goebbels, que afirma: “A lie told once remains a lie, but a lie told a thousand times becomes the truth” (Uma mentira contada uma vez continua sendo mentira, mas uma mentira contada mil vezes torna-se verdade). Cada usuário adicionou uma legenda para acompanhar a citação. As legendas contêm as opiniões dos usuários sobre os paralelos históricos percebidos entre a Alemanha nazista e o discurso político atual, bem como as ameaças à liberdade de expressão representadas pela normalização de informações falsas.

A Meta removeu originalmente as quatro publicações do Facebook, citando sua Política sobre Organizações e Indivíduos Perigosos, segundo a qual a empresa remove conteúdo que “elogie”, “apoie substancialmente” ou “represente” indivíduos e organizações que designa como perigosos, incluindo o partido nazista. A política permite conteúdo que discuta sobre uma organização ou um indivíduo perigoso de forma neutra ou que condene suas ações.

Os quatro usuários apelaram da decisão de remoção de seu conteúdo ao Comitê. Em suas apelações, cada um deles afirmou que incluiu a citação não para apoiar Joseph Goebbels ou o partido nazista, mas para criticar o efeito negativo de informações falsas nos seus sistemas políticos. Também destacaram a relevância das lições históricas em relação aos perigos da propaganda.

Depois que o Comitê levou esses casos à atenção da Meta, a empresa determinou que o conteúdo não violava a Política sobre Organizações e Indivíduos Perigosos da Meta e as remoções das quatro publicações estavam incorretas. A empresa então restaurou o conteúdo no Facebook. Ela afirmou que o conteúdo não continha qualquer apoio ao partido nazista, mas incluía descrições da “campanha do regime nazista para normalizar mentiras, a fim de destacar a importância da ética e dos padrões epistêmicos para a liberdade de expressão”.

Autoridade e escopo do Comitê

O Comitê tem autoridade para analisar as decisões da Meta após apelações da pessoa cujo conteúdo foi removido (Artigo 2, Seção 1 do Estatuto; e Artigo 3, Seção 1 dos Regulamentos Internos).

Quando a Meta reconhece que cometeu um erro e reverte a decisão em um caso sob consideração para análise do Comitê, ele pode selecionar esse caso para uma decisão sumária (Artigo 2, Seção 2.1.3 dos Regulamentos Internos). O Comitê analisa a decisão original para aumentar a compreensão do processo de moderação de conteúdo envolvido, reduzir erros e aumentar a justiça para os usuários do Facebook e do Instagram.

Significância do caso

Esses casos destacam a incapacidade da Meta de distinguir referências de apoio a organizações que ela designa como perigosas, que são proibidas, e referências neutras ou condenatórias que a empresa permite. O Comitê já emitiu várias recomendações a respeito da Política sobre Organizações e Indivíduos Perigosos da Meta. Erros contínuos na aplicação das exceções desse Padrão da Comunidade parecem limitar significativamente a liberdade essencial de expressão dos usuários, tornando essa uma área crucial para futuras melhorias por parte da empresa.

Em uma decisão anterior, o Comitê recomendou que “a Meta deveria avaliar a precisão dos analistas que aplicam a permissão para reportagens de acordo com a Política sobre Organizações e Indivíduos Perigosos, a fim de identificar problemas sistêmicos que causam erros de aplicação” (Decisão do caso Menção ao Talibã em reportagens, recomendação n.º 5). Ele também instou a Meta a “realizar uma análise do classificador de substituição de falsos positivos de alto impacto (HIPO) para examinar se ela pode priorizar de forma mais eficaz possíveis erros na aplicação de permissões à Política sobre Organizações e Indivíduos Perigosos” (Decisão do caso Menção ao Talibã em reportagens, recomendação n.º 6). Esse sistema de classificação prioriza decisões de conteúdo para análise adicional, que a Meta usa para identificar casos em que agiu incorretamente, por exemplo, removendo conteúdo de forma indevida. A Meta ainda está avaliando a viabilidade dessa recomendação. E o Comitê pediu à Meta que “melhore a capacidade alocada à análise do HIPO em vários idiomas para garantir que mais decisões de conteúdo que possam ser erros de aplicação recebam análise humana adicional” (Decisão do caso Menção ao Talibã em reportagens, recomendação n.º 7). A empresa informou que essa recomendação é um processo que a empresa já realiza, sem publicar informações que demonstrem isso.

Além disso, o Comitê recomendou que a Meta “explique e forneça exemplos da aplicação de termos-chave usados na Política sobre Organizações e Indivíduos Perigosos, incluindo os significados de ‘elogio’, ‘apoio’ e ‘representações’”, e disse que essas explicações públicas “devem estar alinhadas com as definições usadas nos Padrões de Implementação Interna do Facebook” (Decisão do caso Citação nazista, recomendação n.º 2). A Meta implementou essa recomendação.

Como esses casos ilustram, o uso de uma analogia com uma figura notoriamente perigosa para efeitos de crítica a uma pessoa ou prática atual é uma forma comum e inteiramente legítima de discurso político. Esses quatro casos ilustram a necessidade de medidas mais eficazes, de acordo com as recomendações do Comitê.

Decisão

O Comitê revoga as decisões originais da Meta de remover o conteúdo. Além disso, após levar esses casos ao conhecimento da empresa, reconhece que ela corrigiu os erros iniciais.

Voltar para Decisões de Casos e Pareceres Consultivos sobre Políticas