Decisão de múltiplos casos

Estereótipos negativos de afro-americanos

O Comitê analisou três publicações no Facebook com conteúdo racista, que a Meta deixou ativas. Após o Comitê levar essas apelações à atenção da empresa, ela reverteu suas decisões originais e removeu as publicações.

3 casos incluídos neste pacote

Anulado

FB-LHBURU6Z

Caso sobre discurso de ódio no Facebook

Plataforma
Facebook
विषय
Discriminação,Raça e etnia
Padrão
Discurso de ódio
Localização
Estados Unidos
Date
Publicado em 18 de Abril de 2024
Anulado

FB-1HX5SN1H

Caso sobre discurso de ódio no Facebook

Plataforma
Facebook
विषय
Discriminação,Raça e etnia
Padrão
Discurso de ódio
Localização
Reino Unido,Estados Unidos
Date
Publicado em 18 de Abril de 2024
Anulado

FB-ZD01WKKW

Caso sobre discurso de ódio no Facebook

Plataforma
Facebook
विषय
Discriminação,Raça e etnia
Padrão
Discurso de ódio
Localização
Estados Unidos
Date
Publicado em 18 de Abril de 2024

Esta é uma decisão sumária. As decisões sumárias examinam casos em que a Meta reverteu a decisão original dela sobre um conteúdo depois que o Comitê o levou à atenção da empresa e incluem informações sobre os erros reconhecidos por ela. Elas são aprovadas por um painel de membros do Comitê, e não por ele inteiro, não envolvem comentários públicos e não têm valor precedente para o Comitê. As decisões sumárias geram mudanças diretas nas decisões da Meta, proporcionando transparência nessas correções e identificando em que área a empresa poderia melhorar sua aplicação.

Resumo

O Comitê analisou três publicações no Facebook com conteúdo racista, que a Meta deixou ativas. Cada publicação incluía uma caricatura ou imagem manipulada de afro-americanos que destaca estereótipos ofensivos, incluindo pais ausentes, assistência social e saqueadores em uma loja. Esses casos destacam erros no monitoramento, pela Meta, de suas Políticas sobre Discurso de Ódio e de Bullying e Assédio. Após o Comitê levar essas apelações à atenção da empresa, ela reverteu suas decisões originais e removeu as publicações.

Sobre os casos

No final de 2023, o Comitê recebeu três apelações separadas relativas a três imagens diferentes publicadas no Facebook, todas com conteúdo negativo sobre afro-americanos.

Na primeira publicação, que foi visualizada cerca de 500 mil vezes, um usuário publicou uma imagem gerada por computador de uma loja pegando fogo com pessoas negras retratadas como personagens de desenhos animados, vestindo moletons com capuz, carregando mercadorias e saindo correndo de uma loja. O nome da loja, Target, foi alterado para “Loot” (Saque) na imagem. Na legenda que acompanha, o usuário descreve a imagem como o próximo filme da Pixar.

A segunda publicação traz uma imagem gerada por computador que também imita um pôster de filme, com uma mulher negra com características físicas exageradas segurando um carrinho de compras cheio de Cheetos. O título do filme é “EBT”, que é o nome de um sistema de recebimento de benefícios de previdência social nos Estados Unidos. Na parte superior do pôster, no lugar dos nomes dos atores, estão os nomes Trayvon Martin e George Floyd, ambos afro-americanos vítimas de violência. Um baleado por um vigilante armado em 2012 e outro, morto pelas mãos da polícia em 2020 . Suas mortes ajudaram a desencadear protestos sobre as disparidades raciais no sistema de justiça dos EUA.

A terceira publicação, que foi visualizada cerca de 14 milhões de vezes, traz um meme afirmando que “Adobe has developed software that can detect photoshop in an image.” (a Adobe desenvolveu um software que pode detectar o Photoshop em uma imagem). Abaixo da afirmação, há a imagem de uma mulher com marcas coloridas em todo o rosto (normalmente usadas para mostrar a detecção de calor) para sugerir que partes da imagem foram alteradas. Isso contrasta com a imagem de uma família negra fazendo uma refeição em que o pai e a comida na mesa têm as mesmas marcações coloridas, o que implica que esses dois elementos foram adicionados por meio da edição. A publicação reforça o estereótipo negativo generalizado sobre a falta de uma figura paterna nas famílias negras nos Estados Unidos, que decorre de uma história complexa de racismo sistêmico e desigualdade econômica.

A Meta inicialmente deixou ativas todas as três publicações no Facebook, apesar das apelações dos usuários. Nas suas apelações ao Comitê, esses mesmos usuários argumentaram que o conteúdo representava estereótipos raciais prejudiciais dos afro-americanos.

Depois que o Comitê levou esses casos à atenção da Meta, a empresa determinou que cada publicação violava o Padrão da Comunidade sobre Discurso de Ódio, que proíbe ataques diretos contra pessoas com base em características protegidas, incluindo raça e etnia. A política também proíbe especificamente “colocar como alvo uma pessoa ou um grupo” com “discurso desumanizante” na forma de “comparações com criminosos, incluindo ladrões”, “zombar do conceito, eventos ou vítimas de crimes de ódio” e “generalizações que destacam inferioridade em ... características morais.”

Além disso, a Meta determinou que a segunda publicação que inclui os nomes de Trayvon Martin e George Floyd também violou o Padrão da Comunidade sobre Bullying e Assédio, no qual a empresa se baseia para remover “comemoração ou ridicularização da morte ou condição médica” de alguém. A empresa explicou que “a imagem inclui o nome de duas pessoas falecidas, Trayvon Martin e George Floyd… O conteúdo banaliza suas mortes ao sugerir que eles estrelarão um filme de animação fictício.”
Portanto, a empresa removeu todas as três publicações.

Autoridade e escopo do Comitê

O Comitê tem autoridade para analisar a decisão da Meta após uma apelação do usuário que denunciou que o conteúdo estava ativo (Artigo 2, Seção 1 do Estatuto; e Seção 1 do Artigo 3 dos Regulamentos Internos).

Quando a Meta reconhece que cometeu um erro e reverte a decisão em um caso sob consideração para análise do Comitê, ele pode selecionar esse caso para uma decisão sumária (Artigo 2, Seção 2.1.3 dos Regulamentos Internos). O Comitê analisa a decisão original para aumentar a compreensão do processo de moderação de conteúdo, reduzir erros e aumentar a justiça para os usuários do Facebook e do Instagram.

Significância dos casos

Esses casos destacam três situações em que a Meta não conseguiu aplicar, de forma eficaz, suas Políticas sobre Discurso de Ódio e de Bullying e Assédio, deixando ativas as publicações violadoras, apesar das reclamações dos usuários. Duas das publicações receberam um grande número de visualizações. Esses erros de moderação de under-enforcement (subaplicação) podem impactar negativamente as pessoas de grupos com características protegidas e contribuir para um ambiente de discriminação. O Comitê solicitou que a Meta tornasse a questão sobre discurso de ódio contra grupos marginalizados uma prioridade estratégica.

Em 2022, o Comitê emitiu uma recomendação de que a Meta deveria “esclarecer o Padrão da Comunidade sobre Discurso de Ódio e as orientações fornecidas aos analistas, explicando que até mesmo referências implícitas a grupos protegidos são proibidas pela política quando a referência puder ser razoavelmente compreendida” ( Animação Knin, recomendação n.º 1), sobre a qual Meta relatou implementação parcial.

Decisão

O Comitê revoga as decisões originais da Meta de deixar ativas as três publicações. Além disso, após levar esses casos ao conhecimento da empresa, ele reconhece que ela corrigiu os erros iniciais.

Voltar para Decisões de Casos e Pareceres Consultivos sobre Políticas