Anulado
Imagem depreciativa de candidatos às eleições dos EUA
23 de Outubro de 2024
Um usuário apelou da decisão da Meta de remover conteúdo contendo uma representação alterada e depreciativa da candidata à Presidência dos EUA, Kamala Harris, e de seu companheiro de chapa, Tim Walz.
As decisões sumárias examinam casos em que a Meta reverteu a decisão original dela sobre um conteúdo depois que o Comitê o levou à atenção da empresa e incluem informações sobre os erros reconhecidos por ela. Elas são aprovadas por um painel de membros do Comitê, e não por ele inteiro, não envolvem comentários públicos e não têm valor precedente para o Comitê. As decisões sumárias geram mudanças diretas nas decisões da Meta, proporcionando transparência nessas correções e identificando em que área a empresa poderia melhorar seu monitoramento.
Resumo
Um usuário apelou da decisão da Meta de remover conteúdo contendo uma representação alterada e depreciativa da candidata à Presidência dos EUA, Kamala Harris, e de seu companheiro de chapa, Tim Walz. Depois que o Comitê levou a apelação à atenção da Meta, a empresa reverteu a decisão original e restaurou a publicação.
Sobre o caso
Em agosto de 2024, um usuário do Facebook publicou uma imagem alterada com base no pôster do filme de comédia de 1994 “Debi & Lóide”. Na imagem alterada, o rosto dos atores originais é substituído pelo da candidata à Presidência dos EUA, a vice-presidente Kamala Harris, e de seu companheiro de chapa, o governador de Minnesota, Tim Walz. Assim como no pôster original, as duas pessoas estão puxando os mamilos uma da outra por cima da roupa. O conteúdo foi publicado com uma legenda que inclui os emojis “🤷♂️🖕🖕”. A Meta inicialmente removeu a publicação do usuário do Facebook conforme seus Padrões da Comunidade sobre Bullying e Assédio, que proíbe “photoshop ou desenhos sexualizados depreciativos”. Quando o Comitê levou o caso à atenção da Meta, a empresa determinou que a remoção do conteúdo foi incorreta, restaurando a publicação no Facebook. A Meta explicou que seus Padrões da Comunidade foram seguidos nesse caso porque a empresa não considera o ato de puxar o mamilo de uma pessoa por cima da roupa como atividade sexual.
Autoridade e escopo do Comitê
O Comitê tem autoridade para analisar a decisão da Meta após uma apelação do usuário cujo conteúdo foi removido (Artigo 2, Seção 1 do Estatuto; e Seção 1 do Artigo 3 dos Regulamentos Internos).
Quando a Meta reconhece que cometeu um erro e reverte a decisão em um caso sob consideração para análise do Comitê, ele pode selecionar esse caso para uma decisão sumária (Artigo 2, Seção 2.1.3 dos Regulamentos Internos). O Comitê analisa a decisão original para aumentar a compreensão do processo de moderação de conteúdo, reduzir erros e aumentar a justiça para os usuários do Facebook, do Instagram e do Threads.
Significância do caso
No caso Imagens explícitas de figuras públicas femininas criados por IA, o Comitê decidiu que duas imagens geradas por IA não seguiram a regra da Meta que proíbe “photoshop sexualizado depreciativo” conforme a Política sobre Bullying e Assédio. Ambas as imagens foram editadas para mostrar o rosto de figuras públicas reais com o corpo nu diferente (real ou fictício). Nesse caso, no entanto, o Comitê destaca a overenforcement (aplicação excessiva) da Política sobre Bullying e Assédio da Meta com relação à sátira e ao discurso político na forma de uma representação depreciativa não sexualizada de figuras políticas. Ele também aponta para os perigos que a overenforcement da Política sobre Bullying e Assédio pode representar, especialmente no contexto de uma eleição, pois pode levar à remoção excessiva de discursos políticos e prejudicar a capacidade de criticar autoridades governamentais e candidatos políticos, inclusive de forma sarcástica. Essa publicação nada mais é do que uma imagem satírica comum de políticos importantes e é instantaneamente reconhecida como tal. No contexto das eleições, o Comitê recomendou anteriormente que a Meta desenvolvesse uma estrutura para avaliar seus esforços de integridade eleitoral, a fim de fornecer à empresa dados relevantes para melhorar seu sistema de moderação de conteúdo como um todo e decidir como melhor empregar seus recursos em contextos eleitorais (Discurso de general brasileiro, recomendação n.º 1). A Meta relatou progresso na implementação dessa recomendação. No entanto, a falha da empresa em reconhecer a natureza dessa publicação e lidar com ela adequadamente levanta sérias preocupações sobre os sistemas e recursos que a Meta tem em vigor para efetivamente fazer determinações de conteúdo nesses contextos eleitorais.
O Comitê já havia solicitado à Meta que implementasse procedimentos adequados para avaliar o conteúdo em seu contexto relevante. Por exemplo, o Comitê declarou que a Meta deveria: “Verificar se possui procedimentos adequados para avaliar adequadamente o conteúdo satírico e o contexto relevante” (Meme “dois botões”, recomendação n.º 3). A Meta relatou a implementação dessa recomendação, mas ainda não publicou informações para demonstrar isso.
O Comitê também declarou que os Padrões da Comunidade sobre Bullying e Assédio deve “explicar claramente aos usuários como o bullying e o assédio diferem do discurso que apenas ofende e pode ser protegido pela lei internacional de direitos humanos” (Protestos a favor de Navalny na Rússia, recomendação n.º 2). A empresa se recusou a implementar essa recomendação após analisar a viabilidade. Por fim, o Comitê declarou que a Meta deveria: “Incluir exemplos ilustrativos de conteúdo violador e não violador nos Padrões da Comunidade sobre Bullying e Assédio a fim de esclarecer os princípios traçados e como essas distinções podem depender do status de identidade do alvo,” (Protestos a favor de Navalny na Rússia, recomendação n.º 4). A Meta se recusou a implementar essa recomendação após realizar uma avaliação de viabilidade.
O Comitê acredita que a implementação completa dessas recomendações, que exigem uma avaliação eficaz do contexto e o desenvolvimento de uma estrutura de integridade eleitoral, contribuiria para diminuir o número de erros de aplicação.
Decisão
O Comitê revoga a decisão original da Meta de remover o conteúdo. Além disso, após levar o caso ao conhecimento da empresa, reconhece que ela corrigiu o erro inicial.
Voltar para Decisões de Casos e Pareceres Consultivos sobre Políticas