O Comitê de Supervisão anula a decisão original da Meta no caso Publicação em polonês contra pessoas trans

OComitê de Supervisão anulou a decisão original da Meta de deixar ativa uma publicação no Facebook na qual um usuário se dirigia a pessoas transgênero com discurso violento, incitando que membros desse grupo cometessem suicídio. O Comitê considera que a publicação não seguiu os Padrões da Comunidade sobre Discurso de Ódio e Suicídio e Automutilação. No entanto, o problema fundamental nesse caso não é em relação às políticas, mas à aplicação. A falha repetida da Meta em tomar a medida de aplicação correta, apesar dos vários sinais sobre o conteúdo prejudicial da publicação, leva o Comitê a concluir que a empresa não está cumprindo os ideais que articulou sobre a segurança da comunidade LGBTQIA+. O Comitê recomenda que a Meta elimine as lacunas de aplicação, inclusive melhorando a orientação interna para os analistas.

Sobre o caso

Em abril de 2023, um usuário do Facebook na Polônia publicou uma imagem de uma cortina listrada nas cores azul, rosa e branca da bandeira transgênero, com um texto em polonês dizendo: “New technology … Curtains that hang themselves,” (Nova tecnologia... Cortinas que se penduram sozinhas) e, acima disso, “spring cleaning

Entre abril e maio de 2023, 11 usuários diferentes denunciaram a publicação 12 vezes, no total. Apenas duas das 12 denúncias foram priorizadas para análise humana pelos sistemas automatizados da Meta, e as demais foram fechadas. As duas denúncias enviadas para análise humana, por potencialmente não seguirem o Padrão sobre Suicídio e Automutilação do Facebook, foram avaliadas como não violadoras. Nenhuma das denúncias baseadas em discurso de ódio foi enviada para análise humana.

Três usuários apelaram da decisão da Meta de deixar ativa a publicação no Facebook, sendo que um recurso resultou na manutenção da decisão original por um analista humano com base no Padrão da Comunidade sobre Suicídio e Automutilação. As outras apelações, feitas de acordo com o Padrão da Comunidade sobre Discurso de Ódio, não foram enviadas para análise humana. Por fim, um dos usuários que originalmente denunciou o conteúdo fez uma apelação ao Comitê. Como resultado da seleção desse caso pelo Comitê, a Meta determinou que a publicação não seguiu as Políticas sobre Discurso de Ódio e Suicídio e Automutilação, removendo-a do Facebook. Além disso, a empresa desabilitou a conta do usuário que publicou o conteúdo por diversas violações anteriores.

Principais descobertas

O Comitê considera que o conteúdo violou a Política sobre Discurso de Ódio da Meta porque inclui "discurso violento" na forma de um incentivo à morte por suicídio de um grupo com característica protegida. A publicação, que incita o suicídio entre pessoas transgênero, criou uma atmosfera de intimidação e exclusão e poderia ter contribuído para danos físicos. Considerando a natureza do texto e da imagem, a publicação também exacerbou a crise de saúde mental vivida pela comunidade transgênero. Um relatório recente da Gay and Lesbian Alliance Against Defamation (GLAAD) observa "o impacto psicológico traumático de sofrer exposição incessante a calúnias e condutas de ódio" online. O Comitê encontra apoio adicional para sua conclusão no contexto mais amplo de danos online e offline que a comunidade LGBTQIA+ está enfrentando na Polônia, incluindo ataques e retórica política por parte de figuras públicas e governamentais influentes.

O Comitê está preocupado com o fato de os analistas humanos da Meta não terem percebido as pistas contextuais. A referência da publicação ao risco elevado de suicídio (“curtains that hang themselves” [cortinas que se penduram sozinhas]) e o apoio à morte do grupo (“spring cleaning” [limpeza de primavera]) foram violações claras do Padrão da Comunidade sobre Discurso de Ódio, enquanto a autoidentificação do criador do conteúdo como transfóbico, por si só, equivaleria a outra violação. O Comitê pede que a Meta melhore a precisão do monitoramento do discurso de ódio contra pessoas LGBTQIA+, especialmente quando as publicações incluem imagens e textos que exigem interpretação do contexto. Nesse caso, as referências razoavelmente codificadas ao suicídio em conjunto com a representação visual de um grupo protegido (a bandeira transgênero) assumiram a forma de "criatividade maligna". Isso se refere a indivíduos mal-intencionados que desenvolvem novos meios de atingir a comunidade LGBTQIA+ por meio de publicações e memes que eles defendem como "humorísticos ou satíricos", mas que na verdade contêm ódio ou assédio.

Além disso, o Comitê está preocupado com a declaração da Meta de que a falha dos analistas humanos em remover o conteúdo está alinhada com uma aplicação rigorosa das suas diretrizes internas. Isso indicaria que a orientação interna da empresa capta inadequadamente como o texto e a imagem podem interagir para representar um grupo definido pela identidade de gênero dos seus membros.

Embora a publicação também não tenha seguido claramente o Padrão da Comunidade sobre Suicídio e Automutilação do Facebook, o Comitê considera que essa política deveria proibir de forma mais clara o conteúdo que promove o suicídio direcionado a um grupo identificável de pessoas, em vez de apenas uma pessoa desse grupo.

Nesse caso, os sistemas de priorização de análises automatizadas da Meta afetaram significativamente o monitoramento, inclusive a forma como a empresa lida com várias denúncias sobre o mesmo conteúdo. A empresa monitora e remove esses relatórios "para garantir a consistência nas decisões dos analistas e nas medidas de aplicação". Outros motivos apresentados para o fechamento automático de denúncias incluíam a baixa gravidade do conteúdo e o baixo efeito viral (quantidade de visualizações que o conteúdo acumulou), o que significava que ele não era priorizado para análise humana. Nesse caso, o Comitê acredita que a biografia do usuário poderia ter sido considerada como um sinal relevante ao determinar as pontuações de gravidade.

O Comitê acredita que a Meta deve investir mais no desenvolvimento de classificadores que identifiquem conteúdo potencialmente violador que afete a comunidade LGBTQIA+ e aprimorar o treinamento de analistas humanos sobre danos relacionados à identidade de gênero.

A decisão do Comitê de Supervisão

O Comitê de Supervisão revoga a decisão original da Meta de manter o conteúdo.

O Comitê recomenda que a Meta faça o seguinte:

  • Esclareça, em sua página sobre suicídio e automutilação, que a política proíbe conteúdo que promova ou incentive o suicídio direcionado a um grupo identificável de pessoas.
  • Modifique a orientação interna que fornece aos analistas em escala para garantir que as representações visuais de identidade de gênero baseadas em bandeiras que não contenham uma figura humana sejam entendidas como representações de um grupo definido pela identidade de gênero dos seus membros.

Mais informações

Para ler a decisão na íntegra, clique aqui.

Para ler um resumo dos comentários públicos sobre o caso, clique aqui.

Voltar às Notícias