Comitê de Supervisão revoga a decisão original da Meta nos casos de “Identidade de gênero e nudez”
17 de Janeiro de 2023
O Comitê de Supervisão anulou as decisões originais da Meta de remover duas publicações do Instagram retratando pessoas transgênero e não binárias com a mama descoberta. Também recomenda que a Meta mude seu Padrão da Comunidade sobre conteúdo adulto de nudez e atividades sexuais adicionando critérios claros que respeitem as normas internacionais de direitos humanos.
Sobre o caso
Nesta decisão, o Comitê de Supervisão considera dois casos juntos pela primeira vez. Dois itens de conteúdo separados foram publicados pela mesma conta do Instagram, um em 2021 e outro em 2022. A conta é de um casal americano que se identifica como transgênero e não binário.
Ambas as publicações apresentam imagens do casal com os seios expostos e os mamilos cobertos. As legendas da imagem discutem a saúde transgênero e dizem que um membro do casal em breve será submetido a uma cirurgia importante (de afirmação de gênero com retirada de mamas), para a qual o casal está arrecadando fundos.
Após uma série de alertas dos sistemas automatizados da Meta e denúncias de usuários, as publicações foram revisadas várias vezes quanto a possíveis violações de diversos Padrões da Comunidade. A Meta removeu as duas publicações por violar o Padrão da Comunidade sobre proposta de cunho sexual, aparentemente porque continham seios e um link para uma página de arrecadação de fundos.
Os usuários fizeram uma apelação para a Meta e depois para o Comitê. Depois que o Comitê aceitou os casos, a Meta descobriu que havia removido as publicações por engano, restaurando-as.
Principais conclusões
O Comitê de Supervisão considera que a remoção dessas publicações vai contra os Padrões da Comunidade, valores ou responsabilidades de direitos humanos da Meta. Esses casos também destacam questões fundamentais relacionadas às políticas da Meta.
A orientação interna da Meta para moderadores sobre quando remover conteúdo nos termos da política sobre proposta de cunho sexual é muito mais ampla do que a justificativa declarada para a política ou a orientação disponível ao público. Isso cria confusão para usuários e moderadores e, como a Meta reconheceu, leva à remoção indevida do conteúdo.
Em pelo menos um dos casos, a publicação foi enviada para análise humana por um sistema automatizado treinado para aplicar o Padrão da Comunidade sobre conteúdo adulto de nudez e atividades sexuais. Este Padrão proíbe imagens que contenham mamilos femininos, exceto em circunstâncias específicas, como amamentação e cirurgia de afirmação de gênero.
Esta política é baseada em uma visão binária de gênero e uma distinção entre corpos masculinos e femininos. Essa abordagem deixa claro como as regras se aplicam a pessoas intersexuais, não binárias e transgêneros e exige que os analistas façam avaliações rápidas e subjetivas de sexo e gênero, o que não é prático ao moderar conteúdo em grande escala.
As restrições e exceções às regras sobre mamilos femininos são extensas e confusas, principalmente quando se aplicam a pessoas trans e não binárias. Elas variam de protestos e cenas de parto a contextos médicos e de saúde, incluindo cirurgias de ponta e conscientização sobre o câncer de mama. Essas exceções geralmente são complicadas e mal definidas. Em alguns contextos, por exemplo, os moderadores devem avaliar a extensão e a natureza das cicatrizes visíveis para determinar se certas exceções se aplicam. A falta de clareza inerente a esta política gera incerteza para usuários e analistas, tornando-a inviável na prática.
O Comitê diz frequentemente que a Meta deve pensar em como suas políticas afetam as pessoas sujeitas a discriminação (veja, por exemplo, as decisões dos casos “Cinto Wampum” e “Ressignificação de palavras em árabe”). Nesse caso, o Comitê considera que as políticas da Meta sobre nudez adulta resultam em mais barreiras à expressão de mulheres, trans e pessoas não binárias nas plataformas. Por exemplo, elas têm um impacto severo em contextos em que as mulheres ficam com os seios descobertos, e as pessoas que se identificam como LGBTQIAP+ podem ser afetadas de forma desproporcional, como nesses casos. Os sistemas automatizados da Meta identificaram o conteúdo várias vezes, apesar de ele não violar as políticas da empresa.
A Meta deve procurar desenvolver e implementar políticas que abordem todas essas questões. Ela deve mudar sua abordagem para gerenciar a nudez nas plataformas, definindo critérios claros para a política de conteúdo adulto de nudez e atividades sexuais, que garanta que todos os usuários sejam tratados de maneira consistente com as normas de direitos humanos. Também deve avaliar se essa política protege contra o compartilhamento não consensual de imagens e se outras políticas precisam ser fortalecidas a esse respeito.
A decisão do Comitê de Supervisão
O Comitê de Supervisão revoga a decisão original da Meta de remover as publicações.
O Comitê recomenda que a Meta faça o seguinte:
- Defina critérios claros, objetivos e que respeitem os direitos segundo o Padrão da Comunidade sobre conteúdo adulto de nudez e atividades sexuais, para que todas as pessoas sejam tratadas de maneira consistente com as normas internacionais de direitos humanos, sem discriminação com base em sexo ou gênero. Primeiro, a Meta deve realizar uma avaliação abrangente do impacto dessa mudança sobre os direitos humanos com ajuda de diversas partes interessadas e criar um plano para lidar com quaisquer danos identificados.
- Depois deve incluir mais detalhes no Padrão da Comunidade sobre proposta de cunho sexual voltado ao público sobre os critérios que levam à remoção de conteúdo.
- E, por fim, revisar a orientação para moderadores relacionada ao Padrão da Comunidade sobre proposta de cunho sexual para que reflita com mais precisão as regras públicas da política. Isso ajudaria a reduzir os erros de monitoramento por parte da Meta.
Mais informações:
Para ler a decisão completa, clique no anexo abaixo.
Para ler um resumo dos comentários públicos sobre o caso, clique no anexo abaixo.