O Comitê de Supervisão anuncia novos casos sobre conteúdos envolvendo violência de gênero

Hoje, o Comitê está anunciando a análise de dois novos casos. Por esse motivo, convidamos pessoas e organizações a enviar comentários públicos.

Seleção dos casos

Como não podemos analisar todas as apelações, o Comitê prioriza os casos que têm potencial de afetar vários usuários no mundo inteiro, apresentam grande importância para o debate público ou suscitam questões relevantes sobre as políticas da Meta.

O primeiro caso que anunciamos hoje é o:

Imagem retratando violência de gênero

(2023-006-FB-UA)

Apelação de um usuário para remover conteúdo do Facebook

Envie comentários públicos aqui.

Observação: o período para deixar comentários públicos sobre esse caso ficará aberto durante 14 dias e será fechado às 23h59, horário local, de quinta-feira, 11 de maio.

Em maio de 2021, um usuário do Facebook no Iraque publicou uma foto com uma legenda em árabe. A foto mostrava uma mulher com marcas visíveis de agressão física, incluindo hematomas no corpo e no rosto. A legenda começa com um alerta às mulheres sobre escrever cartas aos maridos. Segundo a legenda, a mulher da foto escreveu uma carta para o marido, e ele a entendeu mal, resultando na agressão física à esposa. De acordo com diferentes traduções preliminares, a publicação afirma que o marido pensou que a mulher o havia chamado de “donkey” (burro) ou pedido que ele trouxesse um “donkey” (burro) para ela e, em seguida, diz que, na verdade, a mulher pedia um “veil” (véu) para ele. Em árabe, as palavras para “donkey” (burro) e “veil” (véu) são semelhantes. E, ao longo da publicação, há diversos emojis de sorrisos e risadas. A legenda não nomeia a mulher na foto, mas o rosto dela está claramente visível. A publicação teve cerca de 20 mil visualizações e pouco menos de mil reações.

Em fevereiro de 2023, um usuário do Facebook denunciou o conteúdo três vezes por violar os Padrões da Comunidade sobre Violência e Incitação. As denúncias não foram priorizadas para análise humana e foram automaticamente encerradas pela Meta. Assim, o conteúdo permaneceu na plataforma. A Meta relatou ao Comitê que prioriza apelações para análise humana com base em determinados critérios, o que inclui a gravidade da violação e o efeito viral do conteúdo. As apelações que não são priorizadas para análise dentro de um determinado período são automaticamente encerradas sem medidas adicionais. Assim sendo, o usuário que denunciou o conteúdo fez uma apelação da decisão da Meta ao Comitê de Supervisão. Como resultado da seleção do caso pelo Comitê, a Meta determinou que a decisão anterior de manter o conteúdo foi um erro e removeu a publicação.

De acordo com o Padrão da Comunidade sobre Bullying e Assédio, a Meta removeu o conteúdo do Facebook. O Padrão da Comunidade sobre Bullying e Assédio proíbe “conteúdo que degrade ainda mais indivíduos sendo maltratados fisicamente” ou “conteúdo que enalteça, comemore ou zombe da morte ou ferimentos graves de terceiros” direcionado a indivíduos particulares ou figuras públicas de escopo limitado. A política inclui os seguintes exemplos de figuras públicas de escopo limitado: “pessoas cuja fama primária esteja restrita ao seu ativismo, jornalismo ou que ficaram famosas involuntariamente”. Durante a análise, a Meta entendeu que a mulher retratada na foto é uma ativista que reside na região em que a imagem foi anteriormente compartilhada na rede social.

O Comitê selecionou esse caso para explorar as políticas e práticas da Meta no que diz respeito à moderação de conteúdo que descreve e faz piadas sobre violência de gênero e como isso afeta os direitos dos usuários dentro e fora das plataformas da Meta. Esse caso se enquadra na prioridade de “Gênero” do Comitê, que é uma das sete prioridades estratégicas do órgão.

O Comitê gostaria de receber comentários públicos que abordassem o seguinte:

  • A política e as escolhas de monitoramento da Meta em relação a conteúdos que façam piadas ou ridicularizem a violência de gênero.
  • A relação entre os conteúdos do Facebook e do Instagram que fazem piada ou ridicularizam a violência de gênero e os efeitos que isso tem sobre as pessoas que podem ser impactadas por esses conteúdos, incluindo a capacidade de usar essas plataformas.
  • A relação entre os conteúdos do Facebook e do Instagram que fazem piada ou ridicularizam a violência de gênero e os efeitos que isso gera fora da plataforma.
  • Como a representação da violência de gênero pode ser usada para atacar figuras públicas, defensores dos direitos humanos e ativistas.
  • Análises do contexto sociopolítico do Iraque (e a região) no que diz respeito à violência de gênero e como isso é representado nas redes sociais.

Nas suas decisões, o Comitê pode apresentar recomendações de política à Meta. Embora elas não sejam vinculativas, a empresa deve enviar uma resposta dentro de 60 dias. Dessa forma, o Comitê aceita comentários públicos com recomendações relevantes para o caso em questão.

A decisão sobre “violência contra a mulher” considerou dois casos em conjunto

Além disso, em conjunto com o caso que anunciamos em março de 2023, o Comitê decidiu considerar um segundo caso. Isso significa que a futura decisão que envolve “violência contra a mulher” considerará dois casos, o original, anunciado em 9 de março (2023-002-IG-UA), e o segundo, anunciado hoje (2023-005-IG-UA). Com a inclusão desse segundo caso, o Comitê será capaz de investigar mais detalhadamente como a política da Meta sobre discurso de ódio afeta conteúdos que discutem a violência de gênero para fornecer recomendações mais abrangentes à Meta.

Os comentários públicos continuam sendo uma parte fundamental do processo, e é possível enviá-los aqui até quinta-feira, 4 de maio, às 23h59, horário local. Excepcionalmente, para que o júri tenha tempo suficiente para considerar os comentários públicos enviados sobre esse caso, abriremos o envio dos comentários públicos por apenas sete dias, em vez dos 14 dias habituais. Se você já tiver enviado comentários para o caso anunciado anteriormente, sinta-se à vontade para enviar quaisquer outras opiniões por meio desse canal.

O caso original (2023-002-IG-UA) envolve uma publicação que contém o áudio de uma mulher descrevendo a experiência dela em uma relação sexual violenta, e a legenda descreve “men murder, rape and abuse women mentally and physically – all the time, every day” (os homens matam, estupram e abusam de mulheres física e mentalmente – todo dia, toda hora). A Meta removeu essa publicação de acordo com os seus Padrões da Comunidade sobre discurso de ódio. Após o usuário apelar ao Comitê, a Meta analisou a decisão e nos informou acreditar que a remoção da publicação foi um erro.

Depois de anunciarmos o caso, descobrimos que o mesmo usuário apelou ao Comitê sobre outra decisão (2023-005-IG-UA). O caso se refere a uma publicação contendo o vídeo de uma mulher reconhecendo a si mesma como uma odiadora de homens. Ela diz que a diferença entre o ódio aos homens e a misoginia é que o primeiro tem o medo como origem, já que os homens matam e estupram mulheres no mundo todo. A Meta removeu a publicação por violar os Padrões da Comunidade sobre discurso de ódio. O usuário fez uma apelação ao Comitê. Após o Comitê selecionar o caso, a Meta analisou a decisão novamente e nos informou que a decisão estava correta.

Próximos passos

Durante as próximas semanas, os membros do Comitê vão deliberar sobre esses casos. Quando chegarem às decisões finais, vamos publicá-las no site do Comitê de Supervisão.

Para receber atualizações quando o Comitê anunciar novos casos ou publicar decisões, cadastre-se aqui.

Voltar às Notícias