Comitê de Supervisão anuncia novos casos relacionados à Nigéria e à Índia

Hoje, o Comitê está anunciando dois novos casos para consideração. Por esse motivo, convidamos pessoas e organizações a enviar comentários públicos.

Seleção dos casos

Como não podemos analisar todas as apelações, o Comitê prioriza os casos que têm potencial de afetar vários usuários no mundo inteiro, apresentam grande importância para o debate público ou suscitam questões relevantes sobre as políticas da Meta.

Os casos que anunciamos hoje são os seguintes:

Vídeo após ataque a igreja na Nigéria (2022-011-IG-UA)

Apelação do usuário para restaurar conteúdo do Instagram

Envie um comentário público aqui.

Em junho de 2022, um usuário do Instagram publicou um vídeo que parece ter sido gravado logo após um tiroteio em massa em uma igreja na Nigéria. O vídeo mostra corpos imóveis e ensanguentados no chão de uma igreja. No fundo, é possível ouvir os sons de uma cena caótica, incluindo o de pessoas chorando e gritando. Após a publicação do usuário, um dos bancos de dados do Serviço de Correspondência de Mídia da Meta para conteúdo relacionado à política sobre conteúdo violento e explícito identificou a publicação. Esses bancos de dados identificam automaticamente imagens e vídeos que a Meta determinou previamente que requerem uma ação específica. Depois, outro sistema automatizado avaliou o conteúdo e aplicou uma tela de aviso ao vídeo, marcando-o como perturbador. Além disso, três usuários denunciaram o conteúdo, incluindo por mostrar ferimentos graves e mortes.

Cerca de uma semana depois da publicação, o usuário adicionou uma legenda em inglês ao vídeo. O texto afirma que atiradores atacaram a igreja e várias pessoas morreram, além de descrever o tiroteio como triste. Em seguida, inclui uma série de hashtags, principalmente sobre armas recreativas, alusões ao som de armas disparando e simulações e equipamentos militares. Mais tarde, outro banco de dados do Serviço de Correspondência de Mídia da Meta para a política sobre conteúdo violento e explícito identificou e removeu a publicação por violar a política. Na avaliação da empresa, a legenda exaltou a violência e incluiu hashtags sádicas. As denúncias que os usuários fizeram não foram analisadas e foram encerradas após a remoção do conteúdo.

O usuário fez uma apelação, e a Meta manteve a decisão de remover o conteúdo, que, quando removido, tinha sido visto mais de seis mil vezes. O usuário, então, fez uma apelação ao Comitê.

Nela, o usuário afirma que o conteúdo tinha como objetivo mostrar ao mundo o que estava acontecendo na Nigéria e gerar conscientização sobre a morte de pessoas inocentes. Ele também afirma que não apoia a violência.

Conforme a política sobre conteúdo violento e explícito, a Meta afirma remover conteúdo que “exalte a violência ou celebre a humilhação ou o sofrimento de outras pessoas”, mas permite conteúdo explícito “para ajudar as pessoas a gerar conscientização”. A política proíbe a publicação de “vídeos de pessoas ou de cadáveres em ambientes não hospitalares caso retratem desmembramento, órgãos internos à vista ou corpos parcialmente decompostos”. A política também afirma que as telas de aviso são aplicadas a “imagens que mostrem a morte violenta de uma ou mais pessoas por acidente ou homicídio” e que somente adultos com mais de 18 anos podem ver esse conteúdo. Quando publicadas com comentários sádicos, essas imagens são removidas. De acordo com a permissão de conteúdo de valor jornalístico, a Meta autoriza conteúdo violador nas suas plataformas “caso seja de interesse público mantê-lo visível”.

O Comitê gostaria de receber comentários públicos que abordassem o seguinte:

  • Se a política da Meta sobre conteúdo violento e explícito, incluindo a permissão de conteúdo de valor jornalístico, atinge o equilíbrio ideal entre proteger os direitos de sobreviventes e vítimas (incluindo seus familiares e entes queridos) e documentar abusos ou violações de direitos humanos ou gerar conscientização sobre isso.
  • Se e como o monitoramento que a Meta faz da política dos Padrões da Comunidade sobre conteúdo violento e explícito é diferente nas regiões, além de informações sobre as causas e os impactos dessas diferenças.
  • Análises sobre o contexto jurídico e sociopolítico na Nigéria no que diz respeito a desafios ou limitações à liberdade de expressão, especificamente sobre segurança nacional e registro de violações de direitos humanos e conscientização sobre isso.
  • Análises sobre a função das redes sociais em todo o mundo como recurso e plataforma para documentar violações de direitos humanos e gerar conscientização sobre isso.

Nas suas decisões, o Comitê pode emitir recomendações de política à Meta. Embora elas não sejam vinculantes, a empresa deve enviar uma resposta dentro de 60 dias. Dessa forma, o Comitê aceita comentários públicos com recomendações relevantes para o caso em questão.

Vídeo de assédio sexual na Índia (2022-012-IG-MR)

Caso indicado pela Meta

Envie um comentário público aqui.

Em março de 2022, uma conta do Instagram que se descreve como uma plataforma para os dalits publicou um vídeo da Índia que mostra um grupo de homens atacando uma mulher. Não é possível ver o rosto dela. O texto que acompanha o vídeo afirma que uma “tribal woman” (mulher tribal) foi vítima de agressão e assédio sexual por um grupo de homens em público e que o vídeo viralizou. A conta tem cerca de 30 mil seguidores, localizados principalmente na Índia.

Outro usuário do Instagram denunciou o conteúdo como proposta de cunho sexual, o que fez com que o vídeo passasse à análise humana. Os analistas humanos determinaram que o conteúdo violou a política da Meta sobre exploração sexual de adultos. Com base nessa política, a empresa remove conteúdo “representa, ameaça ou promove violência, agressão ou exploração sexual”. Depois de outra análise humana, a Meta concedeu uma permissão de conteúdo de valor jornalístico, restaurou a publicação e colocou uma tela de aviso no vídeo alertando aos usuários que ele pode ter conteúdo violento ou explícito. A tela de aviso evita que os usuários com menos de 18 anos vejam o conteúdo e obriga todos os outros usuários a clicar na tela para ver o vídeo. Uma permissão de conteúdo de valor jornalístico autoriza, nas plataformas da Meta, conteúdo que pode violar suas políticas quando ele é relevante e é do interesse público mantê-lo visível. Somente as equipes de especialistas da Meta podem aplicá-la. Os analistas humanos que avaliam conteúdo em grande escala não têm permissão para isso.

A Meta indicou o caso ao Comitê, afirmando que ele demonstra o desafio de encontrar “o equilíbrio adequado entre permitir conteúdo que condena a exploração sexual e permitir que representações visuais de assédio sexual continuem nas [suas] plataformas, o que causa danos”. A empresa afirma que o conteúdo foi inicialmente removido por violar a política sobre exploração sexual de adultos, pois mostrou toques sexuais não consensuais, e que, “em função da natureza explícita e nociva desse tipo de imagem, a política não permite que esse tipo de conteúdo seja compartilhado com o objetivo de condenar o ato”. Além disso, a Meta diz que permitiu esse conteúdo apenas “em circunstâncias limitadas, após reavaliação e de acordo com o caso específico”.

O Comitê gostaria de receber comentários públicos que abordassem o seguinte:

  • Se as políticas e as práticas de monitoramento da Meta, incluindo a permissão de conteúdo de valor jornalístico, apresentam um equilíbrio adequado entre proteger os usuários de conteúdo potencialmente prejudicial e permitir que eles gerem conscientização.
  • Análises sobre o contexto sociopolítico que influencia o tratamento de pessoas e comunidades dalits e adivasis, especialmente mulheres. Essas análises podem abordar dinâmicas de poder, práticas de segregação e discriminação física e social e formas relevantes como as hierarquias em vigência podem ser reproduzidas no mundo digital.
  • A função das redes sociais para condenar a exploração sexual e outros atos nocivos contra pessoas de comunidades marginalizadas na Índia e para gerar conscientização sobre isso.
  • O dano causado por se permitir que representações visuais de assédio sexual permaneçam nas plataformas da Meta, mesmo que as vítimas não possam ser reconhecidas ou identificadas.
  • A possibilidade de que representações visuais de violência contra grupos marginalizados contribuam para um aumento desse tipo de violência mesmo quando compartilhadas com o objetivo de condenar o ato.

Nas suas decisões, o Comitê pode emitir recomendações de política à Meta. Embora elas não sejam vinculantes, a empresa deve enviar uma resposta dentro de 60 dias. Dessa forma, o Comitê aceita comentários públicos com recomendações relevantes para o caso em questão.

Comentários públicos

Se você ou sua organização acha que pode contribuir com perspectivas valiosas para ajudar a resolver os casos anunciados hoje, clique nos links acima para enviar um comentário. O período para deixar comentários públicos sobre ambos os casos vai ficar aberto 14 dias, sendo encerrado às 12h (BRT) do dia 29 de setembro de 2022, quinta-feira.

Próximos passos

Nas próximas semanas, os membros do Comitê vão deliberar sobre os casos em foco. Quando chegarem às decisões finais, nós vamos publicá-las no site do Comitê de Supervisão. Além disso, após as decisões publicadas hoje sobre os casos “Ilustração sobre a polícia da Colômbia” e “Menção ao Talibã em uma reportagem”, esperamos publicar em breve a decisão sobre o caso “Gabinete de Comunicações da Região do Tigré”.

Para receber atualizações quando o Comitê anunciar novos casos ou publicar decisões, cadastre-se aqui.

Voltar às Notícias