Anulado
Violência homofóbica na África Ocidental
15 de Outubro de 2024
O Comitê de Supervisão está seriamente preocupado com a falha da Meta em remover um vídeo que mostra dois homens que parecem ter sido espancados por serem supostamente gays. Ao anular a decisão original da empresa, o Comitê observa que, ao manter o vídeo no Facebook por cinco meses, havia um risco de dano imediato ao expor a identidade dos homens, considerando o ambiente hostil para pessoas LGBTQIA+ na Nigéria.
Para ler a decisão completa em igbo, clique aqui.
Iji gụọ mkpebi ahụ n'uju n'asụsụ Igbo, pịa ebe a.
Resumo
O Comitê de Supervisão está seriamente preocupado com a falha da Meta em remover um vídeo que mostra dois homens sangrando que parecem ter sido espancados por serem supostamente gays. O conteúdo foi publicado na Nigéria, país que criminaliza relacionamentos entre pessoas do mesmo sexo. Ao anular a decisão original da empresa, o Comitê observa que, ao manter o vídeo no Facebook por cinco meses, havia um risco de dano imediato aos homens ao expor suas identidades, considerando o ambiente hostil para pessoas LGBTQIA+ no país. Esse dano é imediato e impossível de ser desfeito. O conteúdo, que compartilhava e debochava da violência e da discriminação, não seguia quatro Padrões da Comunidade diferentes, foi denunciado diversas vezes e analisado por três moderadores humanos. Esse caso revela falhas sistêmicas no monitoramento. As recomendações do Comitê incluem um apelo para que a Meta avalie a aplicação da regra relevante conforme os Padrões da Comunidade sobre Coordenação de Atos Danosos e Incentivo à Prática de Atividades Criminosas. Elas também abordam as falhas que provavelmente surgiram quando a Meta identificou erroneamente o idioma no vídeo e como a empresa lida com idiomas sem suporte para análise de conteúdo em escala.
Sobre o caso
Um usuário do Facebook na Nigéria publicou um vídeo que mostra dois homens sangrando, que pareciam ter sido amarrados e espancados. As pessoas ao redor dos homens assustados fazem perguntas em um dos principais idiomas da Nigéria, o igbo. Em resposta, um dos homens fala seu próprio nome e explica, aparentemente sob coerção, que foi espancado por fazer sexo com outro homem. O usuário que publicou esse conteúdo incluiu uma legenda em inglês debochando dos homens, afirmando que eles foram pegos fazendo sexo e que isso é “funny” (engraçado) porque eles são casados.
O vídeo foi visto mais de 3,6 milhões de vezes. Entre dezembro de 2023, quando foi publicado, e fevereiro de 2024, 92 usuários denunciaram o conteúdo, a maioria por violência e incitação ou discurso de ódio. Dois analistas humanos decidiram que a publicação não seguia nenhum dos Padrões da Comunidade e, portanto, deveria permanecer no Facebook. Um usuário apelou da decisão da Meta, mas, após outra análise humana, a empresa decidiu novamente que não houve violações. Em seguida, o usuário fez uma apelação ao Comitê. Depois que o Comitê levou o caso à atenção da Meta, a empresa removeu a publicação de acordo com sua Política sobre Coordenação de Atos Danosos e Incentivo à Prática de Atividades Criminosas.
A Nigéria criminaliza relacionamentos entre pessoas do mesmo sexo, com pessoas LGBTQIA+ enfrentando discriminação e graves restrições aos seus direitos humanos.
Principais conclusões
O Comitê considera que o conteúdo não seguiu quatro Padrões da Comunidade distintos, incluindo a regra sobre coordenação de atos danosos e incentivo à prática de atividades criminosas, que não permite que indivíduos supostamente membros de um grupo sujeito a risco de exposição pública sejam identificados. A confissão do homem no vídeo sobre ter feito sexo com outro homem é forçada, enquanto a legenda alega explicitamente que os homens são gays. O conteúdo também não seguia regras sobre discurso de ódio, bullying e assédio, além de conteúdo violento e explícito.
Há duas regras sobre exposição pública conforme a Política sobre Coordenação de Atos Danosos e Incentivo à Prática de Atividades Criminosas. A primeiro é relevante aqui e aplicada em escala. Ela proíbe a “exposição pública: exposição da identidade ou de locais afiliados a qualquer pessoa que supostamente seja membro de um grupo sujeito a risco de exposição pública”. Há uma regra semelhante aplicada somente quando o conteúdo é encaminhado aos especialistas da Meta. O Comitê está preocupado que a Meta não explique adequadamente as diferenças entre as duas regras sobre “exposição pública” e que a regra aplicada em escala não declare publicamente que “exposição pública” se aplica à identificação de pessoas como LGBTQIA+ em países onde há maior risco de danos no meio físico, como a Nigéria. Atualmente, essas informações estão disponíveis apenas em orientações internas. Essa ambiguidade poderia gerar confusão, impedindo que os usuários cumpram as regras e dificultando que pessoas alvos desse conteúdo abusivo tenham essas publicações removidas. A Meta precisa atualizar sua regra pública e fornecer exemplos de grupos sujeitos a risco de exposição pública.
Esse conteúdo ficou ativo por cerca de cinco meses, apesar de não seguir quatro regras diferentes e apresentar violência e discriminação. Moderadores humanos analisaram o conteúdo e não conseguiram identificar que ele não seguia as regras. Com o vídeo mantido ativo, as chances de alguém identificar os homens e de a publicação encorajar os usuários a prejudicar outras pessoas LGBTQIA+ na Nigéria aumentaram. O vídeo acabou sendo removido, mas a essa altura já havia se tornado viral. Mesmo depois de ter sido removido, a pesquisa do Comitê mostra que ainda havia sequências do mesmo vídeo no Facebook.
Quando o Comitê questionou a Meta sobre suas medidas de aplicação, a empresa admitiu dois erros. Primeiro, seus sistemas automatizados que detectam o idioma identificaram o conteúdo como estando em inglês, antes de enviá-lo para análise humana, enquanto as equipes da Meta identificaram erroneamente o idioma falado no vídeo como suaíli. O idioma correto é igbo, falado por milhões de pessoas na Nigéria, mas ele não tem suporte oferecido pela Meta para moderação de conteúdo em escala. Se o idioma não tem suporte, como nesse caso, o conteúdo é enviado para analistas humanos que trabalham com vários idiomas e recorrem a traduções fornecidas pelas tecnologias da Meta. Isso levanta preocupações sobre como o conteúdo em idiomas sem suporte é tratado, a escolha de idiomas que a empresa oferece suporte para análise em escala e a precisão das traduções fornecidas aos analistas que trabalham com vários idiomas.
Decisão do Comitê de Supervisão
O Comitê de Supervisão revoga a decisão original da Meta de manter ativo o conteúdo.
Ele recomenda que a Meta:
- Atualize a proibição em escala da Política sobre Coordenação de Atos Danosos e Incentivo à Prática de Atividades Criminosas em relação à “exposição pública” para incluir exemplos ilustrativos de “grupos sujeitos a risco de exposição pública”, incluindo pessoas LGBTQIA+ em países onde relacionamentos entre pessoas do mesmo sexo são proibidos e/ou essas exposições criam riscos significativos à segurança.
- Realize uma avaliação da precisão da aplicação da proibição em escala de exposição de identidade ou a localização de qualquer pessoa supostamente membro de um grupo sujeito a risco de exposição pública, de acordo com os Padrões da Comunidade sobre Coordenação de Atos Danosos e Incentivo à Prática de Atividades Criminosas.
- Garanta que seus sistemas de detecção de idioma identifiquem com precisão o conteúdo em idiomas sem suporte e forneçam traduções precisas desse conteúdo para analistas independentes de idiomas.
- Garanta que o conteúdo que contenha um idioma sem suporte, mesmo que combinado com idiomas com suporte, seja direcionado para análise independente. Isso inclui fornecer aos analistas a opção de redirecionar conteúdo que contenha um idioma sem suporte para uma análise independente.
*Os resumos de casos fornecem uma visão geral dos casos e não têm valor de precedente.
Decisão completa sobre o caso
1. Descrição do caso e histórico
Em dezembro de 2023, um usuário do Facebook na Nigéria publicou um vídeo mostrando visivelmente dois homens e que parecem ter sido espancados. Eles estão sentados no chão, perto de um poste e uma corda, sugerindo que podem ter sido amarrados, além de estarem sangrando muito. Várias pessoas fazem perguntas aos homens em igbo, um dos principais idiomas da Nigéria. Um dos homens responde dizendo seu nome e explica, aparentemente sob coação, que foi espancado porque estava fazendo sexo com outro homem. Ambos os homens parecem assustados e um deles é chutado por uma pessoa presente. O usuário que publicou o vídeo adicionou uma legenda em inglês zombando dos homens, dizendo que eles foram pegos fazendo sexo e que isso é “funny” (engraçado) porque ambos são casados.
O conteúdo foi visualizado mais de 3,6 milhões de vezes, recebeu cerca de 9 mil reações e 8 mil comentários e foi compartilhado aproximadamente 5 mil vezes. Entre dezembro de 2023 e fevereiro de 2024, 92 usuários denunciaram o conteúdo 112 vezes, a maioria dessas denúncias com base nas Políticas sobre Violência e Incitação e sobre Discurso de Ódio da Meta. Diversas denúncias foram analisadas por dois moderadores humanos que decidiram que o conteúdo não seguia nenhum dos Padrões da Comunidade e, portanto, deveria permanecer no Facebook. Um dos usuários então apelou da decisão da Meta de manter ativo o conteúdo. Após outra análise humana, a empresa decidiu novamente que o conteúdo não seguia nenhuma de suas regras. Em seguida, o usuário fez uma apelação ao Comitê. Depois que o Comitê levou o caso à atenção da Meta, em maio de 2024, a empresa analisou a publicação de acordo com sua Política sobre Coordenação de Atos Danosos e Incentivo à Prática de Atividades Criminosas, removendo-a do Facebook. Após a remoção do vídeo original pela Meta, depois de mais pesquisas, o Comitê identificou várias instâncias do mesmo vídeo mantidas na plataforma desde dezembro de 2023, inclusive em Grupos do Facebook. Depois que o Comitê sinalizou instâncias do mesmo vídeo que ainda estavam na plataforma, a Meta as removeu e adicionou o vídeo a um banco do Serviço de Correspondência de Mídias (MMS, na sigla em inglês), que identifica e remove automaticamente o conteúdo que já foi classificado como violador. Embora esse tipo de violação possa resultar em uma advertência padrão contra o usuário que publicou o conteúdo, a Meta não o aplicou nesse caso porque o vídeo foi publicado mais de 90 dias antes de qualquer medida de aplicação ser tomada. A política da Meta afirma que ela não aplica advertências padrão a contas de usuários cujas violações de conteúdo tenham ocorrido há mais de 90 dias.
O Comitê considerou o seguinte contexto para tomar sua decisão sobre esse caso:
Pessoas LGBTQIA+ na Nigéria e em várias outras partes do mundo enfrentam violência, tortura, prisão e até mesmo a morte por causa de sua orientação sexual ou identidade de gênero, com o sentimento anti-LGBTQIA+ aumentando (veja o comentário público da Outright International, PC-29658). A discriminação contra pessoas com base em sua orientação sexual ou identidade de gênero limita a vida cotidiana, impactando os direitos humanos e as liberdades básicas. A Anistia Internacional relata que, na África, 31 países criminalizam relacionamentos entre pessoas do mesmo sexo. As sanções variam de prisão a castigos corporais. A Lei de Proibição do Casamento entre Pessoas do Mesmo Sexo da Nigéria não apenas criminaliza relacionamentos entre pessoas do mesmo sexo, mas também proíbe demonstrações públicas de afeto e restringe o trabalho de organizações que defendem os direitos LGBTQIA+. Além disso, as leis da era colonial e outras leis morais sobre sodomia, adultério e indecência ainda são aplicadas para restringir os direitos das pessoas LGBTQIA+, com resultados devastadores.
Em um relatório de 2024, o Perito Independente da ONU sobre proteção contra violência e discriminação com base na orientação sexual e identidade de gênero enfatizou: “Estados em todas as regiões do mundo aplicaram leis e políticas existentes ou impuseram novas, e às vezes extremas, medidas para restringir as liberdades de expressão, reunião pacífica e associação, direcionadas especificamente a pessoas com base na orientação sexual e identidade de gênero” (Relatório A/HRC/56/49, julho de 2024, no parágrafo 2).
Ativistas e organizações que apoiam comunidades LGBTQIA+ podem estar sujeitos a restrições legais, assédio, prisões arbitrárias, batidas policiais e fechamentos, com ameaças de violência desencorajando o apoio público aos direitos LGBTQIA+ (veja o comentário público da Pan-African Human Rights Defenders Network, PC-29657). Organizações de direitos humanos podem ter dificuldade em documentar casos de abuso e discriminação devido ao medo de retaliação de autoridades públicas e agentes não estatais, como justiceiros e milícias. Jornalistas que cobrem questões LGBTQIA+ também podem ser alvo.
As redes sociais são uma ferramenta essencial para organizações de direitos humanos que documentam violações e abusos dos direitos LGBTQIA+ e defendem maiores proteções. As pessoas compartilham vídeos, depoimentos e denúncias para conscientizar e defender que os governos respeitem os padrões de direitos humanos (veja o comentário público da Human Rights Watch, PC-29659). Além disso, as plataformas podem atuar como centros de informações, fornecendo às pessoas atualizações sobre desenvolvimentos jurídicos, incluindo acesso a suporte jurídico. Uma pesquisa independente encomendada pelo Comitê indica que as plataformas de rede social desempenham um papel crucial para pessoas LGBTQIA+ em países com estruturas legais restritivas. A pesquisa indica que o Facebook, por exemplo, permite que os usuários se conectem, inclusive anonimamente e em grupos fechados, para compartilhar recursos em um ambiente mais seguro do que os espaços offline.
Especialistas consultados pelo Comitê observaram que autoridades estatais em alguns países africanos também usam as redes sociais para monitorar e restringir as atividades de usuários que publicam conteúdo LGBTQIA+. Eles relataram que, na Nigéria, as autoridades restringiram o acesso a conteúdo online sobre questões LGBTQIA+. De acordo com a Freedom House, a Nigéria introduziu uma legislação para regulamentar plataformas de redes sociais de forma mais ampla, o que pode impactar os direitos LGBTQIA+ online. Da mesma forma, a Access Now – uma organização de direitos digitais – relata que as leis de crimes cibernéticos em Gana fornecem às autoridades a capacidade de emitir solicitações de remoção ou proibições de conteúdo que podem restringir o discurso público sobre questões LGBTQIA+ e bloquear a documentação de abusos de direitos humanos, bem como informações vitais para a comunidade.
Agentes não estatais, incluindo justiceiros, também têm como alvo pessoas LGBTQIA+ com agressões físicas, violência de multidões, humilhação pública e ostracismo. Por exemplo, em agosto de 2024, uma usuária transgênero do TikTok conhecida como “Abuja Area Mama” foi encontrada morta após supostamente ter sido espancada até a morte na capital da Nigéria, Abuja. Pessoas LGBTQIA+ podem ser alvos de chantagem por outros membros da comunidade que descobrem sua orientação sexual ou identidade de gênero. De acordo com a Human Rights Watch, a estrutura legal da Nigéria incentiva a violência contra pessoas LGBTQIA+, criando um ambiente de impunidade para aqueles que praticam essa violência.
2. Envios de usuários
Em sua declaração ao Comitê, o usuário que denunciou o conteúdo alegou que os homens no vídeo foram espancados apenas por serem gays. O usuário afirmou que, ao não remover o vídeo, a Meta está permitindo que sua plataforma se torne um ambiente propício para o ódio e a homofobia e que, se o vídeo fosse de um incidente em um país ocidental, ele teria sido removido.
3. Políticas de conteúdo e envios da Meta
I. Políticas de conteúdo da Meta
Política sobre Coordenação de Atos Danosos e Incentivo à Prática de Atividades Criminosas
A Política sobre Coordenação de Atos Danosos e Incentivo à Prática de Atividades Criminosas visa “prevenir e interromper danos no meio físico e comportamentos de imitação”, proibindo a “facilitação, organização, promoção ou aceitação de determinadas atividades prejudiciais ou criminosas direcionadas a pessoas, empresas, bens ou animais”. Duas linhas de políticas nos Padrões da Comunidade abordam a “exposição pública”. A primeira é aplicada em escala, e a segunda exige “contexto adicional para a aplicação” (o que significa que a linha política só é aplicada após escalation). Nesse caso se aplica a primeira linha política. Ela proíbe explicitamente a “exposição pública: exposição da identidade ou de locais afiliados a qualquer pessoa que supostamente seja membro de um grupo sujeito a risco de exposição pública”. Essa linha política não explica quais grupos são considerados “grupos sujeitos a risco de exposição pública”. A segunda linha política, que só é aplicada após escalation e não foi aplicada nesse caso, também proíbe a “exposição pública: expor a identidade de uma pessoa e colocá-la em risco de danos” para uma lista específica de grupos vulneráveis, incluindo membros da comunidade LGBTQIA+, mulheres sem véu, ativistas e prisioneiros de guerra.
De acordo com a orientação interna da Meta para analistas de conteúdo na primeira linha de política, a exposição de identidade pode ocorrer por meio do uso de informações pessoais, como o nome ou a imagem de uma pessoa. As diretrizes internas da Meta listam “grupos sujeitos a risco de exposição pública”, incluindo pessoas LGBTQIA+ em países onde a filiação a um grupo pode acarretar um risco associado à segurança pessoal de seus membros. Elas também estabelecem que a “exposição pública” deve ser involuntária: uma pessoa não pode expor publicamente a si mesma (por exemplo, declarando-se como membro de um grupo sujeito a risco de exposição pública).
Política sobre Conteúdo Violento e Explícito
A Política sobre Conteúdo Violento e Explícito prevê que determinadas imagens perturbadoras de pessoas terão uma tela de aviso. Isso inclui: “Imagens retratando atos de brutalidade (por exemplo, atos de violência ou ameaças letais contra indivíduos contidos à força) cometidos contra uma pessoa ou grupo de pessoas”. No entanto, se esse conteúdo contiver “comentários sádicos”, a publicação será removida. Comentários sádicos são definidos nas regras públicas como “comentários, como legendas ou comentários, expressando alegria ou prazer pelo sofrimento ou humilhação de pessoas ou animais”.
Política sobre Bullying e Assédio
Os Padrões da Comunidade sobre Bullying e Assédio têm o objetivo de evitar que indivíduos sejam alvos de ameaças e diferentes formas de contato malicioso nas plataformas da Meta, e que esse comportamento “impede que as pessoas se sintam seguras e respeitadas”. A política proíbe conteúdo com “comemoração ou deboche sobre morte ou condição médica” direcionado a pessoas. As diretrizes internas da Meta explicam que a condição médica inclui uma doença, enfermidade ou lesão grave.
Política sobre Discurso de Ódio
O fundamento da Política sobre Discurso de Ódio da Meta define o discurso de ódio como um ataque direto contra pessoas com base em características protegidas, incluindo orientação sexual. Ela proíbe conteúdo direcionado a pessoas em formato escrito ou visual, como: “Deboche do conceito, de eventos ou de vítimas de crimes de ódio, mesmo que nenhuma pessoa real apareça na imagem”. As diretrizes internas da Meta definem crimes de ódio como um ato criminoso “cometido com um motivo preconceituoso, direcionado a pessoas com base em suas [características protegidas]”.
II. Envios da Meta
Após o Comitê selecionar esse caso, a Meta concluiu que o conteúdo não seguia a Política sobre Coordenação de Atos Danosos e Incentivo à Prática de Atividades Criminosas por identificar supostos membros de um “grupo sujeito a risco de exposição pública” em um país onde a afiliação a esse grupo pode acarretar um risco associado à segurança pessoal de seus membros. A Meta observou que a legenda do usuário alegava que os homens eram gays, e a confissão de um dos homens no vídeo foi potencialmente forçada, demonstrando que a "exposição pública", ao expor sua identidade, foi involuntária.
Ela reconheceu que os analistas estavam errados ao concluir que a publicação não seguia Padrões da Comunidade e investigou o motivo desses erros. Nesse caso, parece que os analistas se concentraram apenas na Política sobre Bullying e Assédio relacionada a “alegações sobre envolvimento romântico, orientação sexual ou identidade de gênero” contra pessoas físicas adultas e concluíram que a política foi seguida, sem considerar outras possíveis violações. Essa política exige que o nome e o rosto do usuário que denuncia o conteúdo correspondam à pessoa retratada no conteúdo para que ele seja removido. Como os usuários que denunciaram o conteúdo nesse caso não foram retratados no conteúdo, os analistas o avaliaram como não violador. Após a investigação, as equipes de análise humana da Meta tomaram medidas adicionais para melhorar a precisão na aplicação da Política sobre Coordenação de Atos Danosos e Incentivo à Prática de Atividades Criminosas, enviando lembretes sobre a política e conduzindo testes de conhecimento sobre a Política de Exposição Pública de Indivíduos de Alto Risco.
Em resposta às perguntas do Comitê, a Meta confirmou que a publicação também não seguia três outros Padrões da Comunidade.
A publicação não seguiu a Política sobre Conteúdo Violento e Explícito, pois o vídeo incluía comentários sádicos sobre um ato de “brutalidade” retratado, com os homens submetidos a força excessiva enquanto estavam em uma posição de domínio. Sem os comentários sádicos, o conteúdo só teria sido marcado como perturbador segundo essa política. Ele não seguiu a Política sobre Bullying e Assédio porque a legenda debocha dos dois homens ao se referir à situação deles como “funny” (engraçada) enquanto mostra seus ferimentos graves. Por fim, ele não seguiu os Padrões da Comunidade sobre Discurso de Ódio, já que a legenda debochava de vítimas de um crime de ódio, particularmente de agressão motivada por preconceito contra dois homens com base em sua orientação sexual percebida.
Em resposta às perguntas do Comitê, a Meta confirmou que conduziu investigações adicionais que levaram à remoção de outras instâncias do mesmo vídeo. O vídeo foi adicionado aos bancos de MMS da Meta para evitar futuros carregamentos do conteúdo.
A empresa também informou ao Comitê que utiliza seus sistemas de detecção de idioma e tradução automática para fornecer suporte ao conteúdo em igbo por meio de análise independente em escala. A Meta tem alguns falantes de igbo que fornecem conhecimento do idioma e análise de conteúdo para igbo mediante escalation (não em escala). Ela exige que seus analistas humanos tenham proficiência em inglês e em “seu idioma de mercado relevante”. Antes de confirmar que o idioma falado no vídeo era igbo, a Meta identificou erroneamente o idioma do vídeo como suaíli em seu diálogo com o Comitê. Por fim, a Meta explicou que, como a legenda do usuário para o vídeo estava em inglês, os sistemas automatizados da empresa identificaram o idioma do conteúdo como inglês, encaminhando-o para analistas humanos que falam esse idioma.
O Comitê fez 24 perguntas à Meta sobre a aplicação dos Padrões da Comunidade sobre Coordenação de Atos Danosos e Incentivo à Prática de Atividades Criminosas e outras políticas de conteúdo, as medidas de aplicação da Meta na Nigéria, a detecção de idiomas de conteúdo e atribuições de análise humana pela Meta, bem como solicitações governamentais e medidas de mitigação que a empresa adotou para evitar danos. A Meta respondeu a todas as perguntas.
4. Comentários públicos
O Comitê de Supervisão recebeu sete comentários públicos que atenderam aos termos de envio. Quatro dos comentários foram enviados dos Estados Unidos e do Canadá, dois da África Subsaariana e um da Europa. Para ler comentários públicos enviados com consentimento de publicação, clique aqui.
Os envios cobriram os seguintes temas: violência contra pessoas LGBTQIA+ na África Ocidental por agentes estatais e não estatais, e riscos associados à exposição pública da orientação sexual e/ou identidade de gênero das pessoas; o impacto da criminalização de relacionamentos entre pessoas do mesmo sexo da comunidade LGBTQIA+; o impacto dessa criminalização e de outras leis locais na Nigéria, e na África Ocidental de forma mais ampla, no trabalho conduzido por organizações de direitos humanos, grupos de defesa e jornalistas; e a importância das plataformas da Meta, e das redes sociais de forma mais ampla, para a comunicação, mobilização e conscientização entre pessoas LGBTQIA+ na Nigéria e na África Ocidental.
5. Análise do Comitê de Supervisão
O Comitê analisou a decisão da Meta nesse caso em relação às políticas de conteúdo, aos valores e às responsabilidades de direitos humanos da Meta. Também avaliou as implicações desse caso quanto à abordagem mais ampla da Meta em relação à governança de conteúdo.
5.1 Conformidade com as políticas de conteúdo da Meta
I. Regras sobre conteúdo
O Comitê considera que o conteúdo não segue quatro Padrões da Comunidade: Coordenação de Atos Danosos e Incentivo à Prática de Atividades Criminosas, Discurso de Ódio, Conteúdo Violento e Explícito, e Bullying e Assédio.
O conteúdo não segue a Política sobre Coordenação de Atos Danosos e Incentivo à Prática de Atividades Criminosas, que proíbe a identificação de indivíduos supostamente membros de um grupo sujeito a risco de exposição pública. O Comitê concorda com a Meta de que o vídeo expõe a identidade dos dois homens contra a vontade deles, pois eles parecem ter sido espancados e estão visivelmente assustados. A confissão de um sobre fazer sexo com outro homem é, portanto, forçada e involuntária. Além disso, a legenda do vídeo alega explicitamente que os homens são gays.
Ele também não segue a Política sobre Discurso de Ódio que proíbe conteúdo que debocha de vítimas de crimes de ódio. O vídeo captura as consequências da violência contra dois homens, que continua no vídeo, com seus ferimentos claramente visíveis. Um dos homens explica que eles foram espancados porque fizeram sexo um com o outro, com a legenda do vídeo demonstrando ainda mais que a agressão criminosa foi motivada pela orientação sexual percebida deles. Como a legenda da publicação ridiculariza as vítimas desse crime de ódio dizendo que é “funny” (engraçado) que elas sejam aparentemente casadas, o Comitê acredita que ela atende à definição de “deboche” da Meta.
A legenda da publicação também não segue a Política sobre Bullying e Assédio, por debochar de seus ferimentos visíveis (uma “condição médica”) ao se referir à situação como “funny” (engraçada).
Por fim, o Comitê conclui que o conteúdo também não segue os Padrões da Comunidade sobre Conteúdo Violento e Explícito, pois inclui “comentários sádicos” feitos sobre atos de brutalidade contra os dois homens em um contexto de sofrimento e humilhação. Por si só, e sem a presença de outras violações da política, isso justificaria a aplicação de uma tela de aviso. No entanto, como a legenda contém “comentários sádicos” ridicularizando os atos de violência e agressão contra os homens, a política exige a remoção do conteúdo.
II. Medida de aplicação
O Comitê está especialmente preocupado com o fato de que o conteúdo que retrata violência e discriminação tão graves, e que não segue quatro Padrões da Comunidade, tenha ficado ativo por cerca de cinco meses, e que sequências do mesmo vídeo permaneceram na plataforma mesmo após o vídeo original ter sido removido. Após ser publicado em dezembro de 2023, o vídeo foi denunciado 112 vezes por 92 usuários diferentes, quando essa única ocorrência já havia acumulado milhões de visualizações e milhares de reações. Três moderadores humanos analisaram independentemente as denúncias e os apelações subsequentes. Todos os três concluíram que não houve violações, aparentemente porque não estavam analisando as publicações em relação a todos os Padrões da Comunidade. Além disso, esses analistas podem não estar familiarizados com o idioma igbo ou não serem capazes de realizar uma análise independente, já que os sistemas automatizados da Meta identificaram erroneamente o idioma do conteúdo como inglês e o encaminharam para analistas que falam esse idioma.
5.2 Conformidade com as responsabilidades da Meta relativas aos direitos humanos
O Comitê conclui que manter o conteúdo na plataforma não era consistente com as responsabilidades de direitos humanos da Meta à luz dos Princípios Orientadores da ONU sobre Empresas e Direitos Humanos (UNGPs). Em 2021, a Meta anunciou sua Política Corporativa de Direitos Humanos, na qual a empresa reafirmou seu compromisso de respeitar os direitos humanos de acordo com os UNGPs. De acordo com o Princípio Orientador 13, as empresas devem “evitar causar ou contribuir para impactos adversos aos direitos humanos por meio de suas próprias atividades” e “prevenir ou mitigar impactos adversos aos direitos humanos que estejam diretamente ligados às suas operações, aos seus produtos ou serviços”, mesmo que não tenham contribuído para esses impactos.
Ao interpretar os UNGPs, o Comitê baseou-se na recomendação do Relator Especial da ONU sobre Liberdade de Expressão e Opinião de que as empresas de redes sociais devem considerar os padrões globais de liberdade de expressão estabelecidos nos Artigos 19 e 20 do Pacto Internacional sobre Direitos Civis e Políticos (PIDCP) (veja os parágrafos 44-48 do relatório de 2018 do Relator Especial da ONU sobre liberdade de expressão, A/HRC/38/35 e parágrafo 41 do relatório de 2019 do Relator Especial da ONU sobre liberdade de expressão, A/74/486).
O artigo 20, parágrafo 2 do PIDCP prevê que “qualquer defesa do ódio nacional, racial ou religioso que constitua incitação à discriminação, hostilidade ou violência deve ser proibida por lei”. Essa proibição é “totalmente compatível com o direito à liberdade de expressão, tal como consta no artigo 19 [PIDCP], cujo exercício acarreta deveres e responsabilidades especiais” (Comentário Geral n.º 11, (1983), parágrafo 2). O Plano de Ação de Rabat sobre a proibição da defesa do ódio nacional, racial ou religioso que constitua incitação à discriminação, hostilidade ou violência é um roteiro importante para interpretar o Artigo 20, parágrafo 2 (A/HRC/22/17/Add.4, 2013, parágrafo 29). Ele estabelece seis fatores relevantes para que os estados determinem se devem proibir a expressão: “Contexto da declaração; status do autor; intenção de incitar o público contra o grupo-alvo; conteúdo da declaração; extensão da disseminação e probabilidade de dano, incluindo iminência.” O Comitê usa esses fatores para determinar a necessidade e a proporcionalidade das restrições de discurso pela Meta. Nesse caso, ele está considerando os mesmos fatores ao avaliar se a Meta deve remover o conteúdo, considerando suas responsabilidades em relação aos direitos humanos.
Ele conclui que a decisão original da Meta de manter o conteúdo na plataforma criou um risco de dano imediato aos homens no vídeo, justificando assim a remoção. Em países como a Nigéria, onde as atitudes sociais e a criminalização de relacionamentos entre pessoas do mesmo sexo alimentam a violência homofóbica, pessoas LGBTQIA+ que são expostas online podem ser vítimas de violência e discriminação no meio físico. As falhas da Meta em tomar medidas oportunas sobre esse vídeo, permitindo que ele fosse compartilhado tão amplamente, provavelmente contribuíram para esse ambiente hostil, criando riscos para outras pessoas (veja o comentário público da Human Rights Watch, PC-29659). O Comitê também observa que a publicação acumulou um grande número de visualizações (mais de 3,6 milhões), o que aumentou as chances de alguém identificar os homens retratados no vídeo e da publicação instigar os usuários a prejudicar pessoas LGBTQIA+, de forma mais ampla. Além disso, o Comitê destaca os comentários sádicos que acompanham o vídeo, que indicam a intenção do usuário de expor e humilhar os homens, incitando outros a discriminá-los e prejudicá-los. O grande número de reações (cerca de 9 mil), comentários (cerca de 8 mil) e compartilhamentos (cerca de 5 mil) indicam que o usuário conseguiu engajar seu público, aumentando ainda mais a probabilidade de danos, tanto aos homens retratados no vídeo quanto às pessoas LGBTQIA+ na Nigéria.
As restrições de discurso baseadas no Artigo 20, parágrafo 2 do PIDCP também devem atender ao teste tripartite do Artigo 19 do PIDCP (Comentário Geral n.º 34, parágrafo 50). A análise a seguir conclui que a remoção da publicação foi consistente com o Artigo 19.
Liberdade de expressão (Artigo 19 do PIDCP)
O artigo 19 do PIDCP prevê ampla proteção da expressão, incluindo a expressão política e a discussão dos direitos humanos, e a expressão que pode ser considerada “profundamente ofensiva” (Comentário Geral n.º 34, (2011), parágrafo 11, veja também o parágrafo 17 do relatório de 2019 do Relator Especial da ONU sobre a liberdade de expressão, A/74/486). Quando um estado aplica restrições à expressão, elas devem atender aos requisitos de legalidade, objetivo legítimo e necessidade e proporcionalidade, segundo o parágrafo 3 do Artigo 19 do PIDCP. Esses requisitos costumam ser chamados de “teste tripartite”. O Comitê usa essa estrutura para interpretar as responsabilidades de direitos humanos da Meta de acordo com os Princípios Orientadores da ONU sobre Empresas e Direitos Humanos. O Comitê faz isso tanto em relação à decisão de conteúdo individual sob análise quanto ao que isso diz sobre a abordagem mais ampla da empresa à governança de conteúdo. Como afirmou o Relator Especial da ONU sobre liberdade de expressão, embora “as empresas não tenham obrigações governamentais, seu impacto é do tipo que exige que avaliem o mesmo tipo de questões sobre a proteção do direito de seus usuários à liberdade de expressão” ( A/74/486, parágrafo 41).
Embora o Comitê observe que várias políticas de conteúdo são aplicáveis a esse caso, sua análise tripartite se concentra nos Padrões da Comunidade sobre Coordenação de Atos Danosos e Incentivo à Prática de Atividades Criminosas, visto que essa é a política na qual a empresa se baseou para remover o conteúdo.
I. Legalidade (clareza e acessibilidade das regras)
O princípio da legalidade exige que as regras que limitam a expressão sejam acessíveis e claras, formuladas com precisão suficiente para permitir que um indivíduo regule sua conduta de acordo com elas (Comentário Geral nº 34, parágrafo 25). Além disso, essas regras “podem não conceder liberdade de ação irrestrita para a restrição da liberdade de expressão aos encarregados de [sua] execução” e devem “fornecer instrução suficiente aos encarregados de sua execução para permitir-lhes determinar quais tipos de expressão são propriamente restritas e quais tipos não são” (Ibid.). O Relator Especial da ONU sobre a liberdade de expressão declarou que, quando aplicadas à governação do discurso online por parte de intervenientes privados, as regras devem ser claras e específicas (A/HRC/38/35, parágrafo 46). As pessoas que usam as plataformas da Meta devem ser capazes de acessar e entender as regras, e os moderadores de conteúdo devem ter orientações claras sobre sua aplicação.
O Comitê considera que a proibição da Meta de “expor publicamente” indivíduos revelando a identidade ou os locais afiliados a qualquer pessoa que supostamente seja membro de um grupo sujeito a risco de exposição pública não é suficientemente clara e acessível aos usuários.
Os Padrões da Comunidade sobre Coordenação de Atos Danosos e Incentivo à Prática de Atividades Criminosas não oferecem explicações suficientes para que os usuários entendam e diferenciem entre as duas regras semelhantes de “exposição pública”. O Comitê está particularmente preocupado com o fato de que os Padrões da Comunidade não explicam claramente que a regra em escala que proíbe “exposição pública” se aplica à identificação de pessoas como LGBTQIA+ em países onde o contexto local indica maiores riscos de danos no meio físico. Atualmente, essas informações estão disponíveis apenas em orientações internas para analistas, impossibilitando que os usuários saibam que pessoas supostamente pertencentes a grupos de sujeitos “a risco” de exposição pública incluem pessoas LGBTQIA+ em países específicos.
O Comitê está preocupado que a ambiguidade em torno das políticas da Meta sobre conteúdo que expõe publicamente indivíduos LGBTQIA+ possa confundir os usuários e impedi-los de cumprir as regras da plataforma. Ela também cria obstáculos para pessoas que são alvos de conteúdo abusivo e que buscam a remoção dessas publicações. A Meta deve, portanto, atualizar a linha da sua Política sobre Coordenação de Atos Danosos e Incentivo à Prática de Atividades Criminosas que proíbe "exposição pública", e que a empresa aplica em escala, para incluir exemplos ilustrativos de grupos sujeitos a risco de exposição pública, incluindo pessoas LGBTQIA+ em países específicos.
II. Objetivo legítimo
Qualquer restrição à liberdade de expressão também deve perseguir um ou mais dos objetivos legítimos listados no PIDCP, o que inclui a proteção dos direitos de terceiros (artigo 19, parágrafo 3 do PIDCP).
A Política sobre Coordenação de Atos Danosos e Incentivo à Prática de Atividades Criminosas atende ao objetivo legítimo de “prevenir e interromper danos no meio físico”, inclusive protegendo os direitos das pessoas LGBTQIA+ e daquelas percebidas como tal em países ao redor do mundo onde a “exposição pública” cria riscos à segurança. Esses direitos incluem o direito à não discriminação (Artigos 2 e 26 do PIDCP), inclusive no exercício de seus direitos à liberdade de expressão e reunião (Artigos 19 e 21 do PIDCP), à privacidade (Artigo 17 do PIDCP), bem como à vida (Artigos 6 do PIDCP) e à liberdade e segurança (Artigo 9 do PIDCP).
III. Necessidade e proporcionalidade
Nos termos do artigo 19(3) do PIDCP, a necessidade e a proporcionalidade exigem que as restrições à expressão “devem ser adequadas para atingir sua função de proteção; devem ser o instrumento menos intrusivo entre aqueles que podem atingir sua função de proteção; devem ser proporcionais ao interesse a ser protegido” (Comentário Geral n.º 34, parágrafo 34).
O Comitê considera que a eventual decisão da Meta de remover o conteúdo da plataforma foi necessária e proporcional. Uma pesquisa encomendada pelo Comitê indica que pessoas LGBTQIA+ na Nigéria estão continuamente expostas à violência, prisões arbitrárias, assédio, chantagem e discriminação, além de riscos de sanções legais. O conteúdo em si descreve as consequências do que parece ser um castigo corporal por um suposto relacionamento entre pessoas do mesmo sexo. Nessas circunstâncias, o Comitê determina que a aplicação precisa de políticas destinadas a proteger pessoas LGBTQIA+ é fundamental, especialmente em países que criminalizam relacionamentos entre pessoas do mesmo sexo. Considerando esses riscos, o Comitê considera que a remoção de conteúdo é o meio menos intrusivo de fornecer proteção às pessoas “expostas publicamente” nesse contexto. O dano causado pela “exposição pública” é imediato e impossível de desfazer; essas medidas só podem ser eficazes se implementadas em tempo hábil.
O Comitê está preocupado que a Meta não tenha conseguido identificar e remover rapidamente conteúdo claramente prejudicial que expõe involuntariamente as identidades de pessoas supostamente gays, o que por sua vez perpetua uma atmosfera de medo para pessoas LGBTQIA+ e promove um ambiente em que a perseguição a grupos marginalizados é ainda mais aceita e normalizada (veja o comentário público da GLAAD, PC-29655). Embora o conteúdo não seguisse quatro Padrões da Comunidade diferentes, tivesse sido denunciado 112 vezes e analisado por três moderadores diferentes, foi somente depois que o Comitê selecionou o caso para análise que a Meta removeu a publicação e garantiu que conteúdo semelhante contendo o vídeo fosse removido. O Comitê está particularmente alarmado com o efeito viral do vídeo, que foi visto mais de 3,6 milhões de vezes, recebeu cerca de 9 mil reações e 8 mil comentários e foi compartilhado aproximadamente 5 mil vezes em um período de cinco meses.
Ele entende que erros de aplicação são esperados na moderação de conteúdo em escala, no entanto, as explicações da Meta nesse caso revelam falhas sistêmicas. Embora a Meta tenha tomado medidas adicionais para melhorar a precisão ao aplicar a Política sobre Coordenação de Atos Danosos e Incentivo à Prática de Atividades Criminosas e tenha procurado evitar erros semelhantes por meio de treinamento adicional, ela não forneceu detalhes sobre as medidas implementadas para garantir que analistas humanos avaliem o conteúdo em relação a todas as políticas da Meta. Isso é particularmente relevante nesse caso, em que o conteúdo foi analisado por três moderadores que cometeram o mesmo erro, deixando de avaliar a publicação em relação a outros Padrões da Comunidade relevantes. Isso indica que os sistemas de aplicação da Meta eram inadequados.
O Comitê considera o erro de aplicação da Meta particularmente alarmante, dado o contexto na Nigéria, que criminaliza relacionamentos entre pessoas do mesmo sexo. Para melhorar a implementação de suas políticas, e além das medidas que a empresa já implementou, a Meta deve conduzir uma avaliação da precisão da aplicação da regra da Política sobre Coordenação de Atos Danosos e Incentivo à Prática de Atividades Criminosas, que proíbe a divulgação de conteúdo de indivíduos por meio da exposição de sua identidade ou localização. Com base nos resultados dessa avaliação, a Meta precisa melhorar a precisão da aplicação da política, inclusive por meio de treinamento atualizado de analistas de conteúdo, já que não deve haver tolerância para esse tipo de conteúdo.
O Comitê também examinou as práticas de aplicação da Meta em regiões multilíngues. Em suas conversas com o Comitê, a empresa inicialmente identificou erroneamente o idioma do vídeo como suaíli, quando na verdade era igbo. Em resposta a uma pergunta do Comitê, a Meta observou que o igbo não é um idioma com suporte para moderação de conteúdo em escala para o mercado nigeriano, mesmo que a empresa forneça suporte para moderação de conteúdo em igbo por meio de análise independente. De acordo com a Meta, o idioma não tem suporte porque a demanda por moderação de conteúdo em igbo é baixa. No entanto, a Meta informou ao Comitê que, quando o conteúdo está em um idioma sem suporte pelos analistas em escala da empresa, como o igbo, ele é direcionado aos analistas independentes de idiomas (que trabalham com conteúdo em vários idiomas) que avaliam o conteúdo com base nas traduções fornecidas pelos sistemas de tradução automática da Meta. A empresa também informou ao Comitê que tem alguns falantes de igbo que fornecem conhecimento da língua e análise de conteúdo para esse idioma, embora não em escala, para a empresa.
O Comitê reconhece que a Meta possui mecanismos para permitir moderação em idiomas sem suporte, como análise independente do idioma e alguns especialistas com conhecimento em igbo. No entanto, ele está preocupado que, ao não envolver analistas humanos que falam igbo na moderação em escala de conteúdo nesse idioma, que é falado por dezenas de milhões de pessoas na Nigéria e no mundo, a capacidade da empresa de moderar efetivamente o conteúdo e mitigar riscos potenciais seja reduzida. Isso poderia resultar em danos potenciais aos direitos e à segurança do usuário, como os sofridos pelos homens mostrados no vídeo nesse caso. À luz de seus compromissos com os direitos humanos, a Meta deve reavaliar seus critérios para selecionar idiomas para suporte pelos analistas em escala da empresa, a fim de estar em melhor posição para prevenir e mitigar danos associados ao uso de suas plataformas.
Além disso, a Meta informou ao Comitê que seus sistemas automatizados detectaram o idioma como inglês antes de encaminhar o conteúdo para análise humana. Segundo a Meta, isso aconteceu porque a legenda do vídeo do usuário estava em inglês. Embora a legenda esteja em inglês, o vídeo está inteiramente em igbo. A Meta reconheceu que identificou erroneamente o idioma do conteúdo. O Comitê está preocupado que o conteúdo bilíngue esteja sendo direcionado incorretamente, o que pode causar uma aplicação imprecisa.
Para aumentar a eficiência e a precisão da análise de conteúdo em idiomas sem suporte, a Meta deve garantir que seus sistemas de detecção de idioma possam identificar com precisão o conteúdo em idiomas sem suporte e fornecer traduções precisas desse conteúdo para analistas independentes de idiomas. A Meta também deve garantir que esse tipo de conteúdo seja sempre direcionado a analistas independentes de idiomas, mesmo que contenha uma mistura de idiomas com e sem suporte. A empresa também deveria fornecer aos analistas a opção de redirecionar conteúdo que contenha um idioma sem suporte para uma análise independente.
O Comitê está muito preocupado que, mesmo depois que a Meta removeu o conteúdo nesse caso, a pesquisa do Comitê revelou outras ocorrências do mesmo vídeo datadas de dezembro de 2023, inclusive em Grupos do Facebook, que não foram removidos. Isso indica que a Meta deve levar muito mais a sério suas responsabilidades com a avaliação cuidadosa para respeitar os direitos humanos conforme os UNGPs. O Comitê acolhe com satisfação o fato de que esse vídeo foi adicionado a um banco de MMS para evitar novos carregamentos, depois que o Comitê sinalizou à Meta as sequências restantes do vídeo no Facebook. Considerando a gravidade dos danos aos direitos humanos que podem resultar do uso das plataformas da Meta para distribuir vídeos desse tipo, a Meta deve fazer uso total da aplicação automatizada para remover proativamente conteúdo violador semelhante, além de usar bancos de MMS para impedir novos carregamentos.
6. Decisão do Comitê de Supervisão
O Comitê de Supervisão revoga a decisão original da Meta de manter ativo o conteúdo.
7. Recomendações
Política de Conteúdo
1. A Meta deve atualizar a proibição em escala da Política sobre Coordenação de Atos Danosos e Incentivo à Prática de Atividades Criminosas sobre “exposição pública” para incluir exemplos ilustrativos de “grupos sujeitos a risco de exposição pública”, incluindo pessoas LGBTQIA+ em países onde relacionamentos entre pessoas do mesmo sexo são proibidos e/ou essas exposições criam riscos significativos à segurança.
O Comitê considerará essa recomendação implementada quando a linguagem pública da Política sobre Coordenação de Atos Danosos e Incentivo à Prática de Atividades Criminosas refletir a mudança proposta.
Monitoramento
2. Para melhorar a implementação de sua política, a Meta deve realizar uma avaliação da precisão da aplicação da proibição em escala de exposição de identidade ou a localização de qualquer pessoa supostamente membro de um grupo sujeito a risco de exposição pública, de acordo com os Padrões da Comunidade sobre Coordenação de Atos Danosos e Incentivo à Prática de Atividades Criminosas.
O Comitê considerará essa recomendação implementada quando a Meta compartilhar publicamente os resultados da avaliação e explicar como a empresa pretende melhorar a precisão da aplicação dessa política.
3. Para aumentar a eficiência e a precisão da análise de conteúdo em idiomas sem suporte, a Meta deve garantir que seus sistemas de detecção de idioma identificam com precisão o conteúdo em idiomas sem suporte e fornecer traduções precisas desse conteúdo para analistas independentes de idiomas.
O Comitê considerará essa recomendação implementada quando a Meta compartilhar dados que sinalizem maior precisão no direcionamento e na análise de conteúdo em idiomas sem suporte.
4. A Meta deve garantir que o conteúdo que contenha um idioma sem suporte, mesmo que misturado com idiomas com suporte, seja encaminhado para análise independente. Isso inclui fornecer aos analistas a opção de redirecionar conteúdo que contenha um idioma sem suporte para uma análise independente.
O Comitê considerará essa recomendação implementada quando a Meta fornecer a ele dados sobre a implementação bem-sucedida dessa opção de direcionamento para analistas.
*Nota processual:
- As decisões do Comitê de Supervisão são tomadas por painéis de cinco membros e aprovadas por maioria de votos do Comitê inteiro. As decisões dele não representam, necessariamente, as opiniões de todos os membros.
- De acordo com seu Estatuto, o Comitê de Supervisão pode analisar apelações de usuários cujo conteúdo foi removido pela Meta, apelações de usuários que denunciaram conteúdo que a Meta manteve ativo e decisões que a Meta encaminha a ele (Seção 1 do Artigo 2 do Estatuto). O Comitê tem autoridade vinculativa para manter ou anular as decisões de conteúdo da Meta (Seção 5 do Artigo 3 e 4 do Estatuto). O Comitê pode emitir recomendações não vinculativas às quais a Meta é obrigada a responder (Seção 4 do Artigo 3 e 4 do Estatuto). Quando a Meta se compromete a agir de acordo com as recomendações, o Comitê monitora sua implementação.
- Para a decisão sobre o caso em questão, uma pesquisa independente foi encomendada em nome do Comitê. O Comitê recebeu assistência da Duco Advisors, uma empresa de consultoria especializada na intercessão entre as áreas de geopolítica, confiança e segurança, e tecnologia. A Memetica, um grupo de investigações digitais que fornece serviços de consultoria de risco e inteligência contra ameaças para mitigar danos online, também forneceu pesquisas. A empresa Lionbridge Technologies, LLC, cujos especialistas são fluentes em mais de 350 idiomas e trabalham de 5 mil cidades pelo mundo, forneceu a consultoria linguística.
Voltar para Decisões de Casos e Pareceres Consultivos sobre Políticas