Anulado

Publicação em polonês contra pessoas trans

O Comitê de Supervisão anulou a decisão original da Meta de deixar ativa uma publicação no Facebook na qual um usuário se dirigia a pessoas transgênero com discurso violento, incitando que membros desse grupo cometessem suicídio.

Tipo de decisão

Padrão

Políticas e tópicos

विषय
Igualdade de gênero e sexo, LGBT

Regiões/países

Localização
Polônia

Plataforma

Plataforma
Facebook

Para ler esta decisão em polonês, clique aqui.

Kliknij tutaj, aby przeczytać postanowienie w języku polskim.

Resumo

O Comitê de Supervisão anulou a decisão original da Meta de deixar ativa uma publicação no Facebook na qual um usuário se dirigia a pessoas transgênero com discurso violento, incitando que membros desse grupo cometessem suicídio. O Comitê considera que a publicação não seguiu os Padrões da Comunidade sobre discurso de ódio e suicídio e automutilação. No entanto, o problema fundamental neste caso não está relacionado às políticas em si, mas sim com o respectivo monitoramento. A falha repetida da Meta em tomar a medida de monitoramento correta, apesar dos vários sinais sobre o conteúdo prejudicial da publicação, leva o Comitê a concluir que a empresa não está seguindo os ideais que articulou sobre a segurança da comunidade LGBTQIA+. O Comitê recomenda enfaticamente que a Meta elimine as lacunas do monitoramento, inclusive melhorando a orientação interna aos analistas.

Sobre o caso

Em abril de 2023, um usuário do Facebook na Polônia publicou uma imagem de uma cortina listrada nas cores azul, rosa e branca da bandeira transgênero, com um texto em polonês dizendo algo do tipo "Nova tecnologia... Cortinas que se penduram sozinhas" e, acima disso, "limpeza de primavera <3". A bio do usuário inclui a descrição "Eu sou transfóbico". A publicação recebeu menos de 50 reações.

Entre abril e maio de 2023, 11 usuários diferentes denunciaram a publicação 12 vezes no total. Apenas 2 das 12 denúncias foram priorizadas para análise humana pelos sistemas automatizados da Meta, e as demais foram encerradas. As duas denúncias enviadas para análise humana, por potencialmente não seguirem o padrão sobre suicídio e automutilação do Facebook, não foram consideradas uma violação. Nenhuma das denúncias baseadas em discurso de ódio foram enviadas para análise humana.

Três usuários apelaram da decisão da Meta de deixar ativa a publicação no Facebook, sendo que uma apelação resultou na manutenção da decisão original tomada por um analista humano com base no Padrão da Comunidade sobre suicídio e automutilação. As outras apelações, feitas de acordo com o Padrão da Comunidade sobre discurso de ódio, não foram enviadas para análise humana. Por fim, um dos usuários que originalmente denunciou o conteúdo fez uma apelação ao Comitê. Como resultado da seleção deste caso pelo Comitê, a Meta determinou que a publicação não seguiu as políticas sobre discurso de ódio e suicídio e automutilação, removendo-a do Facebook. Além disso, a empresa desabilitou a conta do usuário que publicou o conteúdo por diversas violações anteriores.

Principais descobertas

O Comitê considera que o conteúdo violou a política sobre discurso de ódio da Meta porque inclui "discurso violento" na forma de um incentivo à morte por suicídio de um grupo com característica protegida. A publicação, que incita o suicídio entre pessoas transgênero, criou uma atmosfera de intimidação e exclusão e poderia ter contribuído para danos físicos. Considerando a natureza do texto e da imagem, a publicação também exacerbou a crise de saúde mental vivida pela comunidade transgênero. Um relatório recente da Gay and Lesbian Alliance Against Defamation (GLAAD) observa "o impacto psicológico traumático de sofrer exposição incessante a calúnias e condutas de ódio" online. O Comitê encontra apoio adicional para sua conclusão no contexto mais amplo de danos online e offline que a comunidade LGBTQIA+ está enfrentando na Polônia, incluindo ataques e retórica política por parte de figuras públicas e governamentais influentes.

O Comitê está preocupado com o fato de os analistas humanos da Meta não terem percebido as pistas contextuais. A referência da publicação ao risco elevado de suicídio ("cortinas que se penduram sozinhas") e o apoio à morte do grupo ("limpeza de primavera") foram violações claras do Padrão da Comunidade sobre discurso de ódio, enquanto a autoidentificação do criador do conteúdo como transfóbico, por si só, equivaleria a outra violação. O Comitê recomenda enfaticamente que a Meta aumente a precisão do monitoramento do discurso de ódio contra pessoas LGBTQIA+, especialmente quando as publicações incluem imagens e textos que exigem interpretação do contexto. Neste caso, as referências razoavelmente codificadas ao suicídio em conjunto com a representação visual de um grupo protegido (a bandeira transgênero) assumiram a forma de "criatividade maligna". Os responsáveis são indivíduos mal-intencionados que desenvolvem novos meios de atingir a comunidade LGBTQIA+ com publicações e memes que eles declaram ser "humorísticos ou satíricos", mas que, na verdade, contêm ódio ou assédio.

Além disso, o Comitê está preocupado com a declaração da Meta de que a não remoção do conteúdo por parte dos analistas humanos está alinhada a uma aplicação rigorosa das respectivas diretrizes internas. Isso indicaria que a orientação interna da empresa capta inadequadamente como o texto e a imagem podem interagir para representar um grupo definido pela identidade de gênero dos seus membros.

Embora a publicação também não tenha seguido claramente o Padrão da Comunidade sobre suicídio e automutilação do Facebook, o Comitê considera que essa política deveria proibir de maneira mais clara o conteúdo que promove o suicídio direcionado a um grupo identificável de pessoas, em vez de apenas uma pessoa desse grupo.

Neste caso, os sistemas de priorização de análise automatizada da Meta afetaram significativamente o monitoramento, inclusive a forma como a empresa lida com várias denúncias sobre o mesmo conteúdo. A empresa monitora e remove essas denúncias repetidas para "garantir a consistência nas decisões dos analistas e nas medidas de monitoramento". Outros motivos apresentados para o encerramento automático de denúncias incluíram a baixa gravidade e o baixo efeito viral do conteúdo (quantidade de visualizações acumulada), fazendo com que ele não fosse priorizado para análise humana. Neste caso, o Comitê acredita que a biografia do usuário poderia ter sido considerada como um sinal relevante ao determinar as pontuações de gravidade.

O Comitê acredita que a Meta deve investir mais no desenvolvimento de classificadores que identifiquem conteúdo potencialmente violador que afete a comunidade LGBTQIA+, além de aprimorar o treinamento de analistas humanos sobre danos relacionados à identidade de gênero.

A decisão do Comitê de Supervisão

O Comitê de Supervisão revoga a decisão original da Meta de deixar o conteúdo ativo.

O Comitê recomenda que a Meta:

  • Esclareça em sua página sobre suicídio e automutilação que a política proíbe conteúdo que promova ou incentive o suicídio direcionado a um grupo identificável de pessoas.
  • Modifique a orientação interna que fornece aos analistas em escala para garantir que as representações visuais de identidade de gênero baseadas em bandeiras que não contenham uma figura humana sejam entendidas como representações de um grupo definido pela identidade de gênero dos respectivos membros.

* Os resumos de caso dão uma visão geral da ocorrência e não têm valor precedente.

Decisão completa sobre o caso

1. Resumo da decisão

O Comitê de Supervisão anula a decisão original da Meta de deixar ativo um conteúdo em polonês no Facebook no qual um usuário se dirigia a pessoas transgênero com discurso violento, incitando que membros desse grupo cometessem suicídio. Depois que o Comitê identificou o caso para análise, a Meta concluiu que sua decisão original de permitir que a publicação permanecesse na plataforma estava errada, removeu o conteúdo e aplicou sanções. O Comitê considera que a publicação não seguiu os Padrões da Comunidade sobre discurso de ódio, suicídio e automutilação. O Comitê aproveita esta oportunidade para recomendar enfaticamente que a Meta aprimore suas políticas e orientações a analistas para proteger melhor as pessoas transgênero nas suas plataformas. Especificamente, ao avaliar se uma publicação contém discurso de ódio, a Meta deve garantir que as representações visuais de identidade de gênero baseadas em bandeiras que não contenham uma figura humana sejam entendidas como representações de um grupo definido pela identidade de gênero dos seus membros. A empresa também deve esclarecer que incentivar um grupo inteiro a cometer suicídio é tão violador quanto incentivar um único indivíduo a cometer tal ação. No entanto, o Comitê considera que o problema fundamental neste caso não está relacionado às políticas em sim, mas sim com o respectivo monitoramento. Mesmo com a forma como foram escritas, as políticas proibiam claramente essa publicação, que continha várias indicações de discurso de ódio direcionado a um grupo de pessoas com base na identidade de gênero. A falha repetida da Meta em tomar a medida de monitoramento correta neste caso, apesar das várias denúncias de usuários, leva o Comitê a concluir que a empresa está seguindo os ideais que articulou sobre a segurança da comunidade LGBTQIA+. O Comitê recomenda enfaticamente que a Meta elimine essas lacunas de monitoramento.

2. Descrição do caso e contexto

Em abril de 2023, um usuário do Facebook na Polônia publicou uma imagem de uma cortina com listras nas cores azul, rosa e branca, as cores da bandeira transgênero. Na imagem, o texto em polonês afirma: "Nova tecnologia. Cortinas que se enforcam". Acima dessa linha, há mais texto em polonês dizendo: "limpeza de primavera <3". Uma descrição em polonês na biografia do usuário diz: "Eu sou transfóbico". A publicação recebeu menos de 50 reações de outros usuários, a maioria com apoio. O emoji de reação usado com mais frequência foi o "Haha".

Entre abril e maio de 2023, 11 usuários diferentes denunciaram o conteúdo 12 vezes, no total. Dessas denúncias, dez não foram priorizadas para análise humana pelos sistemas automatizados da Meta por uma série de motivos, incluindo "baixas pontuações de gravidade e efeito viral". Em geral, a Meta prioriza conteúdo para análise humana com base na gravidade, no efeito viral e na probabilidade de violar as políticas sobre conteúdo. Apenas duas denúncias, que se encaixavam no Padrão da Comunidade do Facebook sobre suicídio e automutilação, resultaram no envio do conteúdo para análise humana. Nenhuma das denúncias baseadas na Política sobre discurso de ódio foram enviadas para análise humana. De acordo com a Meta, os analistas têm o treinamento e as ferramentas para "avaliar e agir" em relação ao conteúdo além da respectiva fila de políticas designada (por exemplo, discurso de ódio ou suicídio e automutilação). No entanto, ambos os analistas não consideraram o conteúdo como violação e não o encaminharam para análise adicional.

Três usuários fizeram uma apelação para a Meta a fim de manter o conteúdo no Facebook. Uma apelação resultou na decisão de um analista humano em manter a decisão original da Meta, que afirma que o conteúdo seguia a Política sobre suicídio e automutilação. As outras duas apelações, feitas de acordo com a política sobre discurso de ódio do Facebook, não foram enviadas para análise humana. Isso ocorre porque a Meta "monitora e remove" denúncias repetidas sobre o mesmo conteúdo para garantir a consistência nas decisões dos analistas e nas medidas de monitoramento.

Um dos usuários que originalmente denunciou o conteúdo então fez uma apelação ao Comitê. Como resultado da seleção deste caso pelo Comitê, a Meta determinou que o conteúdo não seguiu as políticas sobre discurso de ódio e suicídio e automutilação e removeu a publicação. Além disso, como parte da análise do caso pela Meta, a empresa determinou que a conta do criador de conteúdo já apresentava várias violações dos Padrões da Comunidade e atingia o limite para ser desabilitada. A Meta desabilitou a conta em agosto de 2023.

O Comitê observou o seguinte contexto para tomar sua decisão sobre o caso:

É frequentemente relatado que a Polônia tem altos níveis de hostilidade em relação à comunidade LGBTQIA+. [Observação: o Comitê usa "LGBTQIA+" (Lésbicas, Gays, Bissexuais, Transgêneros, Queer, Intersexuais e Assexuais) quando se refere a grupos baseados em orientação sexual, identidade de gênero e/ou expressão de gênero. No entanto, o Comitê preservará os acrônimos ou usos empregados por terceiros ao citá-los.] O Comissariado para Direitos Humanos do Conselho da Europa já havia chamado a atenção para a "estigmatização de pessoas LGBTI" como um "problema de longa data na Polônia". O relatório da ILGA (International Lesbian, Gay, Bisexual, Trans and Intersex Association) Rainbow Europe classifica os países com base nas leis e políticas que afetam diretamente os direitos humanos das pessoas LGBTI. O relatório classifica a Polônia como o estado-membro da União Europeia (UE) com o pior desempenho e o 42º entre os 49 países europeus avaliados. Os governos nacionais e locais, bem como figuras públicas proeminentes, têm se voltado cada vez mais para a comunidade LGBTQIA+ por meio de discursos discriminatórios e ações legislativas.

Em 2018, a ILGA-Europe passou a rastrear o que a organização chamou de "discurso de ódio político de alto nível contra pessoas LGBTI de líderes políticos poloneses", incluindo declarações de que "todo o movimento LGBT" é uma "ameaça" à Polônia. No mesmo ano, o prefeito de Lublin, na Polônia, tentou proibir a Marcha da Igualdade da cidade, embora o Tribunal de Apelação tenha suspendido a proibição pouco antes da marcha programada. Em 2019, o prefeito de Varsóvia introduziu a Carta LGBT+ de Varsóvia para "melhorar a situação das pessoas LGBT" na cidade. O partido governista Lei e Justiça (PiS) da Polônia e líderes religiosos criticaram a carta. O presidente e o governo central da Polônia também apontaram a comunidade transgênero como alvo. Por exemplo, o presidente do partido governista PiS se referiu a indivíduos transgêneros como "anormais". O Ministro da Justiça da Polônia também pediu à Suprema Corte do país que considere que "além dos pais, as pessoas trans também devem processar seus filhos e cônjuges [para obter permissão para a transição] quando quiserem ter acesso ao LGR [Reconhecimento Legal de Gênero]".

A Polônia também promulgou uma legislação anti-LGBTQIA+. Nas palavras da Human Rights Watch, as cidades começaram a clamar pela "exclusão das pessoas LGBT da sociedade polonesa" implementando, entre outras medidas, "zonas livres de pessoas LGBT" em 2019. A Human Rights Watch relatou que essas zonas são lugares "onde as autoridades locais adotaram 'cartas familiares' discriminatórias, comprometendo-se a 'proteger as crianças da corrupção moral' ou declarando-se livres da 'ideologia LGBT'". Mais de 100 cidades criaram essas zonas. A ILGA-Europe relata que, devido à pressão local, da UE e internacional, alguns desses municípios revogaram "resoluções anti-LGBT ou Cartas de Direitos da Família". Em 28 de junho de 2022, o Supremo Tribunal Administrativo da Polônia ordenou quatro municípios a revogar suas resoluções anti-LGBTQIA+. No entanto, como sugere a classificação da Polônia no relatório Rainbow Europe, o ambiente no país é notavelmente hostil à comunidade LGBTQIA+.

Uma pesquisa de 2019 sobre pessoas LGBTI na UE, realizada pela Agência dos Direitos Fundamentais da União Europeia, comparou as experiências de agressão e assédio de pessoas LGBTI na Polônia e em outras partes da União Europeia. De acordo com a pesquisa, 51% das pessoas LGBTI na Polônia frequentemente ou sempre evitam determinados locais por medo de serem agredidas. Isso se compara a 33% no restante da União Europeia. A pesquisa também constatou que uma em cada cinco pessoas transgênero foi atacada física ou sexualmente nos cinco anos anteriores à pesquisa, mais do que o dobro de outros grupos LGBTI.

O Comitê contratou especialistas externos para analisar as respostas das redes sociais às declarações depreciativas de representantes do governo polonês. Esses especialistas observaram "um aumento preocupante no discurso de ódio online direcionado a comunidades minoritárias na Polônia, incluindo comunidades LGBTQIA+ desde 2015". Em sua análise do conteúdo anti-LGBTQIA+ em polonês no Facebook, esses especialistas observaram que os picos ocorreram durante "decisões judiciais relacionadas à legislação anti-LGBTQIA+". Isso inclui a decisão do Supremo Tribunal Administrativo discutida acima e determinações relacionadas a contestações legais à adoção de várias declarações anti-LGBTI levadas aos tribunais administrativos locais pelo ombudsmen polonês para o Comissariado de Direitos Humanos, que estão em andamento desde 2019.

O Comitê também perguntou a especialistas em linguística sobre o significado das duas frases em polonês na publicação. Com relação à frase "cortinas que se penduram sozinhas, os especialistas esclareceram que, no contexto de uma "bandeira trans pendurada na janela", a frase era "um jogo de palavras" que justapunha "pendurar cortinas" com "cometer suicídio por enforcamento". Os especialistas concluíram que a frase era "um ataque transfóbico velado". Sobre a frase "limpeza de primavera", os especialistas disseram que a frase "normalmente se refere a uma limpeza completa quando chega a primavera", mas, em certos contextos, "também significa 'jogar fora todo o lixo' e 'livrar-se de todos os itens (e/ou pessoas) indesejados'". Diversos comentários públicos, inclusive o enviado pela Human Rights Campaign Foundation (PC-16029), argumentaram que a referência da publicação à "limpeza de primavera" era uma forma de "elogiar a exclusão e o isolamento das pessoas trans da sociedade polonesa (por meio de suas mortes)".

As questões de danos online e offline em jogo neste caso vão além da comunidade LGBTQIA+ na Polônia e afetam essa comunidade em todo o mundo. De acordo com a Organização Mundial da Saúde, o suicídio é a quarta principal causa de morte entre jovens de 15 a 29 anos em todo o mundo. A OMS observa que "as taxas de suicídio também são altas entre grupos vulneráveis que sofrem discriminação, como refugiados e migrantes, povos indígenas e pessoas lésbicas, gays, bissexuais, transgêneros e intersexuais (LGBTI)" Outros estudos de pesquisa encontraram uma "associação positiva" entre a vitimização cibernética e os pensamentos e comportamentos que levam à automutilação.

O risco de suicídio é uma preocupação especial para a comunidade de pessoas transgênero e não binárias. A Pesquisa Nacional de 2023 do Projeto Trevor sobre Saúde Mental LGBTQ constatou que metade dos jovens transgêneros e não binários nos Estados Unidos considerou tentar o suicídio em 2022. O mesmo estudo estima que 14% dos jovens LGBTQ tentaram suicídio no último ano, incluindo quase um em cada cinco jovens transgênero e não binários. De acordo com a Youth Risk Behavior Survey do CDC, 10% dos alunos do ensino médio nos Estados Unidos tentaram suicídio em 2021. Vários estudos de todo o mundo descobriram que pessoas transgênero ou não binárias correm um risco maior de pensamentos e tentativas de suicídio em comparação com pessoas cisgênero.

Em um comentário público para o Comitê, a Gay and Lesbian Alliance Against Defamation (GLAAD) (PC-16027) destacou as descobertas da sua pesquisa anual, o Social Media Safety Index, sobre a segurança de usuários LGBTQ em cinco grandes plataformas de redes sociais. O relatório de 2023 atribuiu ao Facebook uma pontuação de 61% com base em 12 indicadores específicos de LGBTQ. Essa pontuação representou um aumento de 15 pontos em relação a 2022, com o Facebook classificado em segundo lugar, atrás do Instagram e acima das outras três principais plataformas. No entanto, a GLAAD escreveu que "a segurança e a qualidade da proteção dos usuários LGBTQ continuam insatisfatórias". O relatório constatou que há "danos muito reais resultantes para as pessoas LGBTQ online, incluindo um efeito inibidor sobre a liberdade de expressão LGBTQ por medo de ser alvo de ataques e o impacto psicológico traumático da exposição incessante a ataques e comportamentos de ódio".

3. Escopo e autoridade do Comitê de Supervisão

O Comitê tem autoridade para analisar a decisão da Meta após uma apelação da pessoa que denunciou previamente o conteúdo que estava ativo (Artigo 2, Seção 1 do Estatuto; Artigo 3, Seção 1 dos Regulamentos Internos).

De acordo com o Artigo 3 da Seção 5 do Estatuto, o Comitê pode manter ou revogar a decisão da Meta, sendo a decisão vinculante para a empresa, nos termos do Artigo 4 do Estatuto. A Meta também deve avaliar a viabilidade de aplicar sua decisão no que diz respeito a conteúdo idêntico em contexto paralelo, de acordo com o Artigo 4 do Estatuto. As decisões do Comitê podem incluir recomendações não vinculantes às quais a Meta deve responder, de acordo com o Artigo 3 do Estatuto, Seção 4; Artigo 4). Quando a Meta se compromete a agir de acordo com as recomendações, o Comitê monitora sua implementação.

Quando o Comitê seleciona casos como esse, em que a Meta subsequentemente reconhece que cometeu um erro, ele analisa a decisão original para aumentar a compreensão do processo de moderação de conteúdo e para fazer recomendações a fim de reduzir erros e reforçar a equidade para as pessoas que usam o Facebook e o Instagram.

4. Fontes de autoridade e orientação

Os seguintes padrões e as decisões precedentes fundamentaram a análise do Comitê neste caso:

I. Decisões do Comitê de Supervisão

As decisões anteriores mais pertinentes do Comitê de Supervisão incluem as seguintes:

II. Políticas de Conteúdo da Meta

O fundamento da política sobre discurso de ódio define-o "como um ataque direto contra pessoas, em vez de conceitos ou instituições, com base em características protegidas", incluindo sexo e identidade de gênero. A Meta define ataques como: "discursos violentos ou desumanizantes, estereótipos prejudiciais, declarações de inferioridade, expressões de desprezo, repulsa ou rejeição, xingamentos e incitações à exclusão ou segregação". No fundamento da política, a Meta ainda afirma: “Acreditamos que as pessoas se comunicam e se conectam mais livremente quando não se sentem atacadas pelo que são. É por isso que não permitimos discurso de ódio no Facebook. Isso cria um ambiente de intimidação e exclusão que, em alguns casos, pode promover a violência no meio físico.”

Os Padrões da Comunidade sobre discurso de ódio da Meta separam os ataques em "níveis". Os ataques de Nível 1 incluem conteúdo dirigido a uma pessoa ou grupo de pessoas com base nas respectivas características protegidas com "discurso violento ou apoio por escrito ou na forma visual". Por fim, a Meta concluiu que a publicação neste caso violava essa linha da política. Em 6 de dezembro de 2023, a Meta atualizou os Padrões da Comunidade para refletir que a proibição de discurso violento contra grupos com características protegidas foi movida para a Política sobre violência e incitação.

Os ataques de Nível 2 incluem conteúdo dirigido a uma pessoa ou grupo de pessoas com base nas respectivas características protegidas com "expressões de desprezo (por escrito ou na forma visual)". Nos Padrões da Comunidade sobre discurso de ódio, a Meta define expressões de desprezo para incluir "[a]utoadmissão à intolerância com base em uma característica protegida" e "[e]xpressões de que uma característica protegida não deveria existir".

Os Padrões da Comunidade sobre suicídio e automutilação proíbem "qualquer conteúdo que incentive o suicídio ou a automutilação, incluindo conteúdo fictício, como memes ou ilustrações". De acordo com essa política, a Meta remove "conteúdo que promova, incentive, coordene ou forneça instruções sobre suicídio e automutilação".

A análise do Comitê foi baseada no compromisso da Meta com o valor voz, que a empresa descreve como fundamental, bem como seus valores segurança e dignidade.

III. Responsabilidades da Meta com os direitos humanos

Os Princípios Orientadores da ONU sobre Empresas e Direitos Humanos (UNGPs, pelas iniciais em inglês), endossados pelo Conselho de Direitos Humanos da ONU em 2011, estabelecem uma estrutura voluntária de responsabilidades das empresas privadas em relação aos direitos humanos. Em 2021, a Meta anunciou sua Política Corporativa de Direitos Humanos, em que reafirmou o compromisso em respeitar os direitos humanos de acordo com os UNGPs. Ao analisar as responsabilidades da Meta com os direitos humanos no caso em questão, o Comitê levou em consideração as seguintes normas internacionais:

  • Os direitos à liberdade de opinião e de expressão: Artigo 19 do Pacto Internacional dos Direitos Civis e Políticos, (PIDCP); Comentário geral n.º 34, Comitê de Direitos Humanos, 2011; Relatórios do Relator Especial da ONU (UNSR) sobre a liberdade de opinião e expressão: A/HRC/38/35 (2018), A/74/486 (2019); e Plano de Ação de Rabat, Alto Comissariado das Nações Unidas para os Direitos Humanos, relatório: A/HRC/22/17/Add.4 (2013).
  • O direito à vida: Artigo 6 do PIDCP.
  • O direito de desfrutar do mais elevado nível de saúde física e mental: Article 12, International Covenant on Economic, Social and Cultural Rights (ICESCR) (Artigo 12 do Pacto Internacional dos Direitos Econômicos, Sociais e Culturais);
  • O direito à igualdade e à não discriminação: Artigo 2, parágrafo 1 e Artigo 26 PIDCP;

5. Envios de usuários

Em sua apelação ao Comitê, o usuário que denunciou o conteúdo observou que a pessoa que originalmente publicou a imagem assediou virtualmente pessoas transgênero e criou outra conta após ser suspenso do Facebook. Ele também disse que celebrar a alta taxa de suicídio na comunidade transgênero "não deveria ser permitido".

6. Envios da Meta

A Meta acabou removendo a publicação de acordo com o Nível 1 do seu Padrão da Comunidade sobre discurso de ódio porque o conteúdo não seguia a linha da política que proíbe conteúdo voltado a uma pessoa ou grupo de pessoas com base nas respectivas características protegidas com "discurso violento ou apoio de maneira escrita ou visual". Em suas diretrizes internas sobre como aplicar essa política, a empresa afirma que o conteúdo deve ser removido se for "discurso violento na forma de apelos à ação ou declarações de intenção de infligir, declarações aspiracionais ou condicionais sobre ou declarações que incitem ou apoiem à morte, à doença ou ao dano (de maneira escrita ou visual)".

Nessas diretrizes internas, a empresa também descreve o que considera ser uma representação visual de grupos de características protegidas em uma imagem ou vídeo. A Meta não permitiu que o Comitê publicasse informações mais detalhadas relacionadas a essa orientação. Em vez disso, a empresa disse que, "de acordo com a Política sobre discurso de ódio, ela pode levar em consideração os elementos visuais do conteúdo ao determinar se ele é voltado para uma pessoa ou grupo de pessoas com base nas respectivas características protegidas".

A Meta afirmou que as várias avaliações do conteúdo como uma não violação do Padrão da Comunidade sobre discurso de ódio por seus analistas se alinham a "uma aplicação rigorosa das nossas diretrizes internas". Em outras palavras: "Embora as cortinas se assemelhem à bandeira do orgulho trans, interpretaríamos um ataque a uma bandeira, isoladamente, como um ataque a um conceito ou instituição, que não viola nossas políticas, e não a uma pessoa ou grupos de pessoas." No entanto, a Meta determinou posteriormente que a "referência a enforcamento indica que essa publicação está atacando um grupo de pessoas". Essa avaliação baseou-se na determinação de que a frase “‘cortinas que se penduram sozinhas’ refere-se implicitamente à taxa de suicídio na comunidade de pessoas transgênero porque as cortinas se assemelham à bandeira do orgulho transgênero e as cortinas penduradas na foto (bem como a sobreposição de texto) são uma metáfora do suicídio por enforcamento.” A Meta também observou que "conceitos ou instituições não podem 'se pendurar sozinhos', pelo menos não literalmente". Por isso, a Meta constatou que o usuário estava se referindo a "pessoas transgênero, não apenas ao conceito". Portanto, de acordo com a Meta, "esse conteúdo não segue a política sobre discurso de ódio, pois pretende ser interpretado como uma declaração em favor da morte por suicídio de um grupo com características protegidas".

Após uma atualização da política sobre discurso de ódio, na qual a linha da política que proíbe o discurso violento contra grupos com características protegidas foi movida para a política sobre violência e incitação, a Meta disse ao Comitê que o conteúdo continua sendo violador.

A Meta também informou que a declaração na biografia da conta do usuário, "Eu sou transfóbico", violou o Nível 2 da política sobre discurso de ódio como uma "autoadmissão de intolerância com base em características protegidas". Essa declaração foi, de acordo com a Meta, avaliada como violadora como parte da análise do caso e da conta do usuário feita pela empresa após a seleção do caso pelo Comitê. A Meta disse que essa declaração ajudou a fundamentar sua compreensão da intenção do usuário no conteúdo do caso.

Em resposta à pergunta do Comitê sobre se o conteúdo viola a política sobre suicídio e automutilação, a Meta confirmou que o "conteúdo viola a política sobre suicídio e automutilação ao incentivar o suicídio, de acordo com nossa determinação de que o conteúdo constitui uma declaração em favor da morte por suicídio de um grupo com características protegidas". A Meta também informou que a política sobre suicídio e automutilação "não diferencia o conteúdo que promove ou incentiva o suicídio direcionado a uma pessoa específica ou a um grupo de pessoas".

O Comitê fez 13 perguntas à Meta por escrito. Perguntas relacionadas à abordagem da moderação de conteúdo da Meta para questões de transgêneros e LGBTQIA+; a relação entre os Padrões da Comunidade sobre discurso de ódio, suicídio e automutilação; como o "humor" e a "sátira" são avaliados pelos moderadores ao avaliar o conteúdo em relação a violações de discurso de ódio; o papel das pontuações de "efeito viral" e "gravidade" na priorização de conteúdo para análise humana e como as práticas de moderação de conteúdo da Meta lidam com a priorização de conteúdo para análise humana que tem várias denúncias de usuários. A Meta respondeu às 13 perguntas.

7. Comentários públicos

O Comitê de Supervisão recebeu 35 comentários públicos relevantes para este caso, incluindo 25 dos Estados Unidos e Canadá, 7 da Europa e 3 da Ásia-Pacífico e Oceania. Esse total inclui comentários públicos que foram duplicados ou enviados com consentimento para publicação, mas que não atendiam às condições do Comitê para tal. Essa exclusão pode ser baseada na natureza abusiva do comentário, em preocupações com a privacidade do usuário e/ou em outros motivos legais. Comentários públicos podem ser enviados ao Comitê com ou sem consentimento para publicar e com ou sem consentimento para atribuir.

Os envios abordaram os seguintes temas: a situação dos direitos humanos na Polônia, especialmente no que se refere à experiência de pessoas transgênero; segurança LGBTQIA+ em plataformas de redes sociais; a relação entre danos online e offline na Polônia; a relação entre humor, sátira, memes e ódio/assédio contra pessoas transgênero em plataformas de redes sociais e os desafios da moderação de conteúdo que requer contexto para ser interpretado.

Para ler os comentários públicos enviados sobre este caso, clique aqui.

8. Análise do Comitê de Supervisão

O Comitê examinou se esse conteúdo deveria ser removido analisando as políticas de conteúdo, as responsabilidades e os valores de direitos humanos da Meta. Também avaliou as implicações deste caso quanto à abordagem mais ampla da Meta em relação à governança de conteúdo.

O Comitê selecionou o caso para avaliar a precisão da aplicação da sua política sobre discurso de ódio, assim como para entender melhor como a Meta lida com conteúdo que envolve discurso de ódio e promoção de suicídio ou automutilação.

8.1 Conformidade com as Políticas de Conteúdo da Meta

I. Regras sobre conteúdo

Discurso de ódio

Neste caso, o Comitê conclui que o conteúdo viola o Padrão da Comunidade sobre discurso de ódio. A publicação inclui "discurso violento ou apoio" (Nível 1) na forma de uma convocação à morte por suicídio de um grupo com características protegidas, o que claramente viola a política sobre discurso de ódio.

O Comitê concorda com a conclusão final da Meta de que a referência ao enforcamento na publicação é um ataque a um grupo de pessoas, e não a um conceito porque "conceitos ou instituições não podem 'se enforcar'". O Comitê também encontra apoio para sua conclusão no contexto mais amplo sobre os danos online e offline que os membros da comunidade LGBTQIA+ e, especificamente, os transgêneros, enfrentam na Polônia. Uma publicação que usa discurso violento para incitar e apoiar a morte de pessoas transgênero por suicídio cria uma atmosfera de intimidação e exclusão e pode contribuir para danos físicos. Esse contexto em que o teor linguístico da publicação foi usado deixa claro que a intenção era desumanizar o alvo. Diante da natureza do texto e da imagem, a publicação também exacerba a atual crise de saúde mental vivida pela comunidade de pessoas transgênero. De acordo com vários estudos, as pessoas transgênero ou não binárias correm um risco maior de pensamentos e tentativas de suicídio do que os indivíduos cisgênero. Além disso, a experiência de ataques e vitimização online foi positivamente correlacionada com pensamentos suicidas. Nesse contexto, o Comitê considera que a presença da bandeira transgênero, juntamente com a referência ao risco elevado de suicídio na comunidade transgênero ("cortinas que se penduram sozinhas"), é uma indicação clara de que as pessoas transgênero são o alvo da publicação. O Comitê considera que a frase "limpeza de primavera", seguida de um emoticon "<3" (coração), também constitui apoio à morte do grupo. Dessa forma, ela também viola a proibição do Padrão da Comunidade sobre discurso de ódio (Nível 2) no que diz respeito a "expressões de que uma característica protegida não deveria existir".

Com relação a esse Padrão da Comunidade, o Comitê acredita que a política e as diretrizes internas para o monitoramento poderiam ser mais responsivas à "criatividade maligna" em tendências de conteúdo que visam grupos historicamente marginalizados. O Wilson Center cunhou essa frase com uma pesquisa sobre abuso sexual e de gênero, e a GLAAD também destacou sua relevância em seu comentário público (PC-16027). "Criatividade maligna" faz referência ao "uso de linguagem codificada; memes visuais e textuais iterativos e baseados em contexto; bem como outras táticas para evitar a detecção em plataformas de redes sociais". Ao aplicar o conceito à publicação neste caso, a GLAAD disse que a "criatividade maligna" envolve "indivíduos mal-intencionados que desenvolvem novos meios de atingir a comunidade LGBTQ" e grupos vulneráveis de maneira mais geral por meio de publicações e memes que eles defendem como "humorísticos ou satíricos", mas que são "ódio ou assédio anti-LGBTQ". Especificamente, a "criatividade maligna" assumiu a forma de uma publicação que usa duas referências razoavelmente codificadas ao suicídio ("cortinas que se penduram sozinhas" e "limpeza de primavera") em conjunto com uma representação visual de um grupo protegido (a bandeira transgênero) para incentivar a morte por suicídio. Na decisão Armênios no Azerbaijão, o Comitê observou a importância do contexto para determinar que o termo em consideração naquele caso tinha o objetivo de atingir um grupo com base em uma característica protegida. Embora o contexto de guerra tenha prevalecido naquele caso, as ameaças enfrentadas por pessoas transgênero na Polônia mostram que as situações podem ser terríveis para uma comunidade, mesmo sem guerra. Conforme observado acima, uma em cada cinco pessoas transgênero na Polônia relatou ter sido atacada física ou sexualmente nos cinco anos anteriores a 2019, mais do que o dobro do número de indivíduos de outros grupos LGBTI que relataram referidos ataques.

O Comitê está preocupado com o fato de que os primeiros analistas humanos da Meta não tenham percebido essas pistas contextuais no conteúdo e, como resultado, concluíram que o conteúdo não era uma violação. Embora o Comitê esteja recomendando algumas revisões na orientação sobre o monitoramento do Padrão da Comunidade sobre discurso de ódio, ele ressalta que a publicação violou as políticas mesmo quando foi escrita. Ambas as declarações feitas na publicação apoiam a morte de pessoas transgênero por suicídio. Outro sinal na biografia do usuário reforça essa conclusão. A autoidentificação do usuário como transfóbico constituiria, por si só, uma violação de Nível 2 da proibição dos Padrões da Comunidade sobre discurso de ódio envolvendo "autoadmissão à intolerância com base em características protegidas". A Meta deve aprimorar a precisão do seu monitoramento de discurso de ódio contra a comunidade LGBTQIA+, seja por meio de automação ou análise humana, especialmente quando as publicações incluem imagens e textos que exigem contexto para serem interpretados. Como a GLAAD observou (PC-16027), a Meta "falha de maneira consistente em monitorar suas políticas ao analisar denúncias sobre conteúdo que emprega 'criatividade maligna'".

O Comitê também está preocupado com a declaração da Meta de que a não remoção do conteúdo por parte dos analistas humanos "esteja alinhada a uma aplicação rigorosa das nossas diretrizes internas". A declaração da Meta indica que a orientação interna aos analistas capta inadequadamente como o texto e a imagem podem interagir em uma publicação de redes sociais para representar um grupo definido pela identidade de gênero dos seus membros. O Comitê considera que a orientação pode não ser suficiente para que os analistas de conteúdo em escala consigam chegar ao resultado correto de monitoramento de conteúdo direcionado a grupos com características protegidas que são representados visualmente, mas não são nomeados ou representados em figuras humanas. A Meta não permitiu que o Comitê publicasse detalhes adicionais que teriam possibilitado uma discussão mais sólida sobre como o monitoramento desse tipo de conteúdo poderia ser aprimorado. No entanto, ele acredita que a Meta deve modificar sua orientação para garantir que as representações visuais da identidade de gênero sejam adequadamente compreendidas em avaliações de conteúdo para ataques. O Comitê enfatiza que, ao sugerir essa ação, não pretende diminuir a proteção da Meta contra desafios a conceitos, instituições, ideias, práticas ou crenças. Em vez disso, o Comitê quer que a empresa esclareça que as publicações não precisam retratar figuras humanas para constituir um ataque a pessoas.

Suicídio e automutilação

O Comitê considera que o conteúdo deste caso também viola o Padrão da Comunidade sobre suicídio e automutilação. Essa política proíbe "conteúdo que promova, incentive, coordene ou forneça instruções sobre suicídio e automutilação". De acordo com as diretrizes internas que a Meta fornece aos analistas, "promoção" é definida como "falar positivamente de". O Comitê concorda com a conclusão final da Meta de que o conteúdo constitui uma declaração em favor da morte por suicídio de um grupo com características protegidas e, portanto, incentiva o suicídio.

O Comitê também considera que o Padrão da Comunidade sobre suicídio e automutilação deveria proibir mais expressamente o conteúdo que promove ou incentiva o suicídio direcionado a um grupo identificável de pessoas, em vez de uma pessoa desse grupo. A Meta revelou ao Comitê que a política não faz distinção entre essas duas formas de conteúdo. No entanto, considerando os desafios que os analistas enfrentaram para identificar uma declaração que incentiva o suicídio de um grupo neste caso, o Comitê recomenda enfaticamente que a Meta esclareça que a política proíbe conteúdo que promova ou incentive o suicídio direcionado a um grupo identificável de pessoas. A empresa deve esclarecer esse ponto na página da política de suicídio e automutilação, bem como nas suas diretrizes internas associadas aos analistas.

II. Medida de monitoramento

O Comitê considera que os sistemas automatizados de priorização de análises da Meta afetaram significativamente as medidas de monitoramento neste caso. Das 12 denúncias de usuários sobre a publicação, dez foram encerradas automaticamente pelos sistemas automatizados da Meta. Das três apelações de usuários contra as decisões da Meta, duas foram automaticamente encerradas pelos sistemas automatizados da Meta. O Comitê está preocupado com o fato de que o histórico do caso compartilhado contém várias indicações de violação e, portanto, sugere que as políticas da Meta não estão sendo adequadamente aplicadas.

O Comitê observa que muitas denúncias de usuários foram encerradas como resultado das práticas de moderação de conteúdo da Meta para lidar com várias denúncias sobre o mesmo conteúdo. A primeira denúncia de usuário por discurso de ódio não foi priorizada para análise humana devido a uma "baixa gravidade e baixa pontuação de efeito viral". As denúncias subsequentes de discurso de ódio não foram priorizadas para análise humana porque, quando várias denúncias são feitas sobre o mesmo conteúdo, a Meta "remove essas denúncias repetidas para garantir a consistência nas decisões dos analistas e nas medidas de monitoramento". O Comitê reconhece que a remoção de denúncias repetidas é uma prática razoável para a moderação de conteúdo em escala. No entanto, ele observa que a prática exerce mais pressão sobre a determinação inicial feita em relação a uma denúncia, pois isso também determinará o destino de todas as denúncias agrupadas a ela.

O Comitê acredita que seria importante que a Meta priorizasse o aprimoramento da precisão dos sistemas automatizados que monitoram as políticas de conteúdo e priorizam o conteúdo para análise, especialmente quando se trata de conteúdo que potencialmente afeta pessoas LGBTQIA+. Esses aprimoramentos na capacidade dos sistemas automatizados de reconhecer o tipo de linguagem codificada e as imagens baseadas em contexto consideradas neste caso melhorariam indubitavelmente o monitoramento do conteúdo direcionado a outros grupos com características protegidas. O Comitê acredita que a biografia do usuário, por exemplo, que incluía uma autoadmissão de transfobia, poderia ter sido considerada como um sinal relevante ao determinar as pontuações de gravidade com o objetivo de decidir se o conteúdo deveria ser priorizado para análise e/ou se deveria ser tomada uma medida de monitoramento. Esse sinal poderia suplementar as análises comportamentais e de redes sociais existentes que a Meta poderia usar para revelar conteúdo potencialmente violador.

Além disso, o Comitê enfatiza que seria importante que a Meta garantisse que os sistemas automatizados fossem bem calibrados e que os analistas de conteúdo fossem treinados para avaliar efetivamente as publicações relacionadas à comunidade LGBTQIA+ em escala. O Comitê está preocupado com a abordagem atual da Meta, segundo a qual os analistas encarregados de avaliar as apelações geralmente parecem ter o mesmo nível de especialização que aqueles que realizam a primeira avaliação do conteúdo. O Comitê acredita que a Meta deve investir mais no desenvolvimento e no treinamento de classificadores que identifiquem conteúdo potencialmente violador que afete a comunidade LGBTQIA+ e priorizar esse conteúdo para análise humana. O discurso de ódio, especialmente o conteúdo de maior gravidade que se enquadra no Nível 1 da política da Meta, deve sempre ser priorizado para análise. O Comitê também sugere reforçar essas melhorias no processo com: i) treinamento aprimorado sobre danos relacionados à identidade de gênero para analistas; ii) uma força-tarefa sobre as experiências de pessoas transgênero e não binárias nas plataformas da Meta e iii) a criação de um grupo especializado de profissionais no assunto para analisar o conteúdo relacionado a questões que afetam a comunidade LGBTQIA+. Embora os fatos deste caso pertençam especificamente aos danos enfrentados por pessoas transgênero no Facebook, o Comitê também incentiva a Meta a explorar como melhorar o monitoramento contra conteúdo intolerante que afeta outros grupos com características protegidas.

O Comitê está emitindo apenas duas recomendações formais abaixo. No entanto, ressalta que isso se deve ao fato de que os desafios destacados no presente caso têm menos a ver com as políticas conforme escritas do que com o seu monitoramento. O Comitê enumera pelo menos cinco indícios de conteúdo prejudicial neste caso: (1) a referência da publicação a “cortinas que se penduram sozinhas”; (2) a referência da publicação à "limpeza de primavera <3); (3) a autodescrição do usuário como "transfóbico" em um país em que são relatados altos níveis de hostilidade em relação à comunidade LGBTQIA+; (4) o número de denúncias e apelações de usuários sobre o conteúdo e (5) o número de denúncias e apelações em relação ao efeito viral do conteúdo. O Comitê está preocupado com o fato de a Meta não ter percebido esses sinais e acredita que isso sugere que suas políticas não estão sendo suficientemente aplicadas. Ele está convencido de que a Meta deve pensar de maneira rigorosa e criativa sobre como transpor a barreira entre seus ideais de proteção de indivíduos LGBTQIA+ nas suas plataformas e o monitoramento desses ideais.

8.2 Conformidade com as responsabilidades da Meta com os direitos humanos

Liberdade de expressão (Artigo 19 PIDCP)

O Artigo 19, parágrafo 2 do Pacto Internacional dos Direitos Civis e Políticos dispõe que "toda pessoa terá direito à liberdade de expressão; esse direito incluirá a liberdade de procurar, receber e difundir informações e ideias de qualquer natureza, independentemente de considerações de fronteiras, verbalmente ou por escrito, em forma impressa ou artística ou por qualquer outro meio". O Comentário Geral n.º 34 (2011) especifica ainda que a expressão protegida inclui expressões que podem ser consideradas "profundamente ofensivas" (parágrafo 11).

Quando um Estado aplica restrições à expressão, elas devem atender aos requisitos de legalidade, objetivo legítimo e necessidade e proporcionalidade (segundo o parágrafo 3 do Artigo 19 do PIDCP). Esses requisitos costumam ser chamados de "teste tripartite". O Comitê usa essa estrutura para interpretar os compromissos voluntários de direitos humanos da Meta, tanto em relação à decisão de conteúdo individual em análise quanto ao que isso diz sobre a abordagem mais ampla da Meta à governança de conteúdo. Como afirmou o Relator Especial da ONU sobre liberdade de expressão, embora "as empresas não tenham obrigações governamentais, seu impacto é do tipo que exige que avaliem o mesmo tipo de questões sobre a proteção do direito de seus usuários à liberdade de expressão" (A/74/486, parágrafo 41).

I. Legalidade (clareza e acessibilidade das regras)

O princípio da legalidade conforme a legislação internacional sobre direitos humanos exige que as regras usadas para limitar a expressão sejam claras e acessíveis (Comentário Geral n.º 34, parágrafo 25). As regras que restringem a expressão "podem não conceder liberdade de ação irrestrita para a restrição da liberdade de expressão aos encarregados de [sua] execução" e "fornecer instrução suficiente aos encarregados de sua execução para permitir que determinem quais tipos de expressão são propriamente restritas e quais tipos não são" (Ibid.). Aplicada às regras que regem o discurso online, o Relator Especial da ONU sobre liberdade de expressão reiterou que elas deveriam ser claras e específicas (A/HRC/38/35, parágrafo 46). As pessoas que usam as plataformas da Meta devem ser capazes de acessar e entender as regras, e os moderadores de conteúdo devem ter orientações claras sobre o monitoramento.

O Comitê considera que as proibições da Meta de "apoio ou discurso violento" em forma escrita ou visual com direcionamento para grupos com características protegidas, de expressões de que uma característica protegida não deveria existir e de um discurso que promove ou incentiva o suicídio e a automutilação são suficientemente claras.

Ele observa, no entanto, que a Meta poderia melhorar a precisão do monitoramento em relação às políticas envolvidas neste caso, fornecendo orientações mais claras para os analistas humanos, conforme abordado na seção 8.1 acima. A empresa deve esclarecer que as representações visuais de identidade de gênero, como por meio de uma bandeira, não precisam representar figuras humanas para constituir um ataque de acordo com a política sobre discurso de ódio. A Meta também deve esclarecer que um apelo para que um grupo (em vez de um indivíduo) cometa suicídio viola a política sobre suicídio e automutilação.

II. Objetivo legítimo

Qualquer restrição da expressão deve defender um dos objetivos legítimos do PIDCP, que incluem os "direitos de terceiros". Em várias decisões, o Comitê constatou que a política sobre discurso de ódio da Meta, que tem o objetivo de proteger as pessoas contra os danos causados pelo discurso de ódio, tem um objetivo legítimo reconhecido pelos padrões das leis internacionais de direitos humanos (veja, por exemplo, a decisão da Animação Knin). Além disso, o Comitê considera que, neste caso, as linhas da política sobre suicídio e automutilação em relação ao conteúdo que incentiva o suicídio ou a automutilação atendem aos objetivos legítimos de proteger o direito das pessoas de desfrutar do mais alto padrão possível de saúde física e mental (ICESCR 12) e o direito à vida (Artigo 5, ICCPR). Em casos como este, em que um grupo com características protegidas é incentivado a cometer suicídio, a política sobre suicídio e automutilação também protege os direitos das pessoas à igualdade e não discriminação (Artigo 2, parágrafo 1, ICCPR).

III. Necessidade e proporcionalidade

O princípio da necessidade e da proporcionalidade mostra que qualquer restrição à liberdade de expressão "deve ser apropriada para cumprir sua função protetora; ser o instrumento menos intrusivo entre aqueles que podem cumprir sua função protetora [e] ser proporcional ao interesse a ser protegido" (Comentário Geral n.º 34, parágrafo 34).

Ao avaliar os riscos representados por conteúdo violento, o Comitê guia-se normalmente pelo teste de seis fatores descrito no Plano de Ação de Rabat, que aborda a defesa contra ódio nacional, racial ou religioso que constitua incitamento à hostilidade, discriminação ou violência. Com base na avaliação dos fatores relevantes, sobretudo o conteúdo e a forma de expressão, a intenção do locutor e o contexto, descritos com mais detalhes a seguir, o Comitê entende que a remoção do conteúdo está de acordo com as responsabilidades da Meta com os direitos humanos porque ele representa uma ameaça de dano iminente e provável. Remover o conteúdo é uma limitação necessária e proporcional à expressão para proteger o direito à vida, bem como o direito de desfrutar do mais alto padrão atingível de saúde física e mental da comunidade LGBTQIA+ em geral e, em particular, das pessoas transgênero na Polônia.

Embora o Comitê tenha observado anteriormente a importância de recuperar termos depreciativos para pessoas LGBTQIA+ para combater a desinformação (consulte a decisão Ressignificação de palavras em árabe), esse não é o caso aqui. A publicação também não contém discurso político ou interessante (consulte a decisão Protestos na Colômbia). Neste caso, a publicação apresenta a imagem da bandeira transgênero pendurada como cortinas, com a descrição de que as cortinas se penduram sozinhas (fazendo um jogo que palavras que também pode significar que as cortinas "se enforcam"). De acordo com especialistas consultados pelo Comitê, o uso de cortinas (tanto na forma visual quanto na textual) não parece ser uma linguagem codificada recorrente voltada para a comunidade transgênero. No entanto, conforme discutido acima, o fenômeno da "criatividade maligna" ou o uso de linguagem nova e estratégias de representação para expressar ódio e assédio, passou a caracterizar as tendências de conteúdo que têm como alvo as pessoas transgênero. O Comitê considera que o conteúdo deste caso se enquadra perfeitamente nessa tendência. Embora a publicação tenha usado imagens que alguns consideraram "engraçadas" (conforme evidenciado pelas reações do emoji "Haha"), a publicação ainda pode ser interpretada como uma declaração violenta e provocativa contra a comunidade transgênero. O humor e a sátira podem claramente ser usados para ultrapassar os limites da crítica legítima, mas não podem ser um disfarce para o discurso de ódio. A publicação só aborda o tópico das altas taxas de suicídio entre a comunidade transgênero para comemorar esse fato.

Ao considerar a intenção do criador do conteúdo, o Comitê observa que sua biografia declara abertamente que ele é transfóbico. Embora a Meta tenha considerado apenas mais tarde as implicações dessa declaração para o conteúdo do caso em si, o Comitê avalia que ela é altamente relevante para determinar a intenção do usuário. Isso também seria um motivo independente para remover o conteúdo como uma violação de Nível 2 da política sobre discurso de ódio. A publicação também descreveu o ato de indivíduos transgênero que morrem por suicídio como uma "limpeza de primavera", incluindo um emoticon de coração ao lado da descrição. À luz dessa declaração de apoio à morte por suicídio de um grupo, o Comitê considera a intenção de incentivar a discriminação e a violência com base no conteúdo da publicação, na imagem usada e no texto e na legenda que a acompanham. O conteúdo neste caso não apenas incentiva as pessoas transgênero a tomar medidas violentas contra si, mas também incita outras pessoas a discriminar e agir com hostilidade em relação a pessoas transgênero. Esse entendimento é confirmado pelo fato de que o emoji de reação usado com mais frequência por outros usuários que interagiram com o conteúdo foi o "Haha".

Por fim, o Comitê observa os riscos offline significativos que a comunidade LGBTQIA+ polonesa enfrenta na forma de ataques crescentes por meio de ações legislativas e administrativas, bem como retórica política por parte de figuras centrais do governo e vozes públicas influentes. Desde 2020, a Polônia tem sido consistentemente classificada como o país membro da UE com o pior desempenho em relação aos direitos LGBTQIA+, de acordo com a ILGA-Europe. Também é importante observar que a Polônia não tem proteções para LGBTQIA+ em suas leis sobre discurso de ódio e crimes de ódio, um problema que a ILGA-Europe e a Anistia Internacional, entre outras organizações, solicitaram que a Polônia resolvesse. Além disso, o aumento da retórica anti-LGBTQIA+ em polonês no Facebook, sinalizado por especialistas externos e inúmeros comentários públicos, não está acontecendo isoladamente. Muitas organizações e instituições expressaram preocupação com o predomínio do discurso anti-LGBTQIA+ nas redes sociais. O especialista independente da ONU em orientação sexual e identidade de gênero (IE SOGI, na sigla em inglês), Victor Madrigal-Borloz, disse que os níveis de violência e discriminação contra pessoas transgênero e com diversidade de gênero "ofendem a consciência humana". As pesquisas e relatórios da GLAAD descobriram que há "danos resultantes muito reais para as pessoas LGBTQ online, incluindo (...) o trauma psicológico de sofrer exposição incessante a ataques e condutas de ódio". Conteúdos como a publicação deste caso, especialmente quando considerados em escala, podem contribuir para um ambiente no qual o dano já generalizado da morte por suicídio na comunidade de pessoas transgênero é exacerbado. Além disso, o conteúdo que normaliza o discurso violento contra pessoas transgênero, como é o caso dessa publicação, corre o risco de contribuir tanto para a crise de saúde mental que afeta a comunidade transgênero quanto para o aumento da violência contra a comunidade offline.

9. Decisão do Comitê de Supervisão

O Comitê de Supervisão revoga a decisão original da Meta de deixar o conteúdo ativo.

10. Recomendações

Política de Conteúdo

1. A página da política sobre suicídio e automutilação deve esclarecer que a política proíbe conteúdo que promova ou incentive o suicídio direcionado a um grupo identificável de pessoas.

O Comitê considerará que isso foi implementado quando o texto do Padrão da Comunidade sobre suicídio e automutilação voltado para o público refletir a alteração proposta.

Monitoramento

2. A orientação interna da Meta para analistas em escala deve ser modificada para garantir que as representações visuais de identidade de gênero baseadas em bandeiras que não contenham uma figura humana sejam entendidas como representações de um grupo definido pela identidade de gênero dos seus membros. Essa modificação esclareceria as instruções para o monitoramento desse tipo de conteúdo em escala sempre que ele contiver um ataque violador.

O Comitê considerará que a implementação foi feita quando a Meta fornecer as alterações em sua orientação interna.

*Nota processual:

As decisões do Comitê de Supervisão são preparadas por grupos com cinco membros e aprovadas pela maioria do Comitê. As decisões do Comitê não representam, necessariamente, as opiniões pessoais de todos os membros.

Para a decisão sobre este caso, uma pesquisa independente foi solicitada em nome do Comitê. Um instituto de pesquisa independente com sede na Universidade de Gotemburgo, que tem uma equipe de mais de 50 cientistas sociais de seis continentes, bem como mais de 3.200 especialistas do mundo inteiro auxiliaram o Comitê. A Memetica, uma organização dedicada à pesquisa de código aberto sobre tendências de redes sociais, também forneceu análises. A empresa Lionbridge Technologies, LLC, cujos especialistas são fluentes em mais de 350 (trezentos e cinquenta) idiomas e trabalham de 5.000 (cinco mil) cidades pelo mundo, forneceu a consultoria linguística.

Voltar para Decisões de Casos e Pareceres Consultivos sobre Políticas