Anulado

Preocupação de Punjab com a RSS na Índia

O Comitê de Supervisão anulou a decisão do Facebook de remover uma publicação, de acordo com os Padrões da Comunidade sobre organizações e indivíduos perigosos.

Tipo de decisão

Padrão

Políticas e tópicos

विषय
Política
Padrão da comunidade
Indivíduos e organizações perigosos

Regiões/países

Localização
Índia

Plataforma

Plataforma
Facebook

Para ler esta decisão em punjabi, clique aqui.

ਇਹ ਫ਼ੈਸਲਾ ਪੰਜਾਬੀ ਵਿੱਚ ਪੜ੍ਹਨ ਲਈ,“ਇੱਥਕਲਿੱਕ ਕਰੋ।

Resumo do caso

O Comitê de Supervisão anulou a decisão do Facebook de remover uma publicação, de acordo com os Padrões da Comunidade sobre Organizações e Indivíduos Perigosos. Após o Comitê identificar esse caso para análise, o Facebook restaurou o conteúdo. O Comitê demonstrou preocupação com o fato de o Facebook não ter analisado a apelação do usuário contra sua decisão original. O Comitê também incentivou a empresa a tomar medidas para evitar erros que silenciam vozes de minorias religiosas.

Sobre o caso

Em novembro de 2020, um usuário compartilhou uma publicação de vídeo da empresa de mídia online Global Punjab TV no idioma punjabi. O vídeo incluía uma entrevista de 17 minutos com o professor Manjit Singh, definido como “um ativista social e apoiador da cultura punjabi”. A publicação também incluía uma legenda mencionando a organização nacionalista hindu Rashtriya Swayamsevak Sangh (RSS) e o partido governante da Índia Bharatiya Janata Party (BJP): “A RSS é a nova ameaça. Ram Naam Satya Hai. O BJP avança em direção ao extremismo.”

No texto que acompanha a publicação, o usuário alegou que a RSS estava ameaçando matar os Sikhs, um grupo religioso minoritário na Índia, e repetir a “saga mortal” de 1984, quando grupos hindus massacraram e queimaram homens, mulheres e crianças sikhs. O usuário alega que o próprio Primeiro-ministro Modi está articulando a ameaça do “Genocídio dos sikhs” com a assistência do Presidente da RSS, Mohan Bhagwat. O usuário também alegou que os regimentos sikhs no exército informaram ao Primeiro-ministro Modi que estão dispostos a morrer para proteger os fazendeiros sikhs e suas terras em Punjab.

Depois da denúncia de um usuário, uma análise humana determinou que a publicação violava o Padrão da Comunidade sobre organizações e indivíduos perigosos do Facebook e a removeu. A remoção levou a uma restrição automática na conta do usuário. O Facebook informou ao usuário que não seria possível analisar sua apelação de remoção por causa de uma redução temporária na capacidade de pessoal devido à COVID-19.

Principais conclusões

Depois que o Comitê identificou esse caso para análise, mas antes de ser atribuído a um painel, o Facebook percebeu que o conteúdo foi removido por engano e o restaurou. O Facebook observou que nenhum dos grupos ou indivíduos mencionados no conteúdo são denominados como “perigosos” de acordo com suas regras. A empresa também não conseguiu identificar as palavras específicas na publicação que levaram à remoção por engano.

O Comitê concluiu que a decisão original do Facebook de remover a publicação não foi consistente com os Padrões da Comunidade da empresa ou responsabilidades de direitos humanos.

O Comitê observou que a publicação destacou a questão de vozes das minorias e da oposição na Índia, que estão sendo supostamente discriminadas pelo governo. É importante principalmente que o Facebook tome medidas para evitar erros que silenciam essas vozes. Embora reconheça as circunstâncias únicas da COVID-19, o Comitê argumentou que o Facebook não dispensou tempo ou atenção adequados para analisar esse conteúdo. O Comitê enfatizou que os usuários deveriam poder fazer uma apelação nos casos do Facebook antes de chegarem ao Comitê e incentivou a empresa a priorizar a restauração dessa capacidade.

Levando em consideração o acima exposto, o Comitê considerou as restrições de conta, que causaram a exclusão do usuário do Facebook, particularmente exageradas. O Comitê também expressou preocupação com o fato de que as regras do Facebook sobre as restrições estão espalhadas em muitos locais e nem todas são encontradas nos Padrões da Comunidade, como seria esperado.

Por fim, o Comitê observou que os relatórios de transparência do Facebook dificultam avaliar se a aplicação da política de Organizações e Indivíduos Perigosos tem um impacto particular sobre falantes de idiomas minoritários ou minorias religiosas na Índia.

A decisão do Comitê de Supervisão

O Comitê revoga a decisão original do Facebook de remover o conteúdo. Em uma declaração de parecer consultivo, o Comitê recomenda ao Facebook:

  • Traduza seus Padrões da Comunidade e Padrões de Implementação Interna para o punjabi. O Facebook também deve ter como objetivo tornar seus Padrões da Comunidade acessíveis a todos os idiomas amplamente falados pelos seus usuários.
  • Restaure a análise humana das decisões de moderação de conteúdo e o acesso a um processo de apelação humana aos níveis pré-pandêmicos o mais rápido possível, ao mesmo tempo que protege a saúde da equipe e contratados do Facebook.
  • Amplie as informações públicas sobre as taxas de erro, tornando-as visíveis por país e idioma para cada Padrão da Comunidade em seus relatórios de transparência.

*Os resumos de caso dão uma visão geral da ocorrência e não têm valor precedente.

Decisão completa sobre o caso

1. Resumo da decisão

O Comitê de Supervisão revogou a decisão do Facebook de remover o conteúdo. O Comitê observa que, depois de selecionar o caso, mas antes de ser atribuído a um painel, o Facebook determinou que o conteúdo foi removido por engano e o restaurou. O Comitê concluiu que o conteúdo em questão não exalta, apoia ou representa qualquer indivíduo ou organização perigosa. A publicação destacava os supostos maus-tratos a minorias na Índia por parte do governo e agentes pró-governo e tinha valor de interesse público. O Comitê ficou preocupado com os erros na análise de conteúdo e a falta de um processo de apelação eficaz disponível ao usuário. Os erros do Facebook prejudicaram a liberdade de expressão do usuário, bem como os direitos dos membros de minorias na Índia de acessar informações.

2. Descrição do caso

O conteúdo trazia alegações de discriminação contra minorias e silenciamento da oposição na Índia pela organização “Rashtriya Swayamsevak Sangh” (RSS) e pelo Partido Bharatiya Janata (BJP). A RSS é uma organização nacionalista hindu que supostamente esteve envolvida em atos de violência contra minorias religiosas na Índia. O “BJP” é o partido governante da Índia, ao qual pertence o atual Primeiro-ministro indiano, Narendra Modi, e tem laços estreitos com a RSS.

Em novembro de 2020, um usuário compartilhou uma publicação de vídeo da empresa de mídia online Global Punjab TV e um texto junto. A publicação trazia uma entrevista de 17 minutos com o professor Manjit Singh, descrito como “um ativista social e apoiador da cultura punjabi”. A Global Punjab TV colocou a seguinte legenda na publicação: “A RSS é a nova ameaça. Ram Naam Satya Hai. O BJP avança em direção ao extremismo.” A empresa de comunicação também incluiu outra descrição: “Nova ameaça. Ram Naam Satya Hai! O BJP avança em direção ao extremismo. Intelectuais desafiam Modi!” O conteúdo foi publicado durante os protestos em massa de agricultores na Índia e abordava brevemente as razões por trás dos protestos e os exaltava.

O usuário adicionou um texto ao compartilhar a publicação da Global Punjab TV na qual afirmava que a CIA denominou a RSS como uma “organização terrorista hindu fanática” e que o Primeiro-ministro indiano Narendra Modi já foi seu presidente. O usuário alegou que a RSS estava ameaçando matar os Sikhs, um grupo religioso minoritário na Índia, e repetir a “saga mortal” de 1984, quando grupos hindus atacaram os Sikhs. O usuário afirmou que “A RSS usou a frase mortal ‘Ram naam sat hai’”. O Comitê entende a frase “Ram Naam Satya Hai” como um canto fúnebre supostamente usado como uma ameaça por alguns nacionalistas hindus. O usuário alega que o próprio Primeiro-ministro Modi está articulando a ameaça do “Genocídio dos sikhs” com a assistência do Presidente da RSS, Mohan Bhagwat. O texto termina com uma alegação de que os sikhs na Índia devem ficar em alerta máximo e de que regimentos sikhs no exército avisaram ao Primeiro-ministro Modi que estão dispostos a morrer para proteger os fazendeiros sikhs e suas terras em Punjab.

A publicação ficou disponível por 14 dias e teve menos de 500 visualizações antes de ser denunciada por outro usuário por “terrorismo”. Uma análise humana determinou que a publicação violou os Padrões da Comunidade sobre Organizações e Indivíduos Perigosos e retirou o conteúdo, o que também desencadeou uma restrição automática do uso da conta por um determinado período. Na notificação ao usuário, o Facebook observou que sua decisão foi final e não poderia ser analisada por causa de uma redução temporária na capacidade de pessoal devido à COVID-19. Por esse motivo, o usuário recorreu ao Comitê de Supervisão.

Depois que o Comitê de Seleção de Caso identificou o caso para análise, mas antes de ser atribuído a um painel, o Facebook determinou que o conteúdo foi removido por engano e o restaurou. Mesmo assim, o Comitê procedeu à atribuição do caso ao painel.

3. Autoridade e escopo

O Comitê tem autoridade para analisar a decisão do Facebook, conforme os termos do Artigo 2 (Autoridade para análise) do Estatuto do Comitê e pode manter ou reverter essa decisão, conforme o Artigo 3, Seção 5 (Procedimentos para análise: Resolução do Estatuto). O Facebook não apresentou motivos para o conteúdo ser excluído, de acordo com o Artigo 2, Seção 1.2.1 (Conteúdo não disponível para análise do Comitê) dos Regulamentos internos do Comitê, nem indicou considerar o caso inelegível, conforme o Artigo 2, Seção 1.2.2 (Obrigações legais) dos Regulamentos internos. De acordo com o Artigo 3, Seção 4 (Procedimentos para análise: decisões) do Estatuto do Comitê, a decisão final pode incluir uma declaração de parecer consultivo, que será levada em consideração pelo Facebook a fim de orientar futuras mudanças na política.

O Facebook restaurou o conteúdo do usuário após determinar seu erro, o que provavelmente não teria acontecido se o Comitê não tivesse identificado o caso. De acordo com a decisão sobre o caso 2020-004-IG-UA, a escolha do Facebook de restaurar o conteúdo não exclui a análise. As questões sobre o motivo do erro, os danos decorrentes dele e a necessidade de garantir que isso não se repita continuam pertinentes. O Comitê oferece aos usuários a chance de serem ouvidos e de receberem uma explicação completa do ocorrido.

4. Padrões relevantes

Em sua decisão, o Comitê de Supervisão considerou os seguintes padrões:

I. Padrões da Comunidade do Facebook:

A política sobre Organizações e Indivíduos Perigosos do Facebook explicam que “em um esforço para prevenir e impedir danos reais, não permitimos que nenhuma organização ou indivíduo que anuncie uma missão violenta ou esteja envolvida com violência esteja presente no Facebook”. Os Padrões afirmam ainda que o Facebook remove “conteúdo que expresse apoio ou enalteça grupos, líderes ou indivíduos envolvidos nessas atividades”.

II. Valores do Facebook:

Os valores do Facebook são descritos na introdução aos Padrões da Comunidade.

O valor “Voz” é definido como “fundamental”:

o objetivo de nossos Padrões da Comunidade sempre foi criar um local de expressão e dar voz às pessoas. [...] Queremos que as pessoas possam falar abertamente sobre os assuntos importantes para elas, ainda que sejam temas que geram controvérsias e objeções.

O Facebook pode limitar “Voz” a serviço de quatro valores, incluindo “Segurança” e “Dignidade”:

“Segurança” : temos o compromisso de fazer com que o Facebook seja um lugar seguro. Manifestações contendo ameaças podem intimidar, excluir ou silenciar pessoas, e isso não é permitido no Facebook.

“Dignidade” : acreditamos que todas as pessoas são iguais no que diz respeito à dignidade e aos direitos. Esperamos que as pessoas respeitem a dignidade alheia e não assediem nem difamem umas às outras.

III. Padrões de Direitos Humanos:

Os Princípios Orientadores da ONU sobre Empresas e Direitos Humanos (UNGPs, na sigla em inglês), endossados pelo Conselho de Direitos Humanos da ONU em 2011, estabelecem uma estrutura voluntária de responsabilidades sobre direitos humanos das empresas privadas. O compromisso do Facebook de respeitar os padrões de direitos humanos de acordo com os Princípios Orientadores sobre Empresas e Direitos Humanos das Nações Unidas foi elaborado em uma nova política corporativa lançada em março de 2021. Neste caso, os seguintes padrões de direitos humanos foram levados em consideração na análise do Comitê:

Liberdade de expressão: Artigo 19, Pacto Internacional dos Direitos Civis e Políticos (PIDCP); Comitê de Direitos Humanos Comentário Geral N° 34 (2011); Relator Especial sobre os relatórios de liberdade de opinião e expressão: A/HRC/38/35 (2018) e A/74/486 (2019)

Direito à não discriminação: Artigo 2, parágrafo 1 e Artigo 26, PIDCP; Comitê de Direitos Humanos Comentário Geral N° 23 (1994); Assembleia Geral, Declaração sobre os Direitos de pessoas pertencentes a minorias nacionais ou étnicas, religiosas e linguísticas, conforme interpretado pelo Especialista independente sobre questões minoritárias em A/HRC/22/49 parágrafos 57-58 (2012); Relator Especial sobre questões da minoria, A/HRC/46/57 (2021)

Direito a um recurso efetivo: Artigo 2, parágrafo 3, PIDCP; Comitê de Direitos Humanos Comentário Geral N° 31 (2004); Comitê de Direitos Humanos Comentário Geral N° 29 (2001);

Direito à segurança das pessoas: Artigo 9, parágrafo 1, PIDCP; conforme interpretado pelo Comentário Geral n° 35, parágrafo 9.

5. Declaração do usuário

O usuário informou ao Comitê que a publicação não era ameaçadora ou criminosa, mas que simplesmente reproduzia o conteúdo do vídeo e refletia seu tom. O usuário reclamou das restrições de conta impostas. O usuário sugeriu que o Facebook deveria apenas excluir vídeos problemáticos e evitar restringir as contas dos usuários, a menos que envolvam ameaças ou comportamento criminoso. O usuário também alegou que milhares de pessoas interagiram com o conteúdo e pediram que a conta fosse restaurada imediatamente.

6. Explicação sobre a decisão do Facebook

De acordo com o Facebook, após uma única denúncia contra a publicação, a pessoa que analisou o conteúdo encontrou erroneamente uma violação dos Padrões da Comunidade sobre Organizações e Indivíduos Perigosos. O Facebook informou ao Comitê que a publicação do usuário não incluía nenhuma referência a organizações ou indivíduos denominados como perigosos. Concluiu-se que a publicação não continha enaltecimento que violava as regras.

O Facebook explicou que o erro ocorreu devido à duração do vídeo (17 minutos), ao número de interlocutores (dois), à complexidade do conteúdo e às alegações sobre vários grupos políticos. A empresa acrescentou que os analistas de conteúdo examinam milhares de conteúdo diariamente e erros acontecem durante esse processo. Devido ao volume de conteúdo, o Facebook afirma que os analistas de conteúdo nem sempre conseguem assistir aos vídeos na íntegra. O Facebook não conseguiu especificar a parte do conteúdo que o analista notou que violava as regras da empresa.

Embora tenha feito uma apelação em relação à decisão do Facebook, o usuário foi informado de que o Facebook não poderia analisar a publicação novamente devido à falta de pessoal causada pela COVID-19.

7. Envios de terceiros

O Comitê de Supervisão recebeu seis comentários públicos relacionados ao caso. Dois comentários foram feitos na Europa e quatro nos Estados Unidos e no Canadá. Os envios incluíam os seguintes temas: o escopo da expressão política, o direito legal do Facebook de moderar conteúdo e o contexto político na Índia.

Para ler os comentários públicos enviados sobre este caso, clique aqui.

8. Análise do Comitê de Supervisão

8.1 Conformidade com os Padrões da Comunidade

O Comitê concluiu que a decisão original do Facebook de remover o conteúdo foi inconsistente com seus Padrões da Comunidade sobre Organizações e Indivíduos Perigosos.

O conteúdo se referia tanto ao BJP quanto à RSS e a vários de seus líderes. O Facebook explicou que nenhum desses grupos ou indivíduos são denominados como “perigosos” de acordo com seus Padrões da Comunidade e não conseguiu identificar as palavras específicas no conteúdo que levaram à sua remoção. O Comitê observou que, mesmo que essas organizações tivessem sido denominadas como perigosas, o conteúdo criticaria claramente essas organizações. O conteúdo enaltecia um grupo: agricultores indianos que estavam protestando. Portanto, parece que não foram dedicados tempo ou atenção necessários à análise desse conteúdo.

O Comitê considera que o Padrão da Comunidade sobre organizações e indivíduos perigosos é claro ao informar que o conteúdo violado será removido. A Introdução aos Padrões da Comunidade, além da Central de Ajuda do Facebook e do Newsroom explicam que as violações graves ou persistentes podem resultar na perda de acesso a alguns recursos. Nesse caso, o Facebook explicou ao Comitê que impôs uma restrição automática à conta do usuário por um período fixo para violações repetidas. O Comitê concluiu que a restrição estaria de acordo com os Padrões da Comunidade da empresa, caso houvesse uma violação.

O Facebook esclareceu ao Comitê que as restrições de conta são automáticas. Essas restrições são impostas logo que uma violação dos Padrões da Comunidade é determinada e dependem do histórico de violações do indivíduo. Dessa forma, uma pessoa que analisa o conteúdo não sabe se a remoção levará a uma restrição de conta e não está envolvida na seleção dessa restrição. O Comitê observa que as consequências de erros de monitoramento podem ser graves e demonstra preocupação com o fato de que as restrições de conta tenham sido aplicadas incorretamente nesse caso.

8.2 Conformidade com os valores do Facebook

O Comitê concluiu que a decisão do Facebook de remover o conteúdo não foi consistente com seus valores de “Voz”, “Dignidade” e “Segurança”. O conteúdo estava vinculado a uma reportagem da mídia e relacionado a questões políticas importantes, incluindo comentários sobre a violação alegada de direitos das minorias e o silenciamento da oposição por políticos do BJP e da RSS. Portanto, a remoção incorreta da publicação comprometeu os valores de “Voz” e “Dignidade”.

O Facebook apontou que prioriza o valor de “Segurança” ao aplicar os Padrões da Comunidade sobre Organizações e Indivíduos Perigosos. No entanto, nesse caso, o conteúdo não se referia a nenhum indivíduo ou organização perigosa designada nem os exaltava. Entretanto, o Comitê concluiu que o conteúdo criticava agentes governamentais e grupos políticos.

8.3 Conformidade com as responsabilidades sobre direitos humanos do Facebook

A aplicação dos Padrões da Comunidade sobre Organizações e Indivíduos Perigosos não foi consistente com as responsabilidades de direitos humanos da empresa e seus compromissos publicamente definidos no UNGPs. Os princípios 11 e 13 exigem que as empresas evitem causar ou contribuir para impactos adversos aos direitos humanos que possam surgir das próprias atividades ou de relações com outras partes, incluindo agentes estatais, e mitigá-los.

I. Liberdade de expressão e informação (Artigo 19, PIDCP)

O Artigo 19 do PIDCP garante o direito à liberdade de expressão e atribui um valor especial ao amplo debate público, especialmente no que diz respeito a figuras políticas e à discussão sobre direitos humanos (Comentário Geral 34, parágrafos 11 e 34).

O Artigo 19 também garante o direito de buscar e receber informações, inclusive da mídia (Comentário Geral 34, parágrafo 13). É uma garantia de não discriminação, e as leis de direitos humanos dão ênfase especial à importância da mídia independente e diversificada, especialmente para as minorias étnicas e linguísticas (Comentário Geral 34, parágrafo 14).

a. Legalidade

O Comitê já havia demonstrado preocupação com a acessibilidade dos Padrões da Comunidade sobre organizações e indivíduos perigosos, incluindo a interpretação de “enaltecimento” do Facebook e o processo para designar indivíduos e organizações perigosas ( decisão sobre o caso 2020-005-FB-UA). A precisão das regras é importante para restringir o critério, evitar a tomada de decisão arbitrária (Comentário Geral nº 34, parágrafo 25), além de proteger contra preconceitos. As regras também ajudam os usuários do Facebook a entender as regras que estão sendo aplicadas contra eles. O Relator Especial da ONU para a liberdade de expressão demonstrou preocupação com as empresas de mídia social que adotam regras vagas que proíbem amplamente “enaltecer” e “apoiar” líderes de organizações perigosas (relatório A/HRC/38/35, parágrafo 26).

As consequências de violar uma regra, por exemplo, suspensão de funcionalidades de conta ou desativação de conta, também devem ser claras. O Comitê está preocupado com o fato de as informações sobre restrições de contas estarem espalhadas por muitos locais e nem todas definidas nos Padrões da Comunidade como é esperado. É importante fornecer aos usuários notificação e informações adequadas quando violarem as regras, para que possam ajustar seu comportamento. O Comitê observa que suas recomendações anteriores de que o Facebook não deveria esperar que os usuários resumissem as regras de várias fontes e que as regras seriam consolidadas de acordo com os Padrões da Comunidade ( decisão sobre o caso 2020-006- FB-FBR, Seção 9.2).

O Comitê está preocupado com o fato de os Padrões da Comunidade não estarem traduzidos para o punjabi, um idioma amplamente falado em todo o mundo, com 30 milhões de falantes na Índia. Os Padrões de Implementação Interna do Facebook também não estão disponíveis em punjabi para os moderadores que trabalham nesse idioma. Provavelmente, essa situação agravará a compreensão dos usuários sobre as regras e aumentará a probabilidade dos moderadores cometerem erros de aplicação. Os possíveis impactos específicos em uma população minoritária levantam questões sobre direitos humanos (A/HRC/22/49, parágrafo 57).

b. Objetivo legítimo

O artigo 19, parágrafo 3 do PIDCP afirma que os objetivos legítimos incluem o respeito pelos direitos ou reputações de terceiros, bem como a proteção da segurança nacional, ordem pública ou saúde pública ou princípios morais. O Facebook indicou que o objetivo dos Padrões da Comunidade sobre organizações e indivíduos perigosos é proteger os direitos de outras pessoas. O Comitê está convencido de que a política busca um objetivo legítimo, em particular, de proteger o direito à vida, à segurança pessoal e à igualdade e não discriminação (Comentário Geral 34, parágrafo 28; Decisão do Comitê de Supervisão 2020-005-FB-UA).

c. Necessidade e proporcionalidade

As restrições devem ser necessárias e adequadas para atingir um objetivo legítimo. Deve haver uma conexão direta entre a necessidade e a proporcionalidade da ação específica realizada e a ameaça decorrente da expressão (Comentário Geral 34, parágrafo 35). O Facebook reconheceu que sua decisão de remover o conteúdo foi um erro e não argumenta que essa ação foi necessária ou adequada.

Os erros que restringem a expressão sobre questões políticas são uma séria preocupação. É muito preocupante se esses erros forem generalizados e, especialmente, se afetar falantes de idiomas minoritários ou minorias religiosas que já podem ser politicamente marginalizadas. O Relator Especial da ONU sobre questões das minorias demonstrou preocupação com o discurso de ódio dirigido a grupos minoritários no Facebook na Índia (A/HRC/46/57, parágrafo 40). Nesses contextos regionais, os erros podem silenciar as vozes de minorias que procuram combater narrativas de ódio e de discriminação, como no caso em questão.

Quando a publicação foi feita, o contexto político na Índia com protestos em massa de fazendeiros contra o governo e o aumento da pressão governamental sobre as plataformas de mídia social para remover o conteúdo relacionado, ressalta a importância de tomar as decisões certas. Nesse caso, o conteúdo estava relacionado a protestos e ao silenciamento das vozes da oposição. Também incluía um link para uma entrevista de um meio de comunicação de idioma minoritário sobre os tópicos. As plataformas dominantes devem evitar comprometer a expressão de minorias que protestam contra seu governo e defendem o pluralismo e a diversidade da mídia (Comentário Geral 34, parágrafo 40). As restrições de conta que excluíram indevidamente o usuário da plataforma durante esse período crítico foram particularmente inadequadas.

O Facebook explicou que não poderia recorrer ao conteúdo do usuário devido à capacidade reduzida de pessoal durante a pandemia de COVID-19. Embora o Comitê entenda essas circunstâncias únicas, ele enfatiza novamente a importância do Facebook oferecer transparência e processos acessíveis para apelar contra suas decisões (UNGPs, Princípio 11; A/74/486, parágrafo 53). Como o Comitê constatou na decisão do caso 2020-004-IG-UA, a apelação dos casos deve ser feita ao Facebook antes de chegarem ao Comitê. Para garantir o acesso dos usuários à apelação, o Facebook deve priorizar o retorno dessa capacidade o mais rápido possível.

O Comitê reconhece que erros são inevitáveis ao moderar conteúdo em grande escala. No entanto, a responsabilidade do Facebook de prevenir, mitigar e tratar os impactos adversos sobre os direitos humanos requer aprender com esses erros (UNGPs, Princípios 11 e 13).

Não é possível informar a partir de um caso se essa aplicação foi um comportamento intencional ou não intencional por parte do analista. O Facebook também se recusou a responder especificamente a perguntas do Comitê sobre possíveis comunicações das autoridades indianas com o intuito de restringir o conteúdo em relação aos protestos dos fazendeiros, ao conteúdo crítico do governo sobre o tratamento dado aos fazendeiros ou ao conteúdo relacionado aos protestos. O Facebook determinou que as informações solicitadas não eram necessárias para a tomada de decisão de acordo com a intenção do Estatuto e/ou não podem ou não devem ser fornecidas devido a restrições ou preocupações legais, de privacidade, segurança ou proteção de dados. O Facebook citou os Estatutos do Comitê de Supervisão, Artigo 2, Seção 2.2.2, para justificar sua recusa.

O Facebook respondeu à pergunta do Comitê sobre como a moderação do Facebook na Índia independe da influência do governo. A empresa explicou que seus funcionários recebem treinamento específico para sua região, mercado ou função como parte da iniciativa Global Ethics and Compliance, que promove uma cultura de honestidade, transparência, integridade, responsabilidade e valores éticos. Além disso, os funcionários do Facebook são regidos por um Código de Conduta e uma Política Anticorrupção.

O Comitê enfatiza a importância dos processos de análise das decisões de moderação de conteúdo, incluindo auditoria, para verificar e corrigir qualquer comportamento na tomada de decisão manual e automatizada, especialmente em relação a locais que passam por períodos de crise e instabilidade. Essas avaliações devem levar em consideração o potencial de campanhas coordenadas por governos e agentes não-estatais para denunciar dissidentes de forma maliciosa.

A transparência é essencial para garantir a análise pública das ações do Facebook nessa área. A falta de informações nas denúncias de transparência do Facebook tornam difícil para o Comitê ou outros agentes avaliar, por exemplo, se a aplicação da política de organizações e indivíduos perigosos tem impacto particular nos usuários e, particularmente, sobre falantes de idiomas minoritários na Índia. Para ajudar no debate, o Facebook deve tornar mais públicos os dados e fornecer uma análise do seu significado.

9. Decisão do Comitê de Supervisão

O Comitê de Supervisão revoga a decisão do Facebook de remover o conteúdo e exige que a publicação seja restaurada. O Comitê menciona que o Facebook já tomou medidas a esse respeito.

10. Declaração de parecer consultivo

As recomendações abaixo estão numeradas e o Comitê solicita que o Facebook forneça uma resposta individual a cada uma delas, conforme o redigido.

Acessibilidade

1. O Facebook deve traduzir seus Padrões da Comunidade e Padrões de Implementação Interna para o punjabi. O Facebook deve ter como objetivo tornar seus Padrões da Comunidade acessíveis a todos os idiomas amplamente falados pelos seus usuários. Dessa forma, permitiria um entendimento completo das regras que os usuários devem obedecer ao usar os produtos do Facebook. Também tornaria mais simples para os usuários participarem do Facebook em relação ao conteúdo que possa violar seus direitos.

Direito ao recurso

2. De acordo com a recomendação do Comitê sobre o caso 2020-004-IG-UA, a empresa deve recuperar a análise humana e o acesso a um processo de apelação humana aos níveis pré-pandêmicos o mais rápido possível, ao mesmo tempo que protege a saúde da equipe e contratados do Facebook.

Relatório de transparência

3. O Facebook deve aprimorar o relatório de transparência para aumentar as informações públicas sobre as taxas de erro tornando-as visíveis por país e idioma para cada Padrão da Comunidade. O Comitê ressalta que os relatórios de transparência mais detalhados ajudarão o público a identificar áreas onde os erros são mais comuns, incluindo possíveis impactos específicos sobre grupos minoritários e alertar o Facebook para sua correção.

*Nota processual:

As decisões do Comitê de Supervisão são preparadas por grupos com cinco membros e aprovadas pela maioria do Comitê. As decisões do Comitê não representam, necessariamente, as opiniões pessoais de todos os membros.

Para a decisão sobre o caso em apreço, uma pesquisa independente foi contratada em nome do Comitê. Um instituto de pesquisa independente, com sede na Universidade de Gotemburgo e com uma equipe de mais de 50 cientistas sociais de seis continentes, bem como mais de 3.200 especialistas de nações do mundo todo, forneceu informações especializadas sobre contexto sociopolítico e cultural. A empresa Lionbridge Technologies, LLC, cujos especialistas são fluentes em mais de 350 idiomas e trabalham de 5.000 cidades pelo mundo, forneceu a consultoria linguística.

Voltar para Decisões de Casos e Pareceres Consultivos sobre Políticas