Anulado

Publicação compartilhada da Al Jazeera

O Comitê de Supervisão concorda que o Facebook estava correto ao reverter sua decisão original de remover o conteúdo do Facebook que compartilhava uma notícia sobre uma ameaça de violência das Brigadas Izz al-Din al-Qassam, a ala militar do grupo palestino Hamas.

Tipo de decisão

Padrão

Políticas e tópicos

विषय
Eventos de notícias, Guerra e conflitos, Jornalismo
Padrão da comunidade
Indivíduos e organizações perigosos

Regiões/países

Localização
Egito, Israel, Territórios Palestinos

Plataforma

Plataforma
Facebook

Observe que esta decisão está disponível em árabe (na aba "idioma" acessada pelo menu na parte superior desta tela) e hebraico (neste link).

לקריאת ההחלטה במלואה יש ללחוץ כאן.

Resumo do caso

O Comitê de Supervisão concorda que o Facebook estava correto ao reverter sua decisão original de remover o conteúdo do Facebook que compartilhava uma notícia sobre uma ameaça de violência das Brigadas Izz al-Din al-Qassam, a ala militar do grupo palestino Hamas. O Facebook originalmente removeu o conteúdo de acordo com o Padrão da Comunidade sobre organizações e indivíduos perigosos e o restaurou depois que o Comitê selecionou este caso para análise. O Comitê conclui que a remoção do conteúdo não reduziu os danos no meio físico e restringiu a liberdade de expressão em um tema de interesse público.

Sobre o caso

Em 10 de maio de 2021, um usuário do Facebook no Egito com mais de 15.000 seguidores compartilhou uma publicação da página verificada da Al Jazeera em árabe que consistia em um texto em árabe e uma foto.

A foto retrata dois homens em uniformes camuflados com os rostos cobertos, usando faixas na cabeça com a marca das Brigadas Al-Qassam. O texto afirma que “A liderança da resistência na área comum concede uma trégua para a ocupação retirar seus soldados da mesquita de Al-Aqsa e do bairro Sheikh Jarrah até às 18h. Quem avisa, amigo é. Abu Ubaida – Porta-voz militar das Brigadas Al-Qassam". O usuário compartilhou a publicação da Al Jazeera e adicionou uma legenda com uma única palavra em árabe: "Ooh". As Brigadas Al-Qassam e seu porta-voz Abu Ubaida são considerados perigosos, de acordo com o Padrão da Comunidade sobre organizações e indivíduos perigosos do Facebook.

O Facebook removeu o conteúdo por violar esta política, e o usuário fez uma apelação do caso ao Comitê. Como resultado da escolha do caso pelo Comitê, o Facebook concluiu que havia removido o conteúdo por engano e o restaurou.

Principais conclusões

Depois que o Comitê selecionou este caso, o Facebook concluiu que o conteúdo não violava as regras sobre Organizações e Indivíduos Perigosos, uma vez que não continha elogios, apoio ou representação das Brigadas Al-Qassam ou do Hamas. O Facebook não conseguiu explicar por que dois analistas humanos consideraram originalmente que o conteúdo violava esta política, já que os moderadores não são obrigados a registrar os motivos para decisões de conteúdo individuais.

O Comitê observa que o conteúdo consiste na nova publicação de uma notícia de um meio de comunicação legítimo sobre um assunto de interesse público urgente. A publicação original da Al Jazeera compartilhada nunca foi removida e a ameaça de violência das Brigadas Al-Qassam foi amplamente relatada em outros lugares. Em geral, os indivíduos têm tanto direito de republicar as notícias quanto as organizações de mídia têm de publicá-las.

Neste caso, o usuário explicou que o objetivo era atualizar os seguidores dele sobre um assunto de importância atual, e a adição da expressão “Ooh” parece ser neutra. Como tal, o Comitê considera que remover o conteúdo do usuário não reduziu, de forma substancial, os danos no meio físico.

Ao reagir às alegações de que o Facebook censurou conteúdo palestino devido a pedidos do governo israelense, o Comitê fez perguntas ao Facebook, incluindo se a empresa havia recebido solicitações oficiais e não oficiais de Israel para remover conteúdo relacionado ao conflito de abril e maio. O Facebook respondeu que não havia recebido uma solicitação legal válida de uma autoridade governamental relacionada ao conteúdo do usuário, mas se recusou a fornecer as outras informações solicitadas pelo Comitê.

Os comentários públicos enviados para este caso incluíram alegações de que o Facebook removeu ou rebaixou desproporcionalmente o conteúdo de usuários palestinos e conteúdo em árabe, especialmente se comparado ao tratamento de publicações que ameaçam a violência contra árabes ou palestinos dentro de Israel. Ao mesmo tempo, o Facebook foi criticado por não fazer o suficiente para remover conteúdo que incita a violência contra civis israelenses. O Comitê recomenda uma análise independente dessas questões importantes, bem como maior transparência no que diz respeito ao tratamento das solicitações governamentais.

A decisão do Comitê de Supervisão

O Comitê de Supervisão confirma a decisão do Facebook de restaurar o conteúdo, observando que sua decisão original de remover o conteúdo não foi justificada.

Em uma declaração de parecer consultivo, o Comitê recomenda ao Facebook:

  • Adicionar critérios e exemplos ilustrativos à Política de Organizações e Indivíduos Perigosos para compreender melhor as exceções para discussão neutra, condenação e reportagem de notícias.
  • Garantir uma tradução rápida das atualizações dos Padrões da Comunidade em todos os idiomas disponíveis.
  • Envolver uma entidade independente não associada a nenhum dos lados do conflito israelense-palestino para realizar uma análise completa e determinar se a moderação de conteúdo do Facebook em árabe e hebraico, incluindo o uso de automação, foi aplicada de forma imparcial. Essa análise deve verificar não apenas o tratamento do conteúdo palestino ou pró-palestino, mas também o conteúdo que incita a violência contra qualquer possível alvo, independente de sua nacionalidade, etnia, religião ou crença ou opinião política. A análise deve observar o conteúdo publicado pelos usuários do Facebook que estão dentro e fora de Israel e dos Territórios Palestinos Ocupados. O relatório e suas conclusões devem ser divulgados publicamente.
  • Tornar o processo transparente sobre como recebe e responde a todas as solicitações do governo para remoção de conteúdo e garantir que elas sejam incluídas nos relatórios de transparência. O relatório de transparência deve diferenciar as solicitações do governo que levaram a remoções por violações dos Padrões da Comunidade de solicitações que levaram à remoção ou bloqueio geográfico por violação da lei local, além das solicitações que não levaram a nenhuma ação.

*Os resumos de caso dão uma visão geral da ocorrência e não têm valor precedente.

Decisão completa sobre o caso

1. Resumo da decisão

O Comitê de Supervisão concorda que o Facebook estava correto ao reverter sua decisão original de remover o conteúdo do Facebook que compartilhava uma notícia sobre uma ameaça de violência das Brigadas Izz al-Din al-Qassam, a ala militar do grupo palestino Hamas em 10 de maio de 2021. As Brigadas Al-Qassam são nomeadas como organização terrorista por muitos estados, seja como parte do Hamas ou por conta própria. Depois que o usuário fez a apelação e o Comitê selecionou o caso para análise, o Facebook concluiu que o conteúdo foi removido por engano e restaurou a publicação na plataforma.

A Política de Organizações e Indivíduos Perigosos determina que compartilhar comunicações oficiais de uma organização perigosa designada pelo Facebook é uma forma de apoio real. No entanto, a política inclui exceções em caso de reportagem de notícias e discussão neutra. A empresa aplicou a exceção de reportagem de notícias à publicação da Al Jazeera e erroneamente não aplicou a exceção de discussão neutra corrigida posteriormente. O Comitê conclui que a remoção do conteúdo neste caso não foi necessária, pois não reduziu os danos no meio físico e, em vez disso, resultou em uma restrição injustificada à liberdade de expressão em um tema de interesse público.

2. Descrição do caso

Em 10 de maio, um usuário do Facebook no Egito (o usuário) com mais de 15.000 seguidores compartilhou uma publicação da página verificada da Al Jazeera em árabe que consistia em um texto em árabe e uma foto. A foto retrata dois homens em uniformes camuflados com os rostos cobertos, usando faixas na cabeça com a marca das Brigadas Al-Qassam, um grupo armado palestino e a ala militar do Hamas. O Comitê observa que as Brigadas Al-Qassam foram acusadas de cometer crimes de guerra (Relatório da Comissão Independente de Inquérito da ONU sobre o Conflito de Gaza em 2014, A/HRC/29/CRP.4 e Human Rights Watch, Gaza: Apparent War Crimes During May Fighting (2021)).

O texto na foto afirma: “A liderança da resistência na área comum concede uma trégua para a ocupação retirar seus soldados da mesquita de Al-Aqsa e do bairro Sheikh Jarrah em Jerusalém até às 18h. Quem avisa, amigo é. Abu Ubaida – Porta-voz militar das Brigadas Al-Qassam". A legenda da Al Jazeera diz: "Quem avisa, amigo é". O porta-voz militar das Brigadas Al-Qassam ameaça as forças de ocupação se elas não se retirarem da Mesquita de Al-Aqsa". O usuário compartilhou a publicação da Al Jazeera e adicionou uma legenda com uma única palavra em árabe: "Ooh". As Brigadas Al-Qassam e seu porta-voz Abu Ubaida são considerados perigosos, de acordo com o Padrão da Comunidade sobre organizações e indivíduos perigosos do Facebook.

No mesmo dia, um outro usuário no Egito denunciou a publicação como “terrorismo” na lista fixa de motivos que o Facebook oferece às pessoas para denunciar conteúdo. O conteúdo foi avaliado por um moderador que fala árabe no Norte da África e que removeu a publicação por violar a Política de Organizações e Indivíduos Perigosos. O usuário fez uma apelação e o conteúdo foi analisado por um analista diferente no sudeste da Ásia que não falava árabe, mas que tinha acesso a uma tradução automática do conteúdo. O Facebook explicou que isso ocorreu devido a um erro de roteamento que está em fase de resolução. O segundo analista também encontrou uma violação da Política de Organizações e Indivíduos Perigosos e o usuário recebeu uma notificação explicando que a decisão inicial foi mantida por uma segunda análise. Devido à violação, o usuário recebeu uma restrição de somente leitura de três dias em sua conta. O Facebook também restringiu a capacidade do usuário de transmitir conteúdo ao vivo e usar produtos de publicidade na plataforma por 30 dias.

O usuário então fez uma apelação ao Comitê de Supervisão. Como consequência da seleção do caso para análise pelo Comitê, o Facebook determinou que o conteúdo foi removido por engano e o restaurou. Posteriormente, o Facebook confirmou ao Comitê que a publicação original da Al Jazeera continuou na plataforma e nunca foi removida.

O conteúdo deste caso está relacionado ao conflito armado de maio de 2021 entre as forças israelenses e grupos militantes palestinos em Israel e Gaza, um território palestino governado pelo Hamas. O conflito estourou depois de semanas de tensões e protestos crescentes em Jerusalém ligados a uma disputa sobre a posse de casas no bairro Sheikh Jarrah de Jerusalém Oriental e a uma decisão da Suprema Corte israelense sobre a expulsão planejada de quatro famílias palestinas das propriedades disputadas. As tensões aumentaram em uma série de ataques sectários por multidões árabes e judias. Em 10 de maio, as forças israelenses invadiram a Mesquita de Al-Aqsa, ferindo centenas de fiéis durante as orações do Ramadã (Comunicação de Especialistas Independentes da ONU ao Governo de Israel, UA ISR 3.2021). Após esse ataque, as Brigadas Al-Qassam emitiram um ultimato, exigindo que os soldados israelenses se retirassem da mesquita e do Sheikh Jarrah até às 18h. Com o fim do prazo, Al-Qassam e outros grupos militantes palestinos em Gaza lançaram foguetes no centro civil de Jerusalém, começando 11 dias de conflitos armados.

3. Autoridade e escopo

O Comitê tem autoridade para analisar a decisão do Facebook após uma apelação do usuário cuja publicação foi removida (Artigo 2, Seção 1 do Estatuto; Artigo 2, Seção 2.1 dos Regulamentos Internos). O Comitê pode manter ou reverter essa decisão (Artigo 3, Seção 5 do Estatuto). De acordo com a decisão sobre o caso 2020-004-IG-UA, o fato de o Facebook reverter uma decisão contra a qual um usuário fez uma apelação ao Comitê não impede a análise do caso.

As decisões do Comitê são vinculativas e podem incluir declarações de parecer consultivo com recomendações. Essas recomendações não são vinculativas, mas o Facebook deve responder a elas (Artigo 3, Seção 4 do Estatuto).

4. Padrões relevantes

Em sua decisão, o Comitê de Supervisão considerou os seguintes padrões:

I. Padrões da Comunidade do Facebook:

Os Padrões da Comunidade sobre Organizações e Indivíduos Perigosos determinam que o Facebook “não permite que organizações ou indivíduos que anunciem uma missão violenta ou estejam envolvidos com violência tenham presença no Facebook." O Facebook executa seu próprio processo para designar entidades como perigosas de acordo com esta política, com as designações muitas vezes baseadas em listas de terroristas nacionais.

Em 22 de junho, o Facebook atualizou a política para dividir essas designações em três níveis. Essa atualização explica que os três níveis “indicam o nível de aplicação do conteúdo, em que o Nível 1 resulta na aplicação mais extensiva, pois acreditamos que essas entidades têm vínculos mais diretos com os danos no meio físico.” As designações de Nível 1 se concentram em “entidades que se envolvem em graves danos no meio físico”, como grupos terroristas, e resultam no mais alto nível de aplicação de conteúdo. O Facebook remove elogios, apoio substancial e representação de entidades de Nível 1, bem como de seus líderes, fundadores ou membros proeminentes.

II. Valores do Facebook:

O valor "Voz" é definido como "fundamental":

o objetivo de nossos Padrões da Comunidade sempre foi criar um local de expressão e dar voz às pessoas. [...] Queremos que as pessoas possam falar abertamente sobre os assuntos importantes para elas, ainda que sejam temas que geram controvérsias e objeções.

O Facebook limita "Voz" com base em quatro valores. A “segurança” é o mais importante neste caso:

Temos o compromisso de fazer com que o Facebook seja um lugar seguro. Manifestações contendo ameaças podem intimidar, excluir ou silenciar pessoas e isso não é permitido no Facebook.

III. Padrões de Direitos Humanos:

Os Princípios Orientadores da ONU sobre Empresas e Direitos Humanos (UNGPs, na sigla em inglês), endossados pelo Conselho de Direitos Humanos da ONU em 2011, estabelecem uma estrutura voluntária de responsabilidades sobre direitos humanos das empresas privadas. Em março de 2021, o Facebook anunciou sua Política Corporativa de Direitos Humanos, na qual se comprometeu a respeitar os direitos de acordo com os UNGPs. Neste caso, os seguintes padrões de direitos humanos foram levados em consideração na análise do Comitê:

  • O direito de liberdade de opinião e expressão: Artigo 19, Pacto Internacional dos Direitos Civis e Políticos (PIDCP); Comitê de Direitos Humanos, Comentário Geral n.º 34 (2011); Relator Especial da ONU sobre a liberdade de opinião e expressão, A/74/486 (2019); Conselho de Direitos Humanos, Resolução sobre a segurança de jornalistas, A/HRC/RES/45/18 (2020); Relator Especial da ONU sobre a situação dos direitos humanos nos territórios palestinos ocupados desde 1967, A/75/532 (2020);
  • Direito à não discriminação: PIDCP Artigos 2 e 26;
  • Direito à vida: PIDCP Artigo 6; Comitê de Direitos Humanos, Comentário Geral n.º 36 (2018);
  • Direito à segurança das pessoas: O Artigo 9 do PIDCP; conforme interpretado pelo Comentário Geral N° 35, parágrafo 9, Comitê de Direitos Humanos (2014).

5. Declaração do usuário

Na apelação ao Comitê, o usuário explicou que compartilhou a publicação da Al Jazeera para atualizar seus seguidores sobre a crise em curso e que era um tema importante que mais pessoas deveriam estar cientes. O usuário enfatizou que sua publicação simplesmente compartilhava conteúdo de uma página da Al Jazeera e que a legenda era apenas “ooh”.

6. Explicação sobre a decisão do Facebook

Em resposta à investigação do Comitê, o Facebook determinou que não conseguiu explicar por que dois analistas humanos consideraram que o conteúdo violava esta Política de Organizações e Indivíduos Perigosos, já que os moderadores não são obrigados a registrar os motivos para decisões de conteúdo individuais. A empresa esclareceu que “neste caso, os analistas de conteúdo tiveram acesso a todo o conteúdo, o que inclui a legenda e a imagem da publicação raiz original e a legenda adicional que o criador de conteúdo colocou na versão compartilhada da publicação”. A empresa acrescentou que “geralmente, os analistas de conteúdo são treinados para examinar todo o conteúdo”.

Como consequência da seleção do caso para análise pelo Comitê, o Facebook avaliou novamente sua decisão e concluiu que o conteúdo não continha elogios, apoio substantivo ou representação das Brigadas Al-Qassam ou do Hamas, de suas atividades ou de seus membros. O Facebook explicou que reverteu a decisão, já que a publicação da Al Jazeera não era violadora e o usuário a compartilhou usando uma legenda neutra. De acordo com a Política de Organizações e Indivíduos Perigosos, canalizar informações ou recursos, incluindo comunicações oficiais, em nome de uma entidade ou evento designado é uma forma de apoio substantivo proibido para uma organização e entidade perigosa. No entanto, a política apresenta especificamente uma exceção para conteúdo publicado como parte de reportagem de notícias, embora não defina o que constitui reportagem de notícias. A política também oferece uma exceção para discussão neutra. A publicação original da Al Jazeera apareceu, e ainda aparece, na página árabe da Al Jazeera no Facebook. O Facebook nunca a removeu.

O Facebook explicou que a página da Al Jazeera está sujeita ao sistema de verificação cruzada, uma camada adicional de análise que o Facebook aplica a algumas contas de grande notoriedade para minimizar o risco de erros no monitoramento. No entanto, a verificação cruzada não é realizada em conteúdo compartilhado por terceiros, a menos que também seja uma conta de grande notoriedade sujeita à verificação cruzada. Portanto, neste caso, embora a publicação raiz da Al Jazeera estivesse sujeita à verificação cruzada, a publicação do usuário no Egito não estava.

A empresa determinou que a restauração da publicação está de acordo com a responsabilidade de respeitar o direito de buscar, receber e transmitir informações. O Facebook concluiu que a legenda do usuário era neutra e não se encaixava nas definições de elogio, apoio substantivo ou representação.

Reagindo às alegações de que o Facebook censurou o conteúdo palestino devido às exigências do governo israelense, o Comitê perguntou ao Facebook:

O Facebook recebeu solicitações oficiais e não oficiais de Israel para retirar o conteúdo relacionado ao conflito de abril e maio? Quantas solicitações o Facebook recebeu? Quantas foram atendidas? Alguma solicitação diz respeito a informações publicadas pela Al Jazeera Arabic ou seus jornalistas?

O Facebook respondeu dizendo: "O Facebook não recebeu uma solicitação legal válida de uma autoridade governamental relacionada ao conteúdo que o usuário publicou neste caso. O Facebook se recusa a fornecer as outras informações solicitadas. Consulte o Regulamento Interno do Comitê de Supervisão, Seção 2.2.2."

De acordo com o Regulamento Interno do Comitê de Supervisão, Seção 2.2.2, o Facebook pode “recusar essas solicitações quando o Facebook determinar que as informações não são necessárias para a tomada de decisão, de acordo com o definido no Estatuto; não é tecnicamente viável fornecê-las; estão cobertas por privilégios de sigilo entre advogado e cliente; e/ou não podem ou não devem ser fornecidas devido a questões ou restrições legais, de privacidade, segurança ou proteção de dados.” A empresa não indicou os motivos específicos da recusa de acordo com o Regulamento Interno.

7. Envios de terceiros

O Comitê de Supervisão recebeu 26 comentários públicos relacionados a este caso. 15 eram dos Estados Unidos e Canadá, sete da Europa, três do Oriente Médio e Norte da África e um da América Latina e Caribe.

Os envios incluíam temas como a importância das redes sociais para os palestinos, questões sobre a potencial imparcialidade do Facebook e a moderação excessiva de conteúdo palestino ou pró-palestino, preocupações sobre a suposta relação opaca entre Israel e o Facebook e de que mensagens de organizações terroristas designadas foram permitidas na plataforma.

Além disso, o Comitê recebeu vários comentários públicos argumentando que a denúncia dessas ameaças também pode alertar sobre ataques por grupos armados, permitindo assim, que alvos tomem medidas para se proteger.

Para ler os comentários públicos enviados sobre este caso, clique aqui.

8. Análise do Comitê de Supervisão

8.1 Conformidade com os Padrões da Comunidade

O Comitê concluiu que a decisão original do Facebook de remover o conteúdo não foi consistente com os Padrões da Comunidade da empresa. Portanto, a reversão da decisão do Facebook após a identificação do Comitê deste caso foi correta.

De acordo com o Facebook, a publicação raiz da Al Jazeera, que não é tema desta apelação, não violou os Padrões da Comunidade e nunca foi removida da plataforma. Embora o compartilhamento de comunicações oficiais de uma entidade designada seja uma forma proibida de apoio substantivo, a Política de Organizações e Indivíduos Perigosos permite que o conteúdo seja publicado para condenação, discussão neutra ou fins de reportagem de notícias. O Facebook atualizou a Política de Organizações e Indivíduos Perigosos em 22 de junho de 2021, tornando públicas as definições anteriormente confidenciais de “apoio substantivo”, “elogio” e “representação”.

O usuário compartilhou a publicação da Al Jazeera com uma legenda com uma única palavra: "Ooh". O Facebook concluiu que o termo era uma forma neutra de expressão. Especialistas em língua árabe consultados pelo Comitê explicaram que o significado de “ooh” varia dependendo de seu uso, com exclamação neutra sendo uma das interpretações.

Na política atualizada de Organizações e Indivíduos Perigosos, o Facebook exige que "as pessoas indiquem claramente sua intenção" para discutir de forma neutra as organizações ou indivíduos perigosos, e que "se a intenção não estiver clara, podemos remover o conteúdo” (ênfase adicionada). É uma mudança de uma política anterior indicada nas respostas do Facebook à pergunta do Comitê na decisão sobre o caso 2020-005-FB-UA. Portanto, o Facebook explicou que “tratou e trata o conteúdo de citações ou atribuição de citações (independentemente de sua precisão) a um indivíduo perigoso designado como uma expressão de apoio a esse indivíduo, a menos que o usuário forneça contexto adicional para tornar sua intenção explícita” (ênfase adicionada). Conclui-se que antes da atualização da política de 22 de junho para o público voltada para os Padrões da Comunidade, os moderadores de conteúdo tinham menos poder discricionário para reter conteúdo com intenções pouco claras, enquanto que os usuários não estavam cientes da importância de deixar suas intenções claras.

É compreensível que moderadores de conteúdo, que operam sob pressão de tempo, possam tratar a publicação como uma violação, especialmente sob a versão do Padrão da Comunidade em vigor no momento. A publicação transmite uma ameaça direta de um porta-voz de uma organização perigosa designada, e a adição da expressão "ooh" pelo usuário não tornou "explícita" a intenção do usuário de se envolver em uma discussão neutra. No entanto, o fato importante é que o conteúdo consiste na nova publicação de um item de uma notícia de um meio de comunicação legítimo sobre um assunto de interesse público urgente. A publicação raiz da Al Jazeera nunca foi considerada violadora e continuou na página o tempo todo. Em geral, os indivíduos não têm menos direito de republicar as notícias do que as organizações de mídia têm de publicá-las. Embora em alguns contextos a nova publicação de material de uma fonte de notícias possa ser uma violação, neste caso, o usuário explicou que seu objetivo era atualizar seus seguidores sobre um assunto de importância atual e a conclusão do Facebook (na nova análise) de que a adição do usuário da expressão “ooh” foi, provavelmente, neutra foi confirmada pelos especialistas em idiomas do Comitê.

De acordo com a nova versão do Padrão da Comunidade, anunciada em 22 de junho, a publicação não causava claramente nenhuma violação e o Facebook não errou ao restaurá-la.

8.2 Conformidade com os valores do Facebook

O Comitê conclui que a decisão de restaurar este conteúdo está em conformidade com o valor “Voz” do Facebook e não é inconsistente com o valor “Segurança”. O Comitê está ciente de que os valores do Facebook desempenham um papel no desenvolvimento de políticas da empresa e não são usados pelos moderadores para decidir se o conteúdo é permitido.

O Facebook afirma que o valor “Voz” é “essencial”. Na opinião do Comitê, isso é especialmente verdadeiro no contexto de um conflito em que a capacidade de muitas pessoas, incluindo palestinos e seus apoiadores, de se expressar é altamente restrita. Como enfatizam vários comentários públicos enviados ao Comitê, o Facebook e outras redes sociais são os principais meios que os palestinos têm para comunicar notícias e opiniões e se expressar livremente. Existem graves limitações à liberdade de expressão em territórios governados pela Autoridade Palestina e pelo Hamas (A/75/532, parágrafo 25). Além disso, o governo israelense foi acusado de restringir indevidamente a expressão em nome da segurança nacional (Grupo de Trabalho sobre a Análise Periódica Universal, A/HRC/WG.6/29/ISR/2, parágrafo 36 e 37; Oxford Handbook on the Israeli Constitution, Freedom of Expression in Israel: Origins, Evolution, Revolution and Regression, (2021)). Além disso, para as pessoas da região em geral, a capacidade de receber e compartilhar notícias sobre esses eventos é um aspecto crucial da “Voz”.

O Comitê seleciona apenas um número limitado de recursos para análise, mas observa que a remoção, neste caso, foi um dos vários recursos relacionados com o conteúdo relacionado ao conflito.

Por outro lado, o valor “Segurança” também é uma questão vital em Israel e nos Territórios Palestinos Ocupados e em outros países da região. O usuário compartilhou uma publicação de uma organização de mídia que continha uma ameaça explícita de violência das Brigadas Al-Qassam, o que implica o valor "Segurança". No entanto, o conteúdo que o usuário compartilhou estava amplamente disponível em todo o mundo dentro e fora do Facebook. A publicação raiz, uma denúncia da mídia sobre a ameaça, não foi removida do Facebook e ainda permanece na página da Al Jazeera. Também foi amplamente divulgada em outros lugares. O Comitê conclui que o compartilhamento da publicação não representa nenhuma ameaça a mais ao valor "Segurança".

8.3 Conformidade com as responsabilidades sobre direitos humanos do Facebook

Liberdade de expressão (Artigo 19 do PIDCP)

O Artigo 19 do PIDCP especifica que todos têm o direito à liberdade de expressão, o que inclui a liberdade de buscar, receber e partilhar informações. O usufruto deste direito está intrinsecamente vinculado ao acesso à imprensa livre, sem censura e desimpedida ou a outros meios de comunicação (Comentário Geral 34, parágrafo 13). O Comitê concorda que a mídia “desempenha um papel crucial em informar o público sobre atos de terrorismo e sua capacidade de operar não deve ser restringida indevidamente” (Comentário Geral 34, parágrafo 46). O Comitê também está ciente de que grupos terroristas podem explorar o dever e o interesse da mídia em denunciar suas atividades.

No entanto, os esforços contra o terrorismo e contra o extremismo não devem ser usados para reprimir a liberdade da mídia (A/HRC/RES/45/18). De fato, os meios de comunicação têm um papel essencial a desempenhar durante os primeiros momentos de um ato terrorista, visto que são “muitas vezes a primeira fonte de informação para os cidadãos, muito antes de as autoridades públicas poderem retomar a comunicação” (UNESCO, Handbook on Terrorism and the Media, página 27, 2017). As redes sociais contribuem para esta missão apoiando a divulgação de informação sobre ameaças ou atos terroristas publicados nos meios de comunicação tradicionais e em fontes não midiáticas.

Embora o direito à liberdade de expressão seja fundamental, ele não é absoluto. Pode ser restrito, mas as restrições devem atender aos requisitos de legalidade, objetivo legítimo e necessidade e proporcionalidade (Artigo 19, parágrafo 3, PIDCP).

I. Legalidade (clareza e acessibilidade das regras)

Para atender o teste de legalidade, uma regra deve ser (a) formulada com precisão suficiente para que os indivíduos possam regular sua conduta de acordo, e (b) acessível ao público. A falta de especificidade pode levar à interpretação subjetiva das regras e sua aplicação arbitrária (Comentário Geral n.º 34, parágrafo 25).

O Comitê criticou a imprecisão do Padrão da Comunidade sobre organizações e indivíduos perigosos em vários casos e pediu à empresa que defina o conceito de elogios, apoio e representação. Desde então, o Facebook analisou a política, lançando uma atualização em 22 de junho. Ele definiu ou deu exemplos de algumas palavras-chave na política, organizou suas regras em três níveis de monitoramento de acordo com a relação entre uma entidade designada e danos no meio físico e enfatizou, ainda, a importância de os usuários deixarem suas intenções claras ao publicar conteúdo relacionado a organizações ou indivíduos perigosos. No entanto, a política permanece incerta sobre como os usuários podem deixar suas intenções claras e não fornece exemplos de exceções para “reportagem de notícias”, “discussão neutra” e “condenação”.

Além disso, a política atualizada aparentemente aumenta o sigilo do Facebook nos casos em que a intenção do usuário não é clara, desde que o Facebook "possa" remover o conteúdo sem oferecer qualquer orientação aos usuários sobre os critérios que informarão o uso desse sigilo. O Comitê acredita que os critérios para avaliar essas exceções, incluindo exemplos ilustrativos, ajudariam os usuários a entender quais publicações são permitidas. Outros exemplos também fornecerão orientações mais claras aos analistas.

Além disso, o Comitê está preocupado com o fato de esta análise dos Padrões da Comunidade não estar traduzida para outros idiomas fora o inglês há quase dois meses, limitando assim o acesso às regras para usuários fora do mercado dos EUA. O Facebook explicou que aplica alterações às políticas em todo o mundo, mesmo quando as traduções não estão prontas. O Comitê está preocupado com o fato de que esses atrasos na tradução deixam as regras inacessíveis para muitos usuários por muito tempo. Isso não é aceitável para uma empresa com os recursos do Facebook.

II. Objetivo legítimo

As restrições à liberdade de expressão devem ter um objetivo legítimo, que inclui a proteção da segurança nacional e da ordem pública e os direitos de terceiros, entre outros objetivos. A Política de Organizações e Indivíduos Perigosos visa prevenir e interromper danos no mundo físico com o objetivo legítimo de proteger os direitos de outras pessoas, que neste caso, inclui o direito à vida e à segurança das pessoas.

III. Necessidade e proporcionalidade

As restrições devem ser necessárias e proporcionais para atingir seu objetivo legítimo, neste caso, protegendo os direitos de outras pessoas. Qualquer restrição à liberdade de expressão “deve ser apropriada para cumprir sua função protetora; deve ser o instrumento menos intrusivo entre aqueles que podem cumprir sua função protetora; deve ser proporcional ao interesse a ser protegido”, de acordo com o parágrafo 34 do Comentário geral n.º 34. Na resolução de questões de necessidade e proporcionalidade, o contexto desempenha um papel fundamental.

O Comitê enfatiza ainda que o Facebook tem a responsabilidade de identificar, prevenir, mitigar e contabilizar os impactos adversos aos direitos humanos (Princípio 17 do UNGPs). Esta responsabilidade de auditoria é maior em regiões afetadas por conflitos (A/75/212, parágrafo 13). O Comitê observa que o Facebook tomou algumas medidas para garantir que o conteúdo não seja removido desnecessariamente e desproporcionalmente, conforme ilustrado pela exceção para reportagem de notícias e seu compromisso de permitir a discussão de questões de direitos humanos na decisão do caso 2021-006-IG-UA.

O Comitê conclui que a remoção do conteúdo neste caso não foi necessária. O Comitê reconhece que os jornalistas enfrentam o desafio de equilibrar os danos potenciais de denunciar as declarações de uma organização terrorista e de manter o público informado sobre a evolução das situações perigosas. Alguns membros do Comitê demonstraram preocupação com o fato de que a denúncia neste caso teve pouco ou nenhum contexto editorial para as declarações de Al-Qassam e, portanto, poderia ser visto como um canal de ameaça de violência de Al-Qassam. No entanto, o conteúdo publicado pela Al Jazeera também foi amplamente divulgado por outros meios de comunicação e amplamente disponível em todo o mundo, o que foi acompanhado por um contexto adicional conforme os desenvolvimentos se tornavam disponíveis. Portanto, o Comitê conclui que a remoção da nova publicação deste usuário da denúncia da Al Jazeera não reduziu significativamente o impacto terrorista que o grupo pretendia induzir, mas afetou a capacidade desse usuário, em um país próximo, de comunicar a importância desses eventos para seus leitores e seguidores.

Conforme já observado em relação ao valor “Voz”, ao analisar a necessidade da remoção, o Comitê considera significativo o ambiente mais amplo de mídia e informação nesta região. O governo israelense, a autoridade palestina e o Hamas restringem indevidamente a liberdade de expressão, o que tem um impacto negativo sobre as vozes palestinas e outras vozes.

As restrições à liberdade de expressão não devem ser discriminatórias, inclusive com base na nacionalidade, etnia, religião ou crença, ou opinião política ou outra (Artigo 2, parágrafo 1 e Artigo 26 do PIDCP). O monitoramento discriminatório dos Padrões da Comunidade viola este aspecto fundamental da liberdade de expressão. O Comitê recebeu comentários públicos e analisou as informações disponíveis publicamente alegando que o Facebook removeu ou rebaixou desproporcionalmente o conteúdo de usuários palestinos e conteúdo em árabe, especialmente se comparado ao tratamento de publicações que ameaçam ou incitam a violência contra árabes ou palestinos dentro de Israel. Ao mesmo tempo, o Facebook foi criticado por não fazer o suficiente para remover conteúdo que incita a violência contra civis israelenses. O Comitê recomenda abaixo uma análise independente dessas questões importantes.

9. Decisão do Comitê de Supervisão

O Comitê de Supervisão confirma a decisão do Facebook de restaurar o conteúdo, concordando que a decisão original de remover a publicação foi um engano.

10. Declaração de parecer consultivo

Política de Conteúdo

Para esclarecer as regras aos usuários, o Facebook deve:

1. Adicionar critérios e exemplos ilustrativos à Política de Organizações e Indivíduos Perigosos para compreender melhor as exceções para discussão neutra, condenação e reportagem de notícias.

2. Garantir uma tradução rápida das atualizações dos Padrões da Comunidade em todos os idiomas disponíveis.

Transparência

Para tratar de questões do público em relação à potencial imparcialidade na moderação de conteúdo, incluindo em relação ao envolvimento real ou observado do governo, o Facebook deve:

3. Envolver uma entidade independente não associada a nenhum dos lados do conflito israelense-palestino para realizar uma análise completa e determinar se a moderação de conteúdo do Facebook em árabe e hebraico, incluindo o uso de automação, foi aplicada de forma imparcial. Essa análise deve verificar não apenas o tratamento do conteúdo palestino ou pró-palestino, mas também o conteúdo que incita a violência contra qualquer possível alvo, independente de sua nacionalidade, etnia, religião ou crença ou opinião política. A análise deve observar o conteúdo publicado pelos usuários do Facebook que estão dentro e fora de Israel e dos Territórios Palestinos Ocupados. O relatório e suas conclusões devem ser divulgados publicamente.

4. Tornar o processo transparente sobre como recebe e responde a todas as solicitações do governo para remoção de conteúdo e garantir que elas sejam incluídas nos relatórios de transparência. O relatório de transparência deve diferenciar as solicitações do governo que levaram a remoções por violações dos Padrões da Comunidade de solicitações que levaram à remoção ou bloqueio geográfico por violação da lei local, além das solicitações que não levaram a nenhuma ação.

*Nota processual:

As decisões do Comitê de Supervisão são preparadas por grupos com cinco membros e aprovadas pela maioria do Comitê. As decisões do Comitê não representam, necessariamente, as opiniões pessoais de todos os membros.

Para a decisão sobre o caso em apreço, uma pesquisa independente foi contratada em nome do Comitê. Um instituto de pesquisa independente, com sede na Universidade de Gotemburgo e com uma equipe de mais de 50 cientistas sociais de seis continentes, bem como mais de 3.200 especialistas de nações do mundo todo, forneceu informações especializadas sobre contexto sociopolítico e cultural. A empresa Lionbridge Technologies, LLC, cujos especialistas são fluentes em mais de 350 idiomas e trabalham de 5.000 cidades pelo mundo, forneceu a consultoria linguística.

Voltar para Decisões de Casos e Pareceres Consultivos sobre Políticas