Anulado
Reféns sequestrados de Israel
19 de Dezembro de 2023
O Comitê revoga a decisão original da Meta de remover o conteúdo do Facebook e considera que restabelecer esse conteúdo na plataforma com uma tela de aviso “marcar como perturbador” está de acordo com as políticas de conteúdo, os valores e as responsabilidades de direitos humanos da Meta.
Nas semanas subsequentes à publicação desta decisão, disponibilizaremos uma tradução para o hebraico aqui, e haverá uma tradução disponível para o árabe por meio da aba “idioma” no menu localizado na parte superior da tela.
לקריאת החלטה זו בעברית יש ללחוץ כאן.
1. Resumo
O caso envolve um vídeo emocionalmente forte que mostra uma mulher, durante o ataque terrorista do dia 7 de outubro liderado pelo Hamas contra Israel, implorando seus sequestradores a não matá-la, enquanto é tomada como refém e levada embora. A legenda correspondente incita as pessoas a assistirem ao vídeo para entenderem melhor o horror vivido por Israel no dia 7 de outubro de 2023. Os sistemas automatizados da Meta removeram a publicação por violar seu Padrões da Comunidade sobre Organizações e Indivíduos Perigosos. O usuário fez uma apelação ao Comitê de Supervisão contra a decisão. Depois que o Comitê identificou o caso para análise, a Meta informou a ele que a empresa havia aberto subsequentemente uma exceção à linha política sob a qual o conteúdo fora removido e restaurado o conteúdo com uma tela de aviso. O Comitê revoga a decisão original da Meta e aprova a decisão de restaurar o conteúdo com uma tela de aviso, mas desaprova o rebaixamento associado do conteúdo, que impede que este seja objeto de recomendações. Este caso e o do Hospital Al-Shifa ( 2023-049-IG-UA) são os primeiros casos sobre os quais o Comitê tomou decisões de acordo com seus procedimentos de análise célere.
2. Contexto do caso e resposta da Meta
Em 7 de outubro de 2023, o Hamas, uma organização designada como de Nível 1 pelo Padrão da Comunidade da Meta sobre Organizações e Indivíduos Perigosos, conduziu ataques terroristas sem precedentes contra Israel a partir de Gaza, que mataram um número estimado de 1.200 pessoas e resultaram em aproximadamente 240 pessoas tomadas como reféns (Ministério das Relações Exteriores, Governo de Israel). Israel empreendeu imediatamente uma campanha militar em Gaza como resposta aos ataques. Até meados de dezembro de 2023, a ação militar de Israel matou mais de 18 mil pessoas em Gaza (Gabinete de Coordenação dos Assuntos Humanitários da ONU, com base em dados do Ministério da Saúde de Gaza), em um conflito em que ambos os lados têm sido acusados de violar o direito internacional. Tanto os ataques terroristas como as ações militares subsequentes de Israel têm sido objeto de publicidade, debate, análise e controvérsias intensas no mundo inteiro, a maioria das quais ocorreu nas plataformas das redes sociais, incluindo o Instagram e o Facebook.
A Meta designou imediatamente os eventos de 7 de outubro como um ataque terrorista, com base em sua Política sobre Organizações e Indivíduos Perigosos. De acordo com os Padrões da Comunidade, isso significa que a Meta removeria de suas plataformas todo conteúdo que “elogie, apoie substancialmente ou represente” os ataques de 7 de outubro ou seus autores. Ela removeria também todo conteúdo gerado pelos autores dos ataques e todas as imagens de terceiros que retratem o momento desses ataques a vítimas visíveis.
Como reação a um aumento atípico de conteúdo violento e explícito que estava sendo publicado em suas plataformas após os ataques terroristas e a resposta militar, a Meta tomou várias medidas temporárias, incluindo a redução dos limites de confiança para os sistemas de classificação automática (classificadores) de suas Políticas sobre Discurso de Ódio, Violência e Incitação e Bullying e Assédio identificarem e removerem conteúdos. A Meta informou o Comitê de que essas medidas se aplicavam aos conteúdos provenientes de Israel e de Gaza em todos os idiomas. As alterações nesses classificadores aumentaram a remoção automática de conteúdo nos casos em que havia uma pontuação de confiança mais baixa para os conteúdos que violavam as políticas da Meta. Em outras palavras, a Meta usou suas ferramentas automatizadas de forma mais incisiva para remover conteúdos potencialmente proibidos. Ela fez isso para priorizar seu valor de segurança, com mais conteúdos removidos do que o que teria ocorrido com o limite de confiança mais alto que estava em vigor antes de 7 de outubro. Embora isso tenha reduzido a probabilidade de que a Meta não remova conteúdos violadores que de outra forma poderiam não ser detectados ou em caso de capacidade limitada para análise humana, também aumentou a probabilidade de que a Meta remova erroneamente conteúdos não violadores relacionados ao conflito.
Quando as equipes de escalation avaliavam vídeos como violadores das Políticas sobre Conteúdo Violento e Explícito, Violência e Incitação e Organizações e Indivíduos Perigosos, a Meta se baseava nos bancos de dados do Serviço de Correspondência de Mídias para remover automaticamente os vídeos com correspondência. Essa abordagem gerava preocupação com uma possível over-enforcement (aplicação excessiva), incluindo a restrição ou suspensão de contas após várias violações das políticas da Meta sobre conteúdo (às vezes denominada “prisão do Facebook”). Para mitigar essa preocupação, a Meta omitiu as “advertências” que normalmente acompanhariam as remoções automáticas com base nos bancos de dados do Serviço de Correspondência de Mídias (conforme anunciado pela Meta em sua publicação do Newsroom).
As alterações da Meta no limite de confiança dos classificadores e na política de advertências limitam-se ao conflito Israel-Gaza, e são destinadas a ser temporárias. Em 11 de dezembro de 2023, a Meta não havia restabelecido os limites de confiança aos níveis anteriores a 7 de outubro.
3. Descrição do caso
Esse caso envolve um vídeo dos ataques de 7 de outubro mostrando uma mulher implorando aos sequestradores para não matá-la enquanto era tomada como refém e levada em uma motocicleta. É possível ver que a mulher estava sentada na parte traseira do veículo, estendendo as mãos e implorando por sua vida. Depois, o vídeo mostrava um homem, aparentemente outro refém, sendo afastado por sequestradores. Os rostos dos reféns e dos sequestradores não são ocultados e são identificáveis. A filmagem original foi compartilhada amplamente logo depois dos ataques. O vídeo publicado pelo usuário nesse caso, aproximadamente uma semana após os ataques, integra texto dentro do vídeo que diz: “Israel is under attack” (“Israel está sendo atacado”), e inclui a hashtag #FreeIsrael, nomeando também um dos reféns. Em uma legenda que acompanha o vídeo, o usuário declara que Israel fora atacada por militantes do Hamas e incita as pessoas a assistirem ao vídeo para entenderem melhor o horror vivido por Israel em 7 de outubro de 2023. No momento em que este texto foi escrito, as pessoas que estavam sendo sequestradas no vídeo permaneciam como reféns.
Uma instância desse vídeo foi inserida em um banco de dados do Serviço de Correspondência de Mídias. Inicialmente, a Meta removeu a publicação nesse caso por violar sua Política sobre Organizações e Indivíduos Perigosos, que proíbe, em qualquer circunstância, imagens de terceiros que mostrem o momento de ataques designados como terroristas contra vítimas visíveis, mesmo se as imagens forem compartilhadas para condenar ou conscientizar sobre o ataque. A Meta não aplicou uma advertência. O usuário fez então uma apelação junto ao Comitê de Supervisão contra a decisão da Meta.
Imediatamente após os ataques terroristas de 7 de outubro, a empresa aplicou rigorosamente a política aos vídeos que mostravam o momento do ataque contra vítimas visíveis. Ela explicou que isso ocorreu devido às preocupações com a dignidade dos reféns e com o uso desses vídeos para celebrar ou promover as ações do Hamas. A Meta adicionou vídeos que mostravam momentos do ataque de 7 de outubro, incluindo o vídeo mostrado nesse caso, aos bancos de dados do Serviço de Correspondência de Mídias, para que as instâncias futuras de conteúdos idênticos pudessem ser removidas automaticamente.
A Meta disse ao Comitê que ela aplicou ao pé da letra a Política sobre Organizações e Indivíduos Perigosos a esse conteúdo, e emitiu orientações consolidadas aos analistas. Na sua publicação no Newsroom em 13 de outubro, a empresa explicou que expandira temporariamente a Política sobre Violência e Incitação para remover conteúdos que identificassem claramente reféns quando a Meta tomasse conhecimento desses conteúdos, mesmo se a finalidade destes fosse condenar as ações ou conscientizar sobre a situação dos reféns. A empresa afirmou ao Comitê que essas políticas se aplicavam igualmente ao Facebook e ao Instagram, apesar da constatação de que conteúdos semelhantes apareceram amplamente no Instagram, indicando a possibilidade de que a aplicação nessa plataforma tenha sido menos eficaz.
O Padrão da Comunidade sobre Violência e Incitação permite, de modo geral, conteúdos que mostrem sequestros ou raptos em um número limitado de contextos, incluindo casos em que o conteúdo é compartilhado para fins de informação, condenação ou conscientização, ou pela família para pedir ajuda. No entanto, de acordo com a Meta, quando ela designa um ataque como sendo terrorista com base em sua Política sobre Organizações e Indivíduos Perigosos e esses ataques incluem vítimas visíveis tomadas como reféns, as regras da Meta sobre conteúdo no momento do ataque prevalecem sobre o Padrão da Comunidade sobre Violência e Incitação. Nesses casos, as permissões dessa política com relação ao compartilhamento de vídeos no momento do sequestro para fins de informação, condenação ou geração de reconhecimento não se aplicam, e o conteúdo é removido.
No entanto, à medida que os eventos iam se desdobrando depois de 7 de outubro, a Meta observou tendências online que indicavam uma alteração dos motivos pelos quais as pessoas estavam compartilhando vídeos que incluíam reféns identificáveis no momento em que eram sequestrados. As famílias das vítimas estavam compartilhando os vídeos para condenar e conscientizar, e o governo e os meios de comunicação israelenses estavam compartilhando as filmagens de forma análoga, inclusive para combater as narrativas emergentes que negavam que os eventos de 7 de outubro tivessem ocorrido ou que negavam a gravidade das atrocidades.
Em resposta a essa situação, a Meta implementou uma exceção à sua Política sobre Organizações e Indivíduos Perigosos, sem alterar a designação dos eventos de 7 de outubro. Sujeito a restrições operacionais, os conteúdos do momento do sequestro que mostrassem reféns identificáveis seriam permitidos com uma tela de aviso no contexto de condenação, conscientização, divulgação de notícias ou solicitação de liberação.
A Meta disse ao Comitê que a implementação dessa exceção foi gradativa e não alcançou todos os usuários ao mesmo tempo. Em 20 de outubro ou em torno dessa data, a empresa começou a permitir conteúdos de sequestro de reféns no contexto dos ataques de 7 de outubro. Inicialmente, ela fez isso somente com relação a contas incluídas no programa “Análise Secundária de Resposta Inicial” (mais conhecido como “verificação cruzada”), dadas as preocupações com as restrições operacionais, incluindo a incerteza na capacidade de análise humana. O programa de verificação cruzada oferece uma garantia de análise humana adicional de conteúdo feita por entidades específicas quando há publicação de conteúdo identificado como violador e que exija a aplicação de normas de acordo com as políticas de conteúdo da Meta. Em 16 de novembro, a empresa determinou que tinha a capacidade de expandir a permissão à conteúdo com tomada de reféns para todas as contas e o fez, mas somente para conteúdo publicado após essa data. A Meta informou o Comitê e explicou, na atualização do Newsroom público, que a exceção que ela está fazendo atualmente se limita aos vídeos que mostram o momento do sequestro dos reféns tomados em Israel em 7 de outubro.
Depois da identificação deste caso pelo Comitê, a Meta reverteu sua decisão original e restaurou o conteúdo com uma tela de aviso “marcar como perturbador”. Isso restringiu a visibilidade do conteúdo a pessoas de 18 anos de idade ou mais e o excluiu das recomendações para outros usuários do Facebook.
4. Justificativa para a análise célere
O Regulamento Interno do Comitê de Supervisão prevê uma análise expressa em “circunstâncias excepcionais, inclusive quando o conteúdo pode gerar consequências urgentes no mundo real”, e as decisões são vinculantes para a Meta (Estatuto, Art. 3, seção 7.2; Regulamentos internos, Art. 2, seção 2.1.2). O processo célere exclui o nível de pesquisa abrangente, consultoria externa ou comentários públicos que seria realizado em casos analisados nos prazos normais. O caso é decidido com base nas informações disponíveis ao Comitê no momento da deliberação, e é decidido por um painel de cinco membros, sem votação do Comitê inteiro.
O Comitê de Supervisão selecionou esse caso e outro caso, o do Hospital Al-Shifa (2023-049-IG-UA), devido à importância da liberdade de expressão em situações de conflito, que tem sido colocada em perigo no contexto do conflito Israel-Hamas. Ambos os casos são representativos dos tipos de apelações que os usuários têm enviado ao Comitê desde os ataques de 7 de outubro e a ação militar subsequente de Israel. Eles pertencem à categoria prioritária de situações de crise e conflito do Comitê de Supervisão. As decisões da Meta em ambos os casos cumprem o padrão de “consequências urgentes no mundo real” que justificam a análise célere, e em função disso o Comitê e a Meta concordaram em aplicar os procedimentos céleres do Comitê.
Em seus envios ao Comitê, a empresa reconheceu que “a decisão de como tratar esses conteúdos é difícil e envolve valores conflitantes e prós e contras”, apreciando a contribuição do Comitê nessa questão.
5. Envios de usuários
O autor da publicação declarou, em sua apelação ao Comitê, que o vídeo capta eventos reais. O seu objetivo é “stop terror” (parar o terror) mostrando a brutalidade do ataque de 7 de outubro, durante o qual os reféns foram capturados. Ele foi notificado sobre a análise da sua apelação pelo Comitê.
6. Decisão
O Comitê revoga a decisão original da Meta de remover o conteúdo do Facebook e considera que restabelecer esse conteúdo na plataforma com uma tela de aviso “marcar como perturbador” está de acordo com as políticas de conteúdo, os valores e as responsabilidades de direitos humanos da Meta. No entanto, ele conclui também que o rebaixamento pela Meta do conteúdo restabelecido, sob a forma da sua exclusão da possibilidade de ser recomendado, não está de acordo com as responsabilidades da empresa de respeitar a liberdade de expressão.
6.1 Conformidade com as políticas de conteúdo da Meta
O Comitê considera que a decisão inicial da Meta de remover o conteúdo estava em conformidade com a Política sobre Organizações e Indivíduos Perigosos naquele momento, que proíbe “imagens de terceiros que retratem o momento desses ataques [designados] a vítimas visíveis”. O restabelecimento do conteúdo com uma tela de aviso também estava em conformidade com a permissão temporária da Meta com relação a esse tipo de conteúdo quando compartilhado para fins de condenação, geração de reconhecimento, divulgação de notícias ou solicitação de liberação.
6.2 Conformidade com as responsabilidades da Meta com os direitos humanos
O Comitê concorda com a posição política inicial da Meta, em 7 de outubro, de remover “imagens de terceiros que retratem o momento desses ataques [designados] a vítimas visíveis”, de acordo com a Política sobre Organizações e Indivíduos Perigosos. Proteger a dignidade dos reféns e assegurar que eles não sejam expostos à curiosidade pública deve ser a abordagem padrão da Meta. Em circunstâncias excepcionais, no entanto, quando uma utilidade pública consistente ou o interesse vital de reféns o exigem, exceções temporárias e limitadas a essa proibição podem ser justificadas. Nas circunstâncias específicas desse caso, como a Meta o reconheceu ao restabelecer o conteúdo e adicionar a ele uma tela de aviso depois que o Comitê o selecionou, o conteúdo deve ser permitido. O Comitê considera que a decisão da Meta de alterar temporariamente sua abordagem inicial — permitindo o conteúdo com uma tela de aviso quando compartilhado para fins de condenação, conscientização, divulgação de notícias ou pedido de libertação — é justificada. Além disso, essa alteração era justificável antes de 16 de novembro, porque ficou claro que a aplicação rigorosa da Política sobre Organizações e Indivíduos Perigosos pela Meta estava impedindo a expressão com finalidade de fazer avançar e proteger os direitos e interesses dos reféns e de suas famílias. Dada a rápida evolução das circunstâncias e o alto custo em termos de liberdade de expressão e acesso à informação da remoção desse tipo de conteúdo, a Meta deveria ter agido mais rapidamente para adaptar sua política.
Conforme declarado pelo Comitê no caso Vídeo de prisioneiros de guerra armênios, as proteções da liberdade de expressão de acordo com o Artigo 19 do Pacto Internacional dos Direitos Civis e Políticos (PIDCP) “permanecem durante conflitos armados e devem continuar sendo a base das responsabilidades de direitos humanos da Meta, juntamente com o reforço mútuo e as regras complementares do direito humanitário internacional que se aplicam nesses conflitos”. Os Princípios Orientadores da ONU sobre Empresas e Direitos Humanos impõem uma responsabilidade maior às empresas que operam em um contexto de conflito (“Empresas, direitos humanos e regiões afetadas por conflitos: em direção a uma maior ação”, A/75/212).
Quando um Estado aplica restrições à expressão, elas devem atender aos requisitos de legalidade, objetivo legítimo e necessidade e proporcionalidade, segundo o parágrafo 3 do Artigo 19 do PIDCP. Esses requisitos costumam ser chamados de “teste tripartite”. O Comitê usa essa estrutura para interpretar os compromissos voluntários de direitos humanos da Meta, tanto em relação à decisão de conteúdo individual em análise quanto ao que isso diz sobre a abordagem mais ampla dela à governança de conteúdo. Ao fazer isso, ele tenta ser sensível a como esses direitos podem ser diferentes quando aplicados a uma empresa privada de redes sociais do que quando aplicados a um governo. Apesar disso, como afirmou o Relator Especial da ONU sobre liberdade de expressão, embora as empresas não tenham obrigações governamentais, “seu impacto exige que avaliem o mesmo tipo de questões sobre a proteção do direito de seus usuários à liberdade de expressão” (relatório A/74/486, parágrafo 41).
A legalidade requer que toda restrição à liberdade de expressão esteja acessível e seja clara o suficiente para entender o que é ou não permitido. Conforme aplicada nesse caso, a regra da Meta sobre organizações e indivíduos perigosos que proíbe imagens de terceiros que representem o momento de ataques designados como terroristas contra vítimas visíveis, independentemente do contexto em que forem compartilhadas, é clara. Além disso, a Meta anunciou publicamente em 13 de outubro, por meio de uma publicação no Newsroom, que iria remover todos os vídeos desse tipo. Embora a empresa tenha, posteriormente, alterado sua abordagem (primeiro em 20 de outubro, permitindo esse tipo de conteúdo (com uma tela de aviso) quando compartilhado por entidades que se beneficiam do programa de ERSR para fins de informação ou conscientização, e novamente em 16 de novembro, expandindo essa permissão para todos os usuários), a empresa não anunciou essa alteração publicamente até o dia 5 de dezembro. Isso foi depois que o Comitê identificou esse caso para análise, mas antes de ele anunciar publicamente, no dia 7 de dezembro, que o aceitaria. Ao longo do conflito, as regras que a Meta aplicou mudaram várias vezes, mas não foram esclarecidas plenamente para os usuários. Também não está claro sob qual política a tela de aviso é imposta, já que nem a Política sobre Organizações e Indivíduos Perigosos, nem a Política sobre Violência e Incitação preveem o uso de telas de aviso. O Comitê encoraja a Meta a lidar com essas preocupações relacionadas com a legalidade esclarecendo publicamente a base e o escopo de sua política atual sobre conteúdos relacionados aos reféns tomados de Israel em 7 de outubro e sua relação com as políticas mais gerais em questão.
Segundo o Artigo 19, parágrafo 3 do PIDCP, a expressão pode ser restringida por uma lista de motivos definida e limitada. O Comitê constatou anteriormente que as políticas sobre organizações e indivíduos perigosos e sobre violência e incitação perseguem o objetivo legítimo de proteger os direitos dos outros (ver Gabinete de Comunicações da Região do Tigré e Menção do Talibã na divulgação de notícias).
O princípio da necessidade e da proporcionalidade mostra que qualquer restrição à liberdade de expressão “deve ser apropriada para cumprir sua função protetora; ser o instrumento menos intrusivo entre aqueles que podem cumprir sua função protetora [e] ser proporcional ao interesse a ser protegido” (Comentário Geral n.º 34, parágrafo 34).
O Comitê considera que a decisão inicial da Meta de remover todos os conteúdos que mostrassem vítimas visíveis era necessária e proporcional para cumprir os objetivos de proteger a segurança e a dignidade dos reféns e assegurar que as plataformas da Meta não fossem usadas para expandir a violência de 7 de outubro ou encorajar a degradação adicional e o tratamento desumano dos reféns. Ele levou em consideração o direito humanitário internacional, o contexto digital durante a primeira semana do conflito e as medidas de mitigação que a Meta tomou para limitar o impacto da sua decisão de remover todo conteúdo desse tipo.
O direito humanitário internacional, tanto em conflitos armados internacionais como não internacionais, identifica a vulnerabilidade especial dos reféns em um conflito armado e prevê proteções para lidar com esses riscos aumentados; a tomada de reféns é proibida pelas Convenções de Genebra (Artigo Comum 3, Convenções de Genebra; Artigos 27 e 34, Convenção de Genebra IV). De acordo com o comentário do ICRC, a definição de tomada de reféns contida na Convenção Internacional contra a Tomada de Reféns como a apreensão ou a detenção de uma pessoa acompanhada pela ameaça de matar, ferir ou continuar a deter a pessoa em questão para obrigar um terceiro a realizar ou a se abster de realizar qualquer ato como condição explícita ou implícita para a liberação da pessoa deve ser usada para definir o termo no contexto das Convenções de Genebra. O Artigo Comum 3 proíbe também “ataques à dignidade pessoal, em particular tratamento humilhante e degradante”. O Artigo 27 da Convenção de Genebra IV protege as pessoas protegidas, incluindo reféns, contra tratamento desumano e degradante, incluindo insultos e exposição à curiosidade pública. O compartilhamento de vídeos de reféns pode servir como parte integrante de uma estratégia de ameaçar um governo e o público, e pode promover a detenção e a degradação continuada de reféns, constituindo uma violação contínua do direito internacional. Nessas circunstâncias, permitir a disseminação de imagens de violência, maus tratos e vulnerabilidade contínua pode promover mais violência e tratamento degradante.
A circulação de vídeos de reféns nas plataformas das redes sociais começou simultaneamente com o ataque de 7 de outubro. De acordo com relatos, ao longo da primeira semana, o Hamas e a Jihad Islâmica Palestina transmitiram vídeos, gerando graves preocupações com a possibilidade de que se seguissem mais streamings ao vivo e vídeos de execuções e torturas. Nessas circunstâncias, a decisão da Meta de proibir todos os vídeos desse tipo em suas plataformas foi razoável e coerente com o direito humanitário internacional, com os Padrões da Comunidade da Meta e com seu valor de segurança. Os padrões do setor, como os compromissos assumidos na Chamada da Christchurch, exigem que as empresas reajam rapidamente e com eficácia contra conteúdo prejudicial compartilhado na sequência de ataques extremistas violentos. No entanto, a Chamada da Christchurch enfatiza também a necessidade de responder a esse tipo de conteúdo de forma coerente com os direitos humanos e as liberdades fundamentais.
Ao mesmo tempo, a Meta tomou medidas para limitar o impacto adverso potencial da sua decisão de remover todas as imagens desse tipo, ao decidir não aplicar uma advertência aos usuários cujo conteúdo tenha sido removido com base nessa política, mitigando os efeitos prejudiciais da política rigorosa sobre os usuários que podem ter publicado o conteúdo para finalidades como condenação ou geração de reconhecimento e divulgação de eventos. O Comitê considera que possa ser razoável e útil que a Meta leve em consideração calibrar ou descartar as advertências para mitigar as consequências negativas de regras categóricas aplicadas de forma rigorosa em escala, fazendo assim uma restrição à expressão que seja mais proporcional ao objetivo perseguido.
As Convenções de Genebra proíbem expor pessoas protegidas, incluindo reféns, à curiosidade pública, porque isso constitui tratamento humilhante. Existem exceções limitadas a essa proibição, que o Comitê analisou na decisão sobre o caso Vídeo de prisioneiros de guerra armênios e que exigem um equilíbrio razoável entre os benefícios da divulgação pública de materiais que mostram prisioneiros identificáveis, “dado o alto valor desses materiais quando utilizados como provas para instaurar processos por crimes de guerra, promover a responsabilização e conscientização pública sobre abusos, e a humilhação potencial ou até mesmo as lesões corporais que podem ser causadas às pessoas presentes nos materiais compartilhados.” A divulgação excepcional requer uma utilidade pública consistente ou que sejam atendidos os interesses vitais do refém.
Por esses motivos, qualquer decisão de estabelecer uma exceção temporária às restrições sobre conteúdo que mostre reféns ou prisioneiros de guerra identificáveis deve ser avaliada quanto aos fatos específicos relacionados aos reféns ou prisioneiros de guerra em questão e seus direitos e interesses, e analisada continuamente para assegurar que seja rigorosamente adaptada a esses direitos e interesses e que não se torne uma exceção geral às regras estabelecidas com a finalidade de proteger os direitos e a dignidade de pessoas protegidas. Nesse caso, os fatos mostravam sinais fortes de que essa divulgação atendia aos interesses vitais dos reféns. Na primeira semana após o ataque de 7 de outubro, as famílias dos reféns começaram também a organizar e compartilhar vídeos como parte de uma campanha para solicitar a libertação dos reféns e para pressionar diversos governos a agirem no interesse dos reféns. O vídeo que foi usado como parte da publicação nesse caso também fazia parte de uma campanha realizada pela família da mulher que aparece no vídeo. Além disso, a partir de 16 de outubro aproximadamente, o governo israelense começou a mostrar compilações de vídeos para jornalistas para demonstrar a gravidade dos ataques de 7 de outubro. Houve relatos de disseminação de narrativas que negavam as atrocidades nas semanas seguintes a 7 de outubro. Dada essa situação, era razoável que a Meta concluísse que a empresa não deve silenciar as famílias dos reféns e frustrar o trabalho das organizações de notícias e outras entidades para investigar e relatar os fatos. Pode ser crucial, para promover a segurança futura dos reféns, que as famílias e as autoridades vejam um refém vivo e possam apurar sua condição física, e até mesmo identificar os sequestradores. Isso é particularmente importante se levarmos em consideração que a Meta não tem um mecanismo transparente e eficaz para preservar esses conteúdos (ver a continuação da discussão abaixo). Resumindo, dadas as alterações do ambiente digital nas semanas seguintes aos eventos de 7 de outubro, a empresa tinha justificação para abrir uma exceção temporária às suas políticas, limitada aos reféns tomados em Israel em 7 de outubro.
O Comitê também conclui que a Meta demorou muito para estender a aplicação dessa exceção a todos os usuários. A empresa foi também excessivamente lenta em anunciar essa alteração temporária ao público. Em 20 de outubro, ela começou a permitir esse tipo de vídeos como uma tela de aviso, quando compartilhados para fins de informação e conscientização, limitados às entidades que constam da lista de ERSR de verificação cruzada. Em 16 de novembro, quase quatro semanas após a confirmação da permissão inicial e após aproximadamente um mês e meio de conflito, a Meta estendeu essa permissão a todos os usuários. Em 5 de dezembro, ela anunciou por fim, por meio de um artigo do Newsroom, que fizera uma alteração à sua política de proibição de vídeos que mostrem reféns no momento do ataque. Embora o Comitê considere o conceito de uma implementação gradual das alterações da política como sendo razoável em princípio, ele conclui que a empresa devia ter reagido mais rapidamente às mudanças das circunstâncias.
Depois que a Meta alterou sua abordagem inicial e introduziu a permissão, ela ainda aplicava uma tela de aviso ao conteúdo. Como o Comitê concluiu em casos anteriores, em certas circunstâncias, a aplicação de uma tela de aviso pode ser uma medida adequada, mesmo tendo um impacto negativo no alcance do conteúdo, porque proporciona aos usuários a possibilidade de compartilhar e a escolha de ver ou não ver um conteúdo perturbador (ver Vídeo de prisioneiros de guerra armênios). O Comitê considera que excluir das recomendações conteúdos que conscientizam sobre possíveis abusos dos direitos humanos, conflitos ou atos de terrorismo não é necessariamente uma restrição adequada à liberdade de expressão, levando-se em conta a grande utilidade pública desses conteúdos. As telas de aviso e a remoção das recomendações exercem funções diferentes, e em alguns casos devem ser desacopladas, especialmente em situações de crise. Remover um conteúdo dos sistemas de recomendação significa reduzir o alcance que esse conteúdo poderia ter. O Comitê considera que essa prática interfere com a liberdade de expressão de forma inadequada quando aplicada a conteúdos que já são limitados a usuários adultos e que são publicados para conscientizar, condenar ou relatar assuntos de utilidade pública como o desenvolvimento de um conflito violento.
Ele também está preocupado com o fato de que a rápida mudança da abordagem da Meta com relação à moderação de conteúdo durante o conflito tem sido acompanhada por uma falta de transparência que prejudica a avaliação eficaz de suas políticas e práticas, e que pode dar a essa avaliação a aparência externa de arbitrariedade. Por exemplo, a Meta confirmou que a exceção que permite o compartilhamento de imagens que mostram vítimas visíveis de um ataque designado para finalidades de informação ou conscientização é uma medida temporária. No entanto, não é claro se essa medida faz parte do Protocolo de Políticas de Crise da empresa ou se foi improvisada pelas equipes da Meta com o desenrolar dos eventos. A Meta desenvolveu o Protocolo de Políticas de Crise em resposta à recomendação nº 18 do Comitê no caso “Suspensão do ex-presidente Trump”. De acordo com a empresa, o objetivo do protocolo é servir de quadro de referência para antecipar e responder a riscos de forma coerente nas diferentes crises. A falta de transparência do protocolo significa que nem o Comitê nem o público sabem se a medida de política usada neste caso (ou seja, permitir, com uma tela de aviso, conteúdos que violem a regra correspondente da Política sobre Organizações e Indivíduos Perigosos, mas que tenham finalidades de geração de reconhecimento e condenação) foi desenvolvida e avaliada antes do conflito atual, qual é exatamente o escopo da medida de política temporária (por exemplo, se ela se aplica a vídeos que mostram reféns em detenção após o ataque de 7 de outubro), os critérios para seu uso, as circunstâncias sob as quais a medida já não será necessária, e se a Meta pretende retomar a remoção de todos os conteúdos desse tipo quando a medida temporária terminar. O Comitê enfatiza novamente a falta de notificação eficaz e em tempo hábil, para os usuários e o público, dessas medidas de crise ad hoc. O Comitê já expressou anteriormente que a Meta deveria anunciar essas exceções aos seus Padrões da Comunidade, “sua duração e o aviso de sua expiração, para dar às pessoas que usam essas plataformas um aviso sobre as alterações às políticas que permitem determinadas expressões” (ver Slogan de protesto no Irã, recomendação nº 5, que a Meta implementou parcialmente). A falta de transparência também pode ter um efeito inibidor nos usuários, que podem temer que seus conteúdos sejam removidos e que suas contas sejam penalizadas ou restringidas se eles cometerem algum erro. Por fim, dada a proibição geral subjacente de permitir a exibição de reféns e as circunstâncias altamente excepcionais sob as quais essa proibição pode ser relaxada, o aviso regular e em tempo hábil e a transparência com relação ao escopo exato e às limitações de tempo das exceções contribuem para que estas permaneçam o mais limitadas possível.
Além disso, a empresa começou permitindo que apenas as entidades que se beneficiavam do programa de verificação cruzada compartilhassem vídeos de reféns com uma tela de aviso, para fins de informação ou conscientização, antes de expandir essa permissão a todos os usuários. A adoção de uma etapa intermediária para passar para uma política temporária mais permissiva parece razoável no contexto em questão, permitindo que a empresa teste os efeitos da alteração em uma escala mais limitada antes de implementá-la de forma mais ampla. No entanto, fazer isso por meio do uso do programa de verificação cruzada também destaca novamente alguns dos problemas que o Comitê identificara anteriormente em seu parecer consultivo sobre política relacionado ao mesmo assunto. Esses problemas incluem o tratamento desigual dos usuários, a falta de critérios transparentes para as listas de verificação cruzada, a necessidade de assegurar uma maior representação dos usuários cujos conteúdos têm probabilidade de serem importantes do ponto de vista dos direitos humanos, como jornalistas e organizações da sociedade civil, e a falta geral de transparência sobre como funciona a verificação cruzada. O uso do programa de verificação cruzada dessa forma contradiz também a forma em que a Meta tem descrito e explicado a finalidade do programa como um sistema de prevenção de erros, e não um programa que proporciona regras mais permissivas a determinados usuários privilegiados. A Meta indicou que continua trabalhando na implementação da maioria das recomendações feitas pelo Comitê no parecer consultivo sobre política mencionado acima, mas nem o Comitê, nem o público têm informações suficientes para avaliar se o uso da lista de verificação cruzada durante o conflito estava em sintonia com as responsabilidades da Meta com os direitos humanos ou se provavelmente levaria a um impacto diferenciado, privilegiando um mercado ou um grupo de falantes em relação a outro.
Por fim, a empresa tem a responsabilidade de preservar as provas de possíveis violações dos direitos humanos e do direito humanitário internacional, conforme recomendado também no relatório da BSR (recomendação nº 21) e defendido por grupos da sociedade civil. Mesmo quando o conteúdo é removido das plataformas da Meta, é essencial preservar essas provas no interesse de uma futura responsabilização (ver Vídeo explícito do Sudão e Vídeo de prisioneiros de guerra armênios). Embora a empresa tenha explicado que retém, por um período de um ano, todos os conteúdos que violam seus Padrões da Comunidade, o Comitê recomenda fortemente que os conteúdos relacionados especificamente com possíveis crimes de guerra, crimes contra a humanidade e violações graves de direitos humanos sejam identificados e preservados de uma forma mais durável e acessível para fins de responsabilização de mais longo prazo. O Comitê nota que a Meta concordou em implementar a recomendação nº 1 do caso Vídeo de prisioneiros de guerra armênios. Essa recomendação incitava a Meta a desenvolver um protocolo para proteger e, se apropriado, compartilhar informações com as autoridades competentes para auxiliar nas investigações e processos legais para fornecer medidas cautelares ou processar crimes de atrocidades ou violações graves de direitos humanos. A Meta informou o Comitê de que ela está nas etapas finais do desenvolvimento de uma “abordagem coerente para reter possíveis provas de crimes de atrocidades e violações graves das leis de direitos humanos internacionais” e prevê fornecer em breve ao Comitê um briefing sobre sua abordagem. O Comitê espera que a Meta implemente de forma completa a recomendação acima.
*Nota processual:
as decisões céleres do Comitê de Supervisão são preparadas por painéis de cinco membros, e não são submetidas à aprovação da maioria do Comitê inteiro. As decisões do Comitê não representam, necessariamente, as opiniões pessoais de todos os membros.
Voltar para Decisões de Casos e Pareceres Consultivos sobre Políticas