Comitê de Supervisão emite primeiras decisões céleres sobre o conflito Israel-Hamas

Hoje, o Comitê de Supervisão publicou suas primeiras decisões céleres em dois casos sobre o conflito Israel-Hamas. Esses casos, anunciados em 7 de dezembro, foram decididos em um prazo acelerado de 12 dias. O Comitê é obrigado a tomar decisões rápidas em um período de 30 dias.

O Comitê de Supervisão selecionou esses casos devido à importância da liberdade de expressão em situações de conflito. Ambos os casos são representativos dos tipos de apelações que os usuários na região enviam ao Comitê desde os ataques de 7 de outubro. Um caso diz respeito ao vídeo publicado no Facebook mostrando uma mulher israelense implorando aos seus sequestradores que não a matem enquanto era feita refém durante os ataques terroristas a Israel em 7 de outubro. O outro caso envolve um vídeo publicado no Instagram mostrando o que parece ser o resultado de um ataque ao Hospital Al-Shifa ou próximo a ele, na cidade de Gaza, durante a ofensiva terrestre de Israel no norte da Faixa de Gaza. A publicação mostra palestinos, incluindo crianças, mortos ou feridos.

Em ambos os casos, o Comitê anulou a decisão original da Meta de remover o conteúdo das suas plataformas, mas aprovou a decisão subsequente da empresa de restaurar as publicações com uma tela de aviso.

Você pode ler as decisões completas do Comitê aqui.

Principais descobertas

As decisões do Comitê discutiram uma série de aspectos do desempenho da Meta durante a crise que afetou a liberdade de expressão.

Como reação a um aumento atípico de conteúdos violentos e explícitos nas suas plataformas após os ataques de 7 de outubro, a Meta reduziu temporariamente os limites de confiança dos sistemas de classificação automática (classificadores) que identificam e removem conteúdo que não segue suas Políticas sobre Conteúdo Violento e Explícito, Discurso de Ódio, Violência e Incitação e Bullying e Assédio. Essas medidas aplicaram-se a conteúdos originários de Israel e Gaza em todos os idiomas.

Isso significa que a Meta usou suas ferramentas automatizadas de forma mais incisiva para remover conteúdos que possam não seguir suas políticas. Embora isso tenha reduzido a probabilidade de a empresa não conseguir remover conteúdo violador que, de outra forma, poderia não ser detectado ou cuja capacidade de análise humana era limitada, também aumentou a probabilidade da Meta de remover por engano conteúdo não violador relacionado ao conflito.

O caso Hospital Al-Shifa mostra que a supervisão humana insuficiente da moderação automatizada durante a resposta a crises pode levar à remoção incorreta de discursos que podem ser de utilidade pública significativa. Tanto a decisão inicial de remoção desse conteúdo quanto a rejeição da apelação do usuário foram tomadas automaticamente com base em uma pontuação do classificador, sem qualquer análise humana. Isso pode ter sido agravado pela resposta da Meta à crise de reduzir o limite de remoção de conteúdo conforme a Política sobre Conteúdo Violento e Explícito após os ataques de 7 de outubro.

Em ambos os casos analisados pelo Comitê, a Meta rebaixou o conteúdo no qual havia aplicado telas de alerta, excluindo-o das recomendações a outros usuários do Facebook ou do Instagram, embora a empresa tivesse determinado que as publicações tinham como objetivo a conscientização.

O caso Reféns sequestrados de Israel observa que a posição política inicial da Meta em 7 de outubro era remover “imagens de terceiros que retratam o momento do ataque [designado] a vítimas visíveis”, de acordo com sua Política sobre Organizações e Indivíduos Perigosos. O Comitê concorda com essa posição inicial e que proteger a segurança e a dignidade dos reféns deve ser a abordagem padrão da empresa. No entanto, ele considera que a decisão posterior da Meta de permitir esse conteúdo com uma tela de aviso quando compartilhado para fins de condenação, conscientização, reportagem ou pedido de libertação era justificável. Na verdade, considerando a rápida evolução das circunstâncias e o alto custo em termos de liberdade de expressão e o acesso à informação para a remoção desse tipo de conteúdo, a Meta deveria ter agido mais rapidamente para adaptar sua política.

Ela confirmou que, por volta de 20 de outubro, começou a permitir conteúdo sobre sequestro de reféns dos ataques de 7 de outubro, mas inicialmente apenas de contas que estavam nas listas de verificação cruzada da empresa. Isso não foi expandido para todas as contas até 16 de novembro, e apenas para conteúdo publicado após esta data.

Esse fato destaca algumas das preocupações anteriores do Comitê em relação à verificação cruzada, incluindo o tratamento desigual dos usuários, a falta de critérios transparentes de inclusão e a necessidade de garantir uma maior representação dos usuários cujo conteúdo tem probabilidade de ser importante do ponto de vista dos direitos humanos nas listas de verificação cruzada da Meta. O uso do programa de verificação cruzada dessa forma também contradiz a maneira como a empresa descreveu e explicou o propósito do programa, como um sistema de prevenção de erros e não um programa que fornece a certos usuários privilegiados regras mais permissivas.

Finalmente, a Meta tem a responsabilidade de preservar evidências de potenciais violações dos direitos humanos e violações do direito humanitário internacional. Mesmo quando o conteúdo é removido das plataformas da empresa, é vital preservar essas evidências no interesse de futuras responsabilizações. Embora a Meta tenha explicado que retém, por um período de um ano, todos os conteúdos que não seguem seus Padrões da Comunidade, o Comitê recomenda fortemente que os conteúdos relacionados especificamente com possíveis crimes de guerra, crimes contra a humanidade e violações graves de direitos humanos sejam identificados e preservados de uma forma mais duradoura e acessível para fins de responsabilização a um prazo maior.

Além disso, o Comitê reiterou a necessidade urgente de agir de acordo com as seguintes orientações de moderação de conteúdo:

  • No início deste ano, a Meta comprometeu-se a desenvolver um protocolo para preservar conteúdo que pudesse auxiliar nas investigações de crimes atrozes ou violações dos direitos humanos. Embora ela tenha relatado que está nos estágios finais de desenvolvimento de um protocolo, a empresa deve demonstrar imediatamente sua abordagem nessa área durante o conflito atual ( Recomendação n.º 1 no caso Vídeo de prisioneiros de guerra armênios).
  • O conteúdo identificado nos bancos do Serviço de Correspondência de Mídia deve estar sujeito a uma reavaliação para verificar se é uma violação, caso seja considerado apelado com frequência e êxito ( Recomendação n.º 1 no caso Ilustração retratando policiais colombianos ).
  • O Comitê aconselhou a Meta a notificar os usuários quando a automação for usada para tomar medidas de monitoramento contra o conteúdo deles. A empresa informa que concluiu a implementação global dessa recomendação, mas ela ainda precisa fornecer ao Comitê evidências disso ( Recomendação n.º 3 no caso Sintomas de câncer de mama e nudez).

Nota: o Comitê de Supervisão é uma organização independente que analisa as decisões da Meta de remover ou deixar ativo o conteúdo no Facebook e no Instagram em um número selecionado de casos emblemáticos. O Comitê analisa e, quando necessário, reverte as decisões da empresa. As decisões dele são vinculativas para a Meta.

Voltar às Notícias