Anulado

Hospital Al-Shifa

O Comitê revoga a decisão original da Meta de remover o conteúdo do Instagram e considera que restabelecer esse conteúdo na plataforma com uma tela de aviso “marcar como perturbador” está de acordo com as políticas de conteúdo, os valores e as responsabilidades de direitos humanos da Meta.

Tipo de decisão

Expedited

Políticas e tópicos

विषय
Guerra e conflitos, Proteção, Violência
Padrão da comunidade
Conteúdo violento e explícito

Regiões/países

Localização
Israel, Territórios Palestinos

Plataforma

Plataforma
Instagram

Nas semanas seguintes à publicação desta decisão, disponibilizaremos uma tradução em hebraico aqui, e uma tradução em árabe estará disponível na aba “Idioma” acessada no menu na parte superior desta tela.

לקריאת החלטה זו בעברית יש ללחוץ כאן.

1. Resumo

Este caso envolve um vídeo emocionalmente forte das consequências de um ataque no hospital Al-Shifa ou perto dele, em Gaza, durante a ofensiva terrestre de Israel, com uma legenda condenando o ataque. Os sistemas automáticos da Meta removeram a publicação por violar seu Padrões da Comunidade sobre Conteúdo Violento e Explícito. Depois de contestar sem sucesso esta decisão junto à Meta, o usuário fez uma apelação para o Comitê de Supervisão. Depois que o Comitê identificou o caso para análise, a Meta reverteu a decisão e restaurou o conteúdo com uma tela de aviso. Ele considera que a decisão original de remover o conteúdo não cumpriu as políticas de conteúdo da Meta ou as responsabilidades da empresa associadas aos direitos humanos. O Comitê aprova a decisão de restaurar o conteúdo com uma tela de aviso, mas desaprova o rebaixamento associado do conteúdo, que impede que este seja objeto de recomendações. Esse caso e o do Sequestro de reféns em Israel (2023-050-FB-UA) são os primeiros casos sobre os quais o Comitê tomou decisões de acordo com seus procedimentos de análise célere.

2. Contexto e resposta da Meta

Em 7 de outubro de 2023, o Hamas, uma organização designada como de Nível 1 pelo Padrão da Comunidade da Meta sobre Organizações e Indivíduos Perigosos, conduziu de Gaza ataques terroristas sem precedentes contra Israel, que mataram um número estimado de 1.200 pessoas e resultaram em aproximadamente 240 pessoas tomadas como reféns (Ministério das Relações Exteriores, Governo de Israel). Israel empreendeu imediatamente uma campanha militar em Gaza como resposta aos ataques. Até meados de dezembro de 2023, a ação militar de Israel matou mais de 18 mil pessoas em Gaza (Gabinete de Coordenação dos Assuntos Humanitários da ONU, com base em dados do Ministério da Saúde de Gaza), em um conflito em que ambos os lados têm sido acusados de violar o direito internacional. Tanto os ataques terroristas como as ações militares subsequentes de Israel têm sido objeto de publicidade, debate, análise e controvérsias intensas no mundo inteiro, a maioria das quais ocorreu nas plataformas das redes sociais, incluindo o Instagram e o Facebook.

A Meta designou imediatamente os eventos de 7 de outubro como um ataque terrorista, com base em sua Política sobre Organizações e Indivíduos Perigosos. De acordo com os Padrões da Comunidade, isso significa que a Meta removeria das suas plataformas todo conteúdo que “elogie, apoie substancialmente ou represente” os ataques de 7 de outubro ou seus autores.

Como reação a um aumento atípico de conteúdo violento e explícito que estava sendo publicado nas suas plataformas após os ataques terroristas e a resposta militar, a Meta tomou várias medidas temporárias, incluindo a redução dos limites de confiança para os sistemas de classificação automática (classificadores) das suas políticas sobre conteúdo violento e explícito identificarem e removerem conteúdos. A Meta informou o Comitê de que essas medidas se aplicavam aos conteúdos provenientes de Israel e de Gaza em todos os idiomas. As alterações nesses classificadores aumentaram a remoção automática de conteúdo nos casos em que havia uma pontuação de confiança mais baixa para os conteúdos que violavam as políticas da Meta. Em outras palavras, a empresa usou suas ferramentas automáticas de forma mais incisiva para remover conteúdos que possa violar as políticas. Ela fez isso para priorizar seu valor de segurança, com mais conteúdos removidos do que o que teria ocorrido com o limite de confiança mais alto que estava em vigor antes de 7 de outubro. Embora isso tenha reduzido a probabilidade de que a Meta não remova conteúdos violadores que de outra forma poderiam não ser detectados ou em caso de capacidade limitada para análise humana, também aumentou a probabilidade de que a Meta remova erroneamente conteúdos não violadores relacionados ao conflito.

Quando as equipes de escalation avaliavam vídeos como violadores das políticas sobre conteúdo violento e explícito, violência e incitação e organizações e indivíduos perigosos, a Meta se baseava nos bancos de dados do Serviço de Correspondência de Mídias para remover automaticamente os vídeos com correspondência. Essa abordagem gerava preocupação com uma possível aplicação excessiva, incluindo a restrição ou suspensão de contas após várias violações das políticas da Meta sobre conteúdo (às vezes denominada “prisão do Facebook”). Para mitigar essa preocupação, a Meta omitiu as “advertências” que normalmente acompanhariam as remoções automáticas de publicações de conteúdo com base nos bancos de dados do Serviço de Correspondência de Mídias (conforme anunciado pela Meta na sua publicação do Newsroom).

As alterações da Meta no limite de confiança dos classificadores e na política de advertências limitam-se ao conflito Israel-Gaza e devem ser temporárias. Em 11 de dezembro de 2023, a Meta não tinha restabelecido os limites de confiança aos níveis anteriores a 7 de outubro.

3. Descrição do caso

O conteúdo nesse caso envolve um vídeo publicado no Instagram na segunda semana de novembro, mostrando o que parece ser o efeito de um ataque no Hospital Al-Shifa ou perto dele, na Cidade de Gaza, durante a ofensiva terrestre de Israel no norte da Faixa de Gaza. A publicação do Instagram mostra adultos e crianças deitados no chão sem vida ou feridas chorando. Uma criança parece estar morta com um grave ferimento na cabeça. A legenda em árabe e inglês abaixo do vídeo afirmava que o hospital foi alvo da “usurping occupation” (ocupação usurpadora), referindo-se ao exército israelense, e foram marcadas as organizações de direitos humanos e redes de notícias.

O Padrão da Comunidade da Meta sobre Conteúdo Violento e Explícito, que se aplica ao conteúdo no Facebook e no Instagram, proíbe “[v]ídeos de pessoas ou cadáveres em ambientes não médicos se mostrarem… órgãos internos visíveis”. No momento da publicação, a política permitia “imagens que retratassem a morte violenta de pessoas por acidente ou assassinato”, desde que fosse apresentada uma tela de aviso “marcar como perturbador” antes da exibição e que fosse visível apenas para maiores de 18 anos. Essa regra foi atualizada em 29 de novembro após a restauração do conteúdo desse caso para esclarecer que a regra se aplica ao “momento da morte ou às consequências”, bem como às imagens de “alguém vivenciando um evento com risco de vida”.

Os sistemas automáticos da Meta removeram o conteúdo por violar seu Padrões da Comunidade sobre Conteúdo violento e Explícito. A apelação do usuário contra essa decisão foi automaticamente rejeitada porque os classificadores da Meta indicaram “um alto nível de confiança” de que o conteúdo estava em violação. O usuário fez então uma apelação junto ao Comitê de Supervisão contra a decisão da Meta.

Após a seleção desse caso pelo Comitê, a empresa disse que não poderia determinar de forma conclusiva se o vídeo mostrava órgãos internos visíveis. A Meta concluiu, portanto, que o conteúdo não deveria ter sido removido, embora estivesse no “limite” da violação. A Meta explicou ainda que, mesmo que os órgãos internos estivessem visíveis, a publicação deveria continuar mostrando uma tela de aviso “marcar como perturbador” ao ser compartilhada para gerar conscientização. Ela reiterou que, em linha com o fundamento da política de conteúdo gráfico e violento, esse conteúdo é permitido quando compartilhado para conscientizar “sobre questões importantes, como abusos dos direitos humanos, conflitos armados ou atos de terrorismo”.

A empresa, portanto, reverteu sua decisão original e restaurou o conteúdo com uma tela de aviso, que informa aos usuários que o conteúdo pode ser perturbador. Usuários adultos podem clicar para ver a publicação, mas a Meta remove essas publicações dos feeds de usuários do Instagram menores de 18 anos e das recomendações para usuários adultos do Instagram. Ela também adicionou uma instância separada do mesmo vídeo a um banco de dados do Serviço de Correspondência de Mídia, para que outros vídeos idênticos a esse mantivessem uma tela de aviso e só fossem visíveis para maiores de 18 anos.

4. Justificativa para a análise célere

O Regulamento Interno do Comitê de Supervisão prevê uma análise expressa em “circunstâncias excepcionais, inclusive quando o conteúdo pode gerar consequências urgentes no mundo real”, e as decisões são vinculativas para a Meta (Estatuto, Art. 3, seção 7.2; Regulamentos internos, Art. 2, seção 2.1.2). O processo célere exclui o nível de pesquisa abrangente, consultoria externa ou comentários públicos que seria realizado em casos analisados nos prazos normais. O caso é decidido com base nas informações disponíveis ao Comitê no momento da deliberação, e é decidido por um painel de cinco membros, sem votação do Comitê inteiro.

O Comitê de Supervisão selecionou esse caso e outro caso, o do Reféns sequestrados de Israel (2023-050-FB-UA), devido à importância da liberdade de expressão em situações de conflito, que tem sido colocada em perigo no contexto do conflito Israel-Hamas. Ambos os casos são representativos dos tipos de apelações que os usuários têm enviado ao Comitê desde os ataques de 7 de outubro e a ação militar subsequente de Israel. Ambos os casos pertencem à categoria prioritária de situações de crise e conflito do Comitê de Supervisão. As decisões da Meta em ambos os casos cumprem o padrão de “consequências urgentes no mundo real” que justificam a análise célere, e em função disso o Comitê e a Meta concordaram em aplicar os procedimentos céleres do Comitê.

Em seus envios ao Comitê, a empresa reconheceu que “a decisão de como tratar esses conteúdos é difícil e envolve valores conflitantes e prós e contras”, apreciando a contribuição do Comitê nessa questão.

5. Envios de usuários

O autor da publicação afirmou, na apelação ao Comitê, que não incitou qualquer violência, mas compartilhou o conteúdo para mostrar o sofrimento dos palestinos, incluindo crianças. O usuário acrescentou que a remoção foi tendenciosa contra o sofrimento dos palestinos e foi notificado sobre a análise da sua apelação pelo Comitê.

6. Decisão

Embora os membros do Comitê tenham divergências sobre a resposta militar de Israel e sua justificativa, eles concordam unanimemente sobre a importância de a Meta respeitar o direito à liberdade de expressão e outros direitos humanos das pessoas afetadas por esses eventos e a capacidade delas de se comunicar em meio à crise.

O Comitê revoga a decisão original da Meta de remover o conteúdo do Instagram e considera que restabelecer esse conteúdo na plataforma com uma tela de aviso “marcar como perturbador” está de acordo com as políticas de conteúdo, os valores e as responsabilidades de direitos humanos da Meta. No entanto, ele conclui também que o rebaixamento pela Meta do conteúdo restabelecido, sob a forma da sua exclusão da possibilidade de ser recomendado, não está de acordo com as responsabilidades da empresa de respeitar a liberdade de expressão.

6.1 Conformidade com as Políticas de Conteúdo da Meta

O Comitê concorda com a Meta que é difícil determinar se o vídeo nesse caso mostra “órgãos internos visíveis”. Considerando o contexto desse caso, em que existe um valor de utilidade pública excepcionalmente alto na proteção do acesso à informação e no fornecimento de vias para aumentar a sensibilização em torno do impacto do conflito, o conteúdo que está “no limite” de violar a política de conteúdo violento e explícito não deve ser removido. Como o conteúdo inclui imagens que mostram a morte violenta de uma pessoa, retratando um ferimento na cabeça com sangue, de acordo com suas políticas, a Meta deveria ter aplicado uma tela de alerta e disponibilizado apenas para maiores de 18 anos.

O Comitê também concorda com a determinação subsequente da Meta de que, mesmo que esse vídeo incluísse órgãos internos visíveis, a linguagem da publicação condenando ou aumentando a conscientização sobre a violência também significa que uma tela de aviso “marcar como perturbador” deveria ter sido mantida e que o vídeo não deveria estar disponível para usuários menores de 18 anos. O Padrão da Comunidade não prevê telas de aviso em (“[v]ídeos de pessoas ou cadáveres em um ambiente médico se retratarem […] órgãos internos visíveis”). No caso do Vídeo explícito do Sudão, o Comitê explicou que a Meta instrui os analistas a seguirem fielmente suas políticas “Não publique”. O fundamento diz que “contexto de discussões sobre temas importantes como abusos de direitos humanos, conflitos armados ou atos terroristas, permitimos conteúdo explícito (com algumas limitações) para ajudar as pessoas a condenar e conscientizar sobre essas situações”. A regra do Padrão da Comunidade, no entanto, proíbe todos os vídeos que retratam “órgãos internos visíveis” em um contexto não médico, sem dar aos analistas a opção de adicionar uma tela de aviso quando a exceção do fundamento da política estiver envolvida. Os sistemas automatizados da Meta não parecem estar configurados para aplicar telas de alerta a vídeos que apresentem conteúdo explícito em que haja contexto que condene ou aumente a conscientização sobre a violência. Também não está claro se, quando esse contexto estiver presente, os classificadores aplicáveis ​​seriam capazes de enviar o conteúdo a analistas humanos para análise adicional.

6.2 Conformidade com as responsabilidades da Meta com os direitos humanos

Em linha com as suas responsabilidades em matéria de direitos humanos, a moderação de conteúdo violento e explícito pela Meta deve respeitar o direito à liberdade de expressão, que inclui a liberdade de procurar, receber e transmitir informações (parágrafo 2 do Artigo 19 do Pacto Internacional dos Direitos Civis e Políticos, (PIDCP). Conforme declarado pelo Comitê no caso Vídeo de prisioneiros de guerra armênios, as proteções da liberdade de expressão de acordo com o Artigo 19 do Pacto Internacional dos Direitos Civis e Políticos (PIDCP) “permanecem durante conflitos armados e devem continuar sendo a base das responsabilidades de direitos humanos da Meta, juntamente com o reforço mútuo e as regras complementares do direito humanitário internacional que se aplicam nesses conflitos”. Os Princípios Orientadores da ONU sobre Empresas e Direitos Humanos impõem uma responsabilidade maior às empresas que operam em um contexto de conflito (“Empresas, direitos humanos e regiões afetadas por conflitos: em direção a uma maior ação”, A/75/212).

O Comitê enfatizou em casos anteriores que as plataformas de redes sociais, como o Facebook e o Instagram, são um veículo importante para a transmissão de informações em tempo real sobre eventos violentos, incluindo reportagens de notícias (veja, por exemplo, Menção do Talibã na divulgação de notícias). Eles desempenham um papel especialmente importante em contextos de conflitos armados, especialmente onde o acesso dos jornalistas é limitado. Além disso, conteúdo que retrata ataques violentos e abusos dos direitos humanos é de grande utilidade pública (veja Vídeo explícito do Sudão).

Quando um estado aplica restrições à expressão, elas devem atender aos requisitos de legalidade, objetivo legítimo e necessidade e proporcionalidade, segundo as leis internacionais de direitos humanos (parágrafo 3 do Artigo 19 do PIDCP). Esses requisitos costumam ser chamados de “teste tripartite”. O Comitê usa essa estrutura para interpretar os compromissos voluntários de direitos humanos da Meta, tanto em relação à decisão de conteúdo individual em análise quanto ao que isso diz sobre a abordagem mais ampla da Meta à governança de conteúdo. Ao fazer isso, ele tenta ser sensível a como esses direitos podem ser diferentes quando aplicados a uma empresa privada de redes sociais do que quando aplicados a um governo. Apesar disso, como afirmou o Relator Especial da ONU sobre liberdade de expressão, embora as empresas não tenham obrigações governamentais, “seu impacto exige que avaliem o mesmo tipo de questões sobre a proteção do direito à liberdade de expressão” (relatório A/74/486, parágrafo 41).

A legalidade requer que toda restrição à liberdade de expressão esteja acessível e seja clara o suficiente para entender o que é ou não permitido. O Comitê já expressou preocupação de que as regras do Padrão da Comunidade sobre Violência e Conteúdo Explícito não se alinham totalmente com o fundamento da política, que estabelece os objetivos da política (veja Vídeo explícito do Sudão e Vídeo após ataque à igreja na Nigéria). O Comitê reitera a importância das recomendações nº 1 e 2 no caso “Vídeo explícito do Sudão”, que apelou à Meta para alterar seu Padrão da Comunidade sobre Conteúdo Violento e Explícito para permitir vídeos de pessoas ou cadáveres quando compartilhados com o objetivo de conscientizar ou documentar abusos dos direitos humanos (esse caso dizia respeito ao desmembramento visível). A Meta conduziu um processo de desenvolvimento de políticas em resposta a essas recomendações e pretende relatar seu progresso na próxima atualização trimestral ao Comitê. Na opinião dele, essa recomendação deve aplicar-se às regras para vídeos que mostram órgãos internos visíveis e prever especificamente telas de aviso como medida de aplicação quando a conscientização (incluindo a reportagem fatual) e a exceção de condenação são envolvidas.

Segundo o Artigo 19, parágrafo 3 do PIDCP, a expressão pode ser restringida por uma lista de motivos definida e limitada. O Comitê concluiu anteriormente que a política de conteúdo violento e gráfico visa legitimamente proteger os direitos de terceiros, incluindo a privacidade do indivíduo retratado (veja Vídeo explícito do Sudão e Vídeo após o ataque à igreja na Nigéria). Esse caso demonstra também que a restrição do acesso ao conteúdo por menores de 18 anos servia o objetivo legítimo de proteger o direito à saúde dos menores (Convenção sobre os Direitos da Criança, Artigo 24).

O princípio da necessidade e da proporcionalidade mostra que qualquer restrição à liberdade de expressão “deve ser apropriada para cumprir sua função protetora; ser o instrumento menos intrusivo entre aqueles que podem cumprir sua função protetora [e] ser proporcional ao interesse a ser protegido” (Comentário Geral n.º 34, parágrafo 34).

O Comitê concluiu anteriormente em relação ao conteúdo violento e explícito que uma tela de aviso “não representa um incômodo indevido para aqueles que desejam ver o conteúdo, ao mesmo tempo que informa outras pessoas sobre a natureza do conteúdo e permite que decidam se querem vê-lo ou não” (veja Vídeo explícito do Sudão). As telas de aviso evitam que os usuários vejam involuntariamente conteúdo possivelmente perturbador. Os direitos das vítimas são ainda protegidos pela política da Meta de remover vídeos e fotos que mostram a morte violenta de alguém (ou suas consequências imediatas) quando um membro da família solicita. O conteúdo desse caso pode ser diferenciado daquele do caso Poema Russo, que mostrava uma imagem estática de um corpo caído no chão a longa distância, em que o rosto da vítima não era visível e não havia indicadores visuais claros de violência. A aplicação de uma tela de aviso nesse caso era inconsistente com a orientação da Meta aos analistas e não era uma restrição necessária ou proporcional à expressão. O conteúdo nesse caso é mais semelhante ao da decisão Vídeo após ataque à igreja na Nigéria, mostrando pessoas mortas e feridas de perto, com indicadores visuais de violência muito claros.

A representação de crianças mortas e feridas torna o vídeo especialmente angustiante nesse caso. Em circunstâncias como essas, dar aos usuários a opção de ver ou não conteúdo perturbador é uma medida necessária e proporcional (veja Vídeo de prisioneiros de guerra armênio).

O Comitê considera que excluir das recomendações conteúdos que conscientizam sobre possíveis abusos dos direitos humanos, conflitos ou atos de terrorismo não é uma restrição necessária ou proporcional à liberdade de expressão, levando-se em conta a grande utilidade pública nesses conteúdos. As telas de aviso e a remoção das recomendações exercem funções diferentes, e em alguns casos devem ser desacopladas, especialmente em situações de crise. As recomendações no Instagram são geradas por sistemas automatizados que sugerem conteúdo aos usuários com base nos interesses previstos deles. Remover um conteúdo dos sistemas de recomendação significa reduzir o alcance que esse conteúdo poderia ter. O Comitê considera que essa prática interfere com a liberdade de expressão de forma inadequada quando aplicada a conteúdos que já são limitados a usuários adultos e que são publicados para conscientizar, condenar ou relatar assuntos de utilidade pública como o desenvolvimento de um conflito violento.

Ele reconhece que respostas imediatas a uma crise podem exigir medidas temporárias excepcionais e que, em alguns contextos, é necessário priorizar preocupações de segurança e impor restrições temporárias e proporcionais à liberdade de expressão. Algumas delas estão descritas, por exemplo, nos compromissos de combate ao “conteúdo terrorista e extremista violento” estabelecidos na Chamada de Christchurch. No entanto, o Comitê nota que a Chamada da Christchurch enfatiza também a necessidade de responder a esse tipo de conteúdo de forma coerente com os direitos humanos e as liberdades fundamentais. Ele acredita que as preocupações de segurança não justificam o erro de remover conteúdos explícitos que tenham como objetivo aumentar a sensibilização ou condenar potenciais crimes de guerra, crimes contra a humanidade ou graves violações dos direitos humanos. Essas restrições podem até obstruir as informações necessárias para a segurança das pessoas no local.

Medidas como a não imposição de advertências ajudam a mitigar os efeitos adversos potencialmente desproporcionais dos erros de aplicação devido a medidas de emergência, como a redução dos limiares de confiança para a remoção de conteúdos em situações de conflito. No entanto, elas não são suficientes para proteger a capacidade dos usuários de compartilhar conteúdos que conscientizam sobre potenciais abusos dos direitos humanos e violações do direito humanitário, bem como outras informações críticas em situações de conflito.

O Comitê destacou repetidamente a necessidade de desenvolver uma estrutura transparente e baseada em princípios para moderação de conteúdo durante crises e em zonas de conflito (veja Vídeo de delegacia de polícia no Haiti e Gabinete de Comunicações da Região do Tigré). É justamente em tempos de conflitos de escalação rápida que as grandes empresas de redes sociais devem dedicar os recursos necessários para garantir que a liberdade de expressão não seja restringida de forma desnecessária. Nesses cenários, as fontes jornalísticas ficam frequentemente sujeitas a ataques físicos e outras agressões, tornando ainda mais essencial a divulgação de notícias por cidadãos comuns nas redes sociais.

O Comitê também observou que, em contextos de guerra ou instabilidade política, mais conteúdo violento e explícito é capturado pelos usuários e compartilhado na plataforma com o objetivo de conscientizar ou registrar abusos (veja Vídeo explícito do Sudão). Em contextos como o conflito Israel-Gaza, em que há um número alarmante de civis mortos ou feridos, entre eles uma alta proporção de crianças, em um cenário de agravamento da crise humanitária, esses tipos de permissões são especialmente importantes. Embora reconheça o processo contínuo da Meta para desenvolver a política de conteúdo violento e explícito, o Comitê espera que ela esteja pronta para implantar rapidamente medidas temporárias para permitir esse tipo de conteúdo com telas de aviso, sem removê-lo das recomendações.

O Comitê observa que a situação em Gaza no momento em que esse conteúdo foi publicado não envolvia o mesmo conjunto de desafios para Meta como os ataques de 7 de outubro. Em Gaza, há dificuldades em obter informações no local, já que o acesso dos jornalistas ao território é limitado e a conectividade à Internet foi interrompida. Além disso, ao contrário do que aconteceu logo após os ataques de 7 de outubro, a situação de Gaza apresentada nesse caso não envolveu terroristas utilizando as redes sociais para divulgar suas atrocidades. No contexto de um conflito armado, pelo contrário, a Meta deve garantir que suas ações não dificultem o compartilhamento de conteúdos que deem informações que aumentem a conscientização sobre os danos causados ​​a civis e que possam ser relevantes para determinar se ocorreram violações do direito internacional humanitário e dos direitos humanos. A questão de saber se o conteúdo foi compartilhado para conscientizar ou condenar os acontecimentos no local deve ser o ponto de partida para qualquer analista que avalie esse conteúdo, e os sistemas automatizados da Meta devem evitar a remoção incorreta de conteúdos que deveriam se beneficiar de exceções aplicáveis.

Esse caso ilustra ainda que a supervisão humana insuficiente da moderação automatizada durante uma resposta a crises pode levar à remoção errônea de discursos que podem ser de utilidade pública significativa. Tanto a decisão inicial de remoção desse conteúdo quanto a rejeição da apelação do usuário foram tomadas automaticamente com base em uma pontuação do classificador, sem qualquer análise humana. Isso pode ter sido exacerbado pela resposta da Meta à crise de reduzir o limite de remoção de conteúdo conforme a política de conteúdo violento e explícito após os ataques de 7 de outubro. Isso significa que, mesmo que o classificador atribua uma pontuação relativamente mais baixa à probabilidade de violação do que normalmente seria exigido, a Meta remove esse conteúdo.

Para que a empresa aplique seus sistemas automatizados de uma forma compatível com seus compromissos em matéria de direitos humanos, o Comitê lembra a ela a recomendação nº 1 no caso Ilustração retratando policiais colombianos. Nesse caso, ele pediu à Meta para assegurar que os conteúdos com altas taxas de apelações e altas taxas de apelações bem-sucedidas fossem reavaliados para uma possível remoção dos bancos de dados do Serviço de Correspondência de Mídias. Em resposta a essa recomendação, a Meta criou um grupo de trabalho designado para fazer melhorias de governança nos bancos de dados Serviços de Correspondência de Mídia (veja as atualizações mais recentes da Meta sobre essa questão aqui). O Comitê observa que é importante que esse grupo preste atenção especial à utilização de Serviços de Correspondência de Mídia no contexto de conflitos armados. No caso Sintomas de câncer de mama e nudez (recomendação nº 3 e nº 6), o Comitê recomendou que a Meta informasse aos usuários quando a automação fosse usada para tomar medidas coercivas contra o conteúdo deles e divulgasse dados sobre o número de decisões de remoção automatizadas por Padrão da Comunidade e a proporção dessas decisões posteriormente revertidas após análise humana. Isso é particularmente importante quando os limites de confiança para conteúdo potencialmente violador foram reduzidos significativamente. O Comitê solicita a Meta a aprimorar a implementação da recomendação nº 6 e a compartilhar com ele evidências da implementação da recomendação nº 3.

As restrições à liberdade de expressão não devem ser discriminatórias, inclusive com base na nacionalidade, etnia, religião ou crença, ou opinião política ou outra (Artigo 2, parágrafo 1 e Artigo 26 do PIDCP). A aplicação discriminatória dos Padrões da Comunidade viola esse aspecto fundamental da liberdade de expressão. No caso Publicação compartilhada da Al Jazeera, o Comitê levantou sérias preocupações de que erros na moderação de conteúdo da Meta em Israel e nos Territórios Palestinos Ocupados poderiam ser distribuídos de forma desigual e pediu uma investigação independente (Decisão do caso Publicação compartilhada da Al Jazeera, recomendação nº 3). A avaliação de impacto nos direitos humanos do Business for Social Responsibility (BSR), que a Meta encomendou em resposta a essa recomendação, identificou “vários casos de tendências não intencionais em que a política e a prática da Meta, combinadas com dinâmicas externas mais amplas, impacta de forma diferente os direitos humanos dos usuários palestinos e de língua árabe.” O Comitê incentiva a Meta a cumprir os compromissos assumidos em resposta ao relatório do BSR.

Por fim, a empresa tem a responsabilidade de preservar as provas de possíveis violações dos direitos humanos e do direito humanitário internacional, conforme recomendado também no relatório do BSR (recomendação nº 21) e defendido por grupos da sociedade civil. Mesmo quando o conteúdo é removido das plataformas da Meta, é essencial preservar essas provas no interesse de uma futura responsabilização (veja Vídeo explícito do Sudão e Vídeo de prisioneiros de guerra armênios). Embora a empresa tenha explicado que retém por um período de um ano todos os conteúdos que violam seus Padrões da Comunidade, o Comitê recomenda fortemente que os conteúdos relacionados especificamente com possíveis crimes de guerra, crimes contra a humanidade e violações graves de direitos humanos sejam identificados e preservados de uma forma mais durável e acessível para fins de responsabilização de mais longo prazo. O Comitê nota que a Meta concordou em implementar a recomendação nº 1 do caso Vídeo de prisioneiros de guerra armênios. Essa recomendação incitava a empresa a desenvolver um protocolo para proteger e, se apropriado, compartilhar informações com as autoridades competentes para auxiliar nas investigações e processos legais a fim de fornecer uma medida cautelar ou processar crimes de atrocidades ou violações graves de direitos humanos. A Meta informou o Comitê de que ela está nas etapas finais do desenvolvimento de uma “abordagem coerente para reter possíveis provas de crimes de atrocidades e violações graves das leis de direitos humanos internacionais” e prevê fornecer em breve ao Comitê um briefing sobre sua abordagem. O Comitê espera que a Meta implemente de forma completa a recomendação acima.

*Nota processual:

as decisões céleres do Comitê de Supervisão são preparadas por painéis de cinco membros e não são submetidas à aprovação da maioria do Comitê inteiro. As decisões do Comitê não representam, necessariamente, as opiniões pessoais de todos os membros.

Voltar para Decisões de Casos e Pareceres Consultivos sobre Políticas