Mantido

Vídeo explícito do Sudão

O Comitê de Supervisão manteve a decisão da Meta de restaurar uma publicação no Facebook que retrata violência contra um civil no Sudão.

Tipo de decisão

Padrão

Políticas e tópicos

विषय
Eventos de notícias, Proteção
Padrão da comunidade
Conteúdo violento e explícito

Regiões/países

Localização
Sudão

Plataforma

Plataforma
Facebook

Resumo do caso

O Comitê de Supervisão manteve a decisão da Meta de restaurar uma publicação no Facebook que retrata violência contra um civil no Sudão. O conteúdo aumentou a conscientização sobre as violações dos direitos humanos e teve valor expressivo de interesse público. O Comitê recomendou que a Meta adicione uma exceção específica sobre conscientizar ou registrar violações de direitos humanos aos Padrões da Comunidade para conteúdo violento e explícito.

Sobre o caso

Em 21 de dezembro de 2021, a Meta encaminhou ao Comitê um caso de um vídeo explícito que parecia retratar um civil vítima de violência no Sudão. O conteúdo foi publicado na página de perfil do usuário no Facebook após o golpe militar no país em 25 de outubro de 2021.

O vídeo mostra uma pessoa caída próxima a um carro com um grande ferimento na cabeça e um olho visivelmente para fora. Em árabe, é possível ouvir vozes ao fundo dizendo que uma pessoa foi espancada e estava caída na rua. O vídeo também contava com uma legenda em árabe que pedia que as pessoas permanecessem juntas e não confiassem nos militares, usando hashtags que faziam referência a registrar abusos militares e desobediência civil.

Depois de ser identificada pelos sistemas automatizados da Meta e passar por uma análise de um moderador humano, a publicação foi removida por violar os Padrões da Comunidade para conteúdo violento e explícito do Facebook. Depois da apelação do usuário, no entanto, a Meta emitiu uma permissão para conteúdo de valor jornalístico, o que isenta a publicação da remoção em 29 de outubro de 2021. Devido a uma falha de comunicação interna, a Meta não restaurou o conteúdo depois de quase cinco semanas. Após restaurar a publicação, a Meta colocou uma tela de aviso no vídeo.

Principais conclusões

O Comitê concorda com a decisão da Meta de restaurar esse conteúdo no Facebook com uma tela de aviso. No entanto, a política de conteúdo violento e explícito da Meta não é clara sobre a forma como os usuários podem compartilhar conteúdo explícito para conscientizar ou registrar abusos.

O fundamento dos Padrões da Comunidade, que define seus objetivos, não está de acordo com as regras da política. Apesar do fundamento da política definir que a Meta permite que os usuários publiquem conteúdo explícito “to help people raise awareness” (“para ajudar na conscientização das pessoas”) sobre o abuso de direitos humanos, a própria política proíbe todos os vídeos (compartilhados ou não para gerar conscientização) “of people or dead bodies in non-medical settings if they depict dismemberment.” (“de pessoas ou cadáveres em ambientes hospitalares caso retratem desmembramento”).

O Comitê também conclui que, embora tenha sido usado nesse caso, a permissão para conteúdo de valor jornalístico não é uma forma eficaz de autorizar esse tipo de conteúdo no Facebook em grande escala. A Meta informou ao Comitê que “registrou 17 permissões para conteúdo de valor jornalístico com relação à política de conteúdo violento e explícito nos últimos 12 meses (12 meses anteriores a 8 de março de 2022). Neste caso, o conteúdo representa uma dessas 17 permissões.” Por outro lado, a Meta removeu 90,7 milhões de conteúdos de acordo com esses Padrões da Comunidade nos três primeiros trimestres de 2021.

O Comitê acredita que é improvável que, ao longo de um ano, apenas 17 conteúdos relacionados a essa política tenham sido autorizados a permanecer na plataforma como conteúdo de valor jornalístico e de interesse público. Para assegurar que esse conteúdo seja permitido no Facebook, o Comitê recomenda que a Meta altere os Padrões da Comunidade para conteúdo violento e explícito, autorizando vídeos que mostrem pessoas ou cadáveres quando compartilhados para conscientizar ou registrar abusos.

A Meta também deve estar preparada para responder de forma rápida e sistemática a conflitos e situações de crise em todo o mundo. A decisão do Comitê sobre a “Suspensão do ex-presidente Trump” recomendou à Meta “develop and publish a policy that governs Facebook’s response to crises” (“elaborar e publicar uma política que rege a resposta do Facebook a crises”). Embora o Comitê aprove o desenvolvimento desse protocolo, que a Meta afirma ter adotado, a empresa deve implementá-lo o quanto antes e disponibilizar o máximo de informações possíveis sobre o seu funcionamento.

A decisão do Comitê de Supervisão

O Comitê de Supervisão mantém a decisão da Meta de restaurar a publicação com uma tela de aviso que impede que menores de idade tenham acesso ao conteúdo.

Como recomendação de política, o Comitê aconselha que a Meta:

  • Altere os Padrões da Comunidade para conteúdo violento e explícito de forma que permita o compartilhamento de vídeos que mostrem pessoas ou cadáveres com o objetivo de conscientizar ou registrar violações de direitos humanos. O conteúdo deve ser permitido com uma tela de aviso que informa às pessoas de que o conteúdo pode ser perturbador.
  • Realize um processo de desenvolvimento de políticas que estabeleça critérios para identificar o compartilhamento de vídeos que mostre pessoas ou cadáveres com o objetivo de conscientizar ou registrar violações de direitos humanos.
  • Deixe claro na descrição da permissão de conteúdo de valor jornalístico que todas as ações tomadas (por exemplo, restauração com tela de aviso) são feitas com base nessa política.
  • Envie uma notificação aos usuários quando houver uma ação no conteúdo com base na permissão de conteúdo de valor jornalístico, entre elas, a restauração do conteúdo ou a aplicação de uma tela de aviso. A notificação do usuário pode incluir um link para a explicação sobre a permissão de conteúdo de valor jornalístico contida na Central de Transparência.

*Os resumos de caso dão uma visão geral da ocorrência e não têm valor precedente.

Decisão completa sobre o caso

1. Resumo da decisão

O Comitê de Supervisão mantém a decisão da Meta de restaurar uma publicação do Facebook contendo um vídeo e uma legenda, que retrata a violência contra um civil no Sudão. A publicação foi restaurada conforme a permissão de conteúdo de valor jornalístico com uma tela de aviso que classifica o conteúdo como sensível, tornando-o inacessível a menores de idade, e solicitando que todos os outros usuários cliquem para o visualizarem. O Comitê considera que esse conteúdo, que buscava conscientizar ou registrar violações de direitos humanos, tinha um valor importante de interesse público. Embora a remoção inicial do conteúdo esteja de acordo com as regras dos Padrões da Comunidade para conteúdo violento e explícito, a decisão da Meta de restaurar o conteúdo com uma tela de sensibilidade está conforme suas políticas, valores e responsabilidades de direitos humanos.

No entanto, o Comitê observa que a permissão de conteúdo de valor jornalístico pela Meta não é uma forma eficaz de manter ou restaurar esse tipo de conteúdo em grande escala. Portanto, o Comitê recomenda que a Meta adicione uma exceção específica sobre a conscientização ou registro de abusos de direitos humanos aos Padrões da Comunidade para conteúdo violento e explícito. O Comitê incentiva a Meta a priorizar a implementação da recomendação anterior de introduzir uma política de coleta, preservação e compartilhamento de conteúdo que possa comprovar violações do direito internacional.

2. Descrição do caso e histórico

Em 21 de dezembro de 2021, a Meta encaminhou ao Comitê um caso de um vídeo explícito que parecia retratar um civil vítima de violência no Sudão. O conteúdo foi publicado na página de perfil do usuário no Facebook no dia 26 de outubro de 2021, após um golpe militar no país em 25 de outubro de 2021 e o início dos protestos contra a tomada do governo pelos militares.

O vídeo mostra uma pessoa caída próxima a um carro com um grande ferimento na cabeça e um olho visivelmente para fora. Em árabe, é possível ouvir vozes ao fundo dizendo que uma pessoa foi espancada e estava caída na rua. A publicação também inclui uma legenda em árabe que pedia para as pessoas permanecerem juntas e não confiarem nos militares, usando as hashtags que faziam referência a registros de abusos militares e desobediência civil.

A Meta explicou que sua tecnologia identificou o conteúdo como possível violação dos Padrões da Comunidade para conteúdo violento e explícito no mesmo dia em que foi publicado, 26 de outubro de 2021. Após uma análise humana, a Meta definiu que a publicação violou a política de conteúdo violento e explícito do Facebook e a removeu. O criador do conteúdo posteriormente discordou da decisão. Em 28 de outubro de 2021, o conteúdo foi encaminhado para especialistas no assunto e em políticas para uma análise adicional. Após a análise, a Meta emitiu uma permissão de conteúdo de valor jornalístico isentando a publicação de ser removida, de acordo com a política de conteúdo violento e explícito em 29 de outubro de 2021. No entanto, por conta de uma falha de comunicação interna, a Meta não havia restaurado efetivamente o conteúdo até o dia 02 de dezembro de 2021, quase cinco semanas depois. Após restaurá-lo, a Meta colocou uma tela de aviso no vídeo marcando-o como conteúdo sensível e solicitando que os usuários cliquem para visualizá-lo. A tela de aviso proíbe que usuários menores de 18 anos visualizem o vídeo.

A publicação teve menos de 1.000 visualizações e nenhum usuário denunciou o conteúdo.

O contexto factual a seguir é pertinente para a decisão do Comitê. Após a tomada militar do governo no Sudão em outubro de 2021 e o início dos protestos civis, as forças de segurança do país dispararam armas de fogo, usaram gás lacrimogêneo e prenderam e detiveram manifestantes de forma arbitrária, de acordo com o Alto Comissariado das Nações Unidas para os Direitos Humanos. Jornalistas e ativistas também foram alvo das forças de segurança, que vasculharam suas casas e escritórios. Jornalistas foram atacados, presos e detidos.

De acordo com especialistas consultados pelo Comitê, com a tomada militar da mídia estatal e a repressão aos jornais e emissoras sudanesas, as mídias sociais se tornaram uma fonte essencial de informação e um local para registrar a violência cometida pelos militares. Os militares bloquearam a internet junto com a prisão da liderança civil em 25 de outubro de 2021, e o acesso constante à internet tem sido interrompido com frequência em todo o país desde então.

3. Escopo e autoridade do Comitê de Supervisão

O Comitê tem autoridade para analisar decisões que a Meta envia para análise, segundo o Artigo 2 da Seção 1 do Estatuto e o Artigo 2 da Seção 2.1.1 dos Regulamentos Internos). De acordo com o Artigo 3 da Seção 5 do Estatuto, o Comitê pode manter ou revogar a decisão da Meta, decisão essa que é vinculante para a empresa, segundo o Artigo 4 do Estatuto. A Meta também deve avaliar a viabilidade de aplicar sua decisão no que diz respeito a conteúdo idêntico em contexto paralelo, segundo o Artigo 4 do Estatuto. As decisões do Comitê podem incluir recomendações de política, além de sugestões não vinculantes às quais a Meta deve responder, de acordo com o Artigo 3 e 4 da Seção 4 do Estatuto .

4. Fontes de autoridade

O Comitê de Supervisão considerou as seguintes fontes de autoridade:

I.Decisões do Comitê de Supervisão:

Em decisões anteriores, o Comitê considerou e fez recomendações sobre as políticas e processos da Meta. As decisões mais relevantes incluem:

  • Decisão sobre o caso 2021-010-FB-UA (“Protestos na Colômbia”): Nesse caso, o Comitê observou que a Meta não disponibiliza publicamente seus critérios para encaminhar o conteúdo a ser analisado com relação à permissão de conteúdo de valor jornalístico (que é a única forma de aplicar o padrão) e afirmou que “in an environment where outlets for political expression are limited, social media has provided a platform for all people, including journalists, to share information about the protests” (“em um ambiente em que os meios de expressão política são restritos, as mídias sociais oferecem uma plataforma para que todas as pessoas, inclusive jornalistas, compartilhem informações sobre os protestos”). O Comitê recomendou que a Meta “develop and publicize clear criteria for content reviewers to escalate for additional review of public interest content... (desenvolva e divulgue critérios claros para os analistas de conteúdo encaminharem a análise adicional de conteúdo de interesse público...) These criteria should cover content depicting large protests on political issues, in particular in contexts where states are accused of violating human rights and where maintaining public record of events is of heightened importance.” (Esses critérios deveriam abranger conteúdos que descrevem protestos amplos sobre as questões políticas, em particular em contextos em que os estados são acusados de violar os direitos humanos e para os quais manter um registro público dos eventos é de grande importância.)
  • Decisão sobre o caso 2021-001-FB-FBR (“Suspensão do ex-presidente Trump”): Neste caso, o Comitê recomendou a Meta “develop and publish a policy that governs Facebook’s response to crises or novel situations where its regular processes would not prevent or avoid imminent harm” (“desenvolver e publicar uma política que controle a reação do Facebook a crises ou situações novas nos quais seus processos normais não previnam nem evitem danos iminentes”). Em janeiro de 2022, a Meta realizou um Fórum sobre o “Protocolo de política contra crise” desenvolvido em resposta à recomendação do Comitê. No entanto, a Meta confirmou, em uma de suas respostas às perguntas feitas pelo Comitê, que esse protocolo não estava em vigor no momento do golpe no Sudão e as decisões subsequentes de remoção e restauração de conteúdo neste caso.

II.Políticas de conteúdo da Meta:

Padrões da Comunidade do Facebook:

De acordo com o fundamento da política de conteúdo violento e explícito, a Meta afirma remover conteúdo que “glorifies violence or celebrates suffering” (exalte a violência ou celebre o sofrimento), mas permitir conteúdo explícito “to help people raise awareness” (para ajudar as pessoas a gerar conscientização). As regras da política proíbem a publicação de “videos of people or dead bodies in non-medical settings if they depict dismemberment” (vídeos de pessoas ou cadáveres em ambientes não hospitalares caso retratem desmembramento). De acordo com a permissão de conteúdo de valor jornalístico, a Meta permite conteúdos que violam políticas da plataforma caso seja relevante e “if keeping it visible is in the public interest” (caso seja de interesse público mantê-los visíveis).

III. Os valores da Meta:

Os valores da Meta são descritos na introdução aos Padrões da Comunidade do Facebook. Os valores relevantes para este caso são “Voz”, “Segurança”, “Privacidade” e “Dignidade”. O valor "Voz" é definido como "fundamental":

O objetivo de nossos Padrões da Comunidade sempre foi criar um espaço para expressão e dar voz às pessoas. Queremos que as pessoas possam falar abertamente sobre os assuntos importantes para elas, ainda que sejam temas que geram controvérsias e objeções.

A Meta limita o valor de “voz” com base em outros quatro valores, três dos quais são relevantes aqui:

“Segurança”: conteúdo com ameaças podem intimidar, excluir ou silenciar pessoas, e isso não é permitido no Facebook.

“Privacidade”: temos o compromisso de proteger a privacidade e as informações pessoais. A privacidade dá às pessoas a liberdade de serem elas mesmas, escolher como e quando compartilhar no Facebook e criar conexões mais facilmente.

“Dignidade”: acreditamos que todas as pessoas são iguais no que diz respeito à dignidade e aos direitos. Esperamos que as pessoas respeitem a dignidade alheia e não assediem nem difamem umas às outras.

IV: Padrões internacionais dos direitos humanos:

Os Princípios Orientadores da ONU sobre Empresas e Direitos Humanos (UNGPs, na sigla em inglês), endossados pelo Conselho de Direitos Humanos da ONU em 2011, estabelecem uma estrutura voluntária de responsabilidades sobre direitos humanos das empresas privadas. Em 2021, a Meta anunciou sua Política Corporativa de Direitos Humanos, em que reafirmou o seu compromisso com relação aos direitos humanos de acordo com os UNGPs. Neste caso, os Padrões de Direitos Humanos a seguir foram levados em consideração na análise que o Comitê fez das responsabilidades da Meta em termos de direitos humanos.

  • O direito à liberdade de expressão, inclusive a capacidade de buscar e receber informações: Artigo 19, Pacto Internacional dos Direitos Civis e Políticos (PIDCP), Comentário Geral N° 34, Comitê de Direitos Humanos (2011), Relator Especial da ONU sobre os relatórios de liberdade de opinião e expressão: A/HRC/38/35 (2018) e A/73/348 (2018).
  • Os interesses da criança: Artigos 13 e 17, Convenção sobre os Direitos da Criança (CDC); Comentário Geral Nº 25, Comitê sobre os Direitos da Criança, 2021, sobre os direitos das crianças em relação ao ambiente digital.
  • Direito à privacidade: Artigo 17 do PIDCP;
  • Acesso a um recurso efetivo: Artigo 2 do PIDCP; Comentário geral n.º 31, do Comitê de Direitos Humanos, de 2004; UNGPs, Princípios 22, 29, 31.

5. Envios de usuário

Após o encaminhamento da Meta e a decisão do Comitê de aceitar o caso, o usuário recebeu uma notificação sobre a análise do Comitê e uma oportunidade de enviar uma declaração a ele. No entanto, o usuário não a enviou.

6. Envios da Meta

No encaminhamento, a Meta declarou que foi difícil tomar uma decisão sobre esse conteúdo, uma vez que destaca o conflito entre o valor de interesse público de documentar violações aos direitos humanos e o risco de danos associado ao compartilhamento desses conteúdos explícitos. A Meta também enfatizou a importância de permitir que os usuários registrem violações de direitos humanos durante um golpe e a suspensão do acesso à internet no país.

A Meta informou ao Comitê, que imediatamente após o golpe militar ocorrido no Sudão, ela criou uma equipe multifuncional de resposta a crises para monitorar a situação e comunicar tendências e riscos emergentes. De acordo com a Meta, essa equipe observou “spikes in relation to reports of content depicting Graphic Violence and Violence and Incitement at times when protests were most active. [The team] was instructed to escalate requests to allow instances of graphic violence that would otherwise violate the Graphic and Violent Content policy, including content depicting state-backed human rights abuses (“aumento em relação a relatos de conteúdo que retratam violência explícita e violência e incitação nos momentos em que os protestos estavam mais ativos. [A equipe] foi instruída a encaminhar solicitações que permitam instâncias de violência explícita que violariam a política de conteúdo violento e explícito, incluindo conteúdo que retrata abusos de direitos humanos apoiados pelo estado.”)

A Meta observou que este vídeo foi feito no contexto de protestos generalizados e problemas reais em relação à liberdade de imprensa no Sudão. A Meta também observou que esse tipo de conteúdo pode “warn users in the area of a threat to their safety and is particularly important during an internet blackout where journalists’ access to the location may be limited” (“alertar os usuários sobre uma ameaça à sua segurança e é importante durante um apagão na Internet, onde o acesso dos jornalistas ao local pode ser limitado”.)

A Meta também afirmou que a decisão de restaurar o conteúdo estava de acordo com seus valores, principalmente o valor "Voz", que é fundamental. A Meta mencionou decisões anteriores do Comitê que afirmam que o discurso político é essencial para o valor "Voz". Decisões sobre o caso 2021-010-FB-UA (“Protestos na Colômbia”): 2021-003-FB-UA (“Preocupação de Punjab com a RSS na Índia); 2021-007-FB-UA (“Bot de Mianmar”); e 2021-009-FB-UA (“Publicação compartilhada da Al Jazeera”).

A Meta informou ao Comitê que sua decisão inicial de remover o conteúdo estava de acordo com o artigo 19 do PIDCP, especificamente com o princípio da necessidade. Por isso, restaurou o conteúdo de acordo com a permissão de conteúdo de valor jornalístico. Para reduzir qualquer possível risco de dano envolvido na autorização do conteúdo explícito que permaneça na plataforma depois de restaurado, a Meta restringiu o acesso a pessoas maiores de 18 anos e aplicou uma tela de aviso. A Meta também mencionou na justificativa de caso que a decisão de restabelecer o conteúdo estava de acordo com o relatório do Relator Especial da ONU sobre a promoção e proteção do direito à liberdade de opinião e expressão, particularmente, “the right to access information on human rights violations” (“o direito de acesso a informações sobre violações de direitos humanos”).

Além disso, a Meta observou que, por ter aplicado uma tela de aviso que não impede que usuários menores de 18 anos visualizem o conteúdo, também considerou o impacto da decisão sobre os direitos da criança. A Meta informou ao Comitê que, ao tomar sua decisão, considerou o Artigo 13 da Convenção sobre os Direitos da Criança e o Comentário Geral Nº 25 sobre os Direitos da Criança em Relação ao Ambiente Digital, na proteção do direito da criança à liberdade de expressão, inclusive “freedom to seek, receive and impart information and ideas of all kinds, regardless of frontiers.”(“liberdade de buscar, receber e difundir informações e ideias de todos os tipos, independentemente das fronteiras”). A Meta explicou na sua justificativa do caso que sua decisão de restringir a visibilidade do conteúdo a adultos atende ao objetivo legítimo de proteger a segurança de menores de idade e é proporcional a esse objetivo.

O Comitê fez 21 perguntas à Meta. A Meta respondeu a 17 perguntas por completo e 4 parcialmente. As respostas parciais estavam relacionadas a perguntas sobre medir o impacto do sistema automatizado da Meta no conteúdo da plataforma e o motivo pelo qual os Padrões da Comunidade para conteúdo violento e explícito não contam com a exceção de conscientizar.

7. Comentários públicos

O Comitê recebeu cinco comentários públicos sobre esse caso. Dois comentários eram da Europa, um da África Subsaariana e dois dos Estados Unidos e do Canadá.

Os envios trataram dos seguintes temas: a necessidade de adotar uma abordagem mais contextual que estabeleça um limite mais alto para remoção de conteúdo em regiões sujeitas a conflitos armados, para que menos conteúdo seja removido; a necessidade de preservar materiais para possíveis investigações futuras ou responsabilizar os violadores de direitos humanos; e que a permissão de conteúdo de valor jornalístico provavelmente será aplicada de forma específica e contestável e que esta prática deve ser reconsiderada.

Em março de 2022, como parte do engajamento contínuo das partes interessadas, o Comitê conversou com cerca de 50 representantes de organizações de defesa de interesses sociais e indivíduos que trabalham na denúncia e documentação de abusos de direitos humanos, estudantes que pesquisam ética, direitos humanos e documentação e pessoas interessadas em se engajar com o Comitê nas questões decorrentes dos Padrões da Comunidade para conteúdo violento e explícito e seu monitoramento em contextos de crise ou protesto. Esses engajamentos contínuos são feitos de acordo com a regra de Chatham House para garantir uma discussão sincera e proteger os participantes. A discussão abordou vários temas, inclusive o papel vital da mídia social em países controlados por regimes repressivos para registrar violações de direitos humanos e chamar a atenção da mídia internacional e do público para a violência sancionada pelo Estado; questões compartilhadas de que um padrão universal sobre conteúdo violento e explícito é, na prática, um padrão focado nos EUA; e observou que o uso de telas de aviso é útil para tratar o problema real de trauma, embora algumas organizações tenham relatado que as telas de aviso poderiam limitar o alcance de seu conteúdo.

Para ler os comentários públicos enviados sobre este caso, clique aqui.

8. Análise do Comitê de Supervisão

O Comitê avaliou se esse conteúdo deve permanecer na plataforma com base em três óticas: as políticas de conteúdo da Meta, os valores da empresa e suas responsabilidades sobre os direitos humanos.

8.1. Conformidade com as políticas de conteúdo da Meta

I.Regras sobre conteúdo

O Comitê concorda com a decisão da Meta de restaurar esse conteúdo na plataforma com uma tela de aviso e restrição de idade, mas destaca que há uma falta de clareza nas políticas de conteúdo da Meta e que não há uma forma eficaz de implementar essa resposta a conteúdo semelhante em grande escala.

A decisão inicial da Meta de remover o conteúdo estava de acordo com as regras dos Padrões da Comunidade para conteúdo violento e explícito: o conteúdo violou a política ao retratar desmembramento humano em um ambiente não hospitalar (uma pessoa com um ferimento grande na cabeça e um olho visivelmente para fora). No entanto, o fundamento da política dos Padrões da Comunidade para conteúdo violento e explícito define que “a [Meta] permite conteúdo explícito (com algumas restrições) para ajudar a gerar conscientização nas pessoas sobre os problemas. A [Meta] sabe que as pessoas valorizam a capacidade de discutir questões importantes, como abusos de direitos humanos ou atos de terrorismo.” Apesar dessa referência no fundamento da política, as regras específicas dos Padrões da Comunidade não incluem uma exceção de “conscientizar”. Os padrões internos da Meta para seus analistas também não incluem uma exceção de conteúdo que queira conscientizar ou registrar violações de direitos humanos.

Na ausência de uma exceção específica dentro dos Padrões da Comunidade, o Comitê concorda com a decisão da Meta de restaurar o conteúdo usando a permissão de conteúdo de valor jornalístico. A Meta declara que autoriza que o conteúdo violado permaneça na plataforma de acordo com a permissão de conteúdo de valor jornalístico se determinado que é relevante e que “keeping it visible is in the public interest [and] after conducting a balancing test that weighs the public interest against the risk of harm” (“é de interesse público mantê-lo visível [e] após avaliar o interesse público e o risco de danos").

II.Ação de monitoramento

O Comitê observa que, embora a Meta tenha tomado a decisão de emitir uma permissão de conteúdo de valor jornalístico e ter restaurado a publicação com uma tela de aviso em 29 de outubro de 2021, a publicação não foi efetivamente restaurada na plataforma depois de quase cinco semanas, em 2 de dezembro de 2021. A Meta informou que a notificação sobre a decisão final do conteúdo não ocorreu com as ferramentas normais de gerenciamento de encaminhamento, “leading to the delay in taking appropriate action on the content” (“o que gerou atraso na tomada de ações apropriadas sobre o conteúdo”). O Comitê considera esta explicação e o atraso extremamente preocupantes e enfatiza a importância de a Meta tomar medidas oportunas em relação a decisões deste tipo, no contexto de uma crise pública e quando a liberdade de imprensa for seriamente restringida. Depois de remover inicialmente esse conteúdo, a Meta adotou uma restrição de recursos por 30 dias, o que impedia o usuário de criar novos conteúdos durante o período em que os manifestantes estavam nas ruas e os jornalistas denunciavam o golpe e a repressão militar estava sendo enfrentada com violência e medidas severas.

8.2. Conformidade com os valores da Meta

O Comitê conclui que manter esse conteúdo na plataforma com uma tela de aviso estava de acordo com os valores de “Voz” e “Segurança” da Meta.

O Comitê reconhece a importância da “Dignidade” e “Privacidade” no contexto de proteção às vítimas de violações de direitos humanos. O conteúdo afeta a dignidade e a privacidade da pessoa ferida no vídeo e de sua família. Além disso, a pessoa retratada pode ser identificada, e ela ou sua família ou entes queridos podem não querer a transmissão desse tipo de filmagem.

O Comitê também observa a relevância da “Segurança” neste contexto, que visa proteger os usuários de conteúdos que representem um “risk of harm to the physical security of persons” (“risco de dano à segurança física das pessoas”). Por um lado, o usuário queria conscientizar sobre o golpe em andamento, o que poderia contribuir para melhorar a segurança das pessoas naquela região. Por outro lado, o conteúdo também poderia gerar riscos para a pessoa que aparece no vídeo e/ou para sua família.

O Comitê concluiu que, em um contexto em que o espaço cívico e a liberdade da mídia são restringidos pelo Estado, o valor da “Voz” se torna ainda mais importante. A “Voz” também serve aqui para aumentar o valor da “Segurança”, garantindo que as pessoas tenham acesso à informação e a violência do Estado seja exposta.

8.3. Conformidade com as responsabilidades da Meta com os direitos humanos

O Comitê concluiu que manter esse conteúdo na plataforma com uma tela de aviso está de acordo com as responsabilidades de direitos humanos da Meta. No entanto, o Comitê concluiu que as políticas da Meta devem ser alteradas para melhor respeitar o direito à liberdade de expressão para usuários que buscam conscientizar ou registrar abusos.

Liberdade de expressão (Artigo 19 do PIDCP)

O Artigo 19 do PIDCP oferece ampla proteção à liberdade de expressão, inclusive o direito de buscar e receber informações. No entanto, é possível restringir esse direito em determinadas condições específicas, conhecidas como o teste tripartite de legalidade (clareza), legitimidade e necessidade e proporcionalidade. Embora o PIDCP não gere obrigações para a Meta como o faz para os estados, a Meta se comprometeu a respeitar os direitos humanos como definido nos UNGPs. Esse compromisso abrange os direitos humanos internacionalmente reconhecidos, conforme definidos, entre outros instrumentos, pelo PIDCP.

I. Legalidade (clareza e acessibilidade das regras)

Qualquer restrição à liberdade de expressão deve estar acessível e ser clara o suficiente para entender o que é ou não permitido. O Comitê concluiu que a política de conteúdo violento e explícito não esclarece como a Meta permite que os usuários compartilhem conteúdo explícito para conscientizar ou registrar abusos. O fundamento dos Padrões da Comunidade, que define seus objetivos, não está de acordo com as regras da política. O fundamento da política define que a Meta permite que os usuários publiquem conteúdo explícito “para ajudar a conscientizar pessoas” sobre a violação de direitos humanos, mas a política proíbe todos os vídeos (compartilhados para conscientizar ou não) que mostrem “pessoas ou cadáveres em ambientes não hospitalares caso retratem desmembramento.” Apesar de a Meta ter usado corretamente na permissão de conteúdo de valor jornalístico para restaurar esse conteúdo, os Padrões da Comunidade para conteúdo violento e explícito não deixa claro se esse tipo de conteúdo será permitido na plataforma.

O Comitê também concluiu que a permissão de conteúdo de valor jornalístico não explica quando o conteúdo que documenta violações ou atrocidades contra direitos humanos se beneficiará da permissão. Apesar de concordar com a Meta de que a determinação de um conteúdo de valor jornalístico pode ser “highly subjective” (“altamente subjetivo”), a regra em questão nem mesmo define o termo. A política define que a empresa atribui “valor especial ao conteúdo que apresenta ameaças iminentes à saúde ou segurança pública ou que dá voz a perspectivas que estão sendo debatidas como parte de um processo político”. Princípios claros e exemplos emblemáticos devem orientar a determinação do uso dessa permissão. Sem isso, sua aplicação provavelmente será inconsistente e arbitrária. Além disso, a permissão de conteúdo de valor jornalístico não faz referência ao uso de telas de aviso (ou intersticiais) para conteúdos que violem as políticas da Meta.

Por fim, o Comitê, no caso anterior (“Protestos na Colômbia), recomendou que a Meta “desenvolvesse e divulgasse critérios claros para os analistas de conteúdo encaminharem a análise adicional de conteúdo de interesse público”. A Meta respondeu que já divulgou os critérios de encaminhamento por meio do artigo da Central de Transparência sobre conteúdo de valor jornalístico. No entanto, este artigo foca nos fatores que a Meta considera ao aplicar a permissão de conteúdo de valor jornalístico e não nos critérios fornecidos aos moderadores para quando encaminhar o conteúdo (ou seja, enviá-lo para análise adicional). Se a permissão de conteúdo de valor jornalístico fizer parte do sistema de moderação de conteúdo encaminhado da empresa, os processos de encaminhamento e uso deverão facilitar esse objetivo. O Comitê observa que a falta de clareza de quando e como é aplicada a permissão de conteúdo de valor jornalístico provavelmente gera um uso arbitrário desta política.

II. Objetivo legítimo

As restrições à liberdade de expressão devem defender um objetivo legítimo, que inclui a proteção dos direitos de outras pessoas, como o direito à privacidade da pessoa retratada (Comentário Geral 34, parágrafo 28) e o direito à integridade física. A Meta também declarou no fundamento da política que “content that glorifies violence or celebrates the suffering or humiliation of others...may create an environment that discourages participation” (“conteúdo que exalte a violência ou celebre a humilhação ou o sofrimento de outras pessoas... pode criar um ambiente que desestimula a participação”). O Comitê concorda que a política de conteúdo violento e explícito segue vários objetivos legítimos.

III. Necessidade e proporcionalidade

As restrições à liberdade de expressão “must be appropriate to achieve their protective function; they must be the least intrusive instrument amongst those which might achieve their protective function; [and] they must be proportionate to the interests to be protected” (“devem ser apropriadas para cumprir sua função protetora; devem ser o instrumento menos intrusivo entre aqueles que podem cumprir sua função protetora; devem ser proporcionais ao interesse a ser protegido”), de acordo com o parágrafo 34 do Comentário geral n.º 34.

Nesse caso, o Comitê concluiu que colocar uma tela de aviso no conteúdo foi uma restrição necessária e proporcional à liberdade de expressão. A tela de aviso não gera culpa naqueles que desejam visualizar o conteúdo, ao mesmo tempo em que informa os outros sobre a natureza do conteúdo e permite decidirem visualizá-lo ou não. A tela de aviso também protege de forma adequada a dignidade do indivíduo retratado e sua família.

O Comitê também observa que, conforme discutido na Seção 8.1, a publicação levou quase cinco semanas para ser restaurada. Esse atraso teve um impacto desproporcional na liberdade de expressão no contexto da violência em andamento e no ambiente restrito da mídia no Sudão. Um atraso dessa extensão compromete os benefícios desse discurso, que é alertar civis e conscientizar.

O Comitê também conclui que, como a permissão de conteúdo de valor jornalístico é usada com pouca frequência, ela não é um mecanismo eficaz que permite que o conteúdo registre abusos ou busque conscientizar na plataforma em grande escala. A Meta informou ao Comitê que “registrou 17 permissões para conteúdo de valor jornalístico com relação à política de conteúdo violento e explícito nos últimos 12 meses (12 meses anteriores a 8 de março de 2022). Neste caso, o conteúdo representa uma dessas 17 permissões.” Por outro lado, a Meta removeu 90,7 milhões de conteúdos de acordo com esses Padrões da Comunidade nos três primeiros trimestres de 2021. O Comitê acredita que seja improvável que, ao longo de um ano, apenas 17 conteúdos relacionados a essa política tenham sido autorizados a permanecer na plataforma como conteúdo de valor jornalístico e de interesse público. A permissão de conteúdo de valor jornalístico não oferece um mecanismo adequado para a preservação de conteúdo dessa natureza na plataforma. Para evitar a censura de expressões protegidas, a Meta deve alterar a própria política de conteúdo violento e explícito para que esses conteúdos permaneçam na plataforma.

Em contextos de guerra ou instabilidade política, haverá mais conteúdo violento e explícito capturado pelos usuários e compartilhado na plataforma com o objetivo de conscientizar ou registrar abusos. Este conteúdo é importante para promover a responsabilidade. O Comitê, no caso da “Suspensão do ex-presidente Trump” declarou que a Meta tem responsabilidade de “collect, preserve and, where appropriate, share information to assist in the investigation and potential prosecution of grave violations of international criminal, human rights and humanitarian law by competent authorities and accountability mechanisms.” (“coletar, preservar e, se apropriado, compartilhar informações para auxiliar na investigação e na possível acusação de violações graves de leis internacionais criminais, humanitárias e de direitos humanos por autoridades competentes e mecanismos de imputabilidade”). O Comitê também recomendou que a Meta esclareça e declare em seus protocolos de Política Corporativa de Direitos Humanos sobre como disponibilizar o conteúdo público aos pesquisadores com antecedência, respeitando os padrões internacionais e as leis de proteção de dados. Em resposta, a Meta se comprometeu a informar ao Comitê sobre os esforços em andamento para resolver o problema. Desde que o Comitê publicou essa recomendação em 5 de maio de 2021, a Meta não relatou nenhum avanço nessa questão. O Comitê considera essa falta de progresso um grande atraso, já que a plataforma desempenha um papel importante em situações de conflito violento (por exemplo, a atual guerra na Ucrânia, onde os usuários registram abusos por meio das mídias sociais) e instabilidade política em todo o mundo.

Por fim, o Comitê lembra a recomendação da Meta sobre o caso da “Suspensão do ex-presidente Trump” de “develop and publish a policy that governs Facebook’s response to crises or novel situations where its regular processes would not prevent or avoid imminent harm”(“desenvolver e publicar uma política que controle a reação do Facebook a crises ou situações novas em que seus processos normais não previnam nem evitem danos iminentes”). A Meta relatou na Atualização do 4º trimestre de 2021 ao Comitê de Supervisão que a empresa elaborou uma proposta para um novo Protocolo de Crise em resposta à recomendação do Comitê, e ela foi adotada. A Meta também afirmou que em breve fornecerá informações sobre este protocolo na Central de Transparência. A Meta informou ao Comitê que esse protocolo não estava em vigor no momento do golpe no Sudão, nem em operação durante a análise deste caso. A empresa planeja lançar o protocolo no final de 2022. Um protocolo bem elaborado deve orientar a Meta no desenvolvimento e implementação de respostas necessárias e proporcionais em situações de crise. A Meta deve ser mais rápida na implementação desse protocolo e no fornecimento de detalhes sobre como o protocolo funcionará e se integrará aos processos da Meta existentes. As plataformas da Meta têm papel de destaque em conflitos e situações de crise em todo o mundo, e a empresa deve estar preparada para responder de forma rápida e sistemática a fim de evitar erros.

9. Decisão do Comitê de Supervisão

O Comitê de Supervisão mantém a decisão da Meta de deixar o conteúdo com uma tela que restringe o acesso a maiores de 18 anos.

10. Declaração de parecer consultivo

Política de conteúdo

1. A Meta deve alterar os Padrões da Comunidade para conteúdo violento e explícito de forma que permita o compartilhamento de vídeos que mostrem pessoas ou cadáveres com o objetivo de conscientizar ou registrar violações de direitos humanos. O conteúdo deve ser permitido com uma tela de aviso que informa às pessoas de que o conteúdo pode ser perturbador. O Comitê considerará que essa recomendação foi implementada quando a Meta atualizar os Padrões da Comunidade.

2. A Meta deve realizar um processo de desenvolvimento de políticas que crie critérios para identificar o compartilhamento de vídeos que mostrem pessoas ou cadáveres com o objetivo de conscientizar ou registrar violações de direitos humanos. O Comitê considerará que a recomendação foi implementada quando a Meta publicar as conclusões do processo de desenvolvimento da política, inclusive as informações sobre o processo e critérios para identificar esse conteúdo em grande escala.

3. A Meta deve deixar claro na descrição da permissão de conteúdo de valor jornalístico que todas as ações tomadas (por exemplo, restauração com tela de aviso) são feitas com base nesta política. O Comitê considerará que essa recomendação foi implementada quando a Meta atualizar a política.

Monitoramento

4. Para garantir que os usuários compreenderam as regras, a Meta deve enviar uma notificação aos usuários quando houver uma ação no seu conteúdo com base na permissão de conteúdo de valor jornalístico, entre elas, a restauração do conteúdo ou a aplicação de uma tela de aviso. A notificação do usuário pode incluir um link para a explicação sobre a permissão de conteúdo de valor jornalístico contida na Central de Transparência. O Comitê considerará a implementação quando a Meta enviar esta notificação atualizada para os usuários em todos os mercados e demonstrar que os usuários estão recebendo essa notificação por meio de dados de monitoramento.

*Nota processual:

As decisões do Comitê de Supervisão são preparadas por grupos com cinco membros e aprovadas pela maioria do Comitê. As decisões do Comitê não representam, necessariamente, as opiniões pessoais de todos os membros.

Para a decisão sobre o caso em apreço, uma pesquisa independente foi contratada em nome do Comitê. Um instituto de pesquisa independente com sede na Universidade de Gotemburgo e com uma equipe de mais de 50 cientistas sociais de seis continentes, bem como mais de 3.200 especialistas de países do mundo todo. O Comitê também foi auxiliado pela Duco Advisors, uma empresa de consultoria especializada na intercessão entre as áreas de geopolítica, de confiança e segurança e de tecnologia.

Voltar para Decisões de Casos e Pareceres Consultivos sobre Políticas