Mantido

Suspensão do ex-presidente Trump

O Comitê manteve a decisão do Facebook, em 7 de janeiro de 2021, de restringir o acesso do então presidente Donald Trump à publicação de conteúdo na página do Facebook e na conta do Instagram pertencentes a ele.

Tipo de decisão

Padrão

Políticas e tópicos

विषय
Liberdade de expressão, Política, Proteção
Padrão da comunidade
Indivíduos e organizações perigosos

Regiões/países

Localização
Estados Unidos

Plataforma

Plataforma
Facebook

Para ler esta decisão em PDF, clique ou toque aqui.

Resumo do caso

O Comitê manteve a decisão do Facebook, em 7 de janeiro de 2021, de restringir o acesso do então presidente Donald Trump à publicação de conteúdo na página do Facebook e na conta do Instagram pertencentes a ele.

Entretanto, não foi apropriada a imposição do Facebook de uma penalidade indeterminada e fora dos padrões de suspensão indefinida. As penalidades normais do Facebook incluem remoção do conteúdo em violação, imposição de uma suspensão com prazo determinado ou desativação permanente da página e da conta.

O Comitê insiste que o Facebook analise essa questão para determinar e justificar uma resposta adequada e consistente com as regras aplicadas a outros usuários da sua plataforma. O Facebook deve concluir a análise dessa questão no prazo de seis meses da data desta decisão. O Comitê também fez recomendações referentes à política para o Facebook implementar no desenvolvimento de políticas claras, necessárias e adequadas, que promovam a segurança pública e o respeito à liberdade de expressão.

Sobre o caso

As eleições são uma parte crucial da democracia. Em 6 de janeiro de 2021, durante a contagem dos votos colegiados de 2020, uma multidão entrou à força no Capitólio, em Washington, D.C. Esse ato de violência ameaçou o processo constitucional. Cinco pessoas morreram e muitas outras ficaram feridas durante o episódio violento. Durante esses eventos, o então presidente Donald Trump publicou dois conteúdos.

Às 16h21 (EST), como o tumulto continuava, o Sr. Trump publicou um vídeo no Facebook e no Instagram:

I know your pain. I know you’re hurt. We had an election that was stolen from us. It was a landslide election, and everyone knows it, especially the other side, but you have to go home now. We have to have peace. We have to have law and order. We have to respect our great people in law and order. We don’t want anybody hurt. It’s a very tough period of time. There’s never been a time like this where such a thing happened, where they could take it away from all of us, from me, from you, from our country. This was a fraudulent election, but we can't play into the hands of these people. We have to have peace. So go home. We love you. You're very special. You've seen what happens. You see the way others are treated that are so bad and so evil. I know how you feel. But go home and go home in peace. (Sei que vocês estão sofrendo, sei que vocês estão magoados. Tivemos uma eleição que nos foi roubada. Foi uma vitória esmagadora, e todos sabem disso, especialmente o outro lado. Mas vocês têm que ir para casa agora. Precisamos de paz. Precisamos de lei e ordem. Precisamos respeitar nosso grande povo com base na lei e na ordem. Não queremos que ninguém se machuque. É um momento muito difícil. Nunca houve um momento como esse, no qual uma coisa desse tipo aconteceu e eles foram capazes de roubar a eleição de todos nós; de mim, de vocês, de nosso país. Essa eleição foi fraudulenta, mas não podemos fazer o jogo dessa gente. Precisamos de paz. Então, vão para casa. Amamos vocês. Vocês são muito especiais. Vocês viram o que acontece. Vocês viram como outros são tratados, que são tão maus e perversos. Sei como vocês estão se sentindo. Mas vão para casa e vão em paz.)

Às 17h41 (EST), o Facebook removeu a publicação por violar os Padrões da Comunidade sobre organizações e indivíduos perigosos.

Às 18h07 (EST), enquanto a polícia restaurava a ordem no Capitólio, o Sr. Trump publicou uma declaração escrita no Facebook:

These are the things and events that happen when a sacred landslide election victory is so unceremoniously viciously stripped away from great patriots who have been badly unfairly treated for so long. Go home with love in peace. Remember this day forever! (Essas são as coisas e eventos que acontecem quando uma vitória esmagadora e sagrada é tomada de maneira vil e sem cerimônia de grandes patriotas que vêm sendo injustamente maltratados há tanto tempo. Vão para casa com amor e em paz. Lembrem-se deste dia para sempre!)

Às 18h15 (EST), o Facebook removeu a publicação por violar os Padrões da Comunidade sobre organizações e indivíduos perigosos. A empresa também bloqueou o Sr. Trump, impedindo-o de publicar no Facebook ou no Instagram por 24 horas.

Em 7 de janeiro, após análise adicional das publicações do Sr. Trump, das comunicações recentes dele fora do Facebook e de informações adicionais sobre a gravidade da violência no Capitólio, o Facebook estendeu o bloqueio “indefinidamente e pelo menos pelas próximas duas semanas até a conclusão da transferência pacífica do poder”.

Em 20 de janeiro, com a posse do presidente Joe Biden, o Sr. Trump deixou de ser o presidente dos Estados Unidos.

Em 21 de janeiro, o Facebook anunciou que havia encaminhado o caso ao Comitê. O Facebook questionou se, em 7 de janeiro, tomou a decisão certa ao proibir o acesso do Sr. Trump à publicação de conteúdo no Facebook e no Instagram por um período indefinido. O Facebook também solicitou recomendações sobre suspensões quando o usuário é um líder político.

Além das duas publicações, em 6 de janeiro, o Facebook já havia encontrado cinco violações dos seus Padrões da Comunidade em conteúdo orgânico publicado na página do Facebook de Donald J. Trump, três delas publicadas no ano passado. As cinco publicações em violação foram removidas, mas não foram aplicadas sanções à conta.

Principais conclusões

O Comitê considerou que as duas publicações do Sr. Trump, em 6 de janeiro, violaram gravemente os Padrões da Comunidade do Facebook e as Diretrizes da Comunidade do Instagram. “Amo vocês. Vocês são especiais.”, na primeira publicação, e “grandes patriotas” e “lembrem-se desse dia para sempre”, na segunda publicação, violaram as regras do Facebook que proíbem exaltar ou apoiar pessoas envolvidas em violência.

O Comitê considerou que, por manter uma narrativa sem fundamento de fraude eleitoral e chamadas para ação persistentes, o Sr. Trump criou um ambiente que fomentou um risco grave de possíveis atos de violência. Quando o Sr. Trump fez a publicação, havia um risco claro e imediato de dano e as palavras dele de apoio aos envolvidos no tumulto legitimou as ações violentas dessas pessoas. Como presidente, o Sr. Trump tinha muita influência. O alcance das publicações dele era grande, com 35 milhões de seguidores no Facebook e 24 milhões no Instagram.

Devido à gravidade das violações e ao risco contínuo de violência, foi justificada a decisão do Facebook de suspender as contas do Sr. Trump, em 6 de janeiro, e de estender essa suspensão, em 7 de janeiro.

Entretanto, não foi apropriada a imposição do Facebook de uma suspensão “indefinida”.

Não é admissível que o Facebook mantenha um usuário fora da plataforma por um período indefinido, sem critérios em relação a quando ou se a conta será restaurada.

Ao aplicar essa penalidade, o Facebook não seguiu um procedimento claro e publicado. Suspensões “indefinidas” não estão descritas nas políticas de conteúdo da empresa. As penalidades normais do Facebook incluem remoção do conteúdo em violação, imposição de uma suspensão com prazo determinado ou desativação permanente da página e da conta.

A função do Facebook é criar penalidades necessárias e adequadas que respondam a violações graves de suas políticas de conteúdo. A função do Comitê é garantir que as regras e os processos do Facebook sejam consistentes com suas políticas de conteúdo, seus valores e seus compromissos com os direitos humanos.

Ao aplicar uma penalidade vaga e fora dos padrões e, depois, encaminhar o caso para o Comitê resolver, o Facebook procura evitar suas responsabilidades. O Comitê recusa a solicitação do Facebook e insiste que a empresa aplique e justifique uma penalidade definida.

A decisão do Comitê de Supervisão

O Comitê de Supervisão manteve a decisão da empresa de suspender o acesso do Sr. Trump à publicação de conteúdo no Facebook e no Instagram, em 7 de janeiro de 2021. Entretanto, como o Facebook suspendeu as contas do Sr. Trump “indefinidamente”, a empresa deve reavaliar essa penalidade.

No prazo de seis meses dessa decisão, o Facebook deve reanalisar a penalidade arbitrária que impôs, em 7 de janeiro, e definir uma penalidade apropriada. Essa penalidade deve ter como base a gravidade da violação e os possíveis danos futuros. Ela também deve ser consistente com as regras de violações graves do Facebook, que devem, por sua vez, ser claras, necessárias e adequadas.

Se o Facebook decidir restaurar as contas do Sr. Trump, a empresa deverá aplicar suas regras a essa decisão, incluindo quaisquer alterações feitas em resposta às recomendações de política do Comitê abaixo. Nessa situação, o Facebook deve resolver qualquer violação nova imediatamente e de acordo com suas políticas estabelecidas de conteúdo.

Uma minoria do Comitê enfatizou que o Facebook deve tomar medidas para evitar que os direitos humanos voltem a ser afetados adversamente e garantir que os usuários que buscarem a reintegração após a suspensão reconheçam a culpa e se comprometam a observar as regras futuramente.

Quando encaminhou o caso ao Comitê, o Facebook solicitou especificamente: “observações ou recomendações do Comitê sobre suspensões quando o usuário é um líder político”.

Em uma declaração de parecer consultivo, o Comitê fez algumas recomendações para direcionar as políticas do Facebook em relação a riscos graves de dano causados por líderes políticos e outras figuras influentes.

O Comitê declarou que nem sempre é proveitoso fazer uma distinção inflexível entre líderes políticos e outros usuários influentes, pois reconhece que outros usuários com públicos numerosos também podem contribuir para riscos graves de dano.

Embora as mesmas regras devam ser aplicadas a todos os usuários, o contexto é importante na avaliação da probabilidade e da iminência do dano. Quando publicações de usuários influentes representarem uma grande probabilidade de danos iminentes, o Facebook deverá agir rapidamente e aplicar suas regras. Neste caso, embora o Facebook tenha explicado que não aplicou sua permissão de “conteúdo de valor jornalístico”, o Comitê pediu à empresa para lidar com a confusão difundida sobre como as decisões relacionadas a usuários influentes são tomadas. O Comitê enfatizou que considerações de conteúdo de valor jornalístico não devem ser priorizadas quando for necessária uma medida urgente para impedir um dano significativo.

O Facebook deve explicar publicamente as regras que usa quando impõe sanções às contas de usuários influentes. Essas regras devem garantir que, quando o Facebook impuser uma suspensão de tempo limitado à conta de um usuário influente para reduzir o risco de dano significativo, o Facebook avaliará se o risco diminuiu antes do término da suspensão. Se o Facebook identificar que o usuário representa um risco grave de incitação de violência iminente, discriminação ou outra ação ilegal naquele momento, outra suspensão com prazo determinado deverá ser imposta quando tais medidas forem necessárias para proteger a segurança pública e proporcional ao risco.

O Comitê assinalou que chefes de Estado e outros altos funcionários do governo podem ter um poder maior de causar dano do que outras pessoas. Se um chefe de Estado ou um alto funcionário do governo publicar repetidamente mensagens que representem um risco de danos, segundo as normas internacionais de direitos humanos, o Facebook deverá suspender a conta por um período suficiente para a proteção contra danos iminentes. Os períodos de suspensão devem ser suficientemente longos para deter a conduta indevida e podem, em casos apropriados, incluir exclusão da conta ou da página.

Em outras recomendações, o Comitê propôs ao Facebook:

  • Encaminhar rapidamente conteúdo com discurso político de usuários muito influentes para uma equipe especializada e familiarizada com a linguística e o contexto político. Essa equipe não deve sofrer interferências políticas e econômicas, bem como influência indevida.
  • Ter recursos e especialistas adequados e dedicados para avaliar os riscos de dano de contas de usuários influentes globalmente.
  • Produzir mais informações para ajudar os usuários a entender e a avaliar o processo e os critérios de aplicação da permissão de conteúdo de valor jornalístico, incluindo como ela se aplica às contas de usuários influentes. A empresa também deve explicar claramente a justificativa, os padrões e os processos da análise cruzada e informar as taxas relativas de erro das determinações tomadas por meio da comparação cruzada com os procedimentos comuns de monitoramento.
  • Realizar uma análise abrangente da possível contribuição do Facebook para a narrativa da fraude eleitoral e para as tensões exacerbadas que culminaram nos atos de violência nos Estados Unidos, em 6 de janeiro. Deve ser uma reflexão aberta sobre as escolhas de design e de política que o Facebook tem feito que podem permitir o abuso da sua plataforma.
  • Esclarecer em sua política corporativa de direitos humanos como coleta, preserva e, onde for apropriado, compartilha informações para auxiliar na investigação e na possível acusação de violações graves de leis internacionais criminais, humanitárias e de direitos humanos.
  • Explicar seu processo de aviso e de penalidades para restringir perfis, páginas, grupos e contas nos Padrões da Comunidade do Facebook e nas Diretrizes da Comunidade do Instagram.
  • Incluir o número de restrições de perfil, página e conta em seus relatórios de transparência, com informações divididas por região e país.
  • Fornecer aos usuários informações acessíveis sobre quantas violações, avisos e penalidades foram usados nas avaliações deles e as consequências das futuras violações.
  • Desenvolver e publicar uma política que controle a reação do Facebook a crises ou situações novas em que seus processos normais não previnam nem evitem danos iminentes. Essa orientação deve definir parâmetros apropriados para tais ações, incluindo um requisito de análise da sua decisão dentro de um prazo determinado.

*Os resumos de caso dão uma visão geral da ocorrência e não têm valor precedente.

Decisão completa sobre o caso

Neste caso, o Facebook pediu ao Comitê para responder duas perguntas:

Considerando seus valores, especificamente seu compromisso com voz e segurança, o Facebook tomou a decisão correta em 7 de janeiro de 2021, ao proibir o acesso de Donald J. Trump à publicação de conteúdo no Facebook e no Instagram por um período indefinido?

Além da determinação do Comitê sobre manter ou revogar a suspensão indefinida, o Facebook aceita observações ou recomendações do Comitê sobre suspensões quando o usuário é um líder político.

1. Resumo da decisão

O Comitê mantém a decisão do Facebook, em 7 de janeiro de 2021, de restringir o acesso do então presidente Donald Trump à publicação de conteúdo na página do Facebook e na conta do Instagram pertencentes a ele.

Entretanto, não foi apropriada a imposição do Facebook de uma penalidade indeterminada e fora dos padrões de suspensão indefinida. As penalidades normais do Facebook incluem remoção do conteúdo em violação, imposição de uma suspensão com prazo determinado ou desativação permanente da página e da conta.

O Comitê insiste que o Facebook analise essa questão para determinar e justificar uma resposta adequada e consistente com as regras aplicadas a outros usuários da sua plataforma. O Facebook deve concluir a análise dessa questão no prazo de seis meses da data desta decisão. O Comitê também faz recomendações referentes à política para o Facebook implementar no desenvolvimento de políticas claras, necessárias e adequadas, que promovam a segurança pública e o respeito à liberdade de expressão.

2. Descrição do caso

As eleições são uma parte crucial da democracia. Elas permitem que as pessoas pelo mundo controlem e resolvam conflitos sociais pacificamente. Nos Estados Unidos, a Constituição diz que o presidente é escolhido pela contagem dos votos colegiados. Em 6 de janeiro de 2021, durante a contagem dos votos colegiados de 2020, uma multidão entrou à força no Capitólio, onde os votos colegiados estavam sendo contados, e ameaçou o processo constitucional. Cinco pessoas morreram e muitas outras ficaram feridas durante o episódio violento.

Antes de 6 de janeiro, o então presidente Donald Trump declarou, sem provas, que as eleições presidenciais de novembro de 2020 haviam sido fraudadas. Os argumentos legais de fraude eleitoral levantados pelo Sr. Trump e por outras pessoas foram recusados em mais de 70 casos, e o então procurador-geral, após investigação, declarou que não houve fraude “em uma escala que pudesse ter levado a eleição a um resultado diferente”. Mesmo assim, o Sr. Trump continuou a fazer alegações infundadas, inclusive por meio do Facebook, e mencionou uma manifestação planejada para 6 de janeiro:

  1. Em 19 de dezembro de 2020, a página do Facebook do Trump publicou: “Peter Navarro releases 36-page report alleging election fraud 'more than sufficient' to swing victory to Trump - A great report by Peter. Statistically impossible to have lost the 2020 Election. Big protest in D.C. on January 6th. Be there, will be wild!” (“Peter Navarro divulga relatório de 36 páginas alegando fraude eleitoral ‘mais do que suficiente’ para dar a vitória ao Trump; um excelente relatório do Peter. É estatisticamente impossível eu ter perdido as Eleições de 2020. Grande protesto no Distrito de Colúmbia, em 6 de janeiro. Estejam lá, será turbulento!”).
  2. Em 1º de dezembro de 2021, a página do Facebook do Trump publicou: “The BIG Protest Rally in Washington, D.C., will take place at 11.00 A.M. on January 6th. Locational details to follow. StopTheSteal!” (“O GRANDE protesto em Washington, D.C., será às 11h de 6 de janeiro. Detalhes do local a seguir. Parem o roubo!”).

Na manhã de 6 de janeiro de 2021, o Sr. Trump participou de uma manifestação perto da Casa Branca e fez um discurso. Ele continuou a fazer alegações infundadas de que venceu a eleição e sugeriu que o vice-presidente, Mike Pence, deveria revogar a vitória do presidente eleito, Joe Biden, um poder que o Sr. Pence não tinha. Ele também declarou “we will stop the steal,” (“vamos parar o roubo”), e we’re going to the Capitol” (“vamos para o Capitólio”).

Muitos dos que participaram da manifestação marcharam então para o prédio do Capitólio dos EUA, onde se juntaram a outros protestantes já reunidos. Muitos dos protestantes atacaram a segurança do Capitólio, entraram violentamente no prédio, e provocaram tumulto. O Sr. Pence e outros membros do Congresso ficaram sob risco grave de violência deliberada. Cinco pessoas morreram e muitas ficaram feridas.

Durante esses eventos, o Sr. Trump publicou um vídeo e uma declaração na página dele no Facebook (que tinha cerca de 35 milhões de seguidores), e o vídeo também foi compartilhado na conta dele do Instagram (que tinha cerca de 24 milhões de seguidores). As publicações diziam que a eleição de 2020 foi “roubada” e “tomada”. As publicações também exaltavam e apoiavam as pessoas que estavam causando tumulto no Capitólio e, ao mesmo tempo, pediam para que se mantivessem pacíficos. Tanto a página do Facebook quanto a conta do Instagram exibem uma marca de visto azul ao lado do nome, significando que o Facebook confirmou que a conta é a “presença autêntica da figura pública” que ela representa.

Em um vídeo de um minuto, publicado às 16h21 (EST), como o tumulto continuava, o Sr. Trump disse:

I know your pain. I know you’re hurt. We had an election that was stolen from us. It was a landslide election, and everyone knows it, especially the other side, but you have to go home now. We have to have peace. We have to have law and order. We have to respect our great people in law and order. We don’t want anybody hurt. It’s a very tough period of time. There’s never been a time like this where such a thing happened, where they could take it away from all of us, from me, from you, from our country. This was a fraudulent election, but we can't play into the hands of these people. We have to have peace. So go home. We love you. You're very special. You've seen what happens. You see the way others are treated that are so bad and so evil. I know how you feel. But go home and go home in peace. (Sei que vocês estão sofrendo, sei que vocês estão magoados. Tivemos uma eleição que nos foi roubada. Foi uma vitória esmagadora, e todos sabem disso, especialmente o outro lado. Mas vocês têm que ir para casa agora. Precisamos de paz. Precisamos de lei e ordem. Precisamos respeitar nosso grande povo com base na lei e na ordem. Não queremos que ninguém se machuque. É um momento muito difícil. Nunca houve um momento como esse, no qual uma coisa desse tipo aconteceu e eles foram capazes de roubar a eleição de todos nós; de mim, de vocês, de nosso país. Essa eleição foi fraudulenta, mas não podemos fazer o jogo dessa gente. Precisamos de paz. Então, vão para casa. Amamos vocês. Vocês são muito especiais. Vocês viram o que acontece. Vocês viram como outros são tratados, que são tão maus e perversos. Sei como vocês estão se sentindo. Mas vão para casa e vão em paz.)

Às 17h41 (EST), o Facebook removeu a publicação por violar os Padrões da Comunidade sobre organizações e indivíduos perigosos.

O Sr. Trump publicou a declaração por escrito a seguir, às 18:07 (EST), enquanto a polícia protegia o Capitólio:

These are the things and events that happen when a sacred landslide election victory is so unceremoniously viciously stripped away from great patriots who have been badly unfairly treated for so long. Go home with love in peace. Remember this day forever! (Essas são as coisas e eventos que acontecem quando uma vitória esmagadora e sagrada é tomada de maneira vil e sem cerimônia de grandes patriotas que vêm sendo injustamente maltratados há tanto tempo. Vão para casa com amor e em paz. Lembrem-se deste dia para sempre!)

Às 18h15 (EST), o Facebook removeu a publicação por violar seus Padrões da Comunidade sobre organizações e indivíduos perigosos e impôs um bloqueio de 24 horas impedindo o Sr. Trump de publicar no Facebook ou no Instagram.

Em 7 de janeiro de 2021, após análise adicional das publicações do Sr. Trump, das comunicações recentes dele fora do Facebook e de informações adicionais sobre a gravidade da violência no Capitólio, o Facebook estendeu o bloqueio “indefinidamente e no mínimo pelas próximas duas semanas até a conclusão da transferência pacífica do poder”. O Facebook citou o “uso da nossa plataforma para incitar uma insurreição violenta contra um governo eleito democraticamente” pelo Sr. Trump.

Nos dias que se seguiram a 6 de janeiro, alguns dos participantes do tumulto declararam publicamente que fizeram isso por ordem do presidente. Um participante foi citado no Washington Post (16 de janeiro de 2021): “Eu achei que estava seguindo meu presidente... Ele pediu para irmos rápido para lá. Ele pediu para estarmos lá. Então, eu só estava fazendo o que ele pediu”. Um vídeo gravou um manifestante nas escadas do Capitólio gritando para um policial: “Fomos convidados para vir aqui! Fomos convidados pelo presidente dos Estados Unidos!”.

O Distrito de Colúmbia declarou estado de emergência em 6 de janeiro e, nesse mesmo dia, prorrogou até 21 de janeiro. No dia 27 de janeiro, o Departamento de Segurança Nacional (DHS) emitiu um Boletim do Sistema Nacional de Avisos de Terrorismo alertando para: “uma maior ameaça nos Estados Unidos, que o DHC acredita que se estenderá pelas semanas seguintes à posse presidencial”. Ele declarou que: “os motivadores da violência permanecerão até o início de 2021 e alguns (extremistas de violência doméstica) podem se sentir encorajados pela violação, em 6 de janeiro de 2021, do prédio do Capitólio, em Washington, D.C. tendo como alvo representantes eleitos e as instalações do governo”.

Embora as publicações que o Facebook considerou violar suas políticas de conteúdo tenham sido removidas, a página do Facebook e a conta do Instagram do Sr. Trump continuarão acessíveis publicamente em ambas as plataformas. Não há aviso na página nem na conta das restrições impostas pela Facebook. Em 21 de janeiro de 2021, o Facebook anunciou que havia encaminhado o caso ao Comitê de Supervisão.

Além das duas publicações, em 6 de janeiro de 2021, o Facebook já havia encontrado cinco violações dos seus Padrões da Comunidade em conteúdo orgânico publicado na página do Facebook de Donald J. Trump, três delas no ano passado. As cinco publicações violadoras foram removidas, mas não foram aplicadas sanções à conta. Em resposta à pergunta do Comitê sobre se algum aviso foi aplicado, o Facebook disse que a página recebeu um aviso por uma publicação, em agosto de 2020, que violou sua política sobre Desinformação e Danos da COVID-19. O Facebook não explicou o motivo da violação do outro conteúdo. Ele foi removido e não resultou em avisos.

O Facebook tem uma “permissão de conteúdo de valor jornalístico” que permite que o conteúdo que viole suas políticas continue na plataforma, caso o Facebook o considere “importante e de interesse público”. O Facebook afirmou que: “nunca aplicou a permissão de conteúdo de valor jornalístico ao conteúdo publicado na página do Facebook nem à conta do Instagram do Trump”.

Respondendo às perguntas do Comitê, o Facebook divulgou que: “havia 20 conteúdos da página do Facebook e da conta do Instagram do Trump que, inicialmente, foram marcados pelos analistas de conteúdo ou pela automação como violação dos Padrões da Comunidade do Facebook, mas, no fim, não foram considerados violações”.

O Facebook disse ao Comitê que aplica um sistema de “verificação cruzada” a algumas contas “importantes” para “minimizar o risco de erros no monitoramento”. No caso dessas contas, o Facebook envia o conteúdo que está violando seus Padrões da Comunidade para análise interna adicional. Depois desse encaminhamento, o Facebook decide se o conteúdo é violador. O Facebook disse ao Comitê que: “nunca teve uma regra geral mais permissiva para conteúdo publicado por líderes políticos”. Embora as mesmas regras gerais sejam aplicadas, o sistema de “verificação cruzada” indica que os processos de tomada de decisão são diferentes para alguns usuários “importantes”.

3. Autoridade e escopo

O Comitê de Supervisão tem o poder de analisar um amplo conjunto de perguntas encaminhadas pelo Facebook (Artigo 2, Seção 1 do Estatuto; Artigo 2, Seção 2.1 dos Regulamentos Internos). As decisões relacionadas a essas questões são vinculativas e podem incluir declarações de parecer consultivo com recomendações. Essas recomendações não são vinculativas, mas o Facebook deve responder a elas (Artigo 3, Seção 4 do Estatuto). O Comitê é um mecanismo de reclamações independente com o objetivo de abordar contestações de uma maneira transparente e íntegra.

4. Padrões relevantes

Conforme o Estatuto do Comitê de Supervisão, ele deve considerar todos os casos levando em conta os seguintes padrões:

I. Políticas de conteúdo do Facebook:

O Facebook tem Padrões da Comunidade que descrevem o que os usuários não podem publicar na plataforma e o Instagram possui Diretrizes da Comunidade que descrevem o que os usuários não podem publicar na plataforma.

Os Padrões da Comunidade sobre organizações e indivíduos perigosos do Facebook proíbe: “conteúdo que exalte, apoie ou represente eventos que o Facebook designa como ataques terroristas, eventos de ódio, execuções ou tentativas de assassinatos em massa, assassinatos em série, crimes de ódio e eventos que violam nossas políticas”. Ele também proíbe “conteúdo que exalte os indivíduos ou organizações acima ou os atos cometidos por eles”, referindo-se a organizações de ódio e organizações criminosas, entre outras.

As Diretrizes da Comunidade do Instagram afirmam que: “O Instagram não é um lugar para apoiar ou enaltecer terrorismo, crime organizado ou grupos de ódio”, e fornece um link para os Padrões da Comunidade sobre organizações e indivíduos perigosos.

Os Padrões da Comunidade do Facebook sobre Violência e incitação afirmam que: “removeremos conteúdo, desativaremos contas e poderemos trabalhar com as autoridades locais se notarmos um risco real de danos físicos ou ameaça direta à segurança pública”. O Padrão proíbe especificamente: “declarações oferecendo apoio à prática de violência de alta gravidade” e “qualquer conteúdo com declarações de intenção, chamadas para ação, declarações condicionais ou intencionais, ou que defenda a violência em razão do voto, do cadastramento de eleitores ou da administração ou resultado de uma eleição”. Ele também proíbe: “desinformação e rumores inverificáveis que contribuam para o risco de violência ou danos físicos iminentes”.

As Diretrizes da Comunidade do Instagram afirmam que o Facebook remove: “conteúdo com ameaças reais” e “ameaças graves de danos à segurança pública e pessoal não são permitidas”. As duas seções incluem links para os Padrões da Comunidade sobre Violência e incitação.

Os Termos de Serviço do Facebook afirmam que a empresa: “pode suspender ou desativar permanentemente o acesso” a uma conta, caso determine que um usuário tenha “de maneira clara, grave ou repetidamente” violado seus termos ou políticas. A introdução dos Padrões da Comunidade enfatiza que: “as consequências da violação dos Padrões da Comunidade variam de acordo com a gravidade e com o histórico do usuário na plataforma”.

Os Termos de Uso do Instagram mencionam que o Facebook: “pode se recusar a fornecer ou a parar de fornecer imediatamente todo o Serviço ou parte dele para você (bem como encerrar ou desativar seu acesso aos Produtos do Facebook e aos Produtos das Empresas do Facebook) a fim de proteger nossos serviços ou nossa comunidade, ou se você criar risco ou exposição legal para nós, violar estes Termos de Uso ou nossas políticas (incluindo nossas Diretrizes da Comunidade do Instagram)” As Diretrizes da Comunidade do Instagram afirmam que “ultrapassar estes limites pode resultar em exclusão de conteúdo, desativação de contas ou outras restrições”.

II. Valores do Facebook:

O Facebook possui cinco valores descritos na introdução dos Padrões da Comunidade que ele alega orientar para o que é permitido em suas plataformas. Três desses valores são: “Voz”, “Segurança” e “Dignidade”.

O Facebook descreve “Voz” como o desejo de que: “as pessoas possam falar abertamente sobre assuntos importantes para elas, ainda que sejam temas que geram controvérsias e objeções. […] Nosso comprometimento com a expressão é uma prioridade, mas reconhecemos que a internet cria muitas oportunidades de abuso”.

O Facebook descreve “Segurança” como seu compromisso de: “tornar o Facebook um lugar seguro” e afirma que: “manifestações contendo ameaças podem intimidar, excluir ou silenciar pessoas e isso não é permitido no Facebook”.

O Facebook descreve “Dignidade” como sua crença de que: “todas as pessoas são iguais no que diz respeito à dignidade e aos direitos” e declara que: “espera que as pessoas respeitem a dignidade alheia e não assediem nem difamem terceiros”.

III. Padrões de Direitos Humanos:

Em 16 de março de 2021, o Facebook anunciou sua política corporativa de direitos humanos, onde é celebrado o seu compromisso de respeitar os direitos de acordo com os Princípios Orientadores sobre Empresas e Direitos Humanos da ONU (UNGPs). Os UNGPs, sancionados pelo Conselho de Direitos Humanos da ONU em 2011, estabelecem uma estrutura voluntária de responsabilidades sobre direitos humanos das empresas privadas. Sendo uma corporação global comprometida com os UNGPs, o Facebook deve respeitar os padrões internacionais de direitos humanos em todos os lugares em que tem operações. O Comitê de Supervisão é chamado para avaliar a decisão do Facebook tendo em vista os padrões internacionais de direitos humanos no que se aplica à empresa.

O Comitê analisou as responsabilidades do Facebook para com os direitos humanos e, neste caso, considerando padrões de direitos humanos, incluindo:

  • O direito de liberdade de expressão: Pacto Internacional dos Direitos Civis e Políticos ( PIDCP), Artigos 19 e 20; conforme interpretado pelo Comentário Geral n° 34, Comitê de Direitos Humanos (2011) ( Comentário Geral 34); o Plano de Ação de Rabat, OHCHR, (2012); Relator Especial da ONU sobre os relatórios de liberdade de opinião e expressãoA/HRC/38/35 (2018); Declaração Conjunta dos monitores internacionais da liberdade de expressão sobre a COVID-19 (março de 2020).
  • Direito à vida: PIDCP, Artigo 6.
  • Direito à segurança das pessoas: Artigo 9, parágrafo 1 do PIDCP.
  • Direito à não discriminação: PIDCP Artigos 2 e 26; Convenção Internacional sobre a Eliminação de Todas as Formas de Discriminação Racial ( ICERD), Artigos 1 e 4.
  • Participação da vida pública e o direito ao voto: PIDCP, Artigo 25.
  • O direito ao recurso: PIDCP, Artigo 2; Comentário Geral n° 31, Comitê de Direitos Humanos (2004) ( Comentário Geral 31); UNGPs, Princípio 22.

5. Declaração do criador de conteúdo

Quando o Facebook encaminha um caso para o Comitê, o Comitê dá à pessoa responsável pelo conteúdo a oportunidade de enviar uma declaração. Neste caso, uma declaração foi enviada ao Comitê em nome do Sr. Trump por meio do Centro Americano de Lei e Justiça e de um administrador da página. Essa declaração solicita que o Comitê “cancele a suspensão indefinida da conta do Facebook do ex-presidente dos EUA, Donald Trump”.

A declaração discute as publicações removidas do Facebook e do Instagram, em 6 de janeiro de 2021, e também o discurso do Sr. Trump mais cedo, nesse mesmo dia. Ela afirma que as publicações: “pediam para as pessoas que estivessem no Capitólio ou por perto dele naquele dia fossem pacíficas, obedecessem a lei e respeitassem a polícia” e que é: “inconcebível que essas duas publicações sejam consideradas uma ameaça à segurança pública ou uma incitação de atos de violência”. Também declara que: “ficou bem claro que, em seu discurso, não houve incentivo à insurreição nem a atos de violência e não houve nenhum tipo de ameaça à segurança pública”, e descreve que: “não há ligação alguma entre o discurso de Trump e a invasão ao Capitólio”.

A declaração também discute os motivos do Facebook para impor as restrições. Ela afirma que: “nada do que o Sr. Trump disse aos participantes reunidos poderia ser interpretado como ameaça à segurança pública”. A base do Facebook para impor restrições não pode estar relacionada à segurança. Ela também afirma que: “qualquer conteúdo com suspeita de afetar a segurança deve ter uma ligação direta e óbvia com o risco real de violência”. A declaração ainda descreve que os termos “luta” ou “combate” usados durante o discurso: “estavam ligados a um pedido de envolvimento político e cívico legal”, e conclui: “aquelas palavras nunca tiveram a intenção nem seriam compreendidas por qualquer observador ou ouvinte sensato como um incentivo a atos violentos ou de desrespeito à lei”.

A declaração também aborda a “invasão ao Capitólio”. Ela afirma que: “todos os verdadeiros apoiadores políticos do Trump estavam cumprindo as leis” e que a invasão foi: “certamente influenciada e, mais provavelmente, incitada por forças externas”. Ela descreve uma petição federal inicial contra membros da Oath Keepers e declara que o grupo: “não estava de maneira alguma associado ao Sr. Trump ou à organização política dele”. Em seguida, afirma que os membros da Oath Keepers estavam: “se aproveitando do discurso do Trump e usando a questão do debate do colegiado em benefício próprio”.

Ela também declara que os Padrões da Comunidade sobre violência e incitação: “não apoiam a suspensão da conta do Trump no Facebook”, pois as duas publicações: “simplesmente pediam paz e segurança” e: “nenhuma das palavras ditas no discurso do Sr. Trump, quando consideradas em seu contexto verdadeiro, poderia ser considerada uma incitação de atos de violência ou de desrespeito à lei”. Ela também cita o encaminhamento do Facebook para o Comitê, mencionando: “a transferência pacífica de poder” e declara que: “essa nova regra ad hoc sobre garantir transições governamentais pacíficas é extremamente vaga e não existia antes dos eventos que o Facebook usou para justificá-la”.

A declaração também alega que o Comitê deve: “submeter-se à lei dos EUA nesta apelação” e discute os padrões jurídicos internacionais de restrição do direito à liberdade de expressão, legalidade, objetivo legítimo, bem como necessidade e proporcionalidade, sendo cada elemento interpretado de acordo com a constituição dos EUA. Sobre legalidade, a declaração cita proteção de declarações falsas e exageradas dos fatos e a importância do Facebook para o discurso público. Ela afirma que: “tomar decisões sobre conteúdo com base no que parece ser ‘sensato’ ou em como uma ‘pessoa sensata’ reagiria a tal conteúdo não é suficiente” e o Facebook deve: “considerar um padrão mais alto”. Ela declara que o Supremo Tribunal exige análise rigorosa das leis que dominam o discurso político e que o Facebook tem uma posição dominante no mercado. Ela também discute padrões constitucionais de incitação de violência. Sobre objetivo legítimo, ela afirma que preservar a segurança pública é um objetivo legítimo, mas que o discurso do Sr. Trump não representou preocupações de segurança. Sobre necessidade e proporcionalidade, ela nega a validade das restrições e afirma que a penalidade foi desproporcional.

A declaração conclui com sugestões para as recomendações de política do Comitê sobre suspensões quando o usuário é um líder político. Ela argumenta que o Comitê deveria: “sujeitar-se aos princípios jurídicos do Estado-nação no qual o líder está ou estava governando”. Ela também descreveu várias exceções a essa sujeição com base nas avaliações do Estado de direito, das garantias dos direitos, dos processos de criação das leis, dos processos de análise judicial e da existência de princípios jurídicos relevantes em determinados países.

6. Explicação do Facebook sobre a decisão que tomou

Em cada caso, o Facebook fornece uma explicação das suas ações ao Comitê. Em seguida, o Comitê faz perguntas ao Facebook para obter o esclarecimento necessário para tomar a devida decisão. Neste caso, o Facebook declara que removeu dois conteúdos publicados, em 6 de janeiro de 2021, por violarem os Padrões da Comunidade sobre Organizações e indivíduos perigosos. Especificamente, o conteúdo foi removido por violar: “sua política que proíbe exaltação, apoio e representação de eventos considerados violentos”. O Facebook também afirmou que ele continha: “uma violação da sua política de Organizações e indivíduos perigosos que proíbe a exaltação de pessoas que se envolveram em atos de violência organizada”. A empresa enfatiza que seus Padrões da Comunidade proíbem claramente: “conteúdo que expresse apoio ou exaltação a grupos, líderes ou indivíduos envolvidos...” em atividades como terrorismo, violência organizada ou atividade criminosa, e isso inclui ataques organizados e atos planejados de violência na tentativa de ferir uma pessoa com a intenção de intimidar um governo para alcançar um objetivo político.

O Facebook assinala que sua avaliação refletiu o texto da sua política e o contexto com base no qual a declaração foi criada, incluindo a violência em andamento no Capitólio. Ela diz que, em seu vídeo, embora o Sr. Trump tenha pedido para as pessoas: “irem para casa em paz”, ele também reiterou alegações de que a eleição foi fraudulenta e sugeriu uma finalidade comum ao dizer: “Eu sei como vocês se sentem”. Devido à instabilidade contínua no momento dos comentários dele e da tendência geral das palavras que pronunciou, o Facebook conclui que: “Amamos vocês. Vocês são muito especiais” tinham a intenção de exaltar as pessoas que estavam violando a lei atacando o Capitólio. Ele também acredita que a segunda publicação contém exaltação do evento, pois o Sr. Trump se refere às pessoas que invadiram o Capitólio como: “grandes patriotas” e as incentiva a :“lembrar desse dia para sempre”.

O Facebook enfatiza que, normalmente, limita a funcionalidade das páginas e dos perfis da plataforma e das contas do Instagram que violam suas políticas de maneira grave e repetitiva. Quando conclui que há um “risco grave e urgente à segurança”, o Facebook: “vai além dos seus protocolos padrão de monitoramento e toma medidas mais rígidas contra usuários e páginas envolvidos no comportamento violador”. Em tais casos, o Facebook afirma que suas ações de monitoramento continuam fundamentadas nos Padrões da Comunidade e nas Diretrizes da Comunidade do Instagram. O Facebook informa que: “avalia todas as ferramentas de monitoramento disponíveis, incluindo banimentos permanentes, antes de definir a mais apropriada para a circunstância única. Nos casos em que o Facebook deve tomar uma decisão emergencial de interesse comum, a empresa faz o possível para compartilhar a decisão e a justificativa com o público, normalmente por meio de uma publicação na sua Newsroom”.

O Facebook declara que, geralmente, não bloqueia a publicação nas páginas nem a interação com o conteúdo, mas remove páginas que violam as políticas da plataforma de forma grave ou repetitiva. Entretanto, a empresa enfatiza que seus protocolos de monitoramento de perfis, incluindo bloqueios de recursos, também podem ser aplicados às páginas do Facebook quando usadas em uma voz singular da pessoa, como a página de Donald J. Trump. Neste caso, o Facebook afirma que, de acordo com seus protocolos padrão de monitoramento, inicialmente bloqueou por 24 horas as publicações na página do Facebook e na conta do Instagram. Após uma análise adicional da situação que se desdobrou e dos detalhes que surgiram dos atos de violência no Capitólio, o Facebook concluiu que o banimento de 24 horas não era suficiente para cuidar do: “risco de que o Trump usasse a presença dele no Facebook e no Instagram para contribuir para uma ameaça de mais violência”.

O Facebook menciona que manteve a suspensão indefinida depois que a posse do Sr. Biden, de certa forma devido à análise dessa violência ligada ao Sr. Trump, não tinha ocorrido. A empresa cita o Boletim do Sistema Nacional de Avisos de Terrorismo, emitido no dia 27 de janeiro pelo Departamento de Segurança Nacional (DHS), que descreveu: “uma ameaça maior nos Estados Unidos, que o DHC acredita que se estenderá pelas semanas seguintes à posse presidencial” e que: “os motivadores da violência permanecerão até o início de 2021 e alguns (extremistas de violência doméstica) podem se sentir encorajados pela violação, em 6 de janeiro de 2021, do prédio do Capitólio, em Washington, D.C. tendo como alvo representantes eleitos e as instalações do governo”. O Facebook enfatiza que, mesmo com a redução do risco de violência, talvez seja apropriado bloquear permanentemente as publicações do Sr. Trump com base na gravidade da violação cometida em 6 de janeiro, na insistência contínua dele de que a eleição do Sr. Biden foi fraudulenta e no compartilhamento que fez de outras desinformações, bem como o fato de ele não ser mais presidente.

O Facebook declara que sua decisão foi: “baseada no Artigo 19 do PIDCP e no Comentário Geral nº 34 das Nações Unidas sobre liberdade de expressão, que permite restrições necessárias e proporcionais da liberdade de expressão em situações de emergência pública que ameacem a vida da nação. Neste caso, o Distrito de Colúmbia estava em estado de emergência, declarado para proteger o complexo do Capitólio dos EUA”. O Facebook destaca que também considerou os seis fatores contextuais do Plano de ação de Rabat sobre a proibição do apoio ao ódio racial e religioso ou à xenofobia. O Plano de ação de Rabat foi desenvolvido por especialistas, com o apoio das Nações Unidas, para orientar Estados quando o apoio ao ódio racial e religioso ou à xenofobia que incita discriminação, hostilidade ou violência seja tão sério que se torne necessária a utilização de sanções criminais impostas pelo Estado, protegendo a liberdade de expressão, de acordo com as obrigações dos Estados segundo os Artigos 19 e 20, parágrafo 2 do PIDCP.

O Facebook alega que os eventos de 6 de janeiro representaram uma ameaça sem precedentes aos processos democráticos e ao sistema constitucional dos Estados Unidos. Embora o Facebook afirme que faz o possível para agir de forma proporcional e responsável na restrição do discurso público, devido às circunstâncias voláteis e sem precedentes, a empresa acredita que deve manter flexibilidade operacional para tomar medidas adicionais, incluindo um banimento permanente.

Neste caso, o Comitê fez 46 perguntas ao Facebook. Entre elas, o Facebook se recusou a responder a sete integralmente e a duas parcialmente. As perguntas às quais o Facebook não respondeu incluíram assuntos envolvendo como o feed de notícias e outros recursos do Facebook afetaram a visibilidade do conteúdo do Sr. Trump; se o Facebook pesquisou, ou pretende pesquisar, tais decisões de design em relação aos eventos de 6 de janeiro de 2021; e informações sobre conteúdo violador dos seguidores das contas do Sr. Trump. O Comitê também fez perguntas relacionadas à suspensão de outras figuras políticas e à remoção de outros conteúdos; se o Facebook havia sido contatado por detentores de cargos públicos ou pelas respectivas equipes sobre a suspensão das contas do Sr. Trump; e se a suspensão ou exclusão da conta afeta a capacidade dos anunciantes de fazer o direcionamento para as contas dos seguidores. O Facebook declarou que essas informações não eram necessárias para a tomada de decisão, de acordo com o definido no Estatuto; não era tecnicamente viável fornecê-las; estavam cobertas por privilégios de sigilo entre advogado e cliente; e/ou não poderiam ou não deveriam ser fornecidas devido a preocupações legais, de privacidade, segurança ou proteção de dados.

7. Envios de terceiros

O Comitê de Supervisão recebeu 9.666 comentários públicos relacionados a este caso. Oitenta dos comentários foram enviados da Ásia Pacífico e da Oceania, sete da Ásia Central e do Sul, 136 da Europa, 23 da América Latina e do Caribe, 13 do Oriente Médio e da África do Norte, 19 da África Subsaariana e 9.388 dos Estados Unidos e do Canadá.

Os comentários enviados abordas os temas a seguir, os quais incluem perguntas que o Comitês fez quando solicitou comentários públicos:

  • A suspensão indefinida das contas do Sr. Trump pelo Facebook, sua possível conformidade com as responsabilidades da empresa de respeitar a liberdade de expressão e os direitos humanos e se medidas alternativas deveriam ter sido tomadas.
  • Na avaliação do contexto fora do Facebook, as políticas e práticas da empresa na aplicação dos Padrões da Comunidade, especificamente se o conteúdo possa incitar atos de violência.
  • Questões envolvendo a clareza das regras de desativação de contas do Facebook.
  • As políticas de conteúdo global do Facebook em relação a candidatos políticos, detentores e ex-detentores de cargos públicos, incluindo a relevância da permissão de “conteúdo de valor jornalístico” e o direito do público à informação.
  • Preocupações com a consistência na aplicação dos Padrões da Comunidade do Facebook com base na parcialidade política.
  • Preocupações com a aplicação dos Padrões da Comunidade do Facebook em relação às publicações anteriores do Sr. Trump, incluindo aquelas que podem ter contribuído para prejudicar certos grupos de pessoas e para propagar a desinformação.
  • Se a expressão do Sr. Trump, até 6 de janeiro, constituiu ou não incitação a atos de violência.
  • O resultado da eleição dos EUA e a presidência do Trump.

Para ler os comentários públicos enviados sobre este caso, clique aqui.

8. Análise do Comitê de Supervisão

8.1 Conformidade com as políticas de conteúdo

O Comitê concorda com a decisão do Facebook de que duas publicações do Sr. Trump, em 6 de janeiro, violaram gravemente os Padrões da Comunidade do Facebook e as Diretrizes da Comunidade do Instagram. Os Padrões da Comunidade do Facebook sobre Organizações e indivíduos perigosos diz que os usuários não devem publicar conteúdo que: “expresse apoio ou enalteça grupos, líderes ou indivíduos envolvidos em” eventos violadores. O Facebook especificou o ataque ao Capitólio como um “evento violador” e enfatizou que interpreta eventos violadores de modo a incluir eventos designados “violentos”.

Quando as publicações foram feitas, os atos de violência no Capitólio já tinham iniciado. As duas publicações enalteciam ou apoiavam as pessoas que estavam envolvidas nos atos de violência. As palavras: “Amo vocês. Vocês são especiais.”, na primeira publicação, e “grandes patriotas” e “lembrem-se desse dia para sempre”, na segunda publicação, é o mesmo que enaltecer ou apoiar as pessoas envolvidas nos atos de violência e nos eventos do Capitólio naquele dia.

O Comitê enfatiza que outros Padrões da Comunidade podem ter sido violados neste caso, incluindo o Padrão sobre Violência e incitação. Como a decisão do Facebook não foi baseada nesse Padrão e uma descoberta adicional de violação não afetaria o resultado do processo, a maioria do Comitê absteve-se de qualquer julgamento em relação a essa causa alternativa. A decisão de manter as restrições impostas pelo Facebook às contas do Sr. Trump tem como base a violação dos Padrões da Comunidade sobre Organizações e indivíduos perigosos.

A minoria do Comitê consideraria a causa adicional e acha que o Padrão sobre Violência e incitação foi violado. A minoria manteria que, lidas no contexto, as publicações dizendo que a eleição estava sendo: “roubada de nós” e “tomada de maneira vil e sem cerimônia”, aliadas à exaltação dos manifestantes, qualificam-se como “chamadas para ação”, “apoio à violência” e “desinformação e rumores inverificáveis que contribuam para o risco de violência ou danos físicos iminentes” proibidos pelos Padrões da Comunidade sobre Violência e incitação.

O Comitê acha que as duas publicações violaram gravemente as políticas do Facebook e conclui que a empresa tomou uma decisão justificada de restringir a conta e a página em 6 e 7 de janeiro. Os usuários enaltecidos e as pessoas que receberam apoio se envolveram em um tumulto no qual houve mortes, os legisladores sofreram risco grave de dano e um processo democrático importante foi interrompido. Além disso, quando as restrições foram prorrogadas em 7 de janeiro, a situação estava indecisa e as preocupações sérias com a segurança continuavam. Devido às circunstâncias, restringir o acesso do Sr. Trump ao Facebook e ao Instagram em 6 e 7 de janeiro promoveu o equilíbrio adequado diante do risco de violência e desordem que continuava. Mas, como discutido detalhadamente a seguir, a decisão do Facebook de tornar essas restrições “indefinidas” não tem apoio dos Padrões da Comunidade e viola os princípios da liberdade de expressão.

O Comitê enfatiza que há informações públicas detalhadas limitadas no sistema de verificação cruzada e na permissão de conteúdo de valor jornalístico. Embora o Facebook declare que as mesmas regras são aplicadas a contas importantes e comuns, processos diferentes podem levar a resultados substantivos diferentes. O Facebook disse ao Comitê que não aplicou a permissão de conteúdo de valor jornalístico às publicações em questão neste caso. Infelizmente, a falta de transparência referente aos processos de tomada de decisão parece contribuir para percepções de que a empresa pode estar excessivamente influenciada por considerações políticas ou comerciais.

8.2 Conformidade com os valores do Facebook

A análise do supracitado é consistente com os valores definidos do Facebook de “Voz” e “Segurança”. Pelos motivos estabelecidos nessa opinião, neste caso a proteção da ordem público justificou a limitação da liberdade de expressão.

Uma minoria acredita ser especialmente importante enfatizar que “Dignidade” também era relevante. O Facebook relaciona “Dignidade” à igualdade e que as pessoas não devem “assediar nem difamar” terceiros. A minoria considera a seguir que as publicações anteriores na plataforma feitas pelo Sr. Trump contribuíram para a tensão racial e exclusão e que esse contexto foi essencial para entender o impacto do conteúdo do Sr. Trump. Por ter lidado com esse caso em outras bases, a maioria não comenta essas publicações.

8.3 Conformidade com as responsabilidades sobre direitos humanos do Facebook

As decisões do Comitê não envolvem as obrigações de direitos humanos dos Estados nem a aplicação das leis nacionais, mas se concentram nas políticas de conteúdo do Facebook, bem como os valores e as responsabilidades dele como empresa em relação aos direitos humanos. Os Princípios Orientadores sobre Empresas e Direitos Humanos, endossados pelo Facebook (consulte a Seção 4), estabelecem que as empresas devem cumprir essas responsabilidades voluntariamente. Isso inclui evitar colocar em risco os direitos humanos, identificando riscos possíveis e reais e trabalhando para evitá-los ou resolvê-los (Princípios 11, 13, 15 e 18 do UNGP). Essas responsabilidades se estendem a riscos causados por terceiros (Princípio 19 do UNGP).

O Facebook tornou-se um meio de discurso político realmente indispensável e, em especial, nos períodos eleitorais. Ele tem a responsabilidade de permitir a expressão política e de evitar que outros direitos humanos corram riscos graves. O Facebook, como outras plataformas digitais e empresas de mídia, tem sido duramente criticado por distribuir desinformação e fortalecer material polêmico e provocante. As responsabilidades do Facebook pelos direitos humanos devem ser compreendidas com base nessas considerações às vezes conflitantes.

O Comitê analisa as responsabilidades do Facebook pelos direitos humanos por meio dos padrões internacionais sobre liberdade de expressão e dos direitos à vida, à segurança e à participação política. O Artigo 19 do PIDCP define o direito à liberdade de expressão. O Artigo 19 diz: “Toda pessoa terá direito à liberdade de expressão; esse direito incluirá a liberdade de procurar, receber e difundir informações e ideias de qualquer natureza, independentemente de considerações de fronteiras, verbalmente ou por escrito, em forma impressa ou artística, ou por qualquer outro meio de sua escolha”. O Comitê não aplica a Primeira Emenda da Constituição dos EUA, que não controla a conduta das empresas privadas. Entretanto, o Comitê enfatiza que, em vários aspectos relevantes, os princípios da liberdade de expressão refletidos na Primeira Emenda são semelhantes ou análogos aos princípios de liberdade de expressão do Artigo 19 do PIDCP.

O discurso político recebe muita proteção nos termos da lei de direitos humanos, devido à sua importância para o debate democrático. O Comitê de Direitos Humanos da ONU forneceu orientações fidedignas sobre o Artigo 19 do PIDCP no Comentário Geral nº 34, no qual afirma que: “a livre comunicação de informações e ideias sobre questões públicas e políticas entre cidadãos, candidatos e representantes eleitos é essencial” (parágrafo 20).

A decisão da empresa de suspender a página do Facebook e a conta do Instagram do Sr. Trump tem implicações de liberdade de expressão não apenas para o Sr. Trump, mas para os direitos das pessoas de ouvir os líderes políticos, quer os apoiem ou não. Embora as figuras políticas não tenham um direito à liberdade de expressão maior que o de outras pessoas, restringir o direito de expressão delas pode prejudicar os direitos de outras pessoas à informação e à participação de assuntos políticos. Porém, os padrões internacionais de direitos humanos esperam que os indivíduos do Estado condenem a violência (Plano de ação de Rabat) e forneçam informações precisas ao público sobre questões de interesse público, além de corrigir a desinformação (Declaração Conjunta de 2020 dos monitores internacionais da liberdade de expressão sobre a COVID-19).

A lei internacional permite que a expressão seja limitada em determinadas condições. Qualquer restrição deve cumprir três requisitos: as regras devem ser claras e acessíveis, deve ter um objetivo legítimo e deve ser necessária e proporcional ao risco de dano. O Comitê usa esse teste de três partes para analisar as ações do Facebook quando a empresa restringe conteúdo ou contas. Os princípios da Primeira Emenda nos termos da lei dos EUA também insistem que as restrições sobre a liberdade de expressão impostas por ação do Estado não podem ser vagas, mas devem ter motivos governamentais importantes e devem estar estreitamente adaptadas ao risco de dano.

I. Legalidade (clareza e acessibilidade das regras)

Na lei internacional sobre liberdade de expressão, o princípio da legalidade exige que qualquer regra usada para limitar a expressão seja clara e acessível. As pessoas devem conseguir compreender o que é permitido e o que não é. Igualmente importante, as regras devem ser suficientemente claras para fornecer orientações àqueles que tomam decisões sobre limitação da expressão, para que essas regras não concedam liberdade de ação irrestrita, o que pode resultar na aplicação seletiva delas. Neste caso, essas regras são os Padrões da Comunidade do Facebook e as Diretrizes da Comunidade do Instagram. Essas políticas têm o propósito de definir o que as pessoas podem ou não publicar, e as políticas do Facebook sobre quando pode restringir o acesso às contas dele e do Instagram.

A clareza do Padrão contra enaltecimento e apoio de Organizações e indivíduos perigosos é insuficiente, como observou o Comitê em uma decisão anterior (caso 2020-005-FB-UA). O Relator Especial da ONU para a liberdade de expressão também demonstrou preocupação com a ambiguidade do Padrão sobre Organizações e indivíduos perigosos (A/HRC/38/35, parágrafo 26, nota de rodapé 67). Como o Comitê enfatizou anteriormente, no caso 2020-003-FB-UA, há momentos em que certas palavras podem levantar preocupações de legalidade. Mas, na aplicação a um caso específico, essas preocupações não são garantidas. Qualquer ambiguidade nos termos do Padrão evita a sua aplicação nas circunstâncias desse caso questionável. O tumulto no Capitólio, em 6 de janeiro, enquadra-se perfeitamente no tipo de evento prejudicial estabelecido na política do Facebook. E as publicações do Sr. Trump enalteceram e apoiaram os envolvidos no momento em que os atos de violência aconteciam, e enquanto os Membros do Congresso pediam a ajuda dele. Em relação a esses fatos, as políticas do Facebook avisaram o usuário de forma adequada e orientaram os que estavam aplicando a regra.

Em relação às penalidades por violações, os Padrões da Comunidade e as informações relacionadas sobre restrições de conta são publicados em várias fontes, incluindo os Termos de Serviço, a introdução aos Padrões da Comunidade, os Padrões da Comunidade sobre Integridade da conta e identidade autêntica, o Newsroom do Facebook e a Central de Ajuda do Facebook. Como enfatizado no caso 2020-006-FB-FBR, o Comitê reitera que, como as regras aplicáveis são fragmentadas, é difícil para os usuários entender por que e quando o Facebook restringe contas, além de levantar preocupações em relação à legalidade.

Embora o Comitê considere o Padrão sobre Organizações e indivíduos perigosos suficientemente claro nas circunstâncias deste caso para satisfazer as normas de clareza e ambiguidade da liberdade de expressão, a imposição do Facebook de uma restrição “indefinida” é vaga e incerta. Restrições “indefinidas” não estão descritas nos Padrões da Comunidade e não está claro quais padrões aplicariam essa penalidade ou quais padrões serão usados para mantê-la ou removê-la. O Facebook não forneceu informações sobre qualquer imposição anterior de suspensões indefinidas em outros casos. O Comitê reconhece a necessidade de certo critério por parte do Facebook ao suspender contas em situações de urgência, como a de janeiro, mas os usuários não podem ser deixados em estado de incerteza por tempo indefinido.

O Comitê rejeita a solicitação do Facebook de endosso de restrições indefinidas, impostas e mantidas sem critérios claros. Limites apropriados sobre poderes de escolha são cruciais para diferenciar o uso legítimo de critérios das situações possíveis pelo mundo nas quais o Facebook pode silenciar indevidamente o direito de expressão sem ser motivado por dano ou ação mediata, fundamental para a proteção das pessoas.

II. Objetivo legítimo

O requisito de objetivo legítimo significa que qualquer restrição à liberdade de expressão deve ser por uma finalidade indicada no Artigo 19, parágrafo 3 do PIDCP e esta lista de objetivos é exaustiva. Os objetivos legítimos incluem a proteção da ordem pública, bem como o respeito pelos direitos de terceiros, incluindo os direitos à vida e à segurança e de participar de eleições e ter o resultado respeitado e implementado. Um objetivo não seria legítimo se usado como pretexto para tolher a liberdade de expressão; por exemplo, mencionar os objetivos de proteção da segurança ou dos direitos de terceiros para censurar o discurso simplesmente por ele ser desagradável ou ofensivo (Comentário Geral nº 34, parágrafos 11, 30, 46 e 48). A política do Facebook sobre exaltação e apoio de indivíduos envolvidos em “eventos violadores”, atos de violência ou atividade criminal estava de acordo com os objetivos já citados.

III. Necessidade e proporcionalidade

O requisito de necessidade e proporcionalidade significa que qualquer restrição sobre a liberdade de expressão deve, entre outras coisas, ser a forma menos intrusiva de alcançar um objetivo legítimo (Comentário Geral nº 34, parágrafo 34).

O Comitê acredita que, sempre que possível, o Facebook deve usar medidas menos restritivas de lidar com discursos potencialmente prejudiciais e de proteger os direitos de terceiros, antes de recorrer à remoção de conteúdo ou à restrição da conta. No mínimo, isso significaria desenvolver mecanismos eficazes para evitar a amplificação do discurso que represente risco de violência, discriminação ou outra ação ilegal iminente, onde possível e adequado, em vez de banir o discurso imediatamente.

O Facebook afirmou para o Comitê que considerou: “o uso repetido do Facebook e de outras plataformas para minar a confiança na integridade da eleição (necessitando da aplicação repetida de etiquetas oficiais pelo Facebook corrigindo a desinformação) do Sr. Trump representou um abuso incomum da plataforma”. O Comitê pediu para o Facebook esclarecer até que ponto as decisões de design da plataforma, incluindo algoritmos, políticas, procedimentos e recursos técnicos, amplificaram as publicações do Sr. Trump após a eleição e se o Facebook realizou alguma análise interna para verificar se as decisões de design podem ter contribuído para os eventos de 6 de janeiro. O Facebook recusou-se a responder essas perguntas. Isso torna difícil para o Comitê avaliar se medidas menos rigorosas, tomadas precocemente, poderiam ter sido suficientes para proteger os direitos de terceiros.

A pergunta crucial é se a decisão do Facebook de restringir o acesso às contas do Sr. Trump, em 6 e 7 de janeiro, foi necessária e adequada para proteger os direitos de terceiros. Para entender o risco representado pelas publicações de 6 de janeiro, o Comitê avaliou as publicações do Sr. Trump no Facebook e no Instagram, e os comentários fora da plataforma, desde a eleição de novembro. Por manter uma narrativa sem fundamento de fraude eleitoral e chamadas para ação persistentes, o Sr. Trump criou um ambiente que fomentou um risco grave de possíveis atos de violência. Em 6 de janeiro, as palavras do Sr. Trump de apoio aos envolvidos no tumulto legitimou as ações violentas dessas pessoas. Embora as mensagens incluíssem uma chamada aparentemente superficial para as pessoas agirem de forma pacífica, isso foi insuficiente para neutralizar a tensão e remover o risco de dano para o qual as declarações de apoio dele contribuíram. Foi apropriado o Facebook interpretar as publicações do Sr. Trump, em 6 de janeiro, no contexto de aumento das tensões nos Estados Unidos e as declarações do Sr. Trump em outras mídias e em eventos públicos.

Como parte da análise, o Comitê explorou seis fatores do Plano de ação de Rabat para avaliar se o discurso poderia criar um risco grave de incitação de discriminação, atos de violência ou outra ação ilegal:

  • Contexto: as publicações foram feitas em um momento de grande tensão política centradas na alegação infundada de que a eleição presidencial de novembro de 2020 tinha sido roubada. A campanha de Trump fez essas alegações na justiça, mas com pouca ou nenhuma evidência, e elas foram consistentemente rejeitadas. O Sr. Trump continuou a fazer essas alegações nas redes sociais, incluindo Facebook e Instagram, usando seu status oficial de chefe de Estado para obter credibilidade. Ele incentivou os apoiadores a virem à capital da nação em 6 de janeiro para “parar o roubo”, sugerindo que os eventos seriam “turbulentos”. Em 6 de janeiro, o Sr. Trump conclamou os apoiadores a marchar até o Capitólio para desafiar a contagem dos votos colegiados. No momento das publicações, os atos graves de violência continuavam. Quando as restrições foram prorrogadas em 7 de janeiro, a situação continuou volátil. Entre outros indicadores do contexto, o Distrito de Colúmbia tomou medidas para advertir de um risco maior de atos de violência envolvendo os eventos no Capitólio.
  • Status do discursista: a identidade do Sr. Trump como presidente dos Estados Unidos e líder político deu às publicações dele no Facebook e no Instagram muita influência. O Comitê enfatiza que, como presidente, o Sr. Trump tinha credibilidade e autoridade junto aos membros do público, o que contribuiu para os eventos de 6 de janeiro. O status do Sr. Trump como chefe de Estado, um cargo de alta confiança, deu mais força e credibilidade às palavras dele e também criou o risco de que os seguidores dele entendessem que poderiam agir impunes.
  • Intenção: o Comitê não está em posição de avaliar as intenções do Sr. Trump de maneira conclusiva. A possibilidade de atos de violência ligados às declarações do Sr. Trump era clara. O Comitê considerou que ele provavelmente sabia ou deveria saber que essas comunicações correriam o risco de legitimar ou incentivar atos de violência.
  • Conteúdo e formato: as duas publicações de 6 de janeiro enalteceram e apoiaram os manifestantes, embora tenham pedido para irem para casa pacificamente. As publicações também reiteraram a alegação infundada de que a eleição foi roubada. Relatórios sugerem que essa alegação foi entendida por alguns manifestantes como legitimação das ações deles. A evidência mostra que o Sr. Trump usou a autoridade comunicativa da presidência para apoiar os que estavam atacando o Capitólio e em uma tentativa de evitar a contagem legal dos votos colegiados.
  • Extensão e alcance: o Sr. Trump tinha um público grande, com cerca de 35 milhões de contas no Facebook e cerca de 24 milhões de contas no Instagram como seguidores. É importante destacar que essas publicações nas redes sociais normalmente são captadas e compartilhadas de maneira mais ampla através dos canais dos meios de comunicação de massa, bem como por apoiadores importantes do Sr. Trump com públicos grandes, aumentando muito o alcance delas.
  • Iminência do dano: as publicações foram feitas em um período dinâmico e fluido de violência em andamento. Houve um risco imediato e claro de dano à vida, à integridade eleitoral e à participação política. Os atos de violência no Capitólio começaram no prazo de uma hora da manifestação organizada por meio do uso do Facebook e de outras redes sociais. Na verdade, mesmo enquanto o Sr. Trump estava publicando, os manifestantes estavam invadindo de maneira violenta os corredores do Congresso e os Membros do Congresso estavam expressando medo, contatando a Casa Branca e pedindo para o presidente acalmar a situação. O tumulto afetou de forma direta a capacidade do Congresso de cumprir sua responsabilidade constitucional de contagem dos votos colegiados, atrasando esse processo por várias horas.

Na análise desses fatores, o Comitê conclui que a violação neste caso foi grave em termos de danos aos direitos humanos. A imposição do Facebook de restrição da conta, em 6 de janeiro, e extensão dessa restrição, em 7 de janeiro, foi necessária e adequada.

Para a minoria do Comitê, embora uma suspensão de duração prolongada ou a desativação permanente pudesse ser justificada exclusivamente pelos eventos de 6 de janeiro, a análise de proporcionalidade também deveria ser fundamentada pelo uso das plataformas do Facebook pelo Sr. Trump antes da eleição presidencial de novembro de 2020. Em especial, a minoria enfatizou a publicação de 28 de maio de 2020: “quando começa o roubo, começa o tiroteio”, feita no contexto dos protestos por justiça racial, bem como as várias publicações com referência ao “vírus da China”. O Facebook assumiu compromissos para respeitar o direito à não discriminação (Artigo 2, parágrafo 1 do PIDCP, Artigo 2 da ICERD) e, de acordo com os requisitos para restrições ao direito à liberdade de expressão (Artigo 19, parágrafo 3 do PIDCP), para impedir o uso de suas plataformas para a defesa do ódio racial ou nacional que constitua incitação à hostilidade, discriminação ou violência (Artigo 20 do PIDCP, Artigo 4 da ICERD). A frequência, a quantidade e a extensão das comunicações prejudiciais devem fundamentar a análise de incitação do Rabat (Plano de ação de Rabat, parágrafo 29, principalmente os fatores de contexto e vontade. Para a minoria, essa análise mais ampla seria crucial para fundamentar a avaliação do Facebook de uma penalidade adequada ao ocorrido em 7 de janeiro, o que serviria como impedimento para outros líderes políticos e, onde apropriado, como uma oportunidade de reabilitação. Além disso, se o Facebook optasse por impor uma suspensão com prazo determinado, a análise de risco necessária para reintegração também levaria em conta esses fatores. Por ter lidado com esse caso em outras bases, a maioria não comenta essas questões.

9. Decisão do Comitê de Supervisão

Em 6 de janeiro, a decisão do Facebook de impor restrições às contas do Sr. Trump foi justificada. As publicações em questão violaram as regras do Facebook e do Instagram que proíbem apoiar ou exaltar eventos violadores, incluindo o tumulto que estava acontecendo no Capitólio dos EUA. Devido à gravidade das violações e ao risco contínuo de violência, foi justificada a imposição do Facebook de restringir as contas do Sr. Trump e de estender essas restrições em 7 de janeiro.

Entretanto, não foi apropriada a imposição do Facebook de uma suspensão indefinida.

Neste caso, o Facebook não seguiu um procedimento claro e publicado. As penalidades normais aplicadas às contas pelo Facebook por violações às suas regras são impostas como uma suspensão com prazo determinado ou desativação permanente da conta do usuário. O Comitê considera inadmissível que o Facebook mantenha um usuário fora da plataforma por um período indefinido, sem critérios em relação à quando ou se a conta será restaurada.

A função do Facebook é criar e comunicar penalidades necessárias e adequadas que possa aplicar em resposta a violações graves de suas políticas de conteúdo. A função do Comitê é garantir que as regras e os processos do Facebook sejam consistentes com suas políticas de conteúdo, seus valores e seu compromisso de respeitar os direitos humanos. Ao aplicar uma penalidade indeterminada e fora dos padrões e, depois, encaminhar o caso para o Comitê resolver, o Facebook procura evitar suas responsabilidades. O Comitê recusa a solicitação do Facebook e insiste que a empresa aplique e justifique uma penalidade definida.

O Facebook deve, no prazo de seis meses dessa decisão, reanalisar a penalidade arbitrária que impôs, em 7 de janeiro, e definir uma penalidade apropriada. Essa penalidade deve ter como base a gravidade da violação e os possíveis danos futuros. Ela também deve ser consistente com as regras de violações graves do Facebook, que devem, por sua vez, ser claras, necessárias e adequadas.

Se o Facebook determinar que as contas do Sr. Trump devem ser restauradas, a empresa deverá aplicar suas regras a essa decisão, incluindo quaisquer modificações feitas de acordo com as recomendações de política abaixo. Além disso, se o Facebook determinar o retorno dele à plataforma, deverá lidar com qualquer violação nova imediatamente e de acordo com suas políticas estabelecidas de conteúdo.

Uma minoria acredita ser importante definir alguns critérios mínimos que reflitam a avaliação feita pelo Comitê das responsabilidades do Facebook em relação aos direitos humanos. A maioria prefere, em vez disso, fornecer essa orientação como uma recomendação de política. A minoria enfatiza explicitamente que as responsabilidades do Facebook de respeitar os direitos humanos incluem promover a reparação dos efeitos adversos sobre os direitos humanos para os quais tenha contribuído (UNGPs, Princípio 22). A reparação é um componente fundamental da estrutura “Proteger, Respeitar e Reparar” da UNGP, refletindo a lei internacional de direitos humanos de forma mais ampla (Artigo 2, parágrafo 3 do PIDCP, conforme interpretado pelo Comitê de Direitos Humanos no Comentário Geral Nº 31, parágrafos 15 a 18, do Comitê de Direitos Humanos). Para cumprir a responsabilidade de garantir que os efeitos adversos não se repitam, o Facebook deve avaliar se a reintegração das contas do Sr. Trump representaria um risco grave de incitação de discriminação, atos de violência ou outra ação ilegal iminentes. Essa avaliação de risco deve ter como base as considerações do Comitê detalhadas na análise de necessidade e proporcionalidade, na Seção 8.3.III acima, incluindo o contexto e as condições dentro e fora do Facebook e do Instagram. O Facebook deve, por exemplo, estar satisfeito com o fato de o Sr. Trump ter parado de fazer alegações infundadas sobre fraude na eleição, como fez em 6 de janeiro, o que justificou a suspensão. Os procedimentos de monitoramento do Facebook têm o propósito de promover a reabilitação, e a minoria acredita que esse propósito está de acordo com o princípio da satisfação na lei de direitos humanos. Uma minoria do Comitê enfatiza que as regras do Facebook devem garantir que os usuários que desejam ser reintegrados após a suspensão reconheçam a culpa e se comprometam a observar as regras futuramente. Nesse caso, a minoria sugere que, antes de restaurar a conta do Sr. Trump, o Facebook deve procurar garantir a retirada do enaltecimento ou apoio aos envolvidos nos tumultos.

10. Declaração de parecer consultivo

O Comitê reconhece as questões difíceis levantadas por este caso e está agradecido pelos muitos comentários públicos interessantes e engajados que recebeu.

Quando encaminhou essa questão para o Comitê de Supervisão, o Facebook solicitou especificamente: “observações ou recomendações do Comitê sobre suspensões quando o usuário é um líder político”. O Comitê pediu para o Facebook esclarecer o que entendia por “líder político”. O Facebook explicou que procurava abordar: “funcionários do governo eleitos ou nomeados e candidatos de uma eleição futura, incluindo um pequeno período após a eleição, caso o candidato não seja eleito”, mas nem todos os indivíduos do Estado. Com base na análise que o Comitê fez do caso, suas orientações limitam-se às questões de segurança pública.

O Comitê acredita que nem sempre é proveitoso fazer uma distinção inflexível entre líderes políticos e outros usuários influentes. É importante reconhecer que outros usuários com públicos grandes também podem contribuir para riscos graves de dano. As mesmas regras devem ser aplicadas a todos os usuários da plataforma; mas, o contexto é importante na avaliação de questões de casualidade e probabilidade, bem como iminência do dano. O importante é o nível de influência que um usuário tem sobre outros usuários.

Quando publicações de usuários influentes representarem uma grande probabilidade de danos iminentes, conforme avaliação dos padrões internacionais de direitos humanos, o Facebook deverá tomar medidas para aplicar suas regras rapidamente. O Facebook deve avaliar publicações de usuários influentes contextualmente, conforme provavelmente serão entendidas, mesmo que a mensagem explosiva deles esteja expressa em uma linguagem específica para evitar responsabilidade, como incentivo superficial a agir de forma pacífica e legal. Neste caso, o Facebook usou seis fatores contextuais do Plano de ação de Rabat. O Comitê considera essa uma maneira útil de avaliar os riscos contextuais do discurso potencialmente prejudicial. O Comitê enfatiza que o tempo é a essência nessas situações. Tomar medidas antes que usuários influentes possam causar danos significativos deve ter prioridade sobre conteúdo de valor jornalístico e outros valores da comunicação política.

Embora todos os usuários devam seguir as mesmas políticas de conteúdo, há fatores únicos a serem considerados na avaliação do discurso dos líderes políticos. Chefes de Estado e outros altos funcionários do governo podem ter um poder maior de causar dano do que outras pessoas. O Facebook deve reconhecer que as publicações de chefes de Estado e de outros altos funcionários do governo podem conter um risco maior de incentivar, legitimar ou iniciar atos de violência, seja porque o cargo de confiança que ocupam dá mais força e credibilidade às palavras deles ou porque os seguidores deles podem deduzir que suas ações não serão punidas. Ao mesmo tempo, é importante proteger os direitos das pessoas de ouvir o discurso político. Contudo, se um chefe de Estado ou um alto funcionário do governo publicar repetidamente mensagens que representem um risco de danos, segundo as normas internacionais de direitos humanos, o Facebook deverá suspender a conta por um período determinado suficiente para a proteção contra danos iminentes. Os períodos de suspensão devem ser suficientemente longos para deter a conduta indevida e podem, em casos apropriados, incluir exclusão da conta ou da página.

As restrições sobre o direito de expressão normalmente são impostas por indivíduos poderosos do Estado, ou por ordem deles, para evitar a dissidência de vozes e membros de oposições políticas. O Facebook deve resistir à pressão dos governos para silenciar a oposição política deles. Quando for avaliar riscos possíveis, o Facebook deve estar especialmente atento ao contexto político relevante. Na avaliação de discurso político de usuários muito influentes, o Facebook deve encaminhar rapidamente o processo de moderação de conteúdo para uma equipe especializada que esteja familiarizada com a linguística e o contexto político e que seja isenta de interferência política e econômica, bem como de influência indevida. Essa análise deve examinar a conduta dos usuários muito influentes fora das plataformas do Facebook e do Instagram para avaliar de forma adequada todo o contexto relevante do discurso possivelmente prejudicial. Além disso, o Facebook deve ter recursos e especialistas adequados e dedicados para avaliar os riscos de dano de contas de usuários influentes globalmente.

O Facebook deve explicar publicamente as regras que usa quando impõe sanções às contas de usuários influentes. Essas regras devem garantir que, quando o Facebook impuser uma suspensão de tempo limitado à conta de um usuário influente para reduzir o risco de dano significativo, avaliará se o risco diminuiu antes do fim da suspensão. Se o Facebook identificar que o usuário representa um risco grave de incitação de violência iminente, discriminação ou outra ação ilegal naquele momento, outra suspensão com prazo determinado deverá ser imposta quando tais medidas forem necessárias para proteger a segurança pública e proporcional ao risco.

Quando o Facebook implementa procedimentos especiais que aplica a usuários influentes, esses procedimentos devem estar bem documentados. Não ficou claro se o Facebook aplicou padrões diferentes neste caso. O Comitê ouviu muitas preocupações sobre a possível aplicação da permissão de conteúdo de valor jornalístico É importante que o Facebook aborde essa falta de transparência e a confusão que causou. O Facebook deve produzir mais informações para ajudar os usuários a entender e a avaliar o processo e os critérios de aplicação da permissão de conteúdo de valor jornalístico. O Facebook deve explicar claramente como a permissão de conteúdo de valor jornalístico se aplica a contas influentes, incluindo líderes políticos e outras figuras públicas. Em relação à análise de verificação cruzada, o Facebook deve explicar claramente a justificativa, os padrões e os processos da análise, incluindo os critérios para determinar quais páginas e contas são selecionadas para inclusão. O Facebook deve registrar as taxas relativas de erro e a consistência temática das determinações obtidas no processo de verificação cruzada em comparação com os procedimentos comuns de monitoramento.

Quando a plataforma do Facebook sofrer abuso por usuários influentes de uma maneira que resulte em efeitos adversos graves sobre os direitos humanos, deverá realizar uma investigação completa do incidente. O Facebook deve avaliar a influência que sofreu e avaliar quais alterações poderia colocar em prática para identificar, prevenir, mitigar e explicar efeitos adversos no futuro. Em relação a este caso, o Facebook deveria realizar uma análise abrangente da possível contribuição dele para a narrativa da fraude eleitoral e para as tensões exacerbadas que culminaram nos atos de violência nos Estados Unidos, em 6 de janeiro de 2021. Deve ser uma reflexão aberta sobre as escolhas de design e de política que o Facebook tem feito que podem permitir o abuso da sua plataforma. O Facebook deve realizar essa devida diligência, implementar um plano de ação e comunicar abertamente como abordará efeitos adversos sobre os direitos humanos nos quais se envolveu.

Em casos em que usuários do Facebook ou do Instagram possam estar envolvidos em crimes de atrocidade ou em violações graves dos direitos humanos, bem como incitação, segundo o Artigo 20 do PIDCP, a remoção do conteúdo e a desativação das contas, bem como a possível redução do risco de dano, também podem enfraquecer os esforços de responsabilização, incluindo por meio da remoção de evidências. O Facebook tem a responsabilidade de coletar, preservar e, se apropriado, compartilhar informações para auxiliar na investigação e na possível acusação de violações graves de leis internacionais criminais, humanitárias e de direitos humanos por autoridades competentes e mecanismos de imputabilidade. A política corporativa de direitos humanos do Facebook deve esclarecer os protocolos que a empresa tem estabelecidos sobre o assunto. A política também deve esclarecer como informações anteriormente públicas na plataforma podem ser disponibilizadas para pesquisadores realizando investigações de acordo com os padrões internacionais e as leis aplicáveis de proteção dos dados.

Este caso destaca ainda mais as deficiências nas políticas do Facebook que devem ser resolvidas. Especialmente, o Comitê acha que o sistema de penalidades do Facebook não é suficientemente claro para os usuários e não fornece orientações adequadas para regulamentar o exercício de critérios do Facebook. O Facebook deve explicar nos Padrões da Comunidade e nas Diretrizes seu processo de avisos e penalidades para restringir perfis, páginas, grupos e contas no Facebook e no Instagram de uma maneira clara, abrangente e acessível. Essas políticas devem fornecer aos usuários informações suficientes para que entendam quando os avisos são impostos (incluindo quaisquer exceções ou permissões aplicáveis) e como as penalidades são calculadas. O Facebook também deve fornecer aos usuários informações acessíveis sobre quantas violações, avisos e penalidades foram usados nas avaliações deles, bem como as consequências das futuras violações. Nos seus relatórios de transparência, o Facebook deve incluir o número de restrições de perfil, página e conta, incluindo o motivo e como a ação de monitoramento foi realizada, com informações divididas por região e país.

Finalmente, o Comitê solicita que o Facebook desenvolva e publique uma política que controle a reação dele a crises ou situações novas em que seus processos normais não previnam nem evitem danos iminentes. Embora essas situações nem sempre possam ser previstas, as orientações do Facebook devem definir parâmetros apropriados para tais ações, incluindo um requisito de análise da sua decisão dentro de um prazo determinado.

*Nota processual:

As decisões do Comitê de Supervisão são preparadas por grupos com cinco membros e aprovadas pela maioria do Comitê. As decisões do Comitê não representam, necessariamente, as opiniões pessoais de todos os membros.

Voltar para Decisões de Casos e Pareceres Consultivos sobre Políticas