Mantido

Confinamentos devido à COVID no Brasil

O Comitê de Supervisão manteve a decisão do Facebook de deixar ativa uma publicação de um conselho médico de nível estadual no Brasil que afirmava que o confinamento é ineficaz e que foi condenado pela Organização Mundial da Saúde (OMS).

Tipo de decisão

Padrão

Políticas e tópicos

विषय
Governos, Saúde
Padrão da comunidade
Violência e incitação

Regiões/países

Localização
Brasil

Plataforma

Plataforma
Facebook

Resumo do caso

O Comitê de Supervisão manteve a decisão do Facebook de deixar ativa uma publicação de um conselho médico de nível estadual no Brasil que afirmava que o confinamento é ineficaz e que foi condenado pela Organização Mundial da Saúde (OMS).

O Comitê constatou que a decisão do Facebook de manter o conteúdo na plataforma era coerente com as suas políticas sobre conteúdo. O Comitê concluiu que o conteúdo incluía algumas informações incorretas que causavam preocupação, considerando a gravidade da pandemia no Brasil e o status do conselho como instituição pública. No entanto, ele concluiu que o conteúdo não criava risco de danos iminentes e deveria, portanto, permanecer na plataforma. Por fim, enfatizou a importância de outras medidas que não a remoção para combater a disseminação de desinformação sobre a COVID-19, a serem adotadas sob determinadas circunstâncias, como as deste caso.

Sobre o caso

Em março de 2021, a Página do Facebook de um conselho médico estadual do Brasil publicou uma imagem de um aviso por escrito sobre as medidas para reduzir a propagação da COVID-19, intitulado “Nota pública contra o confinamento”.

O aviso diz que o confinamento é ineficaz, vai contra os direitos fundamentais da Constituição e é condenado pela OMS. Ele inclui uma suposta citação do Dr. David Nabarro, um emissário especial da OMS para a COVID-19, dizendo: “the lockdown does not save lives and makes poor people much poorer” (o confinamento não salva vidas e torna os pobres muito mais pobres). O aviso afirma que o estado brasileiro do Amazonas sofreu um aumento no número de mortes e hospitalizações após o confinamento, o que comprovaria a falha dessa medida. O aviso alega que o confinamento causaria um aumento nos distúrbios mentais, no abuso de álcool e drogas e nos prejuízos econômicos, entre outros. Ele conclui que as medidas preventivas eficazes contra a COVID-19 incluem campanhas de educação sobre higiene, máscaras, distanciamento social, vacinação e monitoramento pelo governo, mas nunca confinamento.

A página tem mais de dez mil seguidores. O conteúdo foi visualizado cerca de 32 mil vezes e compartilhado aproximadamente 270 vezes. Nenhum usuário denunciou o conteúdo. O Facebook não tomou nenhuma medida contra o conteúdo e encaminhou o caso ao Comitê. O conteúdo permanece na plataforma.

Principais conclusões

O Comitê concluiu que a decisão do Facebook de manter o conteúdo na plataforma era coerente com as suas políticas sobre conteúdo. O Padrão da Comunidade sobre violência e incitação proíbe conteúdo com desinformação que contribua para o risco de violência ou danos corporais iminentes. O artigo da Central de Ajuda citado com link no Padrão afirma que o Facebook determina se uma informação é falsa com base no parecer das autoridades de saúde pública. O Comitê concluiu que o conteúdo incluía algumas informações incorretas que causavam preocupação, considerando a gravidade da pandemia no Brasil e o status do conselho como instituição pública. No entanto, o Comitê concluiu que o conteúdo não criava risco de danos iminentes.

A afirmação de que a OMS condenava o confinamento e a citação atribuída ao Dr. David Nabarro não são totalmente corretas. O Dr. Nabarro não disse que “lockdown does not save lives” (o confinamento não salva vidas); em vez disso, ele observou que a OMS “did not advocate lockdowns as a primary means of control of this virus” (não defende o confinamento como meio principal de controle desse vírus) e que ele tem a consequência de “making poor people an awful lot poorer” (tornar os pobres muito mais pobres). A OMS afirmava que “lockdowns are not sustainable solutions because of their significant economic, social broader health impacts. However, during the #COVID19 pandemic there’ve been times when restrictions were necessary and there may be other times in the future.” (o confinamento não é uma solução sustentável devido aos seus impactos significativos no campo econômico e social e na saúde em sua acepção mais ampla. No entanto, durante a pandemia de #COVID19, houve momentos em que as restrições foram necessárias, e pode haver outros momentos semelhantes no futuro.).

O Comitê observa o argumento do Facebook de que o limite dos “danos iminentes” não foi atingido porque a OMS e outros especialistas da saúde aconselharam a empresa a “remover afirmações contra práticas de saúde específicas, como o distanciamento social”, mas não afirmações contra o confinamento. Apesar de confirmar que estabeleceu comunicação com a autoridade de saúde pública nacional do Brasil, o Facebook afirmou não levar em consideração o contexto local ao definir o limite de danos iminentes para fins de monitoramento da política sobre desinformação e danos.

O Comitê acredita que o Facebook deveria levar em consideração o contexto local ao avaliar o risco de danos corporais iminentes e o fato de que o conteúdo foi compartilhado por uma instituição pública, que tem o dever de fornecer informações confiáveis. No entanto, o Comitê ainda tem o parecer de que a publicação não atinge o limite de danos iminentes neste caso, apesar da gravidade da pandemia no Brasil, porque a publicação enfatizou a importância de outras medidas para combater a propagação da COVID-19, incluindo o distanciamento social.

O Facebook revelou que a publicação se qualificava para verificação de fatos, mas que os parceiros de verificação de fatos não avaliaram o conteúdo em questão. O Comitê observa que a abordagem do Facebook não forneceu contexto adicional sobre um conteúdo que pode colocar em risco a confiança das pessoas nas informações públicas sobre a COVID-19, e que o Facebook deveria priorizar o envio de possível desinformação sobre saúde da parte de autoridades públicas para parceiros de verificação de fatos.

O Comitê observa que o Facebook declarou anteriormente que o conteúdo de políticos não se qualifica para verificação de fatos, mas que as suas políticas não incluem critérios claros de qualificação para outros usuários, como páginas ou contas administradas por instituições públicas.

A decisão do Comitê de Supervisão

O Comitê de Supervisão mantém a decisão do Facebook de manter o conteúdo na plataforma.

Em uma declaração de parecer consultivo, o Comitê recomenda ao Facebook:

  • Implementar a recomendação do Comitê relativa à decisão sobre o caso 2020-006-FB-FBR para que o Facebook adote medidas menos intrusivas quando um conteúdo relacionado à COVID-19 distorce o aconselhamento de autoridades de saúde internacionais e quando potenciais danos corporais são identificados mas não são iminentes.
  • Priorizar a verificação de fatos de conteúdo sinalizado como desinformação relacionada à saúde, levando em consideração o contexto local.
  • Fornecer mais transparência no Padrão da Comunidade sobre Notícias Falsas quando um conteúdo se qualifica para verificação de fatos, inclusive indicando se as contas de instituições públicas estão sujeitas a verificação de fatos.

*Os resumos de caso dão uma visão geral da ocorrência e não têm valor precedente.

Decisão completa sobre o caso

1. Resumo da decisão

O Comitê de Supervisão manteve a decisão do Facebook de deixar ativa uma publicação de um conselho médico de nível estadual no Brasil que afirmava que o confinamento é ineficaz e que foi condenado pela Organização Mundial da Saúde (OMS). O conteúdo permanecerá no Facebook.

2. Descrição do caso

Em março de 2021, a Página do Facebook de um conselho médico estadual do Brasil publicou uma imagem de um aviso por escrito com mensagens em português sobre as medidas para reduzir a propagação da COVID-19, intitulado “Nota pública contra o confinamento”. O aviso diz que o confinamento é ineficaz, vai contra os direitos fundamentais da Constituição e é condenado pela Organização Mundial da Saúde (OMS). Ele inclui uma suposta citação do Dr. David Nabarro, um dos emissários especiais da OMS para a COVID-19, dizendo: “the lockdown does not save lives and makes poor people much poorer” (o confinamento não salva vidas e torna os pobres muito mais pobres). O aviso também afirma que o estado brasileiro do Amazonas sofreu um aumento no número de mortes e hospitalizações após o confinamento, o que comprovaria a falha dessa medida. O aviso diz que o confinamento causaria um aumento nos distúrbios mentais, abuso de álcool e drogas e danos econômicos, entre outros. Ele conclui que as medidas preventivas eficazes contra a COVID-19 incluem campanhas de educação sobre medidas de higiene, o uso de máscara, distanciamento social, vacinação e monitoramento amplo do governo, mas nunca a decisão de adotar o confinamento.

A página tem mais de dez mil seguidores. O conteúdo foi visualizado cerca de 32 mil vezes e compartilhado aproximadamente 270 vezes. Nenhum usuário denunciou o conteúdo. O Facebook não tomou nenhuma medida contra o conteúdo e encaminhou o caso ao Comitê. O conteúdo permanece na plataforma.

O contexto factual a seguir é pertinente para a decisão do Comitê. O Artigo 1 da Lei Federal Brasileira Nº 3268/1957 afirma que os conselhos médicos fazem parte da administração do governo de cada um dos 26 estados, providos de personalidade jurídica de direito público e com autonomia administrativa e financeira. Os conselhos são responsáveis pelo registro profissional dos médicos e dos respectivos títulos. O Artigo 2 observa que eles são órgãos supervisores da ética profissional e que têm poderes de aplicação de sanções aos médicos. Os conselhos médicos não têm autoridade para impor medidas como o confinamento nos termos da Lei Federal Nº 3268/1957.

As afirmações feitas na publicação, segundo as quais a OMS teria condenado o confinamento e o Dr. David Nabarro teria dito que “lockdown does not save lives” (o confinamento não salva vidas) não são totalmente corretas. O Dr. Nabarro observou que o confinamento tem a consequência de “making poor people an awful lot poorer” (tornar os pobres muito mais pobres), mas ele não afirmou que ele “do not save lives” (não salva vidas). A OMS não condenou o confinamento, ela disse que o confinamento não é uma solução sustentável devido aos seus impactos significativos no campo econômico e social e na saúde em sua acepção mais ampla, mas que pode haver momentos em que essas restrições são necessárias, e que o seu uso ideal é como preparação para medidas de saúde pública de longo prazo.

O confinamento no Amazonas mencionado no aviso compartilhado pelo conselho médico foi adotado entre 25 de janeiro e 31 de janeiro de 2021, mediante o Decreto Nº 43.303 de 23 de janeiro de 2021, e estendido, mediante o Decreto Nº 43.348 de 31 de janeiro de 2021, até 7 de fevereiro de 2021. Os Decretos estabeleciam restrições temporárias à circulação de pessoas em locais públicos e suspendiam a operação de todos os serviços e atividades comerciais, com algumas exceções, como o transporte de bens essenciais, o funcionamento de mercados, padarias, farmácias, postos de gasolina, bancos e unidades de assistência médica, entre outros. As medidas de confinamento foram aplicadas pela polícia e outras autoridades. As pessoas que não cumprissem os Decretos podiam sofrer uma série de sanções.

3. Autoridade e escopo

O Comitê de Supervisão tem o poder de analisar um amplo conjunto de perguntas encaminhadas pelo Facebook (Artigo 2, Seção 1 do Estatuto; Artigo 2, Seção 2.1 dos Regulamentos Internos). As decisões relacionadas a essas questões são vinculativas e podem incluir declarações de parecer consultivo com recomendações. Essas recomendações não são vinculativas, mas o Facebook deve responder a elas (Artigo 3, Seção 4 do Estatuto).

4. Padrões relevantes

Em sua decisão, o Comitê de Supervisão considerou os seguintes padrões:

I. Padrões da Comunidade do Facebook:

A introdução aos Padrões da Comunidade contém uma seção intitulada “COVID-19: Proteções e atualizações dos Padrões da Comunidade”. O texto completo afirma:

À medida que pessoas do mundo inteiro combatem essa emergência de saúde pública sem precedentes, queremos garantir que os Padrões da Comunidade protejam os usuários de conteúdo prejudicial e de novos tipos de abuso relacionados à COVID-19. Estamos trabalhando para remover conteúdo com potencial para causar danos no mundo real, inclusive por meio de nossas políticas que proíbem a coordenação de danos, a venda de máscaras de proteção e bens relacionados, discurso de ódio, bullying e assédio, bem como desinformação que contribua para o risco de violência ou danos corporais iminentes.

À medida que a situação evolui, continuamos analisando o conteúdo da plataforma, avaliando as tendências de discurso e interagindo com especialistas. Além disso, ofereceremos orientações adicionais sobre políticas, quando necessário, para manter os membros de nossa comunidade seguros durante esta crise. [ênfase adicionada]

O Padrão da Comunidade sobre Violência e Incitação afirma que o Facebook proíbe conteúdo com “Desinformação e boatos não verificáveis que contribuam para o risco de violência ou danos corporais iminentes”. Em seguida, ele afirma: “Além disso, temos orientações e regras específicas sobre conteúdo relacionado à COVID-19 e às vacinas. Para ver essas regras específicas, clique aqui."

De acordo com o artigo disponibilizado pelo link acima, nos termos dessa política, o Facebook remove conteúdo que desencoraja boas práticas de saúde que “as autoridades de saúde pública aconselham às pessoas para que elas se protejam contra o contágio ou a propagação da COVID-19”, incluindo “o uso de máscara, o distanciamento social, o teste da COVID-19 e […] a vacina contra a COVID-19”.

O fundamento da política do Padrão da Comunidade do Facebook sobre Notícias Falsas afirma que:

Reduzir a disseminação de notícias falsas no Facebook é uma responsabilidade que levamos a sério. Também reconhecemos que essa é uma questão desafiadora e delicada. Queremos ajudar as pessoas a se manter bem informadas sem deixar de lado o discurso público produtivo. Existe uma linha tênue entre notícias falsas e sátiras ou opiniões. Por esse motivo, não removemos notícias falsas do Facebook, mas, em vez disso, reduzimos significativamente sua distribuição, mostrando-as mais abaixo no Feed de Notícias.

O Padrão sobre Notícias Falsas fornece informações sobre a gama de opções de monitoramento usadas pelo Facebook além da remoção de conteúdo:

Estamos empenhados em criar uma comunidade mais bem informada e em reduzir a disseminação de notícias falsas de diversos modos, que consistem em:

  • Bloquear os incentivos econômicos a pessoas, Páginas e domínios que propagam desinformação.
  • Usar vários sinais, incluindo o feedback da nossa comunidade, para informar um modelo de aprendizado de máquina que prevê quais histórias podem ser falsas.
  • Reduzir a distribuição de conteúdo classificado como falso por verificadores de fatos independentes.
  • Capacitar as pessoas a decidir por conta própria o que ler, no que confiar e o que compartilhar, informando-as com mais contexto e promovendo a consciência crítica em relação às notícias.
  • Colaborar com acadêmicos e outras organizações para ajudar a resolver esse tema desafiador.

II. Valores do Facebook:

Os valores do Facebook são descritos na introdução aos Padrões da Comunidade. A “Voz” é descrita como o valor fundamental do Facebook:

O objetivo de nossos Padrões da Comunidade sempre foi criar um espaço para expressão e dar voz às pessoas. Isso não mudou e não mudará. Criar uma comunidade e unir as pessoas depende da capacidade de compartilhar diversos pontos de vista, experiências, ideias e informações. Queremos que as pessoas possam falar abertamente sobre os assuntos importantes para elas, ainda que sejam temas que geram controvérsias e objeções.

O Facebook observa que a “Voz” pode ser limitada em função de outros quatro valores. Neste caso, o valor relevante é a “Segurança”:

Temos o compromisso de fazer com que o Facebook seja um lugar seguro. Manifestações contendo ameaças podem intimidar, excluir ou silenciar pessoas, e isso não é permitido no Facebook.

III. Padrões de Direitos Humanos:

Os Princípios Orientadores da ONU sobre Empresas e Direitos Humanos (UNGPs, na sigla em inglês), endossados pelo Conselho de Direitos Humanos da ONU em 2011, estabelecem uma estrutura voluntária de responsabilidades sobre direitos humanos das empresas privadas. Em março de 2021, o Facebook anunciou sua Política Corporativa de Direitos Humanos, na qual se comprometeu a respeitar os direitos de acordo com os UNGPs. Neste caso, os seguintes padrões de direitos humanos foram levados em consideração na análise do Comitê:

  • O direito de liberdade de opinião e expressão: Article 19, International Covenant on Civil and Political Rights (Artigo 19 do Pacto Internacional dos Direitos Civis e Políticos, PIDCP, na sigla em inglês); General comment No. 34, Human Rights Committee, de 2011 (Comentário geral n.º 34, do Comitê de Direitos Humanos, de 2011); Relator Especial da ONU sobre os relatórios de liberdade de opinião e expressão: A/HRC/38/35 (2018), A/74/486 (2019), A/HRC/44/49 (2020), A/HRC/47/25 (2021); Declaração Conjunta sobre Liberdade de Expressão e “Notícias Falsas”, Desinformação e Propaganda FOM.GAL/3/17 (2017).
  • Direito à saúde: Article 12, International Covenant on Economic, Social and Cultural Rights (Artigo 12 do Pacto Internacional dos Direitos Econômicos, Sociais e Culturais, ICESCR, na sigla em inglês); Comentário Geral nº 14, o Comitê dos Direitos Econômicos, Sociais e Culturais (2000).
  • Direito à vida: Artigo 6, PIDCP.

5. Declaração do usuário

O Facebook encaminhou este caso ao Comitê de Supervisão. O Facebook confirmou junto ao Comitê de Supervisão que enviou ao usuário uma notificação de que o caso tinha sido encaminhado ao Comitê e deu ao usuário a oportunidade de enviar informações sobre esse caso, mas o usuário não enviou nenhuma declaração.

O Comitê observa que a notificação enviada pelo Facebook dá ao usuário a oportunidade de enviar informações. O Comitê está preocupado, no entanto, com o fato de o Facebook não fornecer ao usuário informações suficientes para que este possa fornecer uma declaração adequadamente. A notificação mostrada pelo Facebook ao usuário declara os tópicos gerais com os quais este caso está relacionado, mas não fornece uma explicação detalhada do motivo pelo qual o conteúdo foi encaminhado ao Comitê e as políticas pertinentes pelas quais o conteúdo poderia ser monitorado.

6. Explicação sobre a decisão do Facebook

O Facebook não tomou nenhuma ação contra o conteúdo, e declarou, no encaminhamento ao Comitê, que o caso é “difícil, pois esse conteúdo não viola as políticas do Facebook, mas ainda pode ser lido por algumas pessoas como uma defesa de certas medidas de segurança durante a pandemia”. Ele explicou que “uma equipe interna do Facebook, familiarizada com a região, observou denúncias na imprensa sobre o conteúdo do caso e sinalizou o caso para avaliação. Os avaliadores determinaram que o conteúdo não viola as políticas do Facebook.”

O Facebook afirma que proíbe desinformação que possa “contribuir para o risco de violência ou danos corporais iminentes”, e que está consultando a OMS, os Centros de Controle e Prevenção de Doenças dos EUA e outras autoridades de saúde pública de primeiro plano para determinar se uma afirmação falsa específica sobre a COVID-19 pode contribuir para o risco de danos corporais iminentes. O Facebook diz que o conteúdo, neste caso, não atende a esse padrão. Ele declara que “a OMS não afirma que o fato de criticar as medidas de confinamento possa contribuir para o risco de danos corporais iminentes” e que “embora a Organização Mundial da Saúde e outros especialistas da área de saúde tenham aconselhado o Facebook a remover afirmações contra práticas de saúde específicas, como o distanciamento social, eles não aconselharam o Facebook a remover afirmações contra o confinamento”.

Em resposta a uma pergunta do Comitê sobre como o Facebook define a linha entre o confinamento e as medidas de distanciamento social, o Facebook afirmou que “a OMS define o “confinamento” como medidas de distanciamento físico de grande escala e restrições de circulação postas em prática pelo governo. O distanciamento social, por outro lado, é a prática em que um indivíduo mantém uma determinada distância física de outra pessoa. Teoricamente, um confinamento pode incluir o distanciamento social como exigência.”

O Facebook observou também que “neste caso, a publicação se qualificava para ser classificada por nossos verificadores de fatos terceirizados, mas os verificadores de fatos não classificaram o conteúdo em questão. [sic] e a sua classificação não foi rebaixada nem rotulada como notícia falsa.” O Facebook afirmou que seus parceiros de verificação de fatos são independentes e que “não especula sobre por que eles classificam ou não as publicações qualificadas, inclusive essa.”

O Facebook diz que não adota uma abordagem diferente com relação ao limite para desinformação na área de saúde dependendo do contexto nos diferentes países visto que suas políticas tem escopo global. Ele afirma consultar autoridades de saúde pública de primeiro plano para elaborar suas políticas, e confirmou em suas respostas às perguntas do Comitê que esteve em comunicação com a autoridade de saúde pública nacional do Brasil.

7. Envios de terceiros

O Comitê de Supervisão recebeu 30 comentários públicos sobre este caso. Três comentários foram enviados da Ásia-Pacífico e da Oceania, um da Ásia Central e do Sul, nove da América Latina e Caribe e 17 dos EUA e do Canadá.

Uma série de organizações e indivíduos enviaram comentários, incluindo diversos pesquisadores e organizações do Brasil. Os envios abrangiam os seguintes temas: a importância de considerar o contexto brasileiro, incluindo o impacto da COVID-19 e o contexto político; a discussão e análise do impacto de medidas de monitoramento alternativas como rotulagem e rebaixamento da classificação; e a natureza influente do usuário como autoridade médica.

Comentários com mais contexto sobre a situação no Brasil observaram a politização da emergência sanitária no Brasil (PC-10105), e que a adesão a medidas de políticas públicas para combater a COVID-19 baseadas em provas foram afetadas pela contestação dessas medidas por forças políticas no Brasil (PC-10100) e considerando que a palavra “confinamento” havia se tornado um termo político da moda, as afirmações contra o confinamento poderiam também incentivar a transgressão de outras medidas de segurança (PC-10106). Pesquisadores que estudam a desinformação no Brasil constataram também que as autoridades públicas exercem um impacto muito maior ao compartilhá-la (PC-10104).

Para ler os comentários públicos enviados sobre este caso, clique aqui.

8. Análise do Comitê de Supervisão

8.1 Conformidade com os Padrões da Comunidade

O Comitê conclui que a decisão do Facebook de manter o conteúdo na plataforma era coerente com as suas políticas sobre conteúdo. O Padrão da Comunidade sobre violência e incitação proíbe conteúdo com desinformação que contribua para o risco de violência ou danos corporais iminentes. O artigo da Central de Ajuda citado com link no Padrão da Comunidade sobre violência e incitação afirma que o Facebook remove conteúdos falsos em conformidade com esta política com base em orientações anteriores das autoridades de saúde pública. Embora o Comitê constate que o conteúdo continha algumas desinformações (veja abaixo), o conteúdo não criou nenhum risco de danos iminentes.

A publicação afirma que o confinamento é ineficaz e é condenado pela OMS, e inclui uma suposta citação do agente da OMS, Dr. David Nabarro, que afirma que “the lockdown does not save lives and makes poor people much poorer” (o confinamento não salva vidas e torna os pobres muito mais pobres). Essa informação não é totalmente correta. A parte da citação do agente da OMS, Dr. David Nabarro, que afirma que “lockdown does not save lives” (o confinamento não salva vidas) é incorreta: o Dr. Nabarro afirmou que a OMS “did not advocate lockdowns as a primary means of control of this virus” (não defende o confinamento como meio principal de controle desse vírus) e que eles têm a consequência de “making poor people an awful lot poorer” (tornar os pobres muito mais pobres), mas ele não disse que “lockdown does not save lives” (o confinamento não salva vidas). A OMS afirmou que “lockdowns are not sustainable solutions because of their significant economic, social broader health impacts. However, during the #COVID19 pandemic there’ve been times when restrictions were necessary and there may be other times in the future. ... Because of their severe economic, social broader health impacts, lockdowns need to be limited in duration. They’re best used to prepare for longer-term public health measures. During these periods, countries are encouraged to lay the groundwork for more sustainable solutions.” (o confinamento não é uma solução sustentável devido aos seus impactos significativos no campo econômico e social e na saúde em sua acepção mais ampla. No entanto, durante a pandemia de #COVID19, houve momentos em que as restrições foram necessárias, e pode haver outros momentos semelhantes no futuro. [...] Devido aos seus impactos significativos no campo econômico e social e na saúde em sua acepção mais ampla, o confinamento precisa ser de duração limitada. O seu uso ideal é como preparação para medidas de saúde pública de longo prazo. Durante esses períodos, os países são incentivados a preparar o terreno para soluções mais sustentáveis.)

O Comitê observa o argumento do Facebook de que o limite dos “danos iminentes” não foi atingido porque a Organização Mundial da Saúde e “outros especialistas da saúde” aconselharam a empresa a “remover afirmações contra práticas de saúde específicas, como o distanciamento social”, mas não afirmações contra o confinamento. Apesar de confirmar que estabeleceu comunicação com “a autoridade de saúde pública nacional do Brasil”, o Facebook destacou não levar em consideração o contexto local ao definir o limite de “danos iminentes” para fins de monitoramento da política sobre desinformação e danos.

O Comitê acredita, porém, que o Facebook deveria levar em consideração o contexto local e a situação atual no Brasil ao avaliar o risco de danos corporais iminentes. Conforme destacado pelos especialistas consultados pelo Comitê, bem como por vários comentários públicos enviados por organizações e pesquisadores no Brasil, a pandemia de COVID-19 já resultou em mais de 500 mil mortes no país, uma das piores taxas de mortalidade por milhão de habitantes de qualquer país. Os especialistas consultados e alguns comentários públicos enfatizaram também a politização das medidas para combater a propagação da COVID-19 no país.

Tendo em vista a situação do contexto no Brasil, o Comitê teme que a disseminação de desinformação sobre a COVID-19 no país possa colocar em risco a confiança das pessoas nas informações públicas sobre as medidas adequadas para combater a pandemia, o que poderia aumentar o risco de que os usuários adotem comportamentos arriscados. O Comitê considera que isso justificaria uma abordagem mais diferenciada pelo Facebook no país, intensificando seus esforços para combater a desinformação no mesmo, como defende o Comitê na Recomendação 2 abaixo. No entanto, o Comitê ainda tem o parecer de que a publicação não atinge o limite de danos iminentes, porque ela discute uma medida que não é sugerida incondicionalmente pelas autoridades de saúde pública, e enfatiza a importância de outras medidas para combater a propagação da COVID-19, incluindo o distanciamento social.

Em suas respostas às perguntas do Comitê para este caso, o Facebook revelou que a publicação se qualificava para verificação de fatos nos termos do Padrão da Comunidade sobre Notícias Falsas, mas que os parceiros de verificação de fatos não avaliaram esse conteúdo. O Comitê considera que esses parceiros podem não ter a possibilidade de analisar todos os conteúdos sinalizados como desinformação pelos sistemas automatizados, pelas equipes internas ou pelos usuários do Facebook. No entanto, o Comitê observa que a abordagem do Facebook em relação à desinformação não forneceu contexto adicional a um conteúdo que pode colocar em risco a confiança das pessoas nas informações públicas sobre a COVID-19 e comprometer a eficácia de medidas que, em certos casos, podem ser essenciais. No caso de conteúdo que venha a chamar a atenção do Facebook e que pareça conter desinformação sobre saúde compartilhada por autoridades públicas, o Facebook deve enviar esse conteúdo a parceiros de verificação de fatos, especialmente durante a pandemia. O Comitê emitiu uma recomendação a esse respeito na seção 10. O Comitê observa também que o Facebook declarou anteriormente que “opiniões e discursos” de políticos não se qualificam para verificação de fatos, mas que as suas políticas não incluem critérios claros de qualificação para outros usuários, como páginas ou contas administradas por instituições estaduais e públicas. O Comitê observa que todo conteúdo compartilhado por instituições estaduais e públicas deveriam qualificar-se para verificação de fatos.

8.2 Conformidade com os valores do Facebook

O Comitê concluiu que a decisão do Facebook de não tomar nenhuma ação contra esse conteúdo foi incoerente com o seu valor de “Voz”. Embora o valor “Segurança” do Facebook seja importante, principalmente no contexto da pandemia, esse conteúdo não representava um perigo iminente para o valor “Segurança” que justificasse colocar de lado o valor “Voz”.

8.3 Conformidade com as responsabilidades sobre direitos humanos do Facebook

Liberdade de expressão (Artigo 19 do PIDCP)

O parágrafo 2 do Artigo 19 do PIDCP oferece ampla proteção à expressão de “todos os tipos”. O Comitê de Direitos Humanos da ONU enfatizou que o valor da expressão é especialmente elevado quando envolve instituições públicas ou discute questões de interesse público (Comentário Geral nº 34, parágrafos 13, 20 e 38). Como instituição estabelecida por lei, o conselho médico é uma instituição pública que tem obrigações ligadas a direitos humanos, incluindo a obrigação de garantir a disseminação de informações confiáveis sobre assuntos de interesse público (A/HRC/44/49, parágrafo 44).

O Comitê observa que, embora os conselhos médicos não tenham autoridade para impor medidas como o confinamento, é pertinente o fato de que eles fazem parte da administração do governo do estado e podem exercer uma influência sobre as autoridades que tomam decisões sobre a adoção de medidas para combater a propagação da COVID-19.

O Comitê observa que a publicação se envolve em uma discussão mais ampla e importante no Brasil sobre as medidas adequadas para combater a propagação da COVID-19 no país. Além disso, como a publicação foi compartilhada pela Página do Facebook de um conselho médico do Brasil, existe um interesse geral maior nos seus pontos de vista como instituição com relação a temas de saúde pública. O Comitê reconhece a importância de que os especialistas profissionais expressem seus pontos de vista em assuntos relacionados com a elaboração de políticas de saúde pública.

O direito à liberdade de expressão é fundamental e inclui o direito de receber informações, inclusive de órgãos públicos; entretanto, esse direito não é absoluto. Quando um estado impõe restrições, elas devem atender aos requisitos de legalidade, objetivo legítimo e necessidade e proporcionalidade (Artigo 19, parágrafo 3, PIDCP). O Facebook reconheceu as respectivas responsabilidades de respeitar os padrões internacionais de direitos humanos em conformidade com os UNGPs. Com base no quadro dos UNGPs, o Relator Especial da ONU sobre Liberdade de Opinião e Expressão exortou as empresas de redes sociais a assegurar que suas regras sobre conteúdo sejam orientadas pelos requisitos do Artigo 19, parágrafo 3, PIDCP (sobre regras de conteúdo que tratam da desinformação, consulte: A/HRC/47/25, parágrafo 96; sobre regras de conteúdo mais gerais, consulte: A/HRC/38/35, parágrafos 45 e 70). O Comitê examinou se a remoção da publicação se justificaria com base nesse teste em três partes de acordo com as responsabilidades do Facebook com relação aos direitos humanos.

I. Legalidade (clareza e acessibilidade das regras)

O Artigo 19, parágrafo 3, PIDCP, requer que quaisquer regras impostas por um estado que restrinjam a expressão devem ser claras, precisas e acessíveis ao público (Comentário geral 34, parágrafo 25). As pessoas devem ter informações suficientes para determinar se e como o acesso delas às informações pode ser limitado. Para proteger esses direitos, também é importante que os órgãos públicos sejam capazes de entender claramente as regras aplicáveis às suas comunicações na plataforma e de ajustar o seu comportamento em função disso. O Comentário Geral 34 destaca também que as regras impostas “não podem conceder liberdade de ação irrestrita para a restrição da liberdade de expressão aos encarregados de executá-las” (parágrafo 25). O Facebook também tem a responsabilidade de assegurar que suas regras cumpram o princípio de legalidade (A/HRC/38/35, parágrafo 46).

Na decisão sobre o caso 2020-006-FB-FBR, o Comitê constatou que era “difícil para os usuários entender qual conteúdo relacionado à desinformação na área de saúde é proibido” de acordo com os Padrões da Comunidade do Facebook, considerando a “colcha de retalhos” das regras pertinentes (incluindo desinformação que contribua para um risco de danos iminentes em “Violência e Incitação”). O Comitê observou também a falta de definições públicas de termos-chave como “desinformação”, concluindo que isso torna o Padrão da Comunidade sobre violência e incitação “inadequadamente vago” ao ser aplicado à desinformação. A esse respeito, o Relator da ONU sobre liberdade de expressão declarou que o princípio de legalidade deveria ser aplicado “a qualquer abordagem” da desinformação, sendo este um “conceito extraordinariamente difícil de definir do ponto de vista jurídico, passível de conceder à autoridades executivas um excesso de liberdade de ação” (A/HRC/44/49, parágrafo 42). Para lidar com esses temas, o Comitê recomendou ao Facebook “estabelecer um Padrão da Comunidade claro e acessível referente à desinformação sobre saúde, consolidando e esclarecendo as regras existentes em um só lugar.”

Em resposta à recomendação do Comitê, o Facebook publicou o artigo da Central de Ajuda “Proteções e Atualizações da Política sobre COVID-19 e Vacinas”, vinculado à política sobre desinformação e danos no Padrão da Comunidade sobre Violência e Incitação. Nesse artigo, o Facebook lista todas as políticas pertinentes sobre a COVID-19 e as vacinas de diferentes Padrões da Comunidade e fornece exemplos de tipos de conteúdo que violam essas políticas. Esse artigo também está disponível em português.

Embora o artigo da Central de Ajuda forneça informações úteis para que os usuários entendam como a política é aplicada, ele também aumenta o número de fontes de regras fora dos Padrões da Comunidade. Além disso, o artigo não está “disponível ao público” (Comentário Geral 34, parágrafo 25), considerando que somente é acessível a pessoas com login no Facebook. Além do mais, o único link para o artigo está no Padrão da Comunidade sobre violência e incitação, e não em outros Padrões da Comunidade pertinentes, nem no aviso sobre a COVID-19 na introdução aos Padrões da Comunidade.

O Comitê reitera também o argumento apresentado na seção 5 acima, de que o Facebook não fornece aos usuários informações suficientes para que eles enviem uma declaração ao Comitê.

II. Objetivo legítimo

Qualquer restrição à liberdade de expressão também deve ter um “objetivo legítimo”. O Facebook tem a responsabilidade de assegurar que suas regras cumpram o princípio de legitimidade (A/HRC/38/35, parágrafo 45). O PIDPC lista os objetivos legítimos no Artigo 19, parágrafo 3, que inclui a proteção dos direitos dos outros e a proteção da saúde pública.

III. Necessidade e proporcionalidade

Qualquer restrição à liberdade de expressão “deve ser apropriada para cumprir sua função protetora; deve ser o instrumento menos intrusivo entre aqueles que podem cumprir sua função protetora; deve ser proporcional ao interesse a ser protegido”, de acordo com o parágrafo 34 do Comentário geral n.º 34. O Facebook tem a responsabilidade de assegurar que suas regras respeitem os princípios de necessidade e proporcionalidade (A/HRC/38/35, parágrafo 47).

O Comitê avaliou se a remoção do conteúdo era necessária para proteger a saúde pública e o direito à saúde, em conformidade com as responsabilidades do Facebook com relação aos direitos humanos. O conteúdo foi compartilhado pela página de um conselho médico, uma parte da administração do governo do estado que pode, por meio das informações que compartilha, influenciar as decisões de outras autoridades públicas e o comportamento do público em geral.

O Comitê observa que é relevante que o Facebook leve em consideração o fato de uma página ou conta ser administrada por uma instituição pública, como é neste caso, porque essas instituições “não deveriam produzir, patrocinar, encorajar ou contribuir para a disseminação de afirmações que elas sabem ou, que deveriam razoavelmente saber, serem falsas [...] ou que demonstrem uma desconsideração imprudente pelas informações verificáveis” (Relator Especial da ONU sobre liberdade de expressão, relatório A/HRC/44/49, parágrafo 44; Declaração Conjunta sobre Liberdade de Expressão e “Notícias Falsas”, Desinformação e Propaganda, FOM.GAL/3/17, parágrafo 2 (c)). Além disso, os agentes estaduais deveriam, “de acordo com suas obrigações domésticas e internacionais e seus deveres públicos, ter o cuidado de se certificarem de disseminar informações confiáveis, inclusive sobre assuntos de interesse público, como economia, saúde pública, segurança e meio ambiente”) (ibid., parágrafo 2(d)). Esse dever é particularmente importante quando as informações estão relacionadas com o direito à saúde, especialmente durante uma pandemia global.

Uma minoria tem a opinião de que o padrão citado na Declaração Conjunta não é aplicável ao caso em questão, e que a definição usada na Declaração Conjunta está em contradição com outras autoridades do direito internacional de direitos humanos. O padrão da Declaração Conjunta se refere à desinformação por parte das instituições públicas, enquanto no caso em questão, a Decisão qualifica expressamente a declaração impugnada como sendo desinformação. Conforme enfatizado pelo Relator Especial, o uso intercambiável dos dois conceitos põe em perigo o direito à liberdade de expressão (A/HRC/47/25, parágrafo 14), e “disinformation is understood as false information that is disseminated intentionally to cause serious social harm and misinformation as the dissemination of false information unknowingly. The terms are not used interchangeably.” (notícias falsas são interpretadas como a disseminação de informações falsas com intenção de causar danos sociais graves, e a desinformação, como a disseminação inadvertida de informações falsas. Os termos não são usados indistintamente) (parágrafo 15). No caso em questão, não foi demonstrado que o usuário, um conselho médico, deveria razoavelmente saber que a declaração disseminada é falsa. A minoria acredita que, embora a declaração contenha algumas informações incorretas, ela constitui uma opinião relacionada com fatos como um todo, o que é legítimo em uma discussão pública. A eficácia do confinamento, embora seja aceita junto aos especialistas e aos órgãos de saúde pública na maior parte do mundo, está sujeita a um debate razoável. Além disso, embora o conselho faça parte da administração pública, ele não pode ser considerado como um agente estadual no presente contexto, já que seus poderes se limitam aos seus membros, e não se trata de uma autoridade pública com poder jurídico de influenciar ou determinar uma decisão relacionada com um confinamento.

A maioria entende a opinião da minoria mas discorda respeitosamente dela. De acordo com os padrões acima, as autoridades públicas têm a obrigação de verificar as informações que elas fornecem ao público. Essa obrigação continua em vigor quando a informação falsa disseminada não está diretamente relacionada com suas obrigações estatutárias.

O Facebook argumentou que o limite de danos corporais iminentes não foi alcançado neste caso porque as autoridades como a Organização Mundial da Saúde e outros especialistas recomendaram que a empresa remova desinformação sobre práticas como o distanciamento social, mas não fizeram a mesma coisa em relação ao confinamento. Além disso, o Comitê observa que o conteúdo, neste caso, não foi usado pelo conselho como base para a adoção de medidas de saúde pública que poderiam gerar riscos, já que o conselho não tem autoridade para tomar decisões sobre esses assuntos. Por esses motivos e após a análise feita pelo Comitê da decisão sobre o caso 2020-006-FB-FBR, o Comitê considera a decisão do Facebook de manter o conteúdo na plataforma como sendo justificada, já que o limite de danos corporais iminentes não foi atingido. No entanto, como mencionado anteriormente, o Comitê observa que a disseminação de desinformação sobre saúde pública pode afetar a confiança nas informações públicas e a eficácia de determinadas medidas que, nas palavras da Organização Mundial da Saúde, podem ser essenciais em certos contextos. Nesses casos, como sugeriu o Relator Especial da ONU sobre Liberdade de Expressão, os danos causados por informações falsas ou enganosas podem ser mitigados pelo compartilhamento de informações confiáveis (A/HRC/44/49, parágrafo 6). Essas medidas alternativas ou menos intrusivas podem fornecer ao público mais contexto e promover seu direito de acesso a informações corretas relacionadas à saúde. Neste caso específico, o Facebook deve fornecer ao público mais contexto sobre as declarações do Dr. Nabarro e o posicionamento da Organização Mundial da Saúde sobre o confinamento mencionada acima.

O Comitê lembra que, na decisão sobre o caso 2020-006-FB-FBR, ele recomendou que o Facebook cogitasse adotar medidas menos intrusivas do que as remoções para desinformação que possa causar danos corporais não iminentes. Essas medidas são indicadas no Padrão da Comunidade sobre Notícias Falsas, conforme mencionado acima na seção 8.1. O Comitê recomenda que o Facebook priorize o encaminhamento de conteúdo que venha a chamar a sua atenção para seus parceiros de verificação de fatos nos casos em que uma posição pública sobre temas de políticas de saúde debatidos (especialmente no contexto de uma pandemia) seja apresentada por uma parte da administração do governo estadual, normalmente capaz de influenciar a opinião pública e a conduta dos indivíduos relacionada com a saúde. O Comitê reconhece que a abordagem do Facebook em relação à verificação de fatos tem sido criticada, mas como a publicação em questão não foi avaliada pelos verificadores de fatos, este caso não é uma ocasião apropriada para abordar esses temas.

9. Decisão do Comitê de Supervisão

O Comitê de Supervisão mantém a decisão do Facebook de manter o conteúdo na plataforma.

10. Declaração de parecer consultivo

Implementação da recomendação do Comitê com base na decisão sobre o caso 2020-006-FB-FBR

1. O Facebook deve conduzir uma análise de proporcionalidade para identificar uma série de medidas menos intrusivas do que a remoção do conteúdo. Quando necessário, medidas menos intrusivas devem ser usadas quando um conteúdo relacionado à COVID-19 distorce o aconselhamento de autoridades de saúde internacionais e quando possíveis danos corporais são identificados mas não são iminentes. As medidas recomendadas incluem: (a) rotular o conteúdo para alertar os usuários sobre a natureza contestada do conteúdo de uma publicação e fornecer links aos pareceres da Organização Mundial da Saúde e das autoridades de saúde nacionais; (b) introduzir "barreiras" em publicações para impedir interações e compartilhamento; e (c) diminuir a classificação, para reduzir a visibilidade nos Feeds de Notícias de outros usuários. Todas essas medidas de monitoramento devem ser comunicadas claramente a todos os usuários e ser sujeitas a apelação.

Priorizar a verificação de fatos de conteúdo sinalizado como desinformação

2. Dado o contexto da pandemia de COVID-19, o Facebook deve tomar medidas técnicas para priorizar a verificação de fatos em relação à desinformação sobre saúde compartilhada por autoridades públicas que chame a atenção da empresa, levando em consideração o contexto local.

Clareza na qualificação para verificação de fatos

3. O Facebook deve fornecer mais transparência no Padrão da Comunidade sobre Notícias Falsas quando um conteúdo se qualifica para verificação de fatos, inclusive indicando se as contas de instituições públicas estão sujeitas a verificação de fatos.

*Nota processual:

As decisões do Comitê de Supervisão são preparadas por grupos com cinco membros e aprovadas pela maioria do Comitê. As decisões do Comitê não representam, necessariamente, as opiniões pessoais de todos os membros.

Para a decisão sobre o caso em apreço, uma pesquisa independente foi contratada em nome do Comitê. Um instituto de pesquisa independente, com sede na Universidade de Gotemburgo e com uma equipe de mais de 50 cientistas sociais de seis continentes, bem como mais de 3.200 especialistas de nações do mundo todo, forneceu informações especializadas sobre contexto sociopolítico e cultural.

Voltar para Decisões de Casos e Pareceres Consultivos sobre Políticas