Anulado

Alegação sobre cura da COVID

O Comitê de Supervisão revogou a decisão do Facebook de remover uma publicação que, segundo alega, “contribui para o risco de… danos físicos iminentes”.

Tipo de decisão

Padrão

Políticas e tópicos

विषय
Desinformação, Proteção, Saúde
Padrão da comunidade
Violência e incitação

Regiões/países

Localização
França

Plataforma

Plataforma
Facebook

Para ler esta decisão em português, clique aqui.
Pour lire l’intégralité de la décision en français, veuillez cliquer ici.

Resumo do caso

O Comitê de Supervisão revogou a decisão do Facebook de remover uma publicação que, segundo alega, “contribui para o risco de… danos físicos iminentes”. O Comitê considerou a regra de desinformação e danos iminentes (parte do seu Padrão da Comunidade sobre violência e incitação) inadequadamente vaga e recomendou, entre outras coisas, que a empresa crie um Padrão da Comunidade referente à desinformação sobre saúde.

Sobre o caso

Em outubro de 2020, um usuário publicou, em um grupo público do Facebook, um vídeo com um texto em francês relacionado à COVID-19. A publicação alegou um escândalo na Agence Nationale de Sécurité du Médicament (a agência francesa responsável pela regulamentação de produtos de saúde), que se recusava a autorizar a combinação dos medicamentos hidroxicloroquina e azitromicina para uso contra a COVID-19, mas autorizava e promovia o medicamento remdesivir. O usuário criticou a falta de uma estratégia de saúde na França e declarou que: “a cura de [Didie] Raoult” estava sendo usada em outros lugares para salvar vidas. A publicação do usuário também questionou o que a sociedade teria a perder se os médicos pudessem prescrever, em uma emergência, um “medicamento inofensivo”, quando surgissem os primeiros sintomas da COVID-19.

Em seu parecer enviado ao Comitê, o Facebook citou este caso como um exemplo dos desafios de enfrentar o risco dos danos reais que podem ser causados pela desinformação sobre a pandemia de COVID-19.

Principais conclusões

O Facebook removeu o conteúdo por violação da regra de desinformação e danos iminentes, parte integrante do seu Padrão da Comunidade sobre violência e incitação, considerando que a publicação contribuía para o risco de danos físicos iminentes durante uma pandemia global. O Facebook explicou que removeu a publicação por ela conter alegações da existência de uma cura para a COVID-19. A empresa concluiu que isso poderia levar as pessoas a ignorar orientações de saúde ou tentar se automedicar.

A observação do Comitê foi que, na publicação, o usuário estava confrontando uma política governamental com o objetivo de mudá-la. A combinação de medicamentos que a publicação alega constituir uma cura não está disponível na França sem uma prescrição, e o conteúdo não encoraja as pessoas a comprar ou consumir medicamentos sem uma prescrição. Em suas considerações sobre esses e outros fatores contextuais, o Comitê enfatizou que o Facebook não havia demonstrado que a publicação aumentaria o nível de danos iminentes, como exigido por sua própria regra contida nos Padrões da Comunidade.

O Comitê também considerou a decisão do Facebook inconsistente com os padrões de direitos humanos referentes à limitação da liberdade de expressão. Como o Facebook tem uma série de ferramentas para lidar com a desinformação, tais como fornecer aos usuários contexto adicional, a empresa não conseguiu demonstrar por que não escolheu uma opção menos invasiva do que a remoção do conteúdo.

O Comitê também considerou a regra de desinformação e danos iminentes do Facebook, cuja violação por parte da publicação foi cogitada, inadequadamente vaga e inconsistente com os padrões internacionais de direitos humanos. As políticas fragmentadas encontradas em diversas partes do site do Facebook tornam difícil para os usuários entender qual conteúdo é proibido. As mudanças nas políticas sobre a COVID-19 anunciadas no Newsroom do Facebook nem sempre repercutem nos seus Padrões da Comunidade, enquanto outras dessas mudanças parecem até contradizê-las.

A decisão do Comitê de Supervisão

O Comitê de Supervisão revoga a decisão do Facebook de remover o conteúdo e exige que a publicação seja restaurada.

Em uma declaração de parecer consultivo, o Comitê recomenda ao Facebook:

  • Crie um Padrão da Comunidade referente à desinformação sobre saúde, consolidando e esclarecendo as regras existentes em um só lugar. Esse Padrão deve definir termos importantes, como “desinformação”.
  • Adote meios menos invasivos de aplicar suas políticas de desinformação sobre saúde em que o conteúdo não alcance o limite do Facebook de danos físicos iminentes.
  • Aumente a transparência referente a como avalia a desinformação sobre saúde e publique um relatório de transparência explicando como os Padrões da Comunidade foram aplicados durante a pandemia da COVID-19. Essa recomendação baseia-se nos comentários públicos que o Comitê recebeu.

*Os resumos de caso dão uma visão geral da ocorrência e não têm valor precedente.

Decisão completa sobre o caso

1. Resumo da decisão

O Comitê de Supervisão revogou a decisão do Facebook de remover um conteúdo que designou ser uma desinformação sobre saúde que: “contribui para o risco de... danos físicos iminentes”. O Comitê também considerou a decisão do Facebook inconsistente com seus Padrões da Comunidade, seus valores ou os padrões internacionais de direitos humanos.

2. Descrição do caso

Em outubro de 2020, um usuário publicou, em grupo público do Facebook, um vídeo com um texto em francês relacionado à COVID-19. O vídeo e o texto alegaram um escândalo na Agence Nationale de Sécurité du Médicament (a agência francesa responsável pela regulamentação de produtos relacionados à saúde), que se recusava a autorizar a combinação dos medicamentos hidroxicloroquina e azitromicina para uso contra a COVID-19, mas autorizava e promovia o medicamento remdesivir. O usuário criticou a falta de uma estratégia de saúde na França e declarou que: “a cura de [Didie] Raoult” estava sendo usada em outros lugares para salvar vidas. Didier Raoult, mencionado na publicação, é professor de Microbiologia na Faculdade de Medicina de Marseille e é diretor do “Institut Hospitalo-Universitaire Méditerranée Infection” (IHU), em Marseille. A publicação do usuário também questionou o que a sociedade teria a perder se os médicos pudessem prescrever, em uma emergência, um “medicamento inofensivo”, quando surgissem os primeiros sintomas da COVID-19. O vídeo alegou que a combinação dos medicamentos hidroxicloroquina e azitromicina era administrada aos pacientes nos estágios iniciais da doença e insinuava que isso não acontecia com o remdesivir. A publicação foi compartilhada em um grupo público relacionado à COVID-19, com mais de 500.000 membros, recebeu cerca de 50.000 visualizações, cerca de 800 a 900 reações (a maioria com uma figurinha de “bravo” seguida de uma “curtida”), 200 a 300 comentários sobre a publicação feitos por 100 a 200 pessoas diferentes e foi compartilhada por 500 a 600 pessoas. O Facebook removeu o conteúdo por violar seu Padrão da Comunidade sobre violência e incitação. Ao enviar sua decisão ao Comitê de Supervisão, o Facebook citou este caso como um exemplo dos desafios de enfrentar o risco dos danos reais que podem ser causados pela desinformação sobre a pandemia da COVID-19.

3. Autoridade e Escopo

O Comitê tem autoridade para analisar a decisão do Facebook, conforme os termos do Artigo 2 (Autoridade para análise) do Estatuto do Comitê, e pode manter ou reverter essa decisão, conforme o Artigo 3, Seção 5 (Procedimentos para análise: Resolução do Estatuto). Segundo o Artigo 2, Seção 1.2.1 (Conteúdo não disponível para análise do Comitê) do Regulamento interno do Comitê, o Facebook não apresentou motivos para a exclusão do conteúdo e, segundo o Artigo 2, Seção 1.2.2 (Obrigações legais) do Regulamento interno, não indicou considerar o caso não qualificado. De acordo com o Artigo 3, Seção 4 (Procedimentos para análise: decisões) do Estatuto do Comitê, a decisão final pode incluir uma declaração de parecer consultivo, que será levada em consideração pelo Facebook a fim de orientar futuras mudanças na política.

4. Padrões relevantes

Em sua decisão, o Comitê de Supervisão considerou os seguintes padrões:

I. Padrões da Comunidade do Facebook:

A introdução aos Padrões da Comunidade do Facebook inclui um link intitulado “COVID-19: Proteções e atualizações dos Padrões da Comunidade”, que especifica:

À medida que pessoas do mundo inteiro combatem essa emergência de saúde pública sem precedentes, queremos garantir que os Padrões da Comunidade protejam os usuários de conteúdo prejudicial e de novos tipos de abuso relacionados à COVID-19. Estamos trabalhando para remover conteúdo com potencial para causar danos no mundo real, inclusive por meio de nossas políticas que proíbem a coordenação de danos, a venda de máscaras de proteção e bens relacionados, discurso de ódio, bullying e assédio, bem como desinformação que contribua para o risco de violência ou danos físicos iminentes.

O Facebook declarou ter se baseado especificamente na proibição sobre “desinformação e rumores inverificáveis que contribuam para o risco de violência ou dano físico iminente”, contida no Padrão da Comunidade sobre violência e incitação (doravante “regra de desinformação e danos iminentes”). A regra aparece sob a qualificação de que: “exige informações e/ou contexto adicional para aplicação”.

O argumento da política do Facebook sobre violência e incitação declara ter como objetivo: “evitar potenciais danos reais que possam estar relacionados a conteúdo do Facebook”. O Facebook também afirma remover conteúdos que: “incitem ou facilitem violência grave” e “quando notar um risco real de danos físicos ou ameaça direta à segurança pública”.

Embora, neste caso, o Facebook não tenha recorrido ao seu Padrão da Comunidade sobre notícias falsas, o Comitê indica uma série de opções de monitoramento que poderiam ser usadas no lugar da remoção segundo essa política.

II. Valores do Facebook:

A introdução aos Padrões da Comunidade aponta que a “Voz” é o valor primordial do Facebook. Os Padrões da Comunidade descrevem esse valor como:

o objetivo de nossos Padrões da Comunidade sempre foi criar um local de expressão e dar voz às pessoas. [...] Queremos que as pessoas possam falar abertamente sobre os assuntos importantes para elas, ainda que sejam temas que geram controvérsias e objeções.

Entretanto, a plataforma pode limitar o valor da “Voz” em razão de vários outros, incluindo o de “Segurança”. O Facebook define seu valor de “Segurança” como:

Temos o compromisso de fazer com que o Facebook seja um lugar seguro. Manifestações contendo ameaças podem intimidar, excluir ou silenciar pessoas, e isso não é permitido no Facebook.

III. Padrões relevantes de direitos humanos:

Os Princípios Orientadores sobre Empresas e Direitos Humanos (UNGPs) da ONU, sancionados pelo Conselho dos Direitos Humanos da ONU em 2011, estabelecem uma estrutura voluntária de responsabilidades sobre direitos humanos das empresas. Neste caso, a análise do Comitê baseou-se nas disposições do tratado da ONU e nas orientações fidedignas dos mecanismos de direitos humanos da ONU, incluindo:

  • O Pacto Internacional dos Direitos Civis e Políticos (PIDCP), Artigo 19.
  • O Comentário Geral nº 34 do Comitê de Direitos Humanos sobre liberdade de opinião e expressão (2011) ( Comentário Geral nº 34).
  • O Relator Especial da ONU sobre liberdade de opinião e expressão, o relatório sobre doenças pandêmicas e a liberdade de opinião e expressão, A/HRC/44/49 (2020), o Documento de pesquisa 1/2019 sobre eleições na era digital (2019) e os relatórios A/74/486 (2019) e A/HRC/38/35 (2018).

5. Declaração do usuário

O Facebook encaminhou este caso ao Comitê de Supervisão. O Facebook confirmou para o Comitê de Supervisão que a plataforma enviou ao usuário notificação da oportunidade de fazer uma declaração referente ao caso, mas não o fez.

6. Explicação sobre a decisão do Facebook

O Facebook removeu o conteúdo por violar sua regra de desinformação e danos iminentes, conforme seu Padrão da Comunidade sobre violência e incitação. Segundo o Facebook, a publicação contribuía para o risco de danos físicos iminentes durante uma pandemia global.

O Facebook explicou os motivos pelos quais removeu o conteúdo: (1) a publicação alegava a existência de uma cura para a COVID-19, informação refutada pela Organização Mundial de Saúde (OMS) e por outras autoridades de saúde confiáveis, e (2) especialistas importantes disseram ao Facebook que conteúdo alegando haver uma cura ou tratamento garantido para a COVID-19 poderia levar as pessoas a ignorar orientações preventivas de saúde ou tentar se automedicar. O Facebook explicou ser esse o motivo para não permitir alegações falsas sobre curas para a COVID-19.

O Facebook detalhou que, em casos envolvendo desinformação sobre saúde, a empresa consulta a OMS e outras autoridades importantes de saúde pública. Por meio dessa consulta, o Facebook identificou categorias diferentes de desinformação sobre saúde envolvendo a COVID-19, como declarações falsas sobre imunidade (por exemplo, “Pessoas com menos de 30 anos não contraem o vírus”), alegações falsas sobre prevenção (por exemplo, “Se beber mais de três litros de água gelada você terá cerca de uma hora de imunidade”) e alegações falsas sobre tratamentos ou curas (por exemplo, “Beber uma colher de sopa de água sanitária cura o vírus”).

O Facebook considerou este caso significativo por envolver uma publicação compartilhada com um grupo público grande da empresa relacionado à COVID-19 e que, portanto, poderia alcançar uma população grande que corre o risco de ser infectada pela COVID-19. Além disso, o Facebook considerou este caso difícil por criar tensão entre os seus valores de “Voz” e “Segurança”. O Facebook observou que a capacidade de discutir e compartilhar informações sobre a pandemia de COVID-19 e de debater a eficiência de possíveis tratamentos e estratégias de mitigação deve ser preservada, enquanto a disseminação de informações falsas que podem levar a danos deve ser limitada.

7. Envios de terceiros

O Comitê recebeu oito comentários públicos: um da Ásia Pacífico e Oceania, três da Europa e quatro dos Estados Unidos e Canadá. Sete desses comentários públicos foram publicados com este caso, enquanto um comentário foi enviado sem consentimento para publicação. Os envios abordavam uma série de temas, incluindo a importância da transparência significativa e de medidas menos invasivas como alternativas para a remoção, críticas gerais sobre censura, parcialidade e o tratamento pelo Facebook de desinformação relacionada à pandemia, bem como feedback para melhoria do processo de comentário público.

8. Análise do Comitê de Supervisão

8.1 Conformidade com os Padrões da Comunidade

O Facebook removeu o conteúdo por violar sua regra de desinformação e de danos físicos iminentes. O Facebook declarou que a publicação constituía desinformação por afirmar a existência de uma cura para a COVID-19, quando a OMS e especialistas de saúde importantes disseram não haver cura. O Facebook destacou que especialistas importantes informaram a plataforma de que a desinformação sobre a COVID-19 pode ser prejudicial, pois se as pessoas que lerem a desinformação acreditarem nela, poderão desconsiderar orientações preventivas de saúde e/ou automedicar-se. O Facebook baseou-se nessa orientação geral de especialistas para declarar que a publicação em questão poderia contribuir para danos físicos iminentes. Além disso, o Facebook mencionou que uma pessoa morreu após ingerir um produto químico, normalmente usado no tratamento de aquários, devido a uma desinformação relacionada à COVID-19.

O Comitê considerou que o Facebook não demonstrou como a publicação desse usuário contribuía para danos iminentes neste caso. Em vez disso, a empresa pareceu equiparar qualquer desinformação sobre tratamentos ou curas da COVID-19 a danos eminentes. Os Padrões da Comunidade do Facebook estabelecem a necessidade de informações e contexto adicionais antes da remoção de conteúdo por violar sua regra de desinformação e danos iminentes. Entretanto, os Padrões da Comunidade não explicam quais fatores contextuais são considerados e o Facebook não discutiu fatores contextuais específicos na sua argumentação do caso.

Decidir se a desinformação contribuiu para o padrão do Facebook de danos “ iminentes” requer uma análise de vários fatores contextuais, incluindo o status e a credibilidade da pessoa que transmitiu a informação, o alcance do que ela diz, o idioma usado e se o tratamento ou a cura alegada está imediatamente disponível para um público vulnerável à mensagem (como a desinformação destacada pelo Facebook sobre utilização de água ou água sanitária como prevenção ou cura da COVID-19).

Neste caso, um usuário está questionando uma política do governo e promovendo a opinião minoritária bem conhecida de um médico. A publicação está pressionando uma agência do governo a mudar sua política; ela não aparenta encorajar as pessoas a comprar ou consumir determinados medicamentos sem uma prescrição médica. Ainda há dúvidas substanciais sobre como a publicação resultaria em danos iminentes. Embora alguns estudos indiquem que a combinação de medicamentos antimaláricos e antibióticos, que alegam constituir uma cura, possa ser prejudicial, especialistas do Comitê consultados mencionaram que eles não estão disponíveis na França sem prescrição. Além disso, a suposta cura não foi aprovada pelas autoridades francesas e, portanto, não está claro por que as pessoas que lessem a publicação estariam propensas a desconsiderar as precauções de saúde por uma cura à qual não têm acesso. O Comitê também menciona que esse grupo público do Facebook poderia ter usuários que falam francês fora da França. O Facebook não abordou fatores contextuais pormenorizados indicando possíveis danos iminentes em relação a tais usuários. O Comitê continua preocupado com a desinformação sobre saúde na França e em outros lugares (consulte a Recomendação da política II. b.). Em suma, embora o Comitê reconheça que a desinformação em uma pandemia global possa causar danos, o Facebook não forneceu fatores contextuais para apoiar a consideração de que essa publicação específica se enquadre no seu padrão de danos iminentes. Portanto, o Facebook não agiu em conformidade com seus Padrões da Comunidade.

O Comitê também menciona que este caso levanta questões importantes de distinção entre opinião e fato; bem como a questão de quando a “desinformação” (que não está definida nos Padrões da Comunidade) é uma caracterização apropriada. Também levanta a questão: uma alegação incorreta supostamente baseada em fatos em uma publicação de maior amplitude criticando a política do governo levaria à remoção da publicação toda? Embora não precisemos considerar essas questões para decidir se o Facebook agiu consistentemente com sua regra de desinformação e danos iminentes, o Comitê menciona que essas questões poderiam ser cruciais em aplicações futuras da regra.

8.2 Conformidade com os valores do Facebook

O Comitê de Supervisão considera a decisão de remover o conteúdo inconsistente com os valores do Facebook. A argumentação do Facebook não demonstrou o risco dessa publicação para o valor de “Segurança” o suficiente para substituir a “Voz” a ponto de justificar a remoção da publicação.

8.3 Conformidade com os padrões de direitos humanos de liberdade de expressão

Esta seção examina se a decisão do Facebook de remover a publicação da sua plataforma é consistente com os padrões internacionais de direitos humanos. O Artigo 2 do nosso Estatuto especifica que devemos “ficar especialmente atentos ao impacto da remoção do conteúdo à luz das normas de direitos humanos que protegem a liberdade de expressão”. Segundo os UNGPs, as empresas devem: “respeitar os padrões internacionais de direitos humanos em suas operações e enfrentar os impactos adversos nos direitos humanos com os quais tenham algum envolvimento” (UNGPs, Princípio 11.). Os padrões internacionais de direitos humanos são definidos com base nos instrumentos da ONU, incluindo o PIDCP (UNGPs, Princípio 12.). Além disso, os UNGPs especificam que mecanismos de reclamação não judiciais (como o Comitê de Supervisão) devem fornecer resultados de acordo com direitos humanos reconhecidos internacionalmente (UNGPs, Princípio 31.) Em sua argumentação, ao explicar a remoção do conteúdo, o Facebook reconheceu a aplicabilidade dos UNGPs e do PIDCP à sua decisão de moderação do conteúdo.

O parágrafo 2 do Artigo 19 do PIDCP oferece ampla proteção à expressão de “todos os tipos”. O Comitê de Direitos Humanos da ONU enfatizou que o valor da expressão é especialmente elevado ao se discutir questões de interesse público (Comentário Geral nº 34, parágrafos 13, 20 e 38). A publicação em questão é uma crítica direta à política do governo e parece ter como objetivo chamar a atenção da Agence Nationale de Sécurité du Médicament. O usuário levanta um assunto de interesse público, porém incluindo a invocação e a promoção de uma opinião minoritária na comunidade médica. O fato de uma opinião refletir concepções minoritárias não a torna menos digna de proteção. O usuário questiona por que os médicos não podem prescrever um medicamento específico em emergências e não incita o público em geral a seguir independentemente a opinião minoritária do Raoult.

Dessa forma, o Artigo 19, parágrafo 3 do PIDCP, permite restrições à liberdade de expressão quando um regulador de discurso puder provar três condições. Neste caso, o Facebook deveria demonstrar que a decisão de remover o conteúdo atende às condições de legalidade, legitimidade e necessidade. O Comitê examina a remoção da publicação do usuário pelo Facebook levando em consideração esse teste de três partes.

I. Legalidade

Em caso de qualquer restrição à expressão, as pessoas devem ser informadas do que é proibido, incluindo as encarregadas de implementar a restrição (Consulte o Comentário Geral nº 34, parágrafo 25). Neste caso, o teste de legalidade exige avaliar se a regra de desinformação e danos iminentes é inadequadamente vaga. Para começar, essa regra não contém a definição de “desinformação”. Como mencionado pelo Relator Especial da ONU sobre Liberdade de Opinião e Expressão: “termos vagos e muito subjetivos, como ‘sem fundamento’, ‘tendencioso’, ‘falso’ e ‘fraudulento’, não descrevem adequadamente o conteúdo proibido” (Artigo de pesquisa 1/2019, pág. 9). Ele também fornece às autoridades: “atribuição ampla para censurar a expressão de opiniões impopulares, controversas ou minoritárias” (Artigo de pesquisa 1/2019, pág. 9). Além disso, tais proibições vagas permitem às autoridades: “determinar a veracidade ou falsidade do conteúdo no domínio público e político” e “incentivar a autocensura” (Artigo de pesquisa 1/2019, pág. 9). O Comitê também menciona que essa política entra no âmbito da necessidade de informação e/ou contexto adicional para determinar a violação, mas não há indicação do tipo de informação/contexto relevante para essa avaliação.

Além disso, o Facebook anunciou várias mudanças na política sobre a COVID-19 em seu Newsroom, sem refletir essas mudanças nos atuais Padrões da Comunidade. Infelizmente, os anúncios no Newsroom às vezes parecem contradizer o texto dos Padrões da Comunidade. Por exemplo, na publicação no Newsroom “ Combatendo a desinformação sobre a COVID-19 em nossos aplicativos” (25 de março de 2020), o Facebook especificou que iria “remover a desinformação relacionada à COVID-19 que pudesse contribuir para danos físicos iminentes”, indicando um limite diferente do contido na regra de desinformação e danos iminentes, a qual aborda a desinformação que “contribui” para danos iminentes. Em seu artigo do Help Desk publicado em meados de dezembro de 2020, “ Proteções e atualizações da política em relação à COVID-19”, o Facebook declara que iria:

remover a desinformação que contribui para o risco de violência ou danos físicos iminentes. No contexto de uma pandemia como a de COVID-19, isso se aplica a (...) declarações de que há uma “cura” para a COVID-19, a menos que a Organização Mundial da Saúde ou outra organização de saúde reconhecida confirme referida cura. Isso não impede as pessoas de conversar a respeito de testes clínicos, estudos ou experiências empíricas sobre curas ou tratamentos para sintomas conhecidos da COVID-19 (por exemplo, febre, tosse e dificuldade para respirar).

Esse anúncio, que foi feito após a remoção da publicação em questão, reflete que as posições científicas e governamentais sobre problemas de saúde estão constantemente mudando. Entretanto, ele não foi integrado aos Padrões da Comunidade.

Por causa dessa fragmentação das regras e políticas que aparecem em partes diferentes do site do Facebook, da falta de definição de termos importantes, como “desinformação”, e dos padrões divergentes sobre se a publicação “poderia contribuir” ou realmente contribui para danos iminentes, fica difícil para os usuários entenderem qual conteúdo é proibido. O Comitê considera a regra aplicada neste caso inadequadamente vaga. Então, não houve aprovação no teste de legalidade.

II. Objetivo legítimo

O teste de legitimidade estabelece que a remoção da publicação feita pelo Facebook deve atender a um objetivo de interesse público legítimo e especificado, segundo o Artigo 19, parágrafo 3 do PIDCP (Comentário Geral nº 34, parágrafos 28 a 32). A meta de proteger a saúde pública está especificamente anunciada nesse Artigo. Consideramos que a finalidade do Facebook de proteger a saúde pública durante uma pandemia global satisfez esse teste.

III. Necessidade e proporcionalidade

Em relação ao teste de necessidade, o Facebook deveria demonstrar que selecionou os meios menos invasivos de abordar o objetivo de interesse público legítimo (Comentário Geral nº 34, parágrafo 34).

O Facebook deveria demonstrar três coisas:

(1) o objetivo de interesse público não poderia ser tratado por meio de medidas que não prejudiquem a expressão;

(2) entre as medidas que prejudicam a expressão, o Facebook selecionou a medida menos invasiva; e

(3) a medida selecionada realmente ajuda a atingir o objetivo e não é ineficiente nem contraproducente, segundo o parágrafo 52 do relatório A/74/486.

O Facebook tem uma série de opções disponíveis para lidar com conteúdo relacionado à saúde que seja falso ou potencialmente prejudicial. O Comitê perguntou ao Facebook se, neste caso, seria possível utilizar meios menos invasivos. O Facebook respondeu que, em casos de danos iminentes, sua única medida de monitoramento é a remoção. Mas, para conteúdo avaliado por parceiros externos como falso (mas não vinculado a danos iminentes), ele utiliza uma série de opções de aplicação que não são a remoção de conteúdo. Em sua essência, essa resposta reafirmou como funcionam seus Padrões da Comunidade, mas não explicaram por que a remoção foi o meio menos invasivo de proteger a saúde pública.

Como mencionado em seu Padrão da Comunidade sobre notícias falsas, as ferramentas do Facebook para lidar com tal conteúdo incluem a interrupção de incentivos econômicos de pessoas e páginas que promovam a desinformação; a redução da distribuição de conteúdo avaliado como falso por verificadores de fatos independentes; e a capacidade de reagir à desinformação fornecendo aos usuários contexto e informações adicionais sobre uma publicação específica, incluindo por meio da Central de Informações sobre o Coronavírus (COVID-19). O Comitê observa a política sobre notícias falsas do Facebook não para insinuar que ela deva ser usada para prejulgar opiniões, mas para indicar que, para lidar com a desinformação, o Facebook tem uma série de opções de monitoramento das regras diferente da remoção de conteúdo.

O Facebook não explicou como a remoção do conteúdo neste caso constituiu o meio menos invasivo de proteger a saúde pública pois, entre outras coisas, ele não explicou como a publicação estava relacionada a danos iminentes. Ele simplesmente declarou danos iminentes para justificar a remoção. Portanto, a remoção da publicação não passou no teste da necessidade.

9. Decisão do Comitê de Supervisão

9.1 Decisão de conteúdo

O Comitê de Supervisão decidiu revogar a decisão do Facebook de remover a publicação em questão.

9.2 Declarações de orientação de política

I. O Facebook deve esclarecer seus Padrões da Comunidade no que diz respeito à desinformação sobre saúde, especialmente no que se refere à COVID-19.

O Comitê recomenda ao Facebook estabelecer um Padrão da Comunidade claro e acessível referente à desinformação sobre saúde, consolidando e esclarecendo as regras existentes em um só lugar (incluindo a definição de termos importantes, como desinformação). A elaboração da regra deve vir acompanhada de “hipóteses detalhadas que ilustrem as nuances da interpretação e da aplicação das (dessas) regras” para esclarecer ainda mais os usuários (consulte o relatório A/HRC/38/35, parágrafo 46 (2018)). O Facebook deve realizar uma avaliação de impacto em relação aos direitos humanos junto às partes interessadas relevantes como parte do seu processo de modificação da regra (UNGPs, Princípios 18 e 19).

II. O Facebook deve adotar medidas de monitoramento menos invasivas das políticas relacionadas à desinformação sobre saúde.

a.) Para garantir que o monitoramento de medidas relacionadas à desinformação sobre saúde represente os meios menos invasivos de proteção da saúde pública, o Comitê recomenda que o Facebook:

  • Esclareça os danos específicos que deseja prevenir e seja transparente sobre como avaliará o possível dano do conteúdo específico.
  • Conduza uma avaliação da sua atual série de ferramentas para lidar com a desinformação sobre saúde.
  • Considere o potencial de desenvolvimento de outras ferramentas que sejam menos invasivas que a remoção de conteúdo.
  • Publique sua série de opções de monitoramento nos Padrões da Comunidade, classificando essas opções a partir da menos invasiva em relação à violação da liberdade de expressão.
  • Explique quais fatores, incluindo critérios baseados em evidência, a plataforma usará na seleção da opção menos invasiva ao aplicar seus Padrões da Comunidade para proteger a saúde pública.
  • Esclareça, nos Padrões da Comunidade, qual opção de monitoramento utilizará em cada regra.

b.) Em casos em que os usuários publiquem informações sobre tratamentos para a COVID-19 que contradigam orientações específicas das autoridades de saúde e onde um potencial de dano físico seja identificado, mas não seja iminente, o Comitê recomenda expressamente que o Facebook adote uma série de medidas menos invasivas. Essas medidas podem incluir rótulos que alertem os usuários da natureza polêmica do conteúdo da publicação e forneçam links para as informações da Organização Mundial de Saúde e de autoridades nacionais de saúde. Em determinadas situações, talvez seja necessário introduzir outro atrito a uma publicação; por exemplo, impedindo interações ou compartilhamentos para reduzir a amplificação orgânica e orientada por algoritmos. Reduzir a classificação do conteúdo, para impedir a visibilidade nos feeds de notícias de outros usuários, também é uma opção a ser considerada. Todas as medidas de monitoramento, incluindo rótulos ou outros métodos de atrito, devem ser claramente comunicadas aos usuários e estão sujeitas à apelação.

III. O Facebook deve aumentar a transparência da sua moderação de conteúdo de desinformação sobre saúde.

O Comitê recomenda que o Facebook melhore seus relatórios de transparência na moderação de conteúdo de desinformação sobre saúde e com base nos comentários públicos recebidos:

  • Publique um relatório de transparência sobre como os Padrões da Comunidade foram aplicados durante a crise de saúde global da COVID-19. Esse relatório deve incluir:
    • Dados em termos absolutos e percentuais sobre o número de remoções, bem como dados sobre outras medidas de monitoramento de Padrões da Comunidade específicos, incluindo a proporção que se baseou somente na automação.
    • Um detalhamento por tipo de conteúdo ao qual o padrão foi aplicado (incluindo publicações individuais, contas e grupos).
    • Um detalhamento por tipo de origem da detecção (incluindo monitoramento, sinalização do usuário, parceiros confiáveis e autoridades de aplicação da lei).
    • Um detalhamento por região e idioma.
    • Métricas sobre eficácia das medidas menos invasivas (por exemplo, impacto do uso de rótulos ou da redução da classificação).
    • Dados sobre a disponibilidade de apelações durante a crise, incluindo o número total de casos em que a apelação foi totalmente retirada e o percentual de apelações automatizadas.
    • Conclusões e lições aprendidas, incluindo informações sobre quaisquer alterações que o Facebook esteja fazendo para garantir maior conformidade com suas responsabilidades em relação aos direitos humanos de agora em diante.

*Nota processual:

As decisões do Comitê de Supervisão são preparadas por painéis de cinco membros e devem ser aprovadas pela maioria do Comitê. As decisões do Comitê não representam, necessariamente, as opiniões pessoais de todos os membros.

Para a decisão sobre o caso em apreço, uma pesquisa independente foi contratada em nome do Comitê. Um instituto de pesquisa independente, com sede na Universidade de Gotemburgo e com uma equipe de mais de 50 cientistas sociais de seis continentes, bem como mais de 3.200 especialistas de nações do mundo todo, forneceu informações especializadas sobre contexto sociopolítico e cultural.

Voltar para Decisões de Casos e Pareceres Consultivos sobre Políticas