Renversé

Allégations sur un remède au COVID

Le Conseil de surveillance a annulé la décision de Facebook de supprimer une publication dont l’entreprise estimait qu’elle « contribue au risque de blessures physiques... imminentes ».

Type de décision

Standard

Politiques et sujets

Sujet
Fausses informations, Santé, Sécurité
Norme communautaire
Violence et incitation

Régions/Pays

Emplacement
France

Plate-forme

Plate-forme
Facebook

Pour lire cette décision en français, cliquez ici.
Pour lire l’intégralité de la décision en français, veuillez cliquer ici.

Résumé du cas

Le Conseil de surveillance a annulé la décision de Facebook de supprimer une publication dont l’entreprise estimait qu’elle « contribue au risque de blessures physiques... imminentes ». Le Conseil était d’avis que les règles de Facebook en matière de fausses informations et de préjudice imminent (faisant partie du Standard de la Communauté en matière de violence et d’incitation) étaient trop vagues et a notamment recommandé la création d’un nouveau Standard de la Communauté en matière de fausses informations sanitaires.

À propos du cas

En octobre 2020, un utilisateur a publié une vidéo et un texte d’accompagnement en français sur un groupe Facebook public lié au COVID-19. La publication prétendait dénoncer un scandale à l’Agence nationale de sécurité du médicament (l’agence française responsable de la réglementation des produits de santé) qui refusait d’autoriser l’utilisation de l’hydroxychloroquine combinée à l’azythromicine contre le COVID-19, mais autorisait et promouvait le remdesivir. L’utilisateur critiquait l’absence de stratégie sanitaire en France et déclarait que « le remède de [Didier] Raoult » était utilisé ailleurs pour sauver des vies. Cette publication demandait aussi ce que la société avait à perdre à autoriser les médecins à prescrire un « médicament inoffensif » en cas d’urgence lors de l’apparition des premiers symptômes du COVID-19.

Lorsque Facebook a transmis ce cas au Conseil, l’entreprise l’a cité comme exemple des défis de la lutte contre le risque de préjudice hors ligne qui peut être causé par de fausses informations à propos de la pandémie de COVID-19.

Principales observations

Facebook a supprimé le contenu, car il enfreignait ses règles en matière de fausses informations et de préjudice imminent, qui font partie du Standard de la Communauté en matière de violence et d’incitation, estimant que la publication contribuait au risque de blessures physiques imminentes durant une pandémie mondiale. Facebook a expliqué avoir supprimé la publication, car elle prétendait qu’un remède soignant le COVID-19 existait. L’entreprise a conclu que cela pouvait pousser des personnes à ignorer les directives sanitaires ou à essayer de se soigner elles-mêmes.

Dans cette publication, le Conseil a observé que l’utilisateur s’opposait à une politique gouvernementale et avait pour ambition de la changer. L’association de médicaments suggérée comme remède n’est pas disponible sans prescription en France et le contenu de cette publication n’encourage pas les personnes à acheter ou à prendre des médicaments sans prescription. En prenant en considération ces facteurs et d’autres facteurs contextuelles, le Conseil a indiqué que Facebook n’avait pas prouvé que la publication atteindrait le niveau de préjudice imminent, comme l’exige sa propre règle reprise dans les Standards de la communauté.

Le Conseil a également estimé que la décision de Facebook n’était pas conforme au droit international des droits de l’homme en matière de liberté d’expression. Étant donné que Facebook dispose d’un éventail d’outils pour gérer les fausses informations, comme la fourniture de contexte supplémentaire aux utilisateurs, l’entreprise n’est pas parvenue à démontrer pourquoi elle n’avait pas choisi une option moins intrusive que la suppression du contenu.

Le Conseil a également estimé que les règles de Facebook en matière de fausses informations et de préjudice imminent, que cette publication aurait enfreintes, sont trop vagues et non conformes au droit international des droits de l’homme. Les utilisateurs ont des difficultés à comprendre le type de contenu interdit, car les politiques sont éparpillées dans différentes parties du site web de Facebook. Les modifications apportées aux politiques en matière de COVID-19 annoncées dans la Newsroom de l’entreprise n’apparaissent pas toujours dans les Standards de la communauté alors que certaines de ces modifications semblent même contredire ces standards.

Décision du Conseil de surveillance

Le Conseil de surveillance a annulé la décision de Facebook de supprimer le contenu et demande que la publication soit restaurée.

Dans un avis consultatif sur la politique, le Conseil recommande à Facebook de :

  • créer un nouveau Standard de la communauté en matière de fausses informations sanitaires, qui consolide et clarifie les règles existantes en les regroupant au même endroit. Il devrait définir des termes clés comme les « fausses informations ».
  • adopter des moyens moins intrusifs pour l’application de ses politiques en matière de fausses informations sanitaires lorsque le contenu n’atteint pas le seuil de blessures physiques imminentes de Facebook.
  • augmenter la transparence sur la façon dont les fausses informations sanitaires sont modérées, y compris en publiant un rapport de transparence sur la façon dont les Standards de la communauté ont été appliqués pendant la pandémie de COVID-19. La recommandation utilise les commentaires publics reçus par le Conseil.

*Les résumés de cas fournissent une présentation du cas et n’ont pas valeur de précédent.

Décision complète sur le cas

1. Résumé de la décision

Le Conseil de surveillance a annulé la décision de Facebook de supprimer du contenu que l’entreprise désignait comme de fausses informations sanitaires qui « contribuent au risque de blessures physiques... imminenest ». Le Conseil a estimé que la décision de Facebook n’était pas conforme aux Standards de la communauté, à ses valeurs ou aux normes internationales relatives aux droits de l’homme.

2. Description du cas

En octobre 2020, un utilisateur a publié une vidéo et un texte d’accompagnement en français sur un groupe Facebook public lié au COVID-19. La vidéo et le texte prétendaient dénoncer un scandale à l’Agence nationale de sécurité du médicament (l’agence française responsable de la réglementation des produits de santé) qui refusait d’autoriser l’utilisation de l’hydroxychloroquine combinée à l’azythromicine contre le COVID-19, mais autorisait et promouvait le remdesivir. L’utilisateur critiquait l’absence de stratégie sanitaire en France et déclarait que « le remède de [Didier] Raoult » était utilisé ailleurs pour sauver des vies. Didier Raoult (mentionné dans la publication) est un professeur de microbiologie à la Faculté de médecine de Marseille et dirige l’« Institut hospitalo-universitaire Méditerranée Infection » (IHU) à Marseille. Cette publication demandait aussi ce que la société avait à perdre à autoriser les médecins à prescrire un « médicament inoffensif » en cas d’urgence lors de l’apparition des premiers symptômes du COVID-19. La vidéo affirmait que la combinaison de l’hydroxychloroquine et de l’azithromycine était administrée à des patients à un stade précoce de la maladie et laissait entendre que ce n’était pas le cas pour le remdesivir. La publication a été partagée dans un groupe public lié au COVID-19 comptant plus de 500 000 membres, a été vue environ 50 000 fois, a obtenu entre 800 et 900 réactions (dont la majorité était des « Grrr » suivi par les « J’aime ») ainsi que 200 à 300 commentaires écrits par 100 à 200 personnes. Elle a également été partagée par 500 à 600 personnes. Facebook a supprimé le contenu, car il enfreignait ses Standards de la communauté en matière de violence et d’incitation. Lorsque Facebook a transmis ce cas au Conseil, l’entreprise l’a cité comme exemple des défis de la lutte contre le risque de préjudice hors ligne qui peut être causé par les fausses informations à propos de la pandémie de COVID-19.

3. Autorité et champ d’application

Le Conseil peut examiner la décision de Facebook en vertu de l’article 2 (Autorité responsable de l’examen) de la Charte du Conseil et peut confirmer ou annuler cette décision en vertu de l’article 3, section 5 (Procédures d’examen : résolution de la Charte). Facebook n’a pas soumis de raison pour l’exclusion du contenu comme l’exige l’article 2, section 1.2.1 (contenu indisponible pour l’examen par le Conseil) des Statuts du Conseil, ni indiqué qu’elle considère le cas comme étant inéligible en vertu de l’article 2, section 1.2.2 (Obligations légales) des Statuts. En vertu de l’article 3, section 4 (Procédures d’examen : décisions) de la Charte du Conseil, la décision finale peut inclure un avis consultatif sur la politique, qui sera pris en compte par Facebook pour orienter ses futures politiques.

4. Standards pertinents

Le Conseil de surveillance a pris les éléments suivants en considération dans sa décision :

I. Standards de la communauté Facebook :

l’introduction aux Standards de la communauté Facebook inclut un lien intitulé « COVID-19 : Mises à jour et protections des Standards de la communauté » qui déclare ce qui suit :

Étant donné que le monde entier fait face à cette crise sanitaire sans précédent, nous souhaitons nous assurer que nos Standards de la communauté protègent nos utilisateurs contre tout contenu dangereux ou nouveau type d’abus lié au COVID-19. Nous nous efforçons de supprimer tout contenu susceptible d’entraîner un préjudice dans le monde réel, notamment par le biais de nos politiques interdisant la coordination des préjudices, la vente de masques médicaux et d’articles connexes, les discours haineux, l’intimidation, le harcèlement ainsi que les fausses informations contribuant au risque d’un acte de violence ou de blessures physiques imminentes.

Facebook a déclaré s’appuyer spécifiquement sur l’interdiction de « diffusion de fausses informations et de publication de rumeurs invérifiables qui contribuent au risque de violence ou de blessures physiques imminentes », qui est reprise dans le Standard de la Communauté en matière de violence et d’incitation (nommée « règles en matière de fausses informations et de blessures physiques » à partir de ce point). Cette règle est associée à la mention « nécessite des informations supplémentaires et/ou du contexte pour être appliquée ».

La justification de la politique de Facebook en matière de violence et d’incitation stipule qu’elle a pour but de « prévenir le préjudice hors ligne potentiel qui peut être lié au contenu sur Facebook ». Facebook affirme par ailleurs qu’elle supprime le contenu « qui incite ou facilite les violences graves » et « lorsqu’elle croit qu’il y a un véritable risque de blessures physiques ou une menace directe pour la sécurité publique ».

Bien que Facebook ne se soit pas appuyé sur son Standard de la Communauté en matière de fausse information pour ce cas, le Conseil prend note de l’éventail d’options de mise en application autres que la suppression en vertu de cette application.

II. Valeurs de Facebook :

l’introduction aux Standards de la communauté indique que « la liberté d’expression » est la valeur primordiale de Facebook. Les Standards de la communauté décrivent cette valeur comme suit :

L’objectif de nos Standards de la communauté a toujours été de créer un espace d’expression et de donner une voix aux personnes. […] Nous souhaitons que les personnes puissent s’exprimer ouvertement sur les sujets qui comptent pour elles, même si d’autres peuvent marquer leur désaccord ou y trouveraient à redire.

Cependant, la plateforme peut limiter « la liberté d’expression » au profit de plusieurs autres valeurs, notamment la « sécurité ». Facebook définit la valeur de « sécurité » comme suit :

Nous nous engageons à faire de Facebook un endroit sûr. Les formes d’expression menaçantes peuvent intimider, exclure ou réduire au silence et ne sont pas autorisées sur Facebook.

III. Normes relatives aux droits de l’homme prises en considération :

Les Principes directeurs relatifs aux entreprises et aux droits de l’homme des Nations unies (UNGP), soutenus par le Conseil des droits de l’Homme des Nations unies en 2011, établissent un cadre de travail volontaire pour les responsabilités relatives aux droits de l’homme des entreprises. L’analyse du Conseil pour ce cas s’est appuyée sur les dispositions de traités des Nations unies et les directives faisant autorité des mécanismes des droits de l’homme des Nations unies, dont les suivants :

  • l’article 19 du Pacte international relatif aux droits civils et politiques (PIDCP) ;
  • l’observation générale n° 34 du Comité des droits de l’homme sur la liberté d’opinion et d’expression (2011) (Observation générale n° 34) ;
  • le rapport du Rapporteur spécial des Nations unies sur la liberté d’opinion et d’expression portant sur les Pandémies et les libertés d’opinion et d’expression, A/HRC/44/49 (2020), Document de recherche de 2019/1 sur les élections à l’ère du numérique (2019) ainsi que les rapports A/74/486 (2019) et A/HREC/38/35 (2018).

5. Déclaration de l’utilisateur

Facebook a transmis ce cas au Conseil de surveillance. Facebook a confirmé au Conseil de surveillance que la plateforme avait envoyé une notification à l’utilisateur lui donnant l’opportunité de remplir une déclaration concernant ce cas, mais que l’utilisateur ne l’avait pas fait.

6. Explication de la décision de Facebook

Facebook a supprimé le contenu, car il enfreignait ses règles en matière de fausses informations et de préjudice imminent en vertu de son Standard de la Communauté en matière de violence et d’incitation. Selon Facebook, la publication contribuait au risque de blessures physiques imminentes durant une pandémie mondiale.

Facebook a expliqué qu’elle avait supprimé ce contenu, car (1) la publication prétendait qu’il existait un remède contre le COVID-19, affirmation réfutée par l’Organisation mondiale de la Santé (OMS) et d’autres autorités sanitaires crédibles, et (2) des experts éminents ont indiqué à Facebook que du contenu assurant l’existence d’un remède garanti contre le COVID-19 pourrait pousser des personnes à ignorer les directives sanitaires préventives ou à essayer de se soigner elles-mêmes. Facebook a expliqué que c’était la raison pour laquelle l’entreprise n’autorise pas de fausses allégations au sujet des remèdes contre le COVID-19.

Facebook a précisé que dans les cas qui impliquent des fausses informations en matière de santé, l’entreprise consulte l’OMS et d’autres autorités de santé publique éminentes. Grâce à cette consultation, Facebook a identifié différentes catégories de fausses informations sanitaires à propos du COVID-19, comme les fausses allégations sur l’immunité (p. ex. « Les personnes de moins de 30 ans ne peuvent pas contracter le virus »), les fausses allégations en matière de prévention (p. ex. « Boire 4,5 litres d’eau froide vous apporte une heure d’immunité ») et de fausses allégations sur les remèdes (p. ex. « Boire une cuillère à soupe d’eau de Javel soigne le virus »).

Facebook a considéré ce cas comme significatif, car il concerne une publication partagée dans un grand groupe Facebook public lié au COVID-19 et pouvait par conséquent potentiellement toucher une large population à risque de contracter le COVID-19. Facebook considérait également ce cas comme difficile, car il crée des tensions entre les valeurs de « liberté d’expression » et de « sécurité » de Facebook. Facebook a observé que la capacité de discuter et de partager des informations concernant la pandémie de COVID-19 ainsi que celle de débattre de l’efficacité de stratégies de limitation de la propagation et de traitements potentiels devaient être préservées, même si la diffusion de fausses informations qui pourraient entraîner des préjudices doit être limitée.

7. Soumissions de parties tierces

Le Conseil a reçu huit commentaires publics : un d’Asie-Pacifique et d’Océanie, trois d’Europe et quatre des États-Unis et du Canada. Sept de ces commentaires publics ont été publiés avec ce cas, tandis qu’un commentaire a été soumis sans consentement de publication. Les soumissions couvraient plusieurs thèmes, notamment l’importance d’une transparence significative et de mesures moins intrusives comme alternatives à la suppression ; une critique générale de la censure, des préjugés et de la manière de Facebook de traiter les fausses informations liées à la pandémie, ainsi que des retours visant à améliorer le processus de commentaire publique.

8. Analyse du Conseil de surveillance

8.1 Respect des Standards de la communauté

Facebook a supprimé le contenu sur la base de l’infraction à ses règles en matière de fausses informations et de blessures physiques imminentes. Facebook a déclaré que la publication constituait une fausse information, car elle affirmait qu’il existe un remède contre le COVID-19 alors que l’OMS et des spécialistes de la santé ont estimé qu’il n’y avait pas de remède. Facebook a mentionné l’avis d’experts éminents selon lesquels les fausses informations liées au COVID-19 pouvaient être nuisibles, car la lecture de ces éléments erronés pourrait mener à ignorer les directives sanitaires de précaution et/ou à se soigner soi-même. Facebook s’est appuyé sur cet avis d’expert général pour faire valoir que la publication en question pourrait contribuer à un blessures physiques imminentes. De plus, Facebook a indiqué qu’une personne était décédée après avoir ingéré un composé chimique fréquemment utilisé pour le traitement des aquariums en raison des fausses informations liées au COVID-19.

D’après le Conseil, Facebook n’a pas démontré comment la publication de cet utilisateur a contribué à un préjudice imminent. Elle semble au contraire avoir tendance à assimiler à un préjudice imminent toute fausse information relative à des remèdes ou à des traitements contre le COVID-19. Les Standards de la communauté Facebook indiquent la nécessité de contexte et d’informations supplémentaires avant de pouvoir supprimer du contenu conformément aux règles relatives aux fausses informations et au préjudice imminent. Ces Standards de la communauté n’indiquent cependant pas les facteurs contextuels à prendre en considération et Facebook n’a pas invoqué de facteurs contextuels spécifiques pour justifier sa décision.

Pour décider si les fausses informations contribuent au risque de préjudice « imminent » selon le standard de Facebook, il convient de procéder à une analyse de divers facteurs contextuels, y compris le statut et la crédibilité de l’auteur, la portée de son discours et le langage utilisé précisément, ainsi que de déterminer si le prétendu traitement ou remède est facilement accessible à une audience vulnérable au message (comme les fausses informations mentionnées par Facebook concernant le recours à l’eau ou à l’eau de Javel pour prévenir ou soigner le COVID-19).

Dans ce cas, un utilisateur remet en question une politique gouvernementale et soutient l’opinion largement connue, bien que minoritaire d’un médecin. Cette publication est destinée à pousser une agence gouvernementale à changer sa politique ; elle ne semble encourager personne à acheter ou prendre des médicaments sans ordonnance. De sérieuses questions concernant la façon dont la publication entraînerait un préjudice imminent restent sans réponse. Même si certaines études mentionnent le danger potentiel de la combinaison antibiotique/antipaludique qui constituerait un remède, les experts consultés par le Conseil indiquent que ces médicaments ne sont pas disponibles sans prescription en France. De plus, comme le prétendu remède n’a pas été approuvé par les autorités françaises, rien n’indique pourquoi les lecteurs de cette publication pourraient ignorer les précautions sanitaires afin de prendre un remède auquel ils n’ont pas accès. Le Conseil a également signalé que ce groupe Facebook public pouvait également compter des utilisateurs francophones basés hors de France. Facebook n’a pas pris en compte les facteurs contextuels particuliers indiquant un potentiel préjudice imminent pour ces utilisateurs. Le Conseil reste inquiet concernant les fausses informations en matière de santé en France et ailleurs (voir Recommandation de politique II.b.). En résumé, même si le Conseil reconnaît les préjudices potentiels causés par de fausses informations dans le cadre d’une épidémie mondiale, Facebook n’a pas fourni de facteurs contextuels selon lesquels la dite publication porterait un préjudice imminent d’après son propre standard. Par conséquent, Facebook n’a pas agi conformément à ses Standards de la communauté.

Le Conseil a également indiqué que ce cas soulève d’importants problèmes de distinction entre l’opinion et le fait ainsi que la question de savoir quand il est approprié de parler de « fausses informations » (qui ne sont pas définies dans les Standards de la communauté). Cela pose aussi la question de savoir si une allégation prétendument incorrecte dans une plus grande publication, qui critique la politique gouvernementale, déclencherait la suppression de la totalité de la publication. Même si ces problèmes n’entrent pas en considération pour décider si Facebook a observé ses règles en matière de fausses informations et de préjudice immédiat dans ce cas, le Conseil indique l’importance potentielle de tels problèmes dans les futures applications de la règle.

8.2 Conformité avec les valeurs de Facebook

Le Conseil de surveillance estime que la décision de supprimer le contenu n’était pas conforme aux valeurs de Facebook. La justification de Facebook ne montrait pas suffisamment le danger de cette publication par rapport à la valeur de « sécurité » que pour légitimer de faire prévaloir cette dernière au-dessus de la « liberté d’expression » en allant jusqu’à supprimer la publication.

8.3 Conformité avec les normes relatives aux droits de l’homme en matière de liberté d’expression

Cette section examine si la décision de Facebook de supprimer la publication de sa plateforme est conforme au droit international des droits de l’homme. L’article 2 de notre Charte stipule que nous devons « accorder une attention particulière à l’impact de la suppression de contenu au regard des normes relatives aux droits de l’homme protégeant la liberté d’expression ». En vertu des UNGP, les entreprises sont censées « respecter les normes internationales relatives aux droits de l’homme dans le cadre de leurs opérations et se charger des impacts négatifs sur les droits humains dans lesquels ils sont impliqués » (UNGP, principe 11). Les normes internationales relatives aux droits de l’homme sont définies par des références aux instruments des Nations unies, y compris le PIDCP (UNGP, principe 12). En outre, les UNGP stipulent que les mécanismes de griefs non judiciaires (comme le Conseil de surveillance) devraient fournir des résultats conformes aux droits de l’homme reconnus internationalement (UNGP, principe 31). En expliquant sa justification de suppression du contenu, Facebook a reconnu l’applicabilité des UNGP et du PIDCP dans ses décisions de modération du contenu.

L’article 19, paragraphe 2, du PIDCP fournit une large protection pour « toutes sortes » d’expression. Le Comité des droits de l’homme des Nations unies a souligné que la valeur d’expression est particulièrement élevée lorsque des questions d’intérêt public sont abordées (Observation générale n° 34, paragraphes 13, 20, 38). La publication en question est une critique directe de la politique gouvernementale et semble avoir pour but d’attirer l’attention de l’Agence Nationale de Sécurité du Médicament. L’utilisateur soulève une question d’intérêt public bien qu’elle inclut l’invocation et la promotion d’une opinion minoritaire au sein de la communauté médicale. Le fait qu’une opinion reflète des vues minoritaires ne la rend pas moins digne de protection. L’utilisateur demande pourquoi les docteurs ne pourraient pas être autorisés à prescrire un médicament particulier dans des situations d’urgence et n’appelle pas le grand public à agir de manière indépendante selon l’opinion minoritaire du docteur Raoult.

Toutefois, l’article 19, paragraphe 3 du PIDCP autorise les restrictions de la liberté d’expression lorsqu’un régulateur de discours est en mesure de prouver que trois conditions sont remplies. Dans ce cas, Facebook devra prouver que sa décision de supprimer le contenu remplissait les conditions de légalité, de légitimité et de nécessité. Le Conseil examine la suppression de la publication de l’utilisateur par Facebook en tenant compte de ce test par un tiers.

I. Légalité

Toute restriction de l’expression doit être notifiée de manière appropriée aux individus, y compris ceux chargé de mettre en place les restrictions ou les interdictions. (Voir Observation générale n° 34, paragraphe 25). Dans ce cas, le test de légalité doit évaluer si les règles en matière de fausses informations et de préjudice imminent sont trop vagues. Tout d’abord, ces règles ne contiennent pas de définition des « fausses informations ». Comme indiqué par le Rapporteur spécial des Nations unies sur la liberté d’opinion et d’expression, « des termes vagues et fortement subjectifs tels que " infondé ", " partial ", " faux " ou " mensonger " ne donnent pas une description adéquate du contenu interdit » (Document de recherche 1/2019, p. 9). Ces termes fournissent également aux autorités un « vaste mandat de censure de l’expression d’opinions impopulaires, controversées ou minoritaires » (Document de recherche 1/2019, p. 9). De plus, de telles interdictions vagues donnent aux autorités « la capacité de déterminer la véracité ou la fausseté du contenu du domaine public et politique » et « d’encourager l’auto-censure » (Document de recherche 1/2019, p. 9). Le Conseil indique également que cette politique relève d’un en-tête qui stipule que des informations supplémentaires et/ou du contexte sont nécessaires pour déterminer les infractions, mais ne donne aucune indication du type de contexte/information supplémentaire pertinent pour cette évaluation.

Facebook a en outre annoncé de multiples modifications de sa politique en matière de COVID-19 dans sa Newsroom sans faire apparaître ces modifications dans les Standards de la communauté actuels. Malheureusement, les annonces de la Newsroom semblent parfois en contradiction avec le texte des Standards de la communauté. Par exemple, dans la publication Newsroom intitulée « Lutter contre la désinformation au sujet du COVID-19 dans nos applications » (25 mars 2020), Facebook stipulait que l’entreprise « supprimerait les fausses informations liées au COVID-19 qui pourrait contribuer à un blessures physiques imminentes », ce qui implique un seuil différent de celui des règles en matière de fausses informations et de blessures physiques imminentes, qui lutte contre les fausses informations qui « contribuent » à un préjudice imminent. Dans son article du service d’assistance de mi-décembre 2020 « Mises à jour des politiques et des protections relatives au COVID-19 », Facebook indique que l’entreprise :

supprimera toute fausse information présentant un risque de violence ou de blessures physiques imminentes. Dans le contexte d’une pandémie telle que celle du COVID-19, cela s’applique (...) aux allégations selon lesquelles il existe un « remède » contre le COVID-19 jusqu’à ce que et à moins que l’Organisation mondiale de la Santé ou d’autres organisations sanitaires de premier plan ne confirment l’existence d’un tel remède. Ceci n’empêche pas les utilisateurs de discuter d’essais cliniques, d’études ou d’expériences anecdotiques sur des remèdes ou le traitement des symptômes connus du COVID-19 (p. ex. la fièvre, la toux et les difficultés respiratoires).

Cette annonce (faite après la suppression de la publication en question) reflète la nature en constante évolution des positions scientifiques et gouvernementales sur les problématiques sanitaires. Cependant, elle n’a pas encore été intégrée dans les Standards de la communauté.

Étant donné cette mosaïque de règles et de politiques qui figurent dans différentes parties du site web de Facebook, l’absence de définition des termes clés comme « fausses informations » ainsi que la différence entre les standards permettent d’évaluer si une publication « pourrait contribuer » ou contribue à un préjudice imminent, il est difficile pour les utilisateurs de comprendre le type de contenu interdit. Le Conseil estime que la règle appliquée dans ce cas était trop vague. Par conséquent, le test de légalité n’est pas réussi.

II. Objectif légitime

Le test de légitimité assure que la suppression de la publication par Facebook sert un objectif d’intérêt public spécifique et légitime conformément à l’article 19, paragraphe 3 du PIDCP (Observation générale nº 34, paragraphes 28 à 32). L’objectif de protection de la santé publique figure spécifiquement dans cet article. Nous estimons que l’objectif de Facebook de protéger la santé publique durant une pandémie mondiale satisfait à ce test.

III. Nécessité et proportionnalité

Concernant le test de nécessité, Facebook doit démontrer que l’entreprise a sélectionné les moyens les moins intrusifs pour atteindre l’objectif d’intérêt public légitime (Observation générale n° 34, paragraphe 34).

Facebook doit démontrer trois choses :

(1) l’objectif d’intérêt public ne pouvait pas être atteint au moyen de mesures qui n’empiètent pas sur le discours,

(2) parmi les mesures qui n’empiètent pas sur le discours, Facebook a sélectionné la moins intrusive, et

(3) la mesure sélectionnée contribue véritablement à atteindre l’objectif et n’est pas inefficace ni contre-productive (A/74/486, paragraphe 52).

Facebook dispose d’un éventail d’options afin de gérer le contenu relatif à la santé mensonger et potentiellement nuisible. Le Conseil a demandé à Facebook si des moyens moins intrusifs auraient pu être déployés dans ce cas. Facebook a répondu que pour les cas de préjudice imminent, sa seule mesure de mise en application est la suppression, mais pour le contenu évalué par des partenaires externes comme étant mensonger (mais non lié à un préjudice imminent), l’entreprise déploie une série d’options de mise en application autres que la suppression du contenu. La réponse réexpliquait essentiellement le fonctionnement de ses Standards de la communauté, mais pas pourquoi la suppression était le moyen le moins intrusif de protéger la santé publique.

Comme indiqué dans son Standard de la communauté en matière de fausses informations, les outils de Facebook pour gérer un tel contenu incluent la suppression des incitants économiques pour les personnes et les pages qui promeuvent les fausses informations, la réduction de la distribution du contenu évalué comme mensonger par des médias de vérification indépendants, ainsi que la capacité de contrer les fausses informations en fournissant du contexte et des informations supplémentaires à propos d’une publication particulière aux utilisateurs, notamment par le biais du Centre d’informations sur le coronavirus (COVID-19) de Facebook. Le Conseil a pris note de la politique de Facebook en matière de fausses informations - non pas pour laisser entendre que celle-ci devrait être utilisée pour juger les opinions, mais pour noter que Facebook dispose d’une série d’options de mise en application autres que la suppression pour gérer les fausses informations.

Pour ce cas, Facebook n’a pas expliqué dans quelle mesure la suppression du contenu constituait le moyen le moins intrusif de protéger la santé publique parce que l’entreprise n’a, entre autres, pas expliqué dans quelle mesure la publication était liée à un préjudice imminent ; elle a simplement affirmé un préjudice imminent pour justifier la suppression. La suppression de la publication ne satisfait donc pas au test de nécessité.

9. Décision du Conseil de surveillance

9.1 Décision concernant le contenu

Le Conseil de surveillance décide d’annuler la décision de Facebook de supprimer la publication en question.

9.2 Avis consultatifs sur la politique

I. Facebook devrait clarifier ses Standards de la communauté en matière de fausses informations sanitaires, surtout concernant le COVID-19.

Le Conseil recommande à Facebook de présenter un Standard de la communauté clair et accessible en matière de fausses informations sanitaires afin de consolider et clarifier les règles existantes en les regroupant sur un seul emplacement (y compris en définissant des termes clés comme les fausses informations). Cette élaboration de règles devrait s’accompagner d’« hypothèses détaillées qui mettent en évidence les nuances existant dans l’interprétation et l’application de [ces] règles » permettent de clarifier les choses pour les utilisateurs (voir rapport A/HRC/38/35, paragraphe 46 (2018)). Facebook devrait mener une évaluation de l’impact sur les droits de l’homme en compagnie des parties prenantes pertinentes dans le cadre de son processus de modification des règles (PDNU), principes 18 et 19).

II. Facebook devrait adopter des mesures de mise en application moins intrusives pour les politiques en matière de fausses informations sanitaires.

a.) Pour garantir que les mesures de mise en application en matière de fausses informations sanitaires sont les moyens les moins intrusifs de protéger la santé publique, le Conseil recommande à Facebook de :

  • clarifier les préjudices particuliers que l’entreprise cherche à empêcher et faire preuve de transparence concernant la manière dont elle évalue le préjudice potentiel d’un contenu particulier ;
  • procéder à une évaluation de son éventail exisant d’outils pour gérer les fausses informations sanitaires ;
  • prendre en considération le potentiel à développer des autres outils qui s’avèrent moins intrusifs que la suppression de contenu ;
  • publier son éventail d’options de mise en application dans les Standards de la communauté, en classant ces options de la plus à la moins intrusive en se basant sur la manière dont elles empiètent sur la liberté d’expression ;
  • expliquer quels facteurs, y compris les critères factuels, que la plateforme utilisera pour sélectionner l’option la moins intrusive afin de faire appliquer ses Standards de la communauté pour protéger la santé publique ; et
  • clarifier quel option de mise en application s’applique à chaque règle dans les Standards de la communauté.

b.) Dans les cas où les utilisateurs publient des informations sur les traitements soignant le COVID-19 qui contredisent les conseils spécifiques des autorités sanitaires et où Facebook identifie de potentielles blessures physiques non imminentes, le Conseil recommande à l’entreprise d’adopter une série de mesures moins intrusives. Celles-ci pourraient inclure un étiquetage qui alerte les utilisateurs de la nature litigieuse du contenu de la publication et qui fournit des liens vers les vues de l’Organisation mondiale de la Santé et des autorités sanitaires nationales. Dans certaines situations, il peut s’avérer nécessaire d’introduire un point de friction supplémentaire à une publication - par exemple, en empêchant les interactions ou le partage afin de réduire l’amplification organique et influencée par un algorithme. Il convient également de prendre en considération la rétrogradation de contenu afin d’empêcher sa visibilité dans les fils d’actualité d’autres utilisateurs. Toutes les mesures de mise en application, y compris l’étiquetage ou d’autres méthodes d’introduction de point de friction, devraient être clairement communiquées aux utilisateurs et devraient pouvoir faire l’objet d’un appel.

III. Facebook devrait accroître la transparence de sa modération de contenu en matière de fausses informations sanitaires.

Le Conseil recommande à Facebook d’améliorer ses rapports de transparence sur la modération de contenu en matière de fausses informations sanitaires et de s’appuyer sur les commentaires publics reçus :

  • publier un rapport de transparence sur la manière dont les Standards de la communauté ont été appliqués durant la crise sanitaire mondiale du COVID-19. Ce rapport devrait inclure :
    • des données en termes absolus et en pourcentage du nombre de suppressions, ainsi que des données sur les autres mesures de mise en application, sur les Standards de la communauté spécifiques concernés par une mise en application, y compris sur la proportion qui était totalement automatisée ;
    • une répartition par type de contenu concerné par une mise en application (y compris les publications et comptes individuels ainsi que les groupes) ;
    • une répartition par source de détection (y compris l’automatisation, le signalement par un utilisateur, les partenaires de confiance ou les autorités policières) ;
    • une répartition par région et par langue ;
    • des indicateurs sur l’efficacité des mesures moins intrusives (p. ex. l’impact de l’étiquetage ou de la rétrogradation) ;
    • des données sur la disponibilité des appels tout au long de la crise, y compris le nombre total de cas où l’appel a été totalement retiré ainsi que le pourcentage d’appels automatisés ;
    • les conclusions et leçons à retenir, y compris les informations sur toute modification apportée par Facebook afin de garantir une plus grande conformité avec ses responsabilités relatives aux droits de l’homme à l’avenir.

*Note de procédure :

Les décisions du Conseil de surveillance sont préparées par des panels de cinq membres et doivent être acceptées par une majorité du Conseil. Elles ne représentent pas nécessairement les opinions personnelles de tous ses membres.

Pour la décision sur ce cas, des recherches indépendantes ont été commandées au nom du Conseil. Un institut de recherche indépendant, dont le siège se trouve à l’université de Göteborg et mobilisant une équipe de plus 50 experts en science sociale sur six continents ainsi que 3200 experts nationaux du monde entier, a fourni son expertise sur le contexte socio-politico-culturel.

Retour aux décisions de cas et aux avis consultatifs politiques