Le Conseil de surveillance publie son avis consultatif en matière de politique concernant la suppression de fausses informations sur le COVID-19

En juillet 2022, à la demande de Meta, le Conseil de surveillance a accepté d’évaluer s’il était nécessaire de continuer à supprimer certaines catégories de fausses informations sur le COVID-19, ou si une approche moins restrictive serait plus en adéquation avec ses valeurs et ses responsabilités en matière de droits humains. L’avis consultatif en matière de politique publié aujourd’hui est la réponse du Conseil à cette demande.

Pour lire l’intégralité de cet avis consultatif en matière de politique concernant la suppression de fausses informations sur le COVID-19, cliquez ici.

Remarque : les traductions de l’avis consultatif en matière de politique complet dans d’autres langues sont en cours et seront publiées sur notre site web dans les semaines à venir.

Le Conseil a mené une enquête et un processus de consultation publique approfondis. Meta insistant sur le fait que son approche des fausses informations sur le COVID-19 doit être unique et internationale, le Conseil a décidé que, tant que l’Organisation mondiale de la Santé (OMS) continuera de déclarer le COVID-19 comme une urgence de santé publique de portée internationale, Meta devait maintenir sa politique actuelle. Cela signifie que Meta devra continuer à supprimer les fausses informations sur le COVID-19 susceptibles de contribuer directement au risque de blessures physiques imminentes. Le Conseil estime toutefois que Meta devrait engager un processus de réévaluation de chacune des 80 affirmations que l’entreprise supprime actuellement, en impliquant un ensemble plus large de parties prenantes. L’entreprise devrait également préparer des mesures pour le moment où l’OMS lèvera l’avis d’alerte mondiale afin de protéger la liberté d’expression et les autres droits humains dans ces nouvelles circonstances. Le Conseil recommande vivement à Meta de publier des informations sur les demandes des gouvernements de supprimer du contenu lié au COVID-19, de prendre des mesures pour soutenir la recherche indépendante de ses plateformes, d’examiner le lien entre l’architecture de ses plateformes et les fausses informations, et de sensibiliser le public aux fausses informations sur le COVID-19 à l’échelle mondiale.

Contexte

Début 2020, lorsque la pandémie de COVID-19 a frappé, Meta a commencé à supprimer de Facebook et d’Instagram plusieurs affirmations que l’entreprise avait identifiées comme des fausses informations sur le COVID-19. La liste d’affirmations sur le COVID-19 que l’entreprise supprime n’a cessé de s’allonger au fur et à mesure que la pandémie progressait. Aujourd’hui, Meta supprime environ 80 affirmations distinctes considérées comme des fausses informations sur le COVID-19 dans le cadre de sa politique en matière de « fausses informations sur la santé pendant les urgences de santé publique », une sous-section du Standard de la communauté sur les fausses informations créée en réponse aux recommandations du Conseil dans sa décision sur le cas « Guérison du COVID revendiquée ». Cet avis consultatif en matière de politique se concentre exclusivement sur les mesures prises par Meta pendant la pandémie de COVID-19 dans le cadre de sa politique de« fausses informations sur la santé pendant les urgences de santé publique ». Il ne concerne pas les mesures prises par Meta pendant la pandémie de COVID-19 dans le cadre d’autres politiques.

Dans le cadre de sa politique en matière de « fausses informations sur la santé pendant les urgences de santé publique », Meta supprime les « fausses informations diffusées lors d’urgences sanitaires publiques lorsque les autorités sanitaires publiques déduisent que les informations sont fausses et susceptibles de contribuer au risque direct de blessures physiques imminentes ». Meta a exclusivement eu recours aux autorités de santé publique pour déterminer si ce standard avait été respecté. Parmi les 80 affirmations que l’entreprise supprime actuellement, on trouve notamment celle qui nie l’existence du COVID-19 et celle selon laquelle les vaccins contre le COVID-19 entraînent un magnétisme. Meta a supprimé 27 millions de fausses informations sur le COVID-19 de Facebook et d’Instagram entre mars 2020 et juillet 2022, dont 1,3 million ont été restaurées à la suite d’un appel. Les fausses informations sur le COVID-19 qui ne répondent pas aux critères de suppression peuvent être vérifiées, étiquetées ou rétrogradées. Des médias de vérification évaluent le contenu (par exemple, comme « faux » ou « manque de contexte »). Meta l’étiquette ensuite comme tel et y ajoute un lien vers un article permettant de vérifier les informations. En fonction d’un certain nombre de facteurs, le contenu étiqueté par les médias de vérification peut également être rétrogradé par Meta. Cela signifie qu’il apparaîtra moins souvent et plus bas dans le fil. Meta applique également des « étiquettes neutres » au contenu lié au COVID-19. Ces étiquettes contiennent des déclarations telles que « Certains traitements contre le COVID-19 non approuvés peuvent avoir de graves conséquences » et redirigent vers le Centre d’information sur le COVID-19 de Meta, qui fournit des informations sur les mesures de prévention, les vaccins et les ressources des autorités de santé publique.

Dans sa demande, Meta a demandé au Conseil s’il était nécessaire de continuer à supprimer certaines fausses informations sur le COVID-19. En tant qu’alternative à la suppression, l’entreprise a déclaré qu’elle pouvait rétrograder le contenu, l’envoyer à des médias de vérification tiers ou y ajouter des étiquettes. L’entreprise insiste sur le fait qu’elle préfère adopter une approche unique et internationale des fausses informations sur le COVID-19 que varier son approche par pays ou par région. Meta ne pense pas être capable d’adopter une approche localisée de cette politique à grande échelle et considère que cela pourrait confondre le public et nuire à la mise en application de ses règles. Lors de l’examen de la demande de Meta, le Conseil a mené un processus de consultation publique approfondi. Une série de tables rondes virtuelles ont été convoquées en partenariat avec la société civile. Le Conseil y a entendu un large éventail de spécialistes et de parties prenantes du monde entier.

Principaux résultats et recommandations

Le Conseil estime que continuer à supprimer les fausses informations sur le COVID-19 « susceptibles de contribuer directement au risque de blessures physiques imminentes » pendant une urgence de santé publique mondiale est conforme aux valeurs de Meta et à ses responsabilités en matière de droits humains. Le Conseil a d’abord évalué s’il serait préférable que Meta adopte une approche localisée des fausses informations sur le COVID-19 à grande échelle. Cependant, Meta a insisté sur le fait que cela nuirait considérablement à la clarté et à l’équité et augmenterait les erreurs de mise en application de sa politique. Il se peut que les inquiétudes de Meta soient justifiées. Toutefois, en écartant cette option, Meta a entravé les efforts fournis par le Conseil pour concilier les points de vue divergents des parties prenantes et des membres du Conseil sur la meilleure façon de lutter contre les fausses informations nuisibles sur le COVID-19 tout en respectant les droits humains, en particulier le droit à la liberté d’expression. Les 18 recommandations de cet avis consultatif en matière de politique, la plupart résumées ci-dessous, tiennent compte de cette contrainte.

Le Conseil recommande à Meta de :

Continuer à supprimer les fausses informations sur le COVID-19 « susceptibles de contribuer directement au risque de blessures physiques imminentes pendant une urgence de santé publique mondiale », tout en examinant et en réévaluant de manière transparente et inclusive les 80 affirmations que l’entreprise supprime actuellement. Les urgences de santé publique sont une menace directe pour la santé. Meta insistant sur le fait qu’il est préférable d’adopter une approche unique et internationale des fausses informations sur le COVID-19, le Conseil estime que Meta a raison de prendre des mesures exceptionnelles pour supprimer les fausses informations susceptibles de contribuer directement au risque de blessures physiques imminentes, tel que cela est déterminé par les autorités de santé publique. Meta n’a pas de nouveau fait appel aux autorités de santé publique compétentes pour leur demander de réévaluer les affirmations supprimées. L’entreprise n’a pas non plus consulté les différentes parties prenantes ni des spécialistes pour réévaluer les affirmations individuelles ou la politique globale. Meta n’ayant pas encore engagé de processus de diligence raisonnable pour modifier sa politique (qui relève en premier lieu de la responsabilité de Meta), le Conseil n’est pas en mesure de recommander un changement de politique, car cela pourrait affecter de manière disproportionnée les plus vulnérables. Toutefois, maintenant que nous n’en sommes plus aux premiers stades de la crise, et afin de s’acquitter de ses responsabilités en matière de droits humains, Meta devrait régulièrement évaluer si les critères de suppression définis dans ses politiques continuent d’être respectés. L’entreprise devrait donc engager un processus transparent pour passer en revue régulièrement les 80 affirmations susceptibles d’être supprimées en consultant un large éventail de parties prenantes. Ce n’est que lorsque les parties prenantes fournissent des preuves claires du potentiel d’une affirmation de causer des blessures physiques imminentes qu’il est justifié de l’inclure dans la liste des affirmations susceptibles d’être supprimées. Meta doit partager les résultats de ces examens périodiques avec le public.

Penser à localiser son approche. Meta doit prévoir quoi faire lorsque l’OMS cessera de déclarer le COVID-19 comme une urgence de santé mondiale, mais les autorités de santé publique locales continueront de le désigner comme une urgence de santé publique. Le Conseil recommande de mettre en place un processus d’évaluation des risques pour identifier les mesures à prendre dans ce cas de figure. Ces mesures doivent lutter contre les fausses informations susceptibles de contribuer directement au risque de blessures imminentes et importantes dans le monde réel, et ce, sans compromettre la liberté d’expression à l’échelle mondiale. Dans le cadre de cette évaluation des risques, Meta devra se demander s’il pourrait convenir de localiser la mise en application de ses politiques.

Évaluer l’impact de l’architecture de ses plateformes. Les spécialistes s’inquiètent du fait que l’architecture des plateformes de Meta constitue un tremplin pour les fausses informations sur la santé. Le Conseil recommande donc à Meta d’évaluer l’impact de ses choix en matière de conception sur les droits humains. L’entreprise devrait évaluer la manière dont son fil d’actualité, ses algorithmes de recommandation et d’autres fonctionnalités amplifient les fausses informations sur la santé, ainsi que leur impact sur les droits humains.

Faire preuve de davantage de transparence concernant les demandes des gouvernements. En pleine pandémie, il a été soulevé que Meta examinait certains contenus liés au COVID-19 à la demande des gouvernements. Cela est particulièrement problématique lorsque les gouvernements demandent à réprimer des manifestants pacifiques ou des personnes qui défendent les droits humains, à contrôler les conversations sur les origines de la pandémie et à faire taire les personnes qui critiquent ou remettent en question les politiques du gouvernement en réponse aux crises de santé publique. Les Nations Unies se sont inquiétées du fait que certains gouvernements utilisaient la pandémie en tant que prétexte pour nuire aux principes de la démocratie. Meta doit faire preuve de transparence et rapporter régulièrement les demandes des gouvernements d’examiner le contenu dans le cadre de sa politique de « fausses informations sur la santé pendant les urgences de santé publique ».

Soutenir la recherche indépendante et sensibiliser le public aux fausses informations sur le COVID-19. Selon les spécialistes, le manque d’accès aux données et aux recherches de l’entreprise entrave les efforts généraux de sensibilisation aux fausses informations sur le COVID-19, ainsi que l’efficacité des mesures prises par Meta pour y remédier. Le manque de données a également compliqué l’évaluation par le Conseil du bien-fondé de cette demande d’avis consultatif en matière de politique. Le Conseil reconnaît que par rapport à d’autres entreprises de réseaux sociaux, Meta a pris des mesures importantes pour partager ses données avec des équipes de recherche externes, beaucoup ayant d’ailleurs fait part au Conseil de l’importance d’outils Meta tels que CrowdTangle et Facebook Open Research and Transparency (FORT) pour leurs recherches. D’autres se sont toutefois plaintes de la difficulté d’accès à des outils tels que FORT. Meta doit non seulement continuer à rendre ces outils disponibles, mais aussi améliorer leur accessibilité et permettre aux équipes de recherche externes d’accéder à des données qui ne sont pas publiques. Le Conseil recommande également à l’entreprise de mener des recherches et de publier des données sur la façon dont elle met en application ses politiques en matière de COVID-19, ainsi que de publier les résultats de ses recherches sur les « étiquettes neutres » partagées avec le Conseil. Enfin, le Conseil recommande à Meta de prendre des mesures pour étendre l’accès aux données de l’entreprise au programme Global Majority, parfois appelé Global South, aux équipes de recherche et aux universités, ainsi que de soutenir les programmes d’alphabétisation numérique du monde entier.

Faire preuve de davantage d’équité, de clarté et de cohérence quant à la suppression des fausses informations sur le COVID-19. Pour s’acquitter de ses responsabilités en matière de droits humains, Meta doit également s’assurer que ses règles sont claires pour tout le monde. Dans cette optique, l’entreprise doit expliquer clairement en quoi chaque catégorie d’affirmations sur le COVID-19 qu’elle supprime présente un risque de blessures physiques imminentes. Elle doit également expliquer comment elle détermine qu’une affirmation est fausse et garder une trace de toute modification apportée à la liste des affirmations qu’elle supprime. Pour une mise en application cohérente de ses règles dans toutes les langues et régions, l’entreprise doit traduire ses directives internes pour les équipes de modération du contenu dans toutes les langues dans lesquelles elle opère. Meta doit également protéger le droit de chaque personne de faire appel des étiquettes des médias de vérification, en veillant à ce que leurs appels ne soient pas examinés par la personne qui a pris la décision initiale.

Pour en savoir plus

Pour lire la version complète de l’avis consultatif en matière de politique du Conseil, la demande transmise par Meta au Conseil et les commentaires publics envoyés dans le cadre de cet avis, cliquez sur les pièces jointes ci-dessous.

Retour Aux Actualités