Publié
Évaluation des projets de Meta pour déployer les notes de la communauté à plus grande échelle
26 mars 2026
Cet avis consultatif en matière de politique examine les répercussions potentielles sur les droits humains du déploiement du programme de notes de la communauté en dehors des États-Unis et énumère les facteurs spécifiques que Meta devrait considérer avant de décider quels pays exclure de ce déploiement.
Résumé
Le Conseil de surveillance estime que les notes de la communauté pourraient améliorer la liberté d’expression des utilisateurs et les propos en ligne sur les plateformes de Meta si elles étaient mises en application à une échelle assez grande, assez rapidement et de manière assez sécurisée contre les manipulations. Toutefois, dans certaines circonstances, y compris les régimes répressifs envers les droits humains, en particulier dans des contextes électoraux et dans des situations de crise et de conflit, étendre les notes de la communauté aux pays en dehors des États-Unis pourrait aussi causer des risques non négligeables en matière de droits humains et contribuer à des préjudices tangibles que Meta a la responsabilité d’éviter ou de contrer.
Le Conseil s’inquiète également des réseaux de désinformation coordonnés qui abuseraient des notes de la communauté, et du risque que les notes de la communauté puissent, dans certains contextes, privilégier les groupes dominants sur le plan politique, ethnique ou linguistique et marginaliser les groupes minoritaires.
La probabilité et la gravité de ces risques en matière de droits humains et leur atténuation appropriée dépendent en grande partie de la conception et des fonctionnalités du produit que sont les notes de la communauté dans chaque contexte. L’efficacité et l’adéquation des mesures d’atténuation de Meta en ce qui concerne ces risques, par exemple, assurer l’anonymat des contributeurs et les protéger contre ceux qui tentent de contourner le système, devront être vérifiées par le biais d’un processus continu de collecte de données et de reporting sur le fonctionnement pratique des notes de la communauté.
De plus, dans la mesure où Meta considère ses notes de la communauté comme sa principale manière de traiter les fausses informations qui ne remplissent pas les critères de suppression (p. ex., lorsqu’il n’est pas probable que cela contribue à un risque de blessures physiques imminentes ou d’interférence avec le fonctionnement de processus politiques), le Conseil estime que la conception du programme peut limiter ses capacités à réaliser cet objectif. Le délai de publication des notes, le nombre limité de notes publiées et leur dépendance envers la fiabilité d’un ensemble d’informations plus large soulèvent de sérieuses préoccupations quant à la mesure dans laquelle les notes de la communauté peuvent répondre efficacement aux fausses informations liées à des préjudices.
Le Conseil recommande des critères que Meta devrait utiliser pour évaluer quand les risques pour les droits humains peuvent justifier de ne pas déployer les notes de la communauté dans un certain marché. Les recommandations du Conseil dépendent toujours de certains facteurs, car les questions de Meta ne peuvent pas toujours donner lieu à une réponse définitive sans tests suffisants et sans données détaillées sur le fonctionnement de l’algorithme des notes de la communauté dans des situations réelles et en lien avec d’autres outils visant à détecter les fausses informations. C’est pour cette raison que le Conseil recommande de procéder en permanence à une collecte de données, à des évaluations et à des rapports sur le fonctionnement des notes de la communauté, en lien avec ces critères.
Contexte
Le 19 novembre 2025, le Conseil a annoncé avoir accepté une demande de Meta concernant des conseils sur les facteurs spécifiques que l’entreprise doit prendre en compte lorsqu’elle décide si un pays doit être exclu de son extension prévue des notes de la communauté en dehors des États-Unis, étant donné que le contexte local pourrait avoir des répercussions sur les opérations du programme. En outre, Meta a demandé au Conseil comment pondérer ces facteurs les uns par rapport aux autres d’une manière applicable à grande échelle.
Dans sa requête, Meta a indiqué que son programme de notes de la communauté en est au « stade précoce de développement produit » et que l’entreprise possède « peu de données sur le déploiement du produit bêta aux États-Unis ». Meta a décrit ce déploiement comme une période de « tests et d’affinage » pouvant mener à une évolution des notes de la communauté. Compte tenu de ces éléments, l’entreprise s’attache avant tout à définir des « principes directeurs fondamentaux » pour leur mise en application à l’échelle mondiale. Il est important de noter que le Conseil n’a pas évalué l’efficacité globale des notes de la communauté aux États-Unis.
Le Conseil a consulté diverses parties prenantes, notamment des experts techniques en algorithmes de consensus, des organisations de la société civile, des journalistes et des médias de vérification, afin de recueillir leurs observations et des données sur différents systèmes de modération du type des notes de la communauté (y compris celui de X) dans divers contextes.
Le 7 janvier 2025, Meta a annoncé le lancement d’un programme de notes de la communauté et la fin de son programme de vérification tierce aux États-Unis. L’entreprise a indiqué qu’elle allait peaufiner les notes de la communauté avant de les proposer aux utilisateurs hors des États-Unis.
Principaux résultats et recommandations
Sur la base d’une analyse approfondie des répercussions potentielles sur les droits humains, le Conseil a défini les facteurs suivants au niveau national afin de guider le déploiement des notes de la communauté par Meta :
Mesures de protection dans les contextes de répression des droits humains
Le fonctionnement des notes de la communauté repose sur une base de contributeurs actifs et engagés. De tels programmes ont connu un grand succès dans le cadre d’une société civile forte. Dans l’idéal, les contributeurs s’appuient sur des médias indépendants pour étayer les notes proposées et participent sans craindre de harcèlement ou de représailles.
Le Conseil souligne que tant que Meta ne sera pas en mesure de démontrer qu’elle dispose de mesures solides et efficaces de protection de la confidentialité des contributeurs, avec des preuves de tests de sécurité dans des conditions adverses, d’une politique claire sur le traitement des demandes des forces de l’ordre concernant les données des notes de la communauté et de mesures d’atténuation des risques, les pays dont le bilan en matière de droits humains est répressif et dont la société civile est faible devraient être exclus du déploiement initial.
Prudence pendant les élections
Les notes de la communauté peuvent favoriser l’accès à l’information et la liberté d’expression pendant les élections dans des environnements d’informations solides, caractérisés par une presse libre et une société civile non entravée. En l’absence de ces conditions, le programme risque de publier des notes trompeuses, et Meta doit agir avec prudence. Lorsqu’il existe des risques importants pour l’intégrité des institutions politiques et que Meta estime, par le biais de tests, d’évaluations des risques et d’une diligence raisonnable en matière de droits humains, que ses mesures de protection sont insuffisantes pour les atténuer, les notes de la communauté ne doivent pas être introduites avant ou pendant des élections importantes.
Exclusion des pays avec un historique de réseaux de désinformation coordonnés
Les notes de la communauté reposent sur l’hypothèse qu’un ensemble suffisamment diversifié et indépendant de contributeurs évaluera le contenu de bonne foi et que les signaux de consensus permettront d’estimer de manière fiable la véracité des informations. Toutefois, là où des acteurs malveillants ont démontré à plusieurs reprises leur capacité à coordonner un grand nombre de comptes pour promouvoir des informations trompeuses, cette hypothèse peut ne pas tenir. Au contraire, les notes de la communauté risquent de devenir un vecteur de manipulation au lieu de protéger contre celle-ci. Ce risque s’accentuera à mesure que l’intelligence artificielle facilitera la création et le fonctionnement à grande échelle de ces réseaux.
Jusqu’à ce que les données sur le fonctionnement des notes de la communauté permettent de vérifier l’adéquation des mesures d’atténuation de Meta contre de telles activités coordonnées, le Conseil recommande que Meta exclue dans un premier temps les pays présentant un historique de larges réseaux de désinformation intentionnelle. Meta devrait également examiner si des acteurs ont démontré l’intention de manipuler les écosystèmes d’informations et possèdent les compétences techniques nécessaires pour le faire à grande échelle.
Pas d’introduction dans des conditions de crise ou de conflit prolongé
La vulnérabilité potentielle des notes de la communauté à une manipulation coordonnée par des groupes armés, des acteurs étatiques ou leurs partisans cherchant à légitimer leur propagande en exploitant le système d’évaluation des notes présente des risques accrus dans les situations de crise ou de conflit en cours. Les conditions empêchant certains groupes de contribuer, par exemple, un accès instable à Internet ou l’insécurité entravant la participation, peuvent exacerber les asymétries en matière d’information. Dans de telles circonstances, la rapidité d’action est cruciale. Les délais dans la publication des notes suggèrent que les notes de la communauté pourraient constituer une protection primaire insuffisante en cas de crise ou de conflit, d’autant plus que les seuils d’incitation à la violence peuvent être plus bas. Les notes ciblant des groupes spécifiques peuvent plus facilement entraîner des préjudices hors ligne.
En raison de l’incertitude quant à l’efficacité des notes de la communauté en situation de conflit et de leur potentiel à accroître le risque de préjudice, le Conseil estime qu’elles ne devraient pas être introduites dans les pays en crise ou en conflit prolongé.
Report de l’introduction des notes de la communauté en cas de complexité linguistique que Meta ne peut pas prendre en charge sur le plan technique et opérationnel
Les notes de la communauté nécessitent une représentation suffisante des groupes linguistiques d’un contexte donné. Lorsque Meta n’est pas en mesure d’y parvenir, elle devrait reporter l’introduction des notes de la communauté. Dans le cas contraire, des disparités linguistiques pourraient apparaître ou s’aggraver dans les notes proposées et publiées, ce qui compromettrait le programme en tant que source d’information plurielle et diversifiée.
De plus, il existe des variations linguistiques et culturelles potentielles dans l’utilisation et l’interprétation des notes de la communauté, dont certaines sont inattendues, qui peuvent influencer le choix des notes publiées. Par exemple, ce que signifie évaluer quelque chose comme « utile » peut varier selon les endroits et la traduction du mot. Dans les pays où Meta prévoit que les fonctionnalités des notes de la communauté ne peuvent pas encore prendre en compte la complexité linguistique, il convient d’envisager de retarder leur introduction.
Extrême prudence lorsque les divisions sociales et les désaccords à l’origine de la violence politique ne peuvent être décrits simplement
La conception de l’algorithme de notes de la communauté de X suppose implicitement que les désaccords et les divisions dans un contexte particulier peuvent être modélisés de manière simple, fournissant une mesure unique de la polarisation. Meta n’a fourni aucune information suggérant que son programme serait différent. Cependant, lorsque les divisions et les désaccords ne peuvent pas être facilement modélisés selon un axe unique, cela peut renforcer une compréhension indûment simpliste des conflits, en négligeant la manière dont de multiples facteurs se recoupent (entre politique, ethnicité, religion, langue et classe sociale, par exemple). Dans la pratique, cela risque de marginaliser les points de vue minoritaires, car des notes trompeuses ou préjudiciables faisant l’objet d’un consensus parmi les groupes majoritaires pourraient être publiées. Lorsque l’algorithme n’identifie pas avec précision et ne tente pas de « rapprocher » (en favorisant les contenus recevant des retours positifs de la part d’un public généralement en désaccord) les parties à une division qui alimente les conflits et la violence, ce risque de préjudice est particulièrement grave. Le Conseil recommande donc à Meta de faire preuve d’une extrême prudence lors de l’examen de pays caractérisés par ces dynamiques.
Lorsqu’il existe un risque accru de décalage entre les hypothèses sur lesquelles reposent les notes de la communauté concernant une société et les facteurs qui alimentent réellement les divisions sociales et politiques dans cette société, il n’est pas nécessaire d’exclure catégoriquement ces pays du déploiement des notes de la communauté. Il convient plutôt d’échelonner ce déploiement afin de permettre des tests de performance dans différents contextes, et de commencer avec prudence dans des environnements politiques, linguistiques et d’information similaires à ceux où Meta dispose déjà de telles données, de projets pilotes et de mesures d’atténuation des risques.
Exclusion des pays faisant face à des obstacles persistants d’accès à Internet
Le Conseil recommande d’exclure les pays faisant face à des obstacles systémiques persistants d’accès à Internet, car pour fonctionner comme prévu, les notes de la communauté reposent sur une participation étendue, cohérente et équitable des contributeurs. La restriction du nombre de contributeurs, en raison de manquements à l’infrastructure, de coûts élevés, de disparités régionales et, plus particulièrement, de coupures imposées par le gouvernement, limite le principe fondamental de représentativité des notes de la communauté.
Pondération
Le Conseil recommande que les facteurs par lesquels les notes de la communauté pourraient engendrer un risque de préjudice ou aggraver le risque existant aient plus de poids dans la pondération que les facteurs découlant de l’inadéquation du programme en tant que mesure d’atténuation des préjudices. Cela inclut des seuils à partir desquels Meta ne devrait pas introduire les notes de la communauté jusqu’à ce qu’elle prouve qu’elle peut le faire en atténuant ces préjudices.
Meta devrait fournir au Conseil les critères ou la matrice du risque qu’elle met au point pour guider l’extension, tous les six mois pendant la première extension, avec des preuves de la manière dont ces principes sont appliqués dans les décisions au niveau national concernant l’extension du programme.
Données et rapports
Le risque pour les droits humains et l’inadéquation des stratégies d’atténuation pour les notes de la communauté dépendent de la conception et du fonctionnement du produit en contexte. Meta a déclaré au Conseil qu’elle prévoyait de tester le programme avant de le déployer dans un marché. Le Conseil recommande que ces tests se concentrent sur la détection et l’atténuation des risques liés à l’anonymat des contributeurs, aux campagnes coordonnées de fausses informations et à la manipulation du système, à la représentation des langues et à la participation des contributeurs. Le Conseil demande à ce que les chercheurs bénéficient de suffisamment de transparence, et d’un accès suffisant à des rapports et à des données sur les performances des notes de la communauté de Meta.
Avis consultatif en matière de politique dans son intégralité
1. Requête de Meta
Le 7 janvier 2025, Meta a annoncé le lancement d’un programme de notes de la communauté et la fin de son système de vérification tierce aux États-Unis. Meta a indiqué ce jour-là qu’elle améliorerait les notes de la communauté avant de mettre cette fonctionnalité à disposition en dehors des États-Unis. Meta explique que les notes de la communauté permettent aux utilisateurs d’ajouter des étiquettes au contenu afin de fournir des éléments de contexte supplémentaires lorsqu’ils estiment que ces informations pourraient s’avérer utiles. Appelés « contributeurs », les participants au programme de notes de la communauté évaluent les notes proposées (« utiles » ou « pas utiles ») et justifient leur choix en sélectionnant un motif dans une liste d’options. Un algorithme calcule alors un score. Celui-ci indique si une note a été jugée utile par un nombre suffisant de contributeurs qui, d’après leurs évaluations précédentes, ne partagent habituellement pas les mêmes avis. Si le score atteint un certain seuil et que la note n’enfreint pas les Standards de la communauté, elle est ensuite publiée. Ce système est différent du programme de vérification tierce, qui dépend d’organisations partenaires pour examiner le contenu, faire des recherches et émettre des jugements relatifs à sa véracité qui peuvent entraîner l’ajout d’une étiquette si les informations sont considérées comme fausses ou trompeuses.
Comme les circonstances locales peuvent avoir des répercussions sur le fonctionnement de son système de notes de la communauté, Meta a demandé au Conseil d’émettre des recommandations sur les facteurs précis à prendre en compte lors de l’élargissement prévu de ce programme en dehors des États-Unis, ces facteurs devant lui permettre de décider d’exclure ou non certains pays. En outre, Meta a demandé au Conseil comment pondérer ces facteurs les uns par rapport aux autres pour que ladite pondération puisse être appliquée à grande échelle.
Dans sa requête, Meta a indiqué que son programme de notes de la communauté en était à un « stade précoce du développement produit » et que l’entreprise possédait « des données limitées sur son déploiement bêta aux États-Unis ». Meta a décrit ce déploiement comme une période de « tests et d’affinage » pouvant mener à une évolution des notes de la communauté. Compte tenu de ces éléments, l’entreprise s’attache avant tout à définir des « principes directeurs fondamentaux » pour leur mise en application à l’échelle mondiale. Par conséquent, le Conseil n’a pas évalué l’efficacité globale des notes de la communauté sous leur forme actuelle aux États-Unis.
Le Conseil a identifié un ensemble de risques pour les droits humains qu’il convient d’atténuer en priorité avant le déploiement des notes de la communauté à l’échelle mondiale. À cette fin, le Conseil a consulté diverses parties prenantes, notamment des chercheurs, des experts techniques, des organisations de la société civile, des journalistes et des médias de vérification, afin de recueillir leurs observations et des données sur le fonctionnement de différents systèmes de modération du type des notes de la communauté (y compris celui de X) dans divers contextes. Compte tenu de ces informations, l’évaluation réalisée par le Conseil est axée sur les performances anticipées du système de notes de la communauté de Meta s’il est déployé sur d’autres marchés en dehors des États-Unis.
La réponse à la question de savoir ce que les notes de la communauté et l’algorithme sous-jacent feront dans un contexte précis dépend grandement de données empiriques. Meta a indiqué que le système serait piloté en dehors des États-Unis et que les données de performance seraient évaluées en fonction des objectifs qu’elle poursuit dans le cadre de ce programme. L’entreprise a précisé qu’elle prévoyait de publier des données téléchargeables sur les notes de la communauté et que les catégories de données seraient comparables à ce que X partage pour son propre programme de notes de la communauté. Ces données incluraient le texte complet des notes et leur localisation y afférente, les évaluations de chaque note, l’historique des statuts, les utilisateurs inscrits et les demandes de notes sur du contenu. Le Conseil n’a toutefois pas encore accès à des données aussi précises. À la place, un ensemble d’indicateurs généraux lui ont été fournis en toute confidentialité. Meta a fourni certaines données sur les notes de la communauté au Conseil, notamment, mais sans s’y limiter, le nombre de contributeurs inscrits, le nombre de notes écrites et publiées, et le temps moyen écoulé avant d’atteindre un consensus aux États-Unis. En conséquence, cet avis ne peut pas proposer d’analyse empirique des succès, échecs ou conséquences du programme de notes de la communauté de Meta. Il intègre en revanche des données issues de recherches sur des programmes de participation de la communauté similaires pour comprendre les facteurs de risques dans différents contextes, ce qui est directement lié aux questions posées au Conseil par Meta.
Il convient de noter que Meta n’a pas demandé au Conseil d’évaluer l’efficacité de son programme de vérification tierce, ni les mérites relatifs des notes de la communauté et de la vérification tierce. Cet avis ne comprend donc pas de recommandations indépendantes sur une éventuelle poursuite ou suspension de la vérification tierce. Toutefois, puisque les notes de la communauté font partie intégrante de l’approche de Meta en matière de fausses informations, il tient compte de l’absence ou de la présence de la vérification tierce en tant que facteur pertinent dans la façon dont Meta lutte contre le contenu trompeur dans un contexte précis. Le Conseil a demandé à Meta si cette liste de pays où Meta a conclu des accords de vérification tierce resterait en vigueur pendant et après un quelconque déploiement des notes de la communauté en dehors des États-Unis. Meta a répondu qu’elle « était susceptible de changer périodiquement ». Selon de récents reportagesjournalistiques, même si Meta n’a pas encore fait de déclaration publique sur l’avenir de la vérification tierce aux États-Unis, ses contrats avec les agences de vérification des informations ont été renouvelés pour l’année 2026, mais leur financement a été revu à la baisse.
Les questions posées dans la requête de Meta laissent penser que l’entreprise envisage sérieusement de déployer son programme de notes de la communauté à d’autres pays en dehors des États-Unis. L’avis du Conseil ne soutient cette approche ni ne s’y oppose. Il analyse plutôt les implications potentielles du déploiement à l’échelle mondiale des notes de la communauté par Meta et envisage les considérations qui doivent empêcher ou conditionner le lancement du produit dans un pays donné.
Le Conseil a accepté la requête de Meta le 19 novembre 2025. Cette dernière est disponible en intégralité ici. Le Conseil a posé des questions à Meta après avoir accepté sa requête. Elles portaient sur les thèmes suivants : comment Meta envisage la relation entre les notes de la communauté et ses autres approches relatives aux informations trompeuses ; comment l’entreprise définit et mesure le succès des notes de la communauté ; les mesures d’atténuation des risques employées et la diligence raisonnable en matière de droits humains dont Meta a fait preuve en prévision du lancement des notes de la communauté aux États-Unis, et les efforts similaires anticipés pour les déploiements internationaux ; les performances des notes de la communauté aux États-Unis ; les différences techniques entre les notes de la communauté de Meta et de X ; et la relation entre les notes de la communauté et les mesures liées aux élections, crises et conflits.
2. Interactions avec les parties prenantes
Pour formuler le présent avis consultatif en matière de politique, le Conseil a interagi avec des parties prenantes externes des manières suivantes :
Commentaires publics
Le Conseil a reçu 23 commentaires publics en décembre 2025 dans le cadre de cet avis consultatif en matière de politique qui répondaient aux conditions de soumission. Huit ont été envoyés des États-Unis et du Canada, cinq d’Asie-Pacifique et d’Océanie, cinq d’Europe, trois d’Amérique latine et des Caraïbes, et deux du Moyen-Orient et d’Afrique du Nord.
Les soumissions traitaient des thèmes suivants :
- Les avantages potentiels de la modération par notes de la communauté pour lutter contre le contenu trompeur. Plusieurs soumissions ont souligné l’influence positive des notes de la communauté sur la liberté d’expression, telle que l’ajout de contenu et le potentiel du système à contribuer au développement de la littératie informationnelle, en particulier lorsqu’il est comparé aux interventions qui débouchent sur la suppression du contenu (cf., p. ex., PC-315688, Full Fact). Ces soumissions avancent que les notes de la communauté et la vérification tierce pourraient être des outils complémentaires. Par exemple, l’inclusion des médias de vérification indépendants dans le programme « pourrait contribuer à améliorer la précision, la pertinence et l’uniformisation des notes de la communauté … tout en permettant de meilleures interactions avec les utilisateurs en ligne, ce qui augmenterait la confiance » (PC-31579, Agence France-Presse).
- Risque contextuel et applicabilité inégale à l’échelle mondiale des notes de la communauté. De nombreuses soumissions ont souligné le fait que la répression politique, le recul de la démocratie, les conflits et la coordination des manipulations déterminaient largement la réussite ou l’échec d’une modération sécurisée par la communauté (cf., p. ex., PC-31580, Dr Yohannes Eneyew Ayalew et Dr Maria O’Sullivan). Les commentateurs ont averti que, dans les pays qui restreignent l’espace civique ou soumettent la population à une haute surveillance, les notes de la communauté pouvaient être capturées par des acteurs alignés sur l’État ou des groupes malveillants qui déforment le consensus et renforcent les discours officiels plutôt que de fournir des occasions de les remettre en question (PC-31586, Asian Forum for Human Rights and Development). Plusieurs soumissions ont déconseillé à Meta de traiter l’expansion du programme comme un simple déploiement, et ont souligné plutôt la nécessité d’effectuer des études de faisabilité propres aux pays, d’évaluer les conséquences sur les droits humains et d’établir des seuils minimaux de performance du système avant son élargissement.
- Inégalités langagières et linguistiques. De nombreux commentaires ont souligné le fait que les notes de la communauté nécessitent une densité de contributeurs suffisante et une compréhension linguistique partagées pour générer un consensus en temps voulu (cf., p. ex., PC-31570, Dr Sanjana Hattotuwa ; PC-31589, Digital Democracy Institute of the Americas ; PC-31581, Trusted Information Alliance). Plusieurs soumissions se sont appuyées sur des conclusions relatives aux notes de la communauté sur X pour suggérer que les notes rédigées dans une autre langue que l’anglais sont beaucoup moins susceptibles d’être évaluées ou publiées, de sorte que de nombreuses populations d’utilisateurs ne bénéficient pas totalement du système. Des commentaires ont également fait remarquer que les publications en plusieurs langues, l’alternance codique (c.-à-d. le fait d’alterner les langues) et le recours à la traduction automatique posent des risques, tels que mauvaise compréhension et exclusions, en particulier dans les régions multilingues.
- Limitations liées à l’efficacité et à la rapidité. Des études empiriques citées dans plusieurs soumissions laissent penser que seul un petit nombre de notes proposées dans les systèmes de notes de la communauté finissent par être publiées, souvent avec un décalage significatif. En conséquence, les notes de la communauté ont tendance à apparaître sur le contenu « anodin » ou à faible enjeu, tandis que les fausses informations qui polarisent énormément ou se diffusent rapidement, en particulier en période d’élections, de conflits et de crises, ne sont souvent pas traitées (PC-31597, Institute for Strategic Dialogue). Ainsi, ces commentateurs préviennent que le système risque d’échouer systématiquement là où le danger est le plus grand.
- Relation entre les notes de la communauté et la vérification des informations par des professionnels. De manière générale, les commentaires publics étaient opposés au remplacement de la vérification tierce par les notes de la communauté. Nombre d’entre eux plaident en faveur d’une approche hybride, où les notes de la communauté viennent complémenter les évaluations professionnelles de la véracité des informations et les efforts fournis en matière d’éducation aux médias. Certains commentaires publics se sont par ailleurs proposés d’expliquer comment cela pourrait fonctionner en pratique. Par exemple, une « procédure accélérée [au sein des notes de la communauté] pour les médias de vérification certifiés pourrait prendre différentes formes, p. ex., approbation automatique des notes rédigées par lesdits médias, pondération plus élevée de leurs votes ou vérification croisée des notes rédigées par différents médias de vérification » (PC-31587, Réseau européen des normes de vérification des faits). Les médias de vérification, en particulier, avertissent que le fait de se passer du soutien des institutions tout en ayant davantage recours aux contributeurs risquait d’affaiblir l’écosystème d’information dans son ensemble.
- Main-d’œuvre, sécurité et responsabilité. Les soumissions faisaient également part de leurs inquiétudes quant au harcèlement et aux représailles qui pouvaient viser les contributeurs et au risque personnel que cela représentait pour eux. Un commentaire public (PC-31578, Renée DiResta et Alexios Mantzarlis) a argué que la rédaction et l’évaluation des notes devaient être assimilées à un « travail sur les données » non rémunéré qui bénéficie aux plateformes et qui risquait d’être effectué de manière disproportionnée par les journalistes, les spécialistes et les communautés marginalisées.
Considérés dans leur ensemble, ces thèmes suggèrent un intérêt prudent pour le modèle participatif des notes de la communauté, auquel s’ajoute de l’inquiétude quant à la trop grande dépendance envers ce système sans qu’il soit accompagné de mesures de transparence et de protection plus solides.
Tables rondes avec les parties prenantes
Le Conseil a organisé deux tables rondes avec les parties prenantes pour obtenir davantage d’avis sur le potentiel et les risques associés aux notes de la communauté. Ces tables rondes incluaient quelque 30 participants des Amériques, d’Afrique, d’Asie et d’Europe. Il s’agissait notamment de spécialistes de la diffusion des informations trompeuses et de leurs répercussions, de médias de vérification, d’experts techniques, d’acteurs de la société civile et de défenseurs des droits humains.
Le système de notes de la communauté peut fournir du contexte sur le contenu plutôt qu’entraîner sa suppression, ce que préconisent les participants aux discussions. Dans ce sens, il peut renforcer la liberté d’expression en préférant la contextualisation plutôt que la suppression des contenus à modérer. Ainsi, le système peut ajouter un contre-discours pour améliorer l’environnement d’informations qui entoure la liberté d’expression sans affecter cette dernière.
Les participants ont exprimé leur scepticisme quant à l’utilisation des notes de la communauté en tant qu’outil principal contre les fausses informations, en particulier en dehors des États-Unis et dans des contextes à haut risque. Ils ont signalé que les systèmes basés sur le consensus pouvaient échouer en cas de contenu politique, clivant ou lié à une crise, et qu’ils pouvaient privilégier la majorité au pouvoir aux dépens de l’exactitude factuelle.
Ils ont également pointé du doigt la diversité linguistique et le faible taux d’alphabétisation numérique en tant que barrières structurelles, et ont apporté la preuve que les notes rédigées dans une langue minoritaire ou non écrites en anglais étaient moins susceptibles d’apparaître, ce qui empêche de nombreuses populations de profiter du système. Les parties prenantes ont prévenu que les conflits et les contextes autoritaires posaient de graves risques : mainmise de l’État ou coordonnée par d’autres acteurs, harcèlement des contributeurs, violence hors ligne exacerbée par la publication en décalé des notes, etc.
Toutes les discussions étaient caractérisées par un fort consensus selon lequel les notes de la communauté devaient complémenter, et non remplacer, la vérification des informations par des professionnels, qui peuvent fournir une expertise et une évaluation des risques, ce que ne peuvent pas toujours faire les notes de la communauté (cf. également PC-31568, Full Fact). Enfin, les participants ont souligné la nécessité de transparence et d’un accès aux données pour les chercheurs, et ont encouragé Meta à organiser un projet pilote, à permettre l’évaluation indépendante du programme et à établir des responsabilités plus claires avant le déploiement à l’échelle mondiale.
3. Programme de notes de la communauté de Meta
Approches en matière de fausses informations
Meta explique que son approche actuelle en matière d’informations manifestement fausses ou trompeuses est axée sur trois stratégies : suppression de certains types de fausses informations nuisibles ; diffusion limitée du contenu évalué comme « faux », « retouché » ou « partiellement faux » par des médias de vérification tierce ; informations supplémentaires sous la forme de diverses étiquettes ajoutées au contenu potentiellement trompeur ou déroutant. Selon Meta, les notes de la communauté entrent dans cette troisième catégorie. Bien que cela suggère que l’un des objectifs principaux des notes de la communauté est de lutter contre les fausses informations, les réponses aux questions du Conseil indiquent que Meta considère également ce programme comme un outil plus général qui sert à ajouter du contexte. Cette définition plus large reflète un choix de conception qui vise à accorder la priorité à la contextualisation plutôt qu’à la suppression du contenu afin d’autoriser celui-ci à rester visible tout en aidant les utilisateurs à accéder à des informations et à les interpréter.
La politique de Meta sur les fausses informations précise que l’entreprise supprime les informations fausses ou trompeuses « lorsqu’elles sont susceptibles de contribuer directement au risque de blessures physiques imminentes » ou « susceptibles de favoriser directement l’interférence avec le fonctionnement des processus politiques », y compris les élections et les recensements. Pour identifier les risques de préjudice, Meta s’est associée à « des spécialistes indépendants qui possèdent les connaissances et l’expertise nécessaires pour évaluer la véracité du contenu et déterminer s’il est susceptible de contribuer directement au risque d’une violence imminent ». Dans sa requête au Conseil, Meta a indiqué que ses annonces du 7 janvier 2025 ne concernaient pas la suppression du contenu qui enfreint ces règles et qu’il continuerait à être supprimé. Ce type de contenu est généralement identifié et évalué après consultation du Canal pour les partenaires de confiance de Meta (cf. la décision Vidéo d’un poste de police haïtien).
Les partenaires externes de vérification des informations de Meta (dans les langues et pays dans lesquels ils interviennent) accordent la priorité à l’évaluation des informations potentiellement fausses qui sont « actuelles, populaires et importantes ». Le contenu vérifié et qualifié de « faux », de « retouché » ou de « partiellement faux » peut être rétrogradé, non recommandé et refusé pour les publicités. La politique de Meta prévoit que des étiquettes soient appliquées sur les publications avec ces évaluations et que Meta envoie des notifications aux utilisateurs qui les ont publiées. Le contenu exempté par Meta de la vérification tierce est le suivant : « le contenu qui n’inclut pas d’affirmation vérifiable », « les opinions et discours de personnalités politiques » et « le contenu multimédia créé ou retouché numériquement sur lequel l’un des filigranes ou l’une des étiquettes de transparence indiquant l’utilisation de l’intelligence artificielle de Meta sur la base de son authenticité », lorsque l’aspect trompeur est dévoilé par l’auteur de la publication. Un mécanisme d’appel est disponible pour contester les conclusions des médias de vérification.
Aux États-Unis, les contributeurs aux notes de la communauté peuvent proposer des notes qui ajoutent du contexte sur n’importe quel élément de contenu public et organique (c.-à-d. non payant) sur les plateformes de Meta. La note proposée ne sera affichée que si elle obtient l’évaluation « utile » suffisamment de fois et qu’elle n’enfreint pas les Standards de la communauté. Cela inclut les types de contenu qui n’étaient précédemment pas couverts par la vérification tierce, tels que les opinions et publications de personnalités politiques. Meta indique que les contributeurs aux notes de la communauté aux États-Unis (où elle n’a plus recours à la vérification tierce) font partie de son approche en matière de fausses informations : les contributeurs peuvent « rédiger des notes et les associer aux publications qu’ils estiment potentiellement trompeuses ou déroutantes ». Comme nous l’expliquons plus en détail ci-dessous, si la note est considérée comme utile par des contributeurs ayant été en désaccord par le passé, elle est publiée à côté du contenu en question. L’ajout d’une note n’a pas de conséquences pour le contenu, à l’inverse des étiquettes de vérification des informations « faux », « partiellement faux » ou « retouché », qui entraînent la rétrogradation du contenu dans les recommandations ou sa suppression de celles-ci. Après la publication d’une note de la communauté à côté d’un contenu, Meta envoie également des notifications aux personnes qui l’avaient republié, commenté ou évalué, ou qui avaient demandé l’ajout d’une note à son sujet.
En réponse à une question du Conseil sur la relation entre les notes de la communauté et la vérification tierce, Meta a précisé qu’elle considérait les deux systèmes comme « fondamentalement différents, et ce pour plusieurs raisons importantes ». Pour l’entreprise, « la vérification tierce est conçue pour traiter les affirmations “dont les informations peuvent être vérifiées” sur ses plateformes et se concentre exclusivement sur les faits plutôt que sur les opinions ». Cette distinction est cruciale pour Meta, qui souligne l’objectif plus large des notes de la communauté : « Les contributeurs aux notes de la communauté sont à même d’ajouter du contexte à n’importe quel élément de contenu qui, selon eux, pourrait bénéficier d’informations supplémentaires, y compris le contenu qui serait placé dans la catégorie des opinions ou qui ne pourrait pas être examiné dans le cadre du programme de vérification tierce. »
Une autre différence clé, selon Meta, est l’absence des « conséquences négatives associées au programme de vérification tierce » lors de l’ajout d’une note de la communauté. Plus précisément, il n’y a « aucune sanction prévue en cas de publication de contenu qui reçoit une note de la communauté », comme cela serait le cas si de fausses informations « susceptibles de contribuer à un risque de préjudice physique imminent » étaient publiées. Par ailleurs, la « diffusion ou monétisation de ce contenu n’est pas affectée ».
Fonctionnement des notes de la communauté
i. Aspects techniques – Algorithme et file d’attente
Dans sa requête, Meta a dévoilé avoir développé son système de notes de la communauté à l’aide de l’algorithme open source du programme ad hoc du réseau social X. Elle a décrit cet algorithme comme un « algorithme fondé sur le consensus qui s’appuie sur des indicateurs distincts d’“utilité” et de “consensus” pour calculer le score global du “consensus sur l’utilité” ». Les algorithmes de consensus sont conçus pour promouvoir le contenu ou les interactions qui favoriseraient la compréhension et l’harmonie au sein de groupes divisés. En théorie, ils récompensent le contenu qui crée des liens, c.-à-d. qui plaît à des audiences généralement en désaccord ou qui reçoit des commentaires positifs de la part desdites audiences. Axée sur le consensus, cette conception des notes de la communauté les distingue de la vérification tierce sur le plan fonctionnel, leur objectif et leur efficacité à réaliser diverses tâches étant différents.
Meta a expliqué que l’algorithme calculait ce score en identifiant quand un certain nombre de contributeurs généralement en désaccord (sur la base de leurs évaluations précédentes) se mettaient d’accord sur « l’utilité » d’une note donnée. Selon l’entreprise, si le score combiné du « consensus sur l’utilité » d’une note dépasse « un certain seuil » et que cette dernière n’enfreint pas les Standards de la communauté, la note sera publiée. Dans sa requête, Meta a indiqué que son algorithme était, en pratique, « plus complexe » et qu’il n’était donc « pas possible de fournir le nombre exact d’évaluations positives qu’une note devait recevoir ni de préciser à partir de quel moment l’algorithme déterminait que des contributeurs avaient des points de vue différents ». Le code public des notes de la communauté de X prévoit un seuil similaire variable. Meta a expliqué que cette approche « aide à garantir que les notes reflètent toute une série de points de vue et à réduire le risque de partis pris ». Si une note est publiée, elle apparaît sous forme de bannière au bas du contenu d’origine. Les utilisateurs peuvent alors cliquer dessus pour lire la note dans son intégralité et consulter le lien fourni en guise de preuve.
En réponse aux questions sur la manière dont l’algorithme évalue les désaccords passés entre contributeurs, Meta a précisé que, selon l’algorithme open source de X, l’entreprise « évalue les différences de points de vue entièrement sur la base de la manière dont les contributeurs ont évalué les notes par le passé » et qu’il ne prenait pas en compte leurs autres interactions, telles que les abonnements, les mentions J’aime ou les republications. L’algorithme « ne fait pas de suppositions sur la nature des désaccords, telle que les connotations politiques de leurs accords ou désaccords (car il manque de données sur les points de vue politiques ou sur l’objet de chaque note) ». Un expert technique consulté par le Conseil a suggéré l’exemple suivant pour illustrer ce point : il est possible qu’un pays soit plutôt libéral-conservateur, mais que les contributeurs aux notes de la communauté de ce pays évaluent les notes selon que le contenu concerné inclut des memes, soutienne l’agenda d’un parti politique donné ou soutienne une star de football particulière. Si tel est le cas, l’algorithme des notes de la communauté détectera un axe de conflit, c.-à-d. qu’il capture l’une de ces divisions, parce qu’il s’agit de l’axe qui explique le mieux les données.
Les utilisateurs et les contributeurs aux notes de la communauté peuvent repérer le contenu qui pourrait bénéficier d’une note, et les contributeurs peuvent rédiger et proposer des notes pour ce contenu. Une fois qu’une note a été proposée, elle apparaît dans un fil pour que son utilité soit évaluée.
Pour que l’évaluation des notes proposées soit facilitée, les contributeurs ont accès à un fil des notes qui doivent encore être évaluées avant leur publication. Ce fil est disponible dans les paramètres des applications Facebook, Instagram et Threads. En réponse à une question sur ce fil, Meta a précisé que les notes étaient classées « en fonction de leur récence et du nombre de vues de la publication, afin d’améliorer l’opportunité et la visibilité des notes. Le type de contenu n’est pas pris en compte lors du classement des notes (p. ex., le caractère civique ou politique du contenu). Les notes ayant obtenu un score d’utilité plus élevé peuvent figurer en haut de ce fil, tandis que les notes jugées moins utiles peuvent y être moins visibles. » En outre, Meta a indiqué qu’elle ne prenait pas l’initiative d’ajouter des publications à ce fil et qu’elle ne « signalait pas non plus le contenu prioritaire qui a besoin d’une note ».
ii. Aspects opérationnels – Contributeurs et politiques
Dans sa requête, Meta décrit le fonctionnement du programme de notes de la communauté. Contrairement au programme de vérification des informations de Meta, pour lequel l’entreprise s’associe à des organisations professionnelles de vérification des informations pour examiner et étiqueter le contenu, ce sont les utilisateurs de Meta qui se portent candidats pour contribuer au système de notes de la communauté. Meta requiert des contributeurs qu’ils aient plus de 18 ans, qu’ils disposent d’un compte depuis plus de six mois, qu’ils n’aient pas enfreint les politiques de Meta conçues pour « prévenir les préjudices les plus graves, tels que le terrorisme, l’exploitation sexuelle d’enfants, ainsi que la fraude et les escroqueries », et qu’ils possèdent un numéro de téléphone vérifié ou qu’ils aient défini l’authentification à deux facteurs. Si elles répondent à ces critères d’admissibilité, les personnes sont inscrites « progressivement et au hasard » sur une liste d’attente, et peuvent ensuite rédiger et évaluer des notes. À l’heure actuelle, les contributeurs peuvent écrire et soumettre des notes afin de « fournir du contexte » autour de contenu public et organique sur Facebook, Instagram et Threads qui provient des États-Unis. Les contributeurs peuvent inclure un lien qui confirme le contexte partagé dans la note. Lorsqu’ils évaluent des notes, les contributeurs ont la possibilité de dire si celles qui ont été rédigées par d’autres contributeurs sont « utiles » ou « non utiles » et de justifier leur choix en sélectionnant un motif dans une liste, notamment pour dire « si la note est pertinente par rapport à la publication, qu’elle est facile à comprendre et qu’elle utilise des termes neutres et impartiaux ».
Les notes de la communauté fonctionnent actuellement en six langues : l’anglais, l’espagnol, le chinois, le vietnamien, le français et le portugais. Meta n’a pas encore décidé « dans quelles langues les notes de la communauté seraient prises en charge dans les pays multilingues », ni développé « l’infrastructure technique des notes de la communauté pour qu’elle prenne en charge la rédaction, l’évaluation et la publication dans d’autres langues que les six qui sont disponibles depuis le lancement du programme aux États-Unis ». Meta a indiqué qu’elle prévoyait de s’atteler à cette tâche au début de l’année 2026. En réponse à une question sur les préparations anticipées en vue du déploiement international des notes de la communauté, Meta a déclaré qu’elle « envisageait de tester les notes de la communauté avant leur lancement sur un marché. Ces tests évalueront les performances de l’algorithme de consensus dans le contexte local et aideront à détecter les éventuels problèmes liés à la représentation linguistique ou à la participation des contributeurs. »
Meta a indiqué que les notes étaient soumises aux mêmes Standards de la communauté que le contenu organique, avec quelques différences significatives quant à leur application. L’entreprise utilise une « combinaison de systèmes automatisés, d’équipes de révision spécialisées et d’examens manuels par des spécialistes pour évaluer si les notes enfreignent nos Standards de la communauté ». En outre, Meta a signalé qu’un classificateur fondé sur l’apprentissage automatique était également utilisé pour « limiter la diffusion des publications pour lesquelles les gens ont réclamé des notes et qui, selon nos systèmes, enfreignent probablement les Standards de la communauté (sans que cela ait toutefois été confirmé) parmi les publications candidates affichées dans l’interface mise à la disposition des contributeurs, et ce tant que le contenu n’est pas examiné manuellement ». Meta a expliqué que cela permettait de réduire l’exposition au contenu susceptible d’être en infraction.
Selon l’entreprise, l’anonymat des contributeurs joue un rôle dans le fonctionnement des notes de la communauté. Les noms des contributeurs ne sont pas affichés sur les notes qu’ils ont rédigées ou évaluées pour veiller à ce que les évaluations soient basées sur « le contenu et l’utilité plutôt que sur l’identité de ceux qui les ont écrites ». Meta a précisé que cet anonymat « encourageait [les contributeurs] à participer tout en réduisant le sentiment de pression qui émanerait du groupe ou en apaisant les craintes de harcèlement ».
Dans sa requête, Meta a dit qu’elle cherchait actuellement le moyen de soutenir l’engagement des contributeurs, d’améliorer la qualité des notes, et de prévenir les abus coordonnés et la manipulation des notes de la communauté. Les nouveaux contributeurs bénéficient d’un tutoriel intégré au produit sur la manière de rédiger et d’évaluer les notes. Les contributeurs actifs peuvent également rejoindre un forum communautaire hébergé sur Discord afin de se tenir informés sur les nouvelles fonctionnalités et de fournir des commentaires en vue d’orienter le développement produit. Meta a indiqué qu’en exigeant des contributeurs qu’ils possèdent un numéro de téléphone unique et un compte depuis un certain temps, elle se prémunissait contre la création de faux comptes. L’ajout progressif et aléatoire d’utilisateurs à partir de la liste d’attente aidera à « protéger le programme des efforts coordonnés pour ajouter des notes sur des éléments de contenu précis ou pour évaluer des notes d’une manière particulière ». Puisqu’une note nécessite un lien vers des informations qui confirment le contexte proposé, Meta a mis en place des mesures de blocage des « URL qui constituent une violation grave » afin de prévenir les abus et d’encourager les contributeurs à partager des informations de haute qualité.
4. Recherches et évaluations des systèmes de modération du style des notes de la communauté
Dans le cadre de ses recherches et de ses interactions avec les parties prenantes, le Conseil a reçu toute une série d’informations qui évaluent les possibilités et les risques associés aux systèmes de modération axés sur la participation de la communauté, à l’image des notes de la communauté, ainsi que des avis, des observations et des données empiriques sur les performances de ces systèmes sur d’autres plateformes de réseaux sociaux, et en particulier sur les notes de la communauté de X. En l’absence de données substantielles sur les performances du système de Meta, le Conseil s’est appuyé sur les conclusions qu’il a tiré à propos des notes de la communauté de X afin d’éclairer ses recommandations formulées à la fin de cet avis. Ces extrapolations peuvent avoir leurs défauts, étant donné les différences entre les plateformes de Meta et celles de X, notamment en ce qui concerne la taille, la distribution de la base d’utilisateurs et les dynamiques de viralité. À mesure que de nouvelles données sur les performances des notes de la communauté de Meta seront disponibles, l’analyse du Conseil, en grande partie fondée sur les notes de la communauté de X, devra être révisée et réévaluée.
Les notes de la communauté et la technologie de consensus sous-jacente sont, à certains égards, prometteuses. Il a été avancé qu’en théorie, il s’agissait d’une « approche prometteuse pour aider à lutter contre les fausses informations à l’aide de contre-discours », car elle « respecter l’autonomie des utilisateurs tout en encourageant les échanges sains et une forte participation ». D’autres avis reçus par le Conseil citaient des études qui suggèrent que les annotations sur le contenu émises par la communauté peuvent renforcer la confiance que les utilisateurs éprouvent pour les décisions de modération. Presque à l’unanimité, les parties prenantes consultées par le Conseil ont affirmé leur soutien aux approches qui accordent la priorité à la liberté d’expression dans la lutte contre les informations trompeuses, telles que l’ajout de contexte à l’aide d’outils comme les notes de la communauté. Elles ont souligné que la vérification des informations et les notes de la communauté ne devaient pas être vues comme des outils mutuellement exclusifs. Nombre d’entre elles ont expliqué en quoi ces outils pouvaient se compléter.
Selon certaines recherches empiriques, les notes de la communauté, si elles sont implémentées à suffisamment grande échelle, et avec la rapidité, la transparence et les protections nécessaires contre la manipulation, peuvent être un outil important pour améliorer les discours en ligne. Des études expérimentales et observationnelles, telles que les contributions des parties prenantes, avancent que les notes de la communauté peuvent obtenir de meilleurs résultats que les étiquettes d’avertissement génériques en matière de légitimité perçue et de compréhension des utilisateurs, et qu’elles réintroduisent une forme de participation citoyenne structurée dans la gouvernance de la plateforme, fondée non pas sur les règles de la majorité, mais sur une collaboration de nature explicative qui croise les points de vue.
On observe également un certain optimisme quant à l’évolutivité et à l’efficacité potentielles des notes issues de la participation de la communauté, en particulier lorsqu’elles sont associées à des informations possiblement trompeuses. Une étude montre qu’une fois agrégés, les jugements de profanes peuvent être approximativement aussi précis que ceux des médias de vérification. Cette étude avance qu’en s’appuyant sur les évaluations agrégées des profanes par le biais de programmes comme celui des notes de la communauté, il est « possible de lutter contre les fausses informations, quelle que soit l’ampleur du problème ». Certaines recherches ont conclu que les notes de la communauté peuvent limiter les interactions avec le contenu étiqueté comme « faux » ou « trompeur », ainsi que la portée de celui-ci, et ce parfois de manière substantielle, une fois qu’une note y est associée et qu’elle est vue par les utilisateurs. Il convient toutefois de noter certaines divergences à l’égard de ces conclusions. D’autres recherches ont analysé les dimensions temporelles des interactions avec le contenu trompeur et ont trouvé que les notes de la communauté de X « peuvent être trop lentes pour réduire efficacement les interactions avec les fausses informations à son stade de diffusion précoce (et le plus viral) ». Une autre étude de recherche a découvert que l’influence sociale perçue de l’auteur d’un tweet source affectait les niveaux de consensus entre utilisateurs, les auteurs influents « obtenant un niveau de consensus plus faible parmi les utilisateurs » et les notes de vérification des informations sous leurs publications « étant plus susceptibles d’être considérées comme incorrectes ». Il est probable que ces divergences proviennent en partie des performances variables enregistrées par les notes de la communauté dans différentes conditions d’implémentation.
Le Conseil a également tenu compte des avis des parties prenantes qui estiment que les performances des programmes de notes de la communauté en conditions réelles peuvent être imprévisibles. Les systèmes qui dépendent du vote de contributeurs, celui-ci étant réglementé par un algorithme, pour publier des notes sous du contenu font face à des défis en matière de couverture, de participation, d’opportunité et de fiabilité, des critères qui gagnent tous en importance lors d’enjeux majeurs, comme les conflits et les crises. Parallèlement, des recherches sur les systèmes de modération participatifs et manuels suggèrent qu’un certain degré de variabilité est inhérent à ce type d’approches, y compris à la vérification des informations par des experts, et que la transparence relative des notes de la communauté pourrait permettre de mieux observer cette variabilité et, donc, de mieux l’évaluer et de l’améliorer progressivement.
Une étude a trouvé que, puisque les notes de la communauté s’appuient sur des contributeurs qui choisissent les publications à annoter, leurs résultats reflètent des séquences d’auto-sélection. Des études ont démontré que les contributeurs sur X aux États-Unis ont tendance à rédiger des notes sous des publications anti-partisanes et à évaluer les notes écrites par des co-partisans comme utiles, ce qui pourrait renforcer les divisions idéologiques. Ces conclusions suggèrent que le fait de nécessiter un consensus entre ceux qui sont généralement en désaccord peut être une solution incomplète au problème de notes motivées par une idéologie, en particulier dans les environnements polarisés en ligne. D’autres études indiquent toutefois que cette exigence de consensus qui transcende les points de vue fonctionne également en tant que seuil qualitatif pour limiter la visibilité des notes qui sont mal documentées ou motivées par une idéologie, même si ce choix de conception limite la couverture globale. D’autres rapports et recherches ont conclu à l’égard des notes de la communauté publiées sur X que les médias de vérification professionnels figuraient parmi les sources les plus citées pour fournir du contexte, ce qui souligne la dépendance de ce système envers la vérification tierce en dépit de leurs fonctions et objectifs distincts. Dès lors, la réduction du soutien aux médias de vérification nuira probablement aux notes de la communauté, car les contributeurs pourraient avoir moins de sources fiables à citer. Cela est d’autant plus vrai là où les sources médiatiques fiables sont limites. Cette interdépendance met en exergue l’importance des approches échelonnées de la gouvernance par rapport à la dépendance envers un seul mécanisme, en particulier dans les contextes à haut risque ou bien là où le facteur temps est important.
Le nombre relativement faible de notes qui atteignent un consensus et sont publiées a été souligné, car il constitue un défi majeur selon de nombreuses parties prenantes. Selon une étude, pour 74 % des publications trompeuses sur X pour lesquelles des notes exactes ont été proposées, ces dernières n’ont jamais été montrées aux utilisateurs. Les investigations de Meta ont trouvé que la plupart des utilisateurs n’avaient jamais vu de notes publiées. Lorsque les notes sont publiées, elles ont tendance à être moins vues que la publication d’origine avant l’ajout de la note. Ainsi, il est possible que les utilisateurs ayant vu le contenu auquel une note a été ajoutée ne voient pas souvent la note après sa publication. Cependant, les faibles taux de publication et de visibilité peuvent également refléter les seuils intentionnellement élevés d’approvisionnement et de consensus, qui sont conçus pour accorder la priorité à la qualité des notes et à leur légitimité perçue par rapport au volume de celles-ci. Les disparités dans le nombre de notes proposées et publiées en fonction des différents groupes linguistiques sont également la source d’inquiétude quant à la bonne représentation desdits groupes au sein du programme de notes de la communauté. De telles disparités peuvent être dues à la densité des contributeurs, à l’approvisionnement propre à chaque langue et aux investissements réalisés par la plateforme en matière de traduction, plutôt qu’à la viabilité sous-jacente du modèle lui-même.
Certaines parties prenantes ont également prévenu que l’accumulation de notes non publiées sur X (c.-à-d. les notes qui ont été proposées par des contributeurs, mais qui n’ont pas encore atteint le seuil de consensus nécessaire à leur publication) a des répercussions sur l’opportunité des notes de la communauté. Une analyse temporelle récente des tendances de publication sur X a trouvé que les « notes, en moyenne, sont publiées 65,7 heures après la publication d’origine, un délai plus long réduisant de manière significative la probabilité qu’un consensus soit atteint ». Une autre étude a conclu qu’entre janvier 2021 et janvier 2025, quelque 87,7 % des notes proposées sur X restaient dans la catégorie « A besoin de plus d’évaluations ». Sur toutes les notes soumises à l’évaluation des contributeurs, seules 8,3 % ont finalement atteint le statut « Utile » et ont été publiées, avec un retard moyen de 26 heures, soit « bien après le pic de visibilité pour la plupart des publications trompeuses ». En septembre 2025, Meta a rapporté des chiffres semblables, quelque 6 % des notes seulement étant jamais publiées.
Une analyse des tendances sur X a trouvé que les taux de publication faibles pouvaient avoir des conséquences sur l’engagement des contributeurs et leur rétention. Une étude récente a montré que « la plupart des notes étaient rédigées par une minorité de contributeurs » et que « la part d’auteurs qui continuaient à participer au programme au fil des ans avait décliné depuis 2023 ». En outre, la « part d’auteurs qui restent actifs diminue, ce qui suggère une capacité en baisse » à retenir les contributeurs. Selon ces auteurs, le fait de voir à plusieurs reprises qu’une note n’est pas publiée décourage les contributeurs et ne les incite pas à continuer. Cette tendance « illustre les risques liés à la durabilité du système de notes de la communauté ». Si, comme ses déclarations publiques et ses politiques le laissent penser, Meta considère les notes de la communauté comme une partie de son « approche en matière de fausses informations », ces tendances suggèrent que les notes de la communauté pourraient ne déboucher que sur un nombre trop faible de notes utiles pour que le système contribue efficacement à la lutte contre les informations trompeuses.
Les implications de ces conclusions en cas de crise ou de conflit inquiètent les chercheurs. De nombreuses parties prenantes ont partagé des recherches sur les notes de la communauté de X qui remettent en question sa capacité à lutter efficacement contre les informations trompeuses, en particulier lorsque l’intégrité des informations est de la plus haute importance, comme en période d’élection, de crise et de conflit. Par exemple, une étude relative aux publications sur X de cinq comptes importants qui diffusaient de fausses informations pendant les émeutes de 2024 à Southport au Royaume-Uni a trouvé que ces comptes avaient accumulé plus de 430 millions de vues. Selon cette analyse, sur les 1060 publications partagées par ces comptes au plus fort des émeutes, une seule a reçu une note de la communauté. Ces données suscitent de vives inquiétudes quant à la capacité des notes de la communauté à réagir rapidement aux fausses informations en période de crise, en particulier au stade précoce et viral de leur diffusion.
Certaines parties prenantes ont mis en garde contre la décision récente de X d’autoriser les contributions écrites par l’IA pour « augmenter le nombre de notes » (cf. les commentaires publics, p. ex., PC-31568, Full Fact). Le Conseil considère comme risquée l’utilisation de contributions écrites par l’IA pour générer des notes. La prolifération des outils basés sur l’IA ouvre la voie à de nouvelles formes de contournement et de manipulation du système. Les acteurs malveillants pourraient ajuster des modèles pour qu’ils favorisent subtilement certaines versions, privilégient certaines preuves ou exploitent le mécanisme d’évaluation tout en donnant l’impression de rester neutres. Comme la plupart des systèmes IA sont entraînés à partir de données qui se recoupent et optimisés pour atteindre des objectifs similaires, leur utilisation pourrait homogénéiser les styles de raisonnement et les interprétations dans les notes et, de ce fait, écarter les points de vue minoritaires et non centristes. Meta a indiqué au Conseil qu’elle « ne prévoyait pas d’autoriser des rédacteurs IA (c.-à-d. des agents ou des chatbots alimentés par l’IA) à soumettre des notes de la communauté sur ses plateformes. Les contributeurs peuvent utiliser l’IA pour rédiger une note plus facilement ; toutefois, celle-ci doit être soumise par un être humain en son nom, et c’est cet être humain qui est considéré comme son auteur. »
Plusieurs experts consultés par le Conseil ainsi que des parties prenantes ont fait part de leurs inquiétudes quant à l’applicabilité de l’algorithme des notes de la communauté de X, qui a été conçu pour modéliser les divergences politiques et trouver des consensus en dépit de celles-ci, principalement le long d’un seul axe, dans les sociétés du monde entier où existent de nombreux axes de division marquée. Le déploiement de l’algorithme dans ces conditions risque de renforcer une compréhension simpliste de conflits politiques et de divisions sociales complexes. Certains experts ont toutefois fait remarquer que l’algorithme n’était pas conçu pour saisir les désaccords politiques dans toutes leurs dimensions, mais plutôt pour identifier les rares points de convergence entre différents points de vue, ce qui pourrait fournir des informations contextuelles significatives, et ce même dans les sociétés caractérisées par de nombreux axes de division qui se chevauchent. Dans la pratique, si l’algorithme ne saisit pas les divisions sociales, le système pourrait générer des notes qui ont tendance à réagir à un sous-ensemble d’expressions, qui pourrait ne pas correspondre aux sujets les plus importants et les plus clivants d’un pays. Par exemple, certaines recherches partagées par les parties prenantes ont trouvé qu’« environ la moitié » des notes étaient publiées sous ce qu’elles qualifient de « nouvelles anodines » (qui couvrent la culture, les styles de vie ou des sujets plus légers que la politique ou l’actualité). En comparaison, « il est fréquemment arrivé que des notes bien documentées sur des évènements politiques ne soient pas publiées » (PC-31597, Institute for Strategic Dialogue), sans doute parce qu’elles n’avaient pas atteint le seuil de consensus nécessaire. Il se pourrait également que cette tendance reflète les seuils de publication conçus pour accorder la priorité à la légitimité et prévenir toute mainmise sur le programme, plutôt que l’absence de contributions précises ou bien documentées, et qu’une telle sélectivité soit courante dans les systèmes participatifs de gouvernance. Enfin, les notes de la communauté pourraient échouer à faire émerger des points de vue minoritaires ou non centristes, quelle que soit leur exactitude, en particulier si l’algorithme ne parvient pas à saisir les divisions majeures qui touchent un pays sur le plan social et politique au-delà d’un axe basique de polarisation supposée. Les implications de ces dynamiques sur les droits humains sont envisagées ci-dessous.
Dans leur ensemble, les preuves rassemblées et les avis des parties prenantes examinés dans cette section indiquent que les notes de la communauté présentent à la fois des limites significatives et de possibles qualités en tant que mécanisme de lutte contre le contenu potentiellement trompeur. Les défis identifiés, liés à l’échelle, à l’opportunité, au consensus, aux seuils, aux incitations pour les contributeurs, aux disparités linguistiques et à la modélisation des divergences, soulignent l’importance d’une conception prudente et des options en matière d’implémentation. Dans le même temps, les recherches et les consultations suggèrent que ces contraintes reflètent les compromis inhérents aux systèmes de modération participatifs et explicatifs. Ainsi, leur rôle devrait être évalué à l’aune de leur capacité à servir de ligne de défense qui accorde la priorité à la transparence, à l’implication des utilisateurs et à la liberté d’expression.
5. Analyse relative aux droits humains
En 2021, Meta a annoncé une Politique d’entreprise en matière de droits humains, dans laquelle elle souligne son engagement à respecter les droits conformément aux Principes directeurs des Nations Unies relatifs aux entreprises et aux droits de l’homme (PDNU). Les PDNU, auxquels le Conseil des droits de l’homme des Nations Unies (ONU) a apporté son soutien en 2011, établissent un cadre de référence volontaire relatif aux responsabilités des entreprises en matière de droits humains. Ces droits incluent, « au minimum, ceux figurant dans la Charte internationale des droits de l’homme » (Principe 12).
En tant que multinationale s’étant engagée à respecter les PDNU, Meta doit se conformer aux normes internationales relatives aux droits humains, où qu’elle intervienne (Principe 11), et « s’efforce[r] de prévenir ou d’atténuer les incidences négatives sur les droits de l’homme qui sont directement liées à [ses] activités, produits ou services par [ses] relations commerciales, même si elle[] n’[a] pas contribué à ces incidences » (Principe 13). Les PDNU prévoient également que les entreprises fassent preuve de diligence raisonnable en matière de droits humains afin d’évaluer les incidences effectives et potentielles sur ces derniers et de donner une suite à leurs constatations (Principe 17). Pour y parvenir de manière efficace, les entreprises doivent s’appuyer sur des indicateurs qualitatifs et quantitatifs et tenir compte des appréciations des acteurs concernés (Principe 20).
En examinant des cas et en émettant des avis consultatifs, le Conseil évalue les répercussions sur les droits humains des décisions de modération et de celles qui sont liées aux politiques. Lorsque ces cas révèlent que Meta a une influence négative ou qu’elle ne prend pas de mesures pour détecter, surveiller et limiter les conséquences négatives au sens large, le Conseil émet les recommandations appropriées. Dans un avis consultatif en matière de politique, le Conseil se concentre directement les choix de Meta en matière de politique et de modération pour déterminer si l’entreprise respecte son engagement envers les droits, conformément aux PDNU.
Pour ce qui est des notes de la communauté, le Conseil a cherché à savoir si le programme, une fois mis en œuvre, servirait à traiter et à atténuer les conséquences négatives pour les droits humains, conformément aux responsabilités de Meta, en particulier dans les marchés en dehors des États-Unis, où Meta envisage de déployer les notes de la communauté. Dans les sections qui suivent, le Conseil se concentre d’abord sur les situations dans lesquelles les notes de la communauté pourraient directement créer des risques de préjudice pour les utilisateurs ou contribuer à leur augmentation. Ces préjudices affirmatifs se distinguent de l’inadéquation potentielle des notes de la communauté en tant que mesure d’atténuation des préjudices (en particulier pour ce qui est des informations trompeuses qui n’atteignent pas le seuil à partir duquel Meta procède à une suppression). Ce deuxième cas est abordé dans la section subséquente.
Répercussions directes du déploiement des notes de la communauté sur les droits humains
Le Principe 13 des PDNU exige de Meta qu’elle « évite[] d’avoir des incidences négatives sur les droits de l’homme ou d’y contribuer » et qu’elle « remédie[] à ces incidences lorsqu’elles se produisent ». Toute une série de droits peuvent être affectés par le programme de notes de la communauté. Par exemple, la liberté d’expression, qui inclut le droit de rechercher et de recevoir des informations (Article 19 du Pacte international relatif aux droits civils et politiques (PIDCP) ; Observation générale n° 34, 2011, paragraphe 11), peut être renforcée dans la mesure où les notes de la communauté donnent aux contributeurs des outils supplémentaires pour s’exprimer, favoriser les contre-discours ou générer et mettre à disposition des informations contextuelles auxquelles les utilisateurs pourraient ne pas avoir accès. Le débat, l’échange d’idées et la prise de décision en commun sont des aspects centraux de la façon dont Meta envisage le fonctionnement du système. Le contenu auquel est ajoutée une note de la communauté n’est pas rétrogradé, comme c’est le cas pour le contenu auquel est apposée une étiquette de vérification des informations. Ainsi, les notes de la communauté peuvent être considérées comme un outil qui renforce les droits à la liberté d’expression de certains utilisateurs de la plateforme.
D’autre part, le Conseil estime que le déploiement des notes de la communauté dans d’autres pays que les États-Unis représente, dans certaines circonstances, des risques significatifs pour les droits humains et qu’il peut causer des préjudices concrets ou y contribuer, alors que Meta s’est engagée à les éviter ou à y remédier. Bien que les recherches et les observations des parties prenantes relatives aux notes de la communauté sur X mentionnées ci-dessus donnent une certaine idée de ces préjudices, leur probabilité et leur gravité dépendent en grande partie de la situation dans chaque pays, ainsi que des projets de Meta pour ce déploiement. Meta a partagé des informations à ce sujet dans sa requête et dans ses réponses aux questions du Conseil, y compris ses plans pour tester ses notes de la communauté avant leur lancement dans un marché. Ces tests visent à « évaluer les performances de l’algorithme de consensus dans le contexte local et aideront à détecter les éventuels problèmes liés à la représentation linguistique ou à la participation des contributeurs ». Compte tenu des ressources de l’Office du Haut-Commissaire des Nations Unies aux droits de l’homme pour implémenter les PDNU dans l’espace technologique, Meta devrait orienter ses tests en vue de « comprendre la manière dont les réalités socioéconomiques, politiques et liées aux droits humains dans le contexte local exacerbent les préjudices en matière de droits humains ou, au contraire, protègent contre ces derniers » à mesure que le déploiement des notes de la communauté approche. Le Conseil appelle Meta à publier ses rapports sur les résultats de ces tests avant le déploiement.
Bien que Meta considère les notes de la communauté comme du « contexte » supplémentaire, elles pourraient avoir des effets dissuasifs et nuire à la liberté d’expression, en particulier si les utilisateurs craignent que leurs notes puissent être tracées jusqu’à eux ou qu’ils ont peur que l’étiquetage public de leur discours puisse susciter davantage de suspicions et, en conséquence, entraîner des représailles ou du harcèlement. Cela pourrait carrément dissuader les utilisateurs de commenter des sujets controversés ou sensibles. Le Conseil fait toutefois remarquer que ce risque n’est pas propre aux notes de la communauté et qu’il est probablement associé à tout système conçu pour lutter contre les fausses informations. Dans les contextes politiques où l’espace civique est restreint et où les droits humains sont exposés à des risques, les notes de la communauté peuvent décourager la dissidence, le journalisme citoyen, la vérification des informations par les utilisateurs ou les points de vue minoritaires, en particulier en l’absence de voies de recours significatives ou de transparence quant au fonctionnement du système. Meta a indiqué qu’elle cherchait à ajouter, en tant que voie de recours potentielle, une option pour demander des évaluations supplémentaires de la part des contributeurs. À l’heure actuelle, les utilisateurs n’ont pas la possibilité de faire appel d’une note de la communauté, comme cela est le cas pour le contenu qui a reçu une étiquette de vérification des informations, si, par exemple, ils estiment que leur intention a été modifiée ou déformée par une note ou que la note est elle-même inexacte. L’ajout d’une telle fonctionnalité par Meta pourrait servir à atténuer le risque de dissuasion.
Dans les contextes où les gouvernements répriment toute dissidence, y compris par le biais d’attaques envers la liberté d’expression, le système peut exposer les individus à des représailles si leur anonymat est compromis. Cela pose des risques pour les droits des contributeurs à la vie privée (Article 17 du PIDCP), pour la sécurité de leur personne (Article 9 du PIDCP) et même pour leur droit à la vie (Article 6 du PIDCP). Même si leur anonymat est formellement garanti, les contributeurs pourraient être surveillés ou pris pour cibles si leur identité ou leurs habitudes comportementales venaient à être déduites de leur participation aux notes de la communauté. Les données relatives aux personnes qui contribuent aux notes de la communauté ou qui interagissent avec celles-ci peuvent révéler des opinions ou affiliations politiques, ce qui poserait un risque pour les contributeurs dans les pays où ces informations ont déjà été utilisées à des fins de répression. Meta a expliqué que la conception même du modèle de données était la première ligne de défense contre la divulgation de l’identité des contributeurs aux notes de la communauté. Les entités de contributeur, qui sont utilisées pour créer et évaluer les notes, sont distinctes des profils d’utilisateur Meta. Toutefois, en l’absence d’informations plus précises sur l’architecture technique derrière l’implémentation des comptes de contributeur dans les notes de la communauté de Meta, le Conseil ne peut pas tirer de conclusions définitives sur la capacité des projets actuels de Meta à atténuer ce risque de manière adéquate. Avant de déployer le système dans les pays où les gouvernements répriment toute dissidence, Meta devrait s’assurer que ses mesures de protection sont solides en simulant une attaque de l’architecture technique des notes de la communauté, notamment par le biais de la modélisation des menaces qui visent les acteurs étatiques.
Le Conseil est également préoccupé par l’utilisation potentielle des notes de la communauté par des réseaux de désinformation coordonnés, en particulier dans les environnements dont les écosystèmes d’information sont ou ont été attaqués ou manipulés à dessein et à grande échelle, lorsque cela a été prouvé. Les plateformes de réseaux sociaux, notamment Meta, sont conscientes de ce risque et ont parlé publiquement de certains cas dans lesquels elles ont supprimé des comptes en raison d’un tel comportement. Dans ces situations, des acteurs malveillants pourraient coordonner leurs efforts pour « contourner le système » ou manipuler les mécanismes de participation et d’évaluation, ce qui leur permettrait, par exemple, de discréditer systématiquement les opinions de l’opposition ou de publier des notes qui ne reflètent pas un véritable consensus parmi les contributeurs. De tels abus des notes de la communauté, s’ils portaient leurs fruits, pourraient manipuler le discours public de manière à fausser les environnements d’informations et à nuire au droit des personnes à participer à la direction des affaires publiques (Article 25 du PIDCP). Meta a détaillé plusieurs mesures de protection mises en place pour prévenir la manipulation des notes de la communauté. Elle a dit qu’elle « surveillait la potentielle manipulation du programme des notes de la communauté en analysant les tendances relatives aux comportements et aux interactions des contributeurs ». Elle dit ne pas avoir détecté de comportement non authentique coordonné ou de manipulation du programme à ce jour.
Toutefois, des recherches récentes sur les notes de la communauté de X ont trouvé qu’« une petite minorité (5 à 20 %) de mauvais évaluateurs pouvait stratégiquement supprimer des notes utiles ciblées », ce qui suscite de l’inquiétude quant à l’adéquation des mesures de protection et, donc, à la vulnérabilité des systèmes face aux manipulations. Le statut de publication des notes de Meta ne se « verrouille » que deux semaines après qu’un consensus a été atteint et que la note a été publiée. Cela rend les notes de la communauté vulnérables aux acteurs malveillants qui pourraient coordonner leurs efforts pour supprimer une note en continuant de l’évaluer négativement pendant les deux semaines qui s’écoulent entre sa publication et son verrouillage. En outre, ces vulnérabilités sont susceptibles de croître à cause de la prolifération des outils d’IA, et notamment des agents IA, grâce auxquels il est facile de créer et de gérer des comptes à grande échelle. Bien que les mesures de protection de Meta soient, en théorie, conçues pour surveiller ce genre d’activités, les informations fournies au Conseil ne lui permettent pas de déterminer avec certitude si ces mesures suffisent à contrer la menace, compte tenu de son échelle potentielle. Les futures évaluations de la gravité de ce risque et de l’adéquation des mesures de protection de Meta dépendront des données empiriques qui examineront si les outils d’IA utilisés dans les notes de la communauté créent ou exacerbent des vulnérabilités, telles que les manipulations coordonnées ou les opérations d’envergure liées aux informations, des données que Meta devrait recueillir et analyser.
Les notes de la communauté risquent également de privilégier les groupes politiques, ethniques ou linguistiques dominants et, éventuellement, marginaliser les minorités défavorisées, en particulier si un groupe minoritaire est victime de préjugés de la part de plusieurs autres groupes. Ce problème est renforcé si ledit groupe est sous-représenté, voire ne l’est pas du tout, parmi les contributeurs. En effet, l’algorithme des notes de la communauté pourrait modéliser des désaccords qui n’illustrent pas les divisions sociétales majeures. Cela suscite de l’inquiétude quant aux répercussions potentielles sur les droits des membres de ces groupes, par exemple, leurs droits à l’égalité et à la non-discrimination (Articles 2 et 26 du PIDCP) et à la liberté d’expression (Article 19 du PIDCP), en particulier si des circonstances objectives les rendent moins susceptibles de participer à la création et à l’évaluation de notes de la communauté. Plusieurs facteurs pourraient atténuer ou aggraver ce risque. Comme cela a été soulevé par les experts et les parties prenantes (cf. ci-dessus), un défi majeur pour le système de notes de la communauté de X a été d’employer un algorithme qui modélise la polarisation et la division sociale le long d’un seul axe dans des contextes où les axes sont multiples. Les parties prenantes consultées par le Conseil ont fait remarquer qu’à cause de cette approche aussi peu nuancée, le système risquait de fausser les environnements d’informations en faveur des points de vue majoritaires et, éventuellement, de publier des notes dangereuses qui cibleraient des minorités mutuellement défavorisées. Ces dynamiques pourraient aggraver les divisions.
Ainsi, les préjugés partagés à l’encontre de groupes minoritaires désavantagés pourraient servir de points de convergence entre d’autres groupes majoritaires qui, par ailleurs, ne partagent pas les mêmes avis sur d’autres axes de polarisation majeurs. Ce type de préjudice est d’autant plus susceptible de se produire si les minorités défavorisées ne bénéficient pas d’un accès équivalent à Internet et aux réseaux sociaux et qu’elles sont donc sous-représentées par les contributeurs aux notes de la communauté. Pour que les notes de la communauté permettent un large accès à des sources d’information plurielles et diverses, comme Meta l’envisage, un taux de participation élevé de tous les groupes, et en particulier des groupes linguistiques pertinents et d’autres groupes minoritaires (c.-à-d. en fonction de la religion, de l’ethnicité, du genre et de l’âge), est essentiel. Par exemple, un consortium d’organisations non gouvernementales (ONG) d’Asie du Sud a présenté plusieurs preuves des préjudices qui proviennent d’une dynamique de promotion de la majorité dans les notes de la communauté sur X en Inde, où les divisions politiques reflètent les affiliations complexes et croisées entre ethnicités, religions, langues et castes. Bien qu’il soit difficile de savoir à quel point le problème est généralisé sur la base de cet exemple limité, le risque est suffisamment plausible pour justifier que Meta évalue soigneusement la division sociale et la position des minorités défavorisées dans les marchés où les notes de la communauté peuvent être déployées.
Les experts en algorithmes de consensus consultés par le Conseil ont souligné qu’aucun motif technique n’expliquait pourquoi l’algorithme des notes de la communauté ne pouvait pas être conçu de manière plus sophistiquée pour prendre en compte plusieurs axes de divergence en même temps. Comme indiqué ci-dessus, en l’absence d’informations plus détaillées sur la conception du système, le Conseil évalue ici les risques d’après le fonctionnement de l’algorithme de X, dont Meta se sert en tant que point de départ. Dans la mesure où Meta conçoit sa propre version des notes de la communauté de sorte qu’elles prennent en compte un plus grand nombre de dimensions, cela pourrait servir à atténuer les risques identifiés ici.
La question de savoir si les notes de la communauté sont associées à d’autres mesures de lutte contre les informations trompeuses, telles que la vérification tierce, influence grandement la gravité et la probabilité des différents préjudices susmentionnés, en particulier lorsque l’on sait à quel point les notes de la communauté dépendent des médias de vérification (cf. ci-dessus). À l’inverse, d’autres facteurs externes, comme la forte indépendance des médias et un taux élevé d’alphabétisation numérique, peuvent réduire la probabilité et la gravité de ces préjudices.
Répercussions indirectes du déploiement des notes de la communauté sur les droits humains
Les responsabilités en matière de droits humains qui sont les plus directement applicables dans le cadre du programme de notes de la communauté et auxquelles Meta s’est engagée au titre des PDNU sont celles qui ont été discutées ci-dessus. Elles traitent des conditions dans lesquelles les notes de la communauté pourraient, de par leur nature, avoir des conséquences négatives sur les droits humains ou y contribuer dans certaines circonstances locales. Outre ces responsabilités directes, le déploiement et l’utilisation des notes de la communauté de Meta à l’échelle mondiale suscitent des inquiétudes plus générales pour les droits humains qui sont moins directes mais tout aussi significatives.
Meta a annoncé qu’elle continuerait à appliquer ces règles contre la désinformation et les préjudices, en interdisant les fausses informations qui sont susceptibles : i) de contribuer directement à un risque de violence imminente ; et ii) de contribuer directement à un risque d’interférence dans la capacité des individus à participer à des élections. Cependant, les utilisateurs publient également de fausses informations et du contenu trompeur qui peuvent, dans diverses circonstances, créer des conditions dangereuses pour les droits humains, sans toutefois que les critères de suppression de Meta soient remplis. Par exemple, la Rapporteuse spéciale des Nations Unies sur la liberté d’expression a dit que la désinformation « crée des tensions politiques, entrave l’exercice effectif de leurs droits par les personnes et ruine leur confiance dans le gouvernement et les institutions » (A/HRC/47/25, paragraphe 2). Elle peut contribuer à d’autres préjudices plus généraux : « elle dissuade les personnes d’exercer leur liberté d’expression, elle réduit le niveau de confiance dans la sphère publique en tant qu’espace de débat démocratique, elle sert de caisse de résonance aux récits antidémocratiques, elle accentue la polarisation et elle favorise les programmes autoritaristes et populistes » (A/HRC/47/25, paragraphe 24). Un environnement d’informations dégradé où ce type de conditions existent peut donc représenter un risque pour les personnes en limitant leur accès à l’information et leur droit à participer aux processus politiques.
Bien que ces préjudices soient graves, ils ne remplissent généralement pas les critères qui justifieraient des restrictions étatiques de la liberté d’expression en vertu de l’Article 19(3) du PIDCP. En effet, la Rapporteuse spéciale des Nations Unies sur la liberté d’expression a exprimé son inquiétude (A/HRC/47/25, paragraphes 57 et 58) quant aux risques pour la liberté d’expression posés par une législation trop stricte sur l’« infox ». Aux quatre coins du monde, ces lois ont été utilisées comme prétextes pour censurer les ONG, les journalistes et les dissidents politiques. Compte tenu de ces inquiétudes, des mesures moins sévères que la suppression pure et simple du contenu peuvent être plus proportionnées aux objectifs légitimes défendus par les droits humains. Par le passé, le Conseil a souligné à quel point il était important de lutter contre les préjudices liés aux informations trompeuses à l’aide de mesures moins intrusives que la suppression, notamment en fournissant des informations pour corriger les infox et en rétrogradant le contenu trompeur (cf. les décisions Publications soutenant les émeutes au Royaume-Uni et Images de manifestation associées à des slogans en soutien à Duterte). Comme le Conseil l’a fait remarquer à plusieurs reprises, celles-ci se distinguent des obligations étatiques dans ce domaine, et si des États appliquaient des restrictions similaires, ils enfreindraient certains droits.
Meta n’a pas expliqué clairement si elle prévoyait que ses notes de la communauté s’apparentent à une mesure d’atténuation pour ces types de préjudices. D’un côté, en réponse à une question du Conseil sur la relation entre les notes de la communauté et la vérification tierce, Meta a indiqué qu’il y avait des « différences fondamentales » entre les deux systèmes, et que les notes de la communauté servaient un objectif plus large : les contributeurs « ajoutent du contexte à n’importe quel élément de contenu qui, selon eux, pourrait bénéficier d’informations supplémentaires ». D’un autre côté, Meta a annoncé le lancement des notes de la communauté en même temps que la fin de son programme de vérification tierce aux États-Unis. L’entreprise décrit les notes de la communauté spécifiquement comme une fonctionnalité qui permet aux personnes d’« ajouter plus de contexte aux publications qui sont potentiellement trompeuses ou déroutantes » (italique ajouté). Meta qualifie également les notes de la communauté de partie intégrante à son approche en matière de fausses informations, la vérification tierce fonctionnant comme un mécanisme d’« information » en dehors des États-Unis et les notes de la communauté jouant le même rôle dans ce pays.
Le Conseil estime que ces dernières déclarations, ainsi que la politique de Meta sur les fausses informations de manière plus générale, montrent que l’entreprise cherche activement à lutter contre ce type d’informations trompeuses et qu’elle prévoit que les notes de la communauté l’aident à remplir cette responsabilité.
Dans la mesure où les notes de la communauté sont conçues en tant qu’outil pour répondre aux préoccupations liées aux droits humains et aux fausses informations qui ne remplissent pas les critères de suppression, le Conseil est ravi de constater que les notes de la communauté ne restreignent pas les discours de la même manière que d’autres mesures, par exemple la suppression de contenu et les pénalités infligées aux comptes. Ni la visibilité ni la portée du contenu auquel est ajoutée une note n’est réduite, à l’inverse des publications qui reçoivent des étiquettes à la suite d’une vérification tierce. Le Conseil estime qu’il est approprié de moduler la proportionnalité de l’intervention de Meta pour la rendre plus cohérente avec la protection de la liberté d’expression. Dans certains contextes, le programme peut également générer des contre-discours qui servent à lutter efficacement contre ce type de fausses informations et qui, donc, aident Meta à remplir ses responsabilités en la matière. Toutefois, si Meta envisage les notes de la communauté comme son principal, voire seul moyen de lutter contre tous les types d’informations trompeuses qui ne remplissent pas les critères de suppression, les choix de conception inhérents à leur fonctionnement peuvent limiter leur capacité à atteindre leur objectif. Les effets desdits choix, tels que le fait d’utiliser l’unique axe de divergence de l’algorithme lorsque les divisions sociétales sont complexes, les décalages dans la publication des notes, le nombre de notes publiées relativement faible et, surtout, la dépendance du système à l’égard de la richesse et de la fiabilité de l’environnement d’informations au sens large (y compris la vérification tierce lorsqu’elle est disponible), suscitent de nombreuses inquiétudes quant à l’adéquation des notes de la communauté avec leur objectif, la lutte contre les informations trompeuses associées aux préjudices.
Dernièrement, la Rapporteuse spéciale sur la liberté d’expression a fait part de ses préoccupations relatives aux implications de certaines de ces fonctionnalités sur les droits humains, ainsi qu’à l’adoption, à l’échelle de l’industrie, d’approches participatives en matière de vérification des informations, comme les notes de la communauté (A/80/341, paragraphes 67 à 72). Bien qu’elle ait souligné les avantages potentiels de la modération par la communauté, tels que son caractère évolutif, son coût et sa nature démocratique, la Rapporteuse spéciale a également signalé ses possibles points faibles. Ceux-ci incluent : « risque de manipulation » des évaluations, « manque de cohérence dans l’application des normes », « absence d’expertise cohérente et exigence de consensus » (A/80/341, paragraphes 69 et 70). La Rapporteuse spéciale conclut que « les notes de la communauté et la vérification des faits ne sont pas mutuellement exclusives » (A/80/341, paragraphe 72). Comme discuté ci-dessus, dans les contextes de profonde polarisation où les divisions sociales ne correspondent pas parfaitement au modèle de polarisation supposé par l’algorithme des notes de la communauté, les évaluations consensuelles peuvent être difficiles à atteindre. Dans la pratique, cette limitation technique peut déboucher sur le fait qu’un nombre trop faible de notes sont publiées pour que le système lutte efficacement contre les informations trompeuses. En outre, étant donné que Meta utilise ses technologies automatisées pour limiter la diffusion des publications à la limite de l’infraction (c.-à-d. le contenu que ses systèmes soupçonnent de violer les Standards de la communauté, sans que cette infraction ait toutefois été confirmée) pour lesquelles les personnes ont demandé des notes dans l’interface des contributeurs, ces publications, dont la plupart ont besoin d’informations contextuelles, sont moins susceptibles de recevoir des notes. Au-delà du fonctionnement de l’algorithme, le Conseil considère la pratique de Meta qui consiste à limiter la diffusion dans l’interface des contributeurs comme une autre explication de la raison pour laquelle les notes de la communauté peuvent afficher trop peu de notes pour que le système lutte efficacement contre les informations trompeuses. Cependant, le Conseil reconnaît par ailleurs que les risques de mainmise sur le système, les incohérences et l’expertise inégale des contributeurs ne sont pas propres aux systèmes basés sur la communauté et qu’ils peuvent également se poser dans le cadre d’une modération automatisée ou effectuée par des experts.
Bien qu’une étude ait trouvé que les notes de la communauté sont perçues comme plus fiables que les étiquettes des médias de vérification, d’autres recherches sur la précision des notes de la communauté ont montré que les évaluations participatives ne sont pas aussi précises que celles des médias de vérification professionnels. De plus, il est important de souligner le rôle des sources fournies par les médias de vérification professionnels dans les notes de la communauté qui obtiennent le statut « utiles ». Une étude de recherche récente a conclu que les « notes de la communauté citent des sources d’informations vérifiées jusqu’à cinq fois plus que ce qui avait été annoncé auparavant », tandis qu’une autre étude a montré que les « organisations de vérification des informations sont la troisième source la plus utilisée dans le monde entier ». Ces comparaisons n’impliquent pas que le programme de vérification des informations de Meta ne présente pas, lui aussi, de limitations ni de faiblesses significatives. Par exemple, le Conseil a trouvé précédemment qu’une écrasante majorité du contenu dans les files en attente de vérification n’était jamais examinée par les médias ad hoc, en partie à cause de contraintes opérationnelles et liées aux ressources (cf. l’avis consultatif en matière de politique Suppression des fausses informations sur le COVID-19). Ainsi, bien que les limitations des notes de la communauté soulèvent des préoccupations légitimes, le Conseil constate que les mesures basées sur des contre-discours contextuels peuvent, dans certaines circonstances, mieux satisfaire aux considérations liées à la proportionnalité et à la liberté d’expression que les interventions plus intrusives, en particulier lorsque les fausses informations ne remplissent pas les critères de suppression.
Plus important encore, dans la mesure où le système de notes de la communauté est conçu pour faire partie intégrante de la réponse globale de Meta aux préoccupations qui, liées aux droits humains, découlent de fausses informations et d’informations trompeuses peu susceptibles de causer un préjudice imminent, leur déploiement ne peut pas être évalué de manière isolée. Les capacités de vérification des informations par les professionnels dans certains marchés, certaines langues et certains domaines sont limitées, voire nulles, et les notes de la communauté pourraient être le moyen par lequel les utilisateurs reçoivent des informations contextuelles sur du contenu potentiellement trompeur. Ailleurs, où les opérations de vérification tierce sont plus efficaces, celles-ci pourraient être complétées par les notes de la communauté (cf. PC-31587, Réseau européen des normes de vérification des faits). Meta devrait prendre en compte l’état général de l’écosystème d’information existant, y compris l’accessibilité à celles-ci et leur fiabilité, lorsqu’elle détermine où et quand déployer les notes de la communauté. Au moment de prendre ces décisions, Meta devrait tenir compte de la présence (ou de l’absence) d’agences de vérification des informations, puisqu’elles jouent souvent un rôle dans la structuration des environnements d’informations au sens large par le biais de leurs recherches, de leur collecte d’informations et de leurs reportages. Cette considération est particulièrement importante dans les zones en conflit, en période d’élections et dans les environnements où les groupes marginalisés et les minorités défavorisées de longue date ne peuvent participer adéquatement au discours public.
Diligence raisonnable en matière de droits humains
Meta a décrit la diligence raisonnable dont elle a fait preuve avant le lancement des notes de la communauté aux États-Unis comme « un examen d’études et de recherches académiques » axé sur la version des notes de la communauté de X, ainsi que sur les algorithmes de consensus au sens large. Elle a dit qu’elle avait procédé à cet examen, qui concernait exclusivement les États-Unis, pour évaluer divers facteurs susceptibles d’être considérés comme des indicateurs de l’efficacité du programme. Il s’agissait notamment d’examiner des recherches qui cherchaient à savoir si le public américain percevait les notes de la communauté comme un outil plus légitime que la vérification des informations traditionnelle, ce qui pourrait suggérer que « les gens seraient plus enclins à accepter les informations fournies par une note de la communauté que par un média de vérification tiers ». En outre, en réponse aux questions du Conseil, Meta a expliqué qu’elle « avait évalué des études sur la précision des notes de la communauté, afin de savoir si elles pouvaient atteindre, voire surpasser la précision de la vérification tierce ». Meta n’a pas indiqué si une quelconque portion de ces recherches était axée sur les préjudices auxquels les notes de la communauté peuvent contribuer en matière de droits humains. L’entreprise a dit que son équipe chargée des politiques relatives aux droits humains conseillait maintenant les équipes transfonctionnelles pertinentes de détecter les risques et les avantages potentiels que les notes de la communauté représentent pour les droits humains. Cet avis consultatif devrait également être considéré comme partie intégrante de la diligence raisonnable dont Meta doit faire preuve en matière de droits humains autour du déploiement mondial des notes de la communauté.
Les recommandations du Conseil et l’analyse connexe des facteurs que Meta doit prendre en compte lors de l’exclusion de certains pays du déploiement des notes de la communauté sont fondées sur une considération plus large des répercussions potentielles du déploiement international susmentionné sur les droits humains. Les risques pour les droits humains et les stratégies d’atténuation appropriées dépendent toutefois énormément de la conception et du fonctionnement des notes de la communauté dans chaque contexte. Meta a affirmé que les méthodes d’atténuation des risques pour les droits humains qu’elle avait envisagées étaient suffisantes (p. ex., l’anonymat des contributeurs et les mesures de protection contre la manipulation du système) dans les documents fournis au Conseil, mais leur efficacité ne peut pas être vérifiée de manière adéquate tant qu’il n’y a pas de données ni de rapports sur leur fonctionnement dans la pratique.
Les recommandations du Conseil sont donc nécessairement conditionnelles, puisqu’il est impossible de répondre avec grande certitude aux questions posées par Meta en l’absence de données détaillées sur le fonctionnement de l’algorithme de ses notes de la communauté dans les situations réelles, ainsi que sur leur relation aux autres outils de lutte contre les fausses informations. L’entreprise doit également surveiller et mesurer soigneusement leurs véritables répercussions à mesure que le système est déployé dans de nouveaux et différents contextes. Meta s’est engagée à tester ses notes de la communauté avant son lancement dans un marché. Le Conseil fait remarquer que ces tests doivent être axés sur la détection et l’atténuation des risques liés au fonctionnement de l’algorithme, à la représentation linguistique et à la participation des contributeurs. Le Conseil réitère ses appels pour une transparence substantielle, la publication de rapports et l’accès des chercheurs aux données sur les performances des notes de la communauté. Ces données devraient correspondre à celles que X partage à l’heure actuelle sur son propre système de notes de la communauté, y compris, au minimum, le texte complet de toutes les notes et leur localisation connexe, les évaluations de chaque note, l’historique de leur statut, les utilisateurs inscrits et les demandes de notes sur du contenu.
6. Facteurs recommandés au niveau des pays
Le Conseil avance les facteurs suivants pour orienter le déploiement des notes de la communauté de Meta. Pour évaluer ces facteurs et les pondérer les uns par rapport aux autres de manière évolutive, le Conseil suggère également des évaluations et des classements pertinents que Meta devrait examiner dans le cadre de ses préparations au déploiement des notes de la communauté et de leur suivi subséquent. Ces évaluations et ces classements ne constituent pas des sources de vérité exhaustives sur les conditions qui règnent dans chaque pays, mais donnent des indications générales sur certains des facteurs ci-dessous. Meta devrait également passer en revue ses propres données sur les performances des notes de la communauté et consulter des experts et des parties prenantes des pays où le programme peut être déployé.
Comme discuté ci-dessus, Meta a la possibilité de déployer les notes de la communauté de manière à respecter les droits humains. Plusieurs facteurs peuvent nuire à l’ordre d’implémentation de Meta, et certains facteurs nécessitent qu’elle fasse preuve d’une diligence raisonnable encore plus grande. Il y a également d’autres facteurs que le Conseil considère qu’il est indispensable de prendre en compte et pour lesquels Meta devrait veiller à ce que ses mesures d’atténuation soient efficaces avant de poursuivre.
Contextes de restriction des droits humains
Comme discuté tout au long de cet avis, le programme de notes de la communauté dépend d’une base de contributeurs actifs et engagés. Les systèmes du style des notes de la communauté, et les technologies de consensus au sens large, ont obtenu leurs meilleurs résultats dans les contextes caractérisés par une société civile solide. Idéalement, les contributeurs doivent avoir accès à des médias indépendants pour appuyer les notes de la communauté proposées et y participer sans crainte de harcèlement ou de représailles à la suite de la rédaction ou de l’évaluation de notes. Ces conditions peuvent être plus difficiles à mettre en place dans les pays où les droits humains ont déjà été restreints. Dans de tels environnements, l’influence de l’État, les acteurs en ligne coordonnés et la peur des représailles peuvent dénaturer la participation de la communauté, et ainsi conduire à une surreprésentation de la majorité ou des versions avancées par l’État au sein des contributeurs. Cela peut avoir des effets dissuasifs qui tuent dans l’œuf les voix d’opposition au sein du système.
D’un autre côté, le Conseil a également pris en compte la manière dont les environnements sans indicateurs d’une société civile solide (faible liberté d’expression, preuves historiques et actuelles d’abus systémiques des droits humains, etc.) pourraient bénéficier de l’introduction des notes de la communauté (cf. PC-31548, Cubalex). Ainsi, si des mesures de protection solides sont garanties aux contributeurs, les notes de la communauté pourraient leur donner les moyens de lutter contre la répression en utilisant le système pour faire émerger des points de vue différents et publier des informations qui, sinon, resteraient inaccessibles. Si l’anonymat est préservé, le système pourrait également servir à la remise en question des versions étatiques officielles.
En raison des risques pour la sécurité des contributeurs, le Conseil recommande à Meta d’exclure les pays avec un historique de restriction des droits humains et des sociétés civiles faibles de la liste des territoires internationaux où les notes de la communauté seront déployées, à moins que l’entreprise puisse prouver que ses mesures de protection des contributeurs sont solides et efficaces, à l’aide de données de simulation d’attaques contre son système, d’une politique claire sur la gestion des demandes de données des notes de la communauté qui émanent des forces de l’ordre, et de mesures d’atténuation des risques. Pour le Conseil, il s’agit d’une condition nécessaire à l’élargissement du programme. Les classements comme Freedom in the World et Freedom on the Net de Freedom House, ainsi que le projet Varieties of Democracy (V-Dem), le Rapport sur la liberté d’expression dans le monde d’Article 19 et le Classement mondial de la liberté de la presse de Reporters sans frontières, s’appuient sur plusieurs indicateurs (au-delà du score global de chaque pays) qui permettent de mesurer de manière holistique les taux de liberté d’expression, de liberté de la presse et d’engagement des sociétés civiles.
Élections à haut risque
Le Conseil reconnaît que certains contextes électoraux peuvent être adaptés aux notes de la communauté. Lorsque les environnements d’informations sont solides, que la liberté de la presse permet aux journalistes de rendre compte de différents points de vue sur des questions pertinentes et que les acteurs de la société civile agissent sans crainte de représailles, les notes de la communauté peuvent contribuer à l’accès à l’information et à la liberté d’expression en période électorale. Toutefois, lorsque ces conditions ne sont pas réunies et que le système risque de publier des notes qui trompent les populations sur des faits essentiels à l’exercice de leur droit à participer à la direction des affaires publiques dans des moments critiques des processus électoraux, Meta devrait agir avec prudence. En présence de ces risques pour les droits humains, lorsque Meta estime, par le biais de tests, d’évaluations des risques et d’une diligence raisonnable en matière de droits humains, que ses mesures de protection sont insuffisantes pour les atténuer, les notes de la communauté ne doivent pas être introduites avant ou pendant des élections importantes. Pour le Conseil, il s’agit d’un seuil que Meta devrait utiliser pour déterminer si, à un moment donné, les notes de la communauté sont prêtes à être déployées dans un pays.
Comme discuté ci-dessus, certaines recherches suggèrent que la rapidité avec laquelle les fausses informations sont diffusées surpasse largement la capacité des systèmes de modération participatifs. Pour les élections, qui sont des évènements ponctuels caractérisés par une activité politique intense, une intervention en décalé peut avoir des répercussions immédiates sur les droits à la participation politique. Une exposition initiale à du contenu trompeur peut influencer des réponses ou miner la confiance dans les institutions et les processus politiques avant que les notes qui offrent des interprétations différentes du contenu ou des corrections puissent faire surface. Les périodes électorales qui se prolongent en raison de résultats contestés, par exemple, peuvent être affectées par la persistance des récits trompeurs. Dans ces deux circonstances, les notes de la communauté ne créent pas de préjudices affirmatifs (comme cela serait le cas si elles faisaient émerger des discours haineux ou si elles exposaient les contributeurs à des représailles de la part des autorités gouvernementales), mais, lorsqu’elles sont déployées seules, elles constituent peut-être une mesure inadéquate d’atténuation des informations trompeuses qui n’entraînent probablement pas de préjudices imminents. Aussi le Conseil recommande-t-il que tout déploiement des notes de la communauté avant des élections traite de la manière dont le système est associé à d’autres mesures électorales, comme les Centres de gestion des produits d’intégrité et les Centres d’opérations électorales.
Lorsqu’elle envisage de possibles calendriers de déploiement, Meta devrait consulter les données et les classements pertinents en matière d’intégrité des élections, ainsi que les calendriers qui renseignent les futures élections dans le monde, tels que le Guide sur les élections de l’IFES, la Fondation internationale pour les systèmes électoraux.
Situations de crise et de conflit
En période de crise et de conflit, tous les risques susmentionnés peuvent être présents. Les notes de la communauté peuvent être vulnérables à la manipulation coordonnée par des groupes armés, des acteurs de l’État ou leurs partisans qui cherchent à légitimer leur propagande en contournant le système d’évaluation des notes. Les notes qui sont publiées mais qui reflètent des consensus fabriqués et non authentiques contribuent à la création d’environnements d’informations faussés qui mettent les utilisateurs en danger. Les asymétries informationnelles dans les notes de la communauté peuvent être exacerbées lorsque des groupes précis ne sont pas en mesure de participer en tant que contributeurs en raison de facteurs prédominants en période de conflits, tels que l’absence d’un accès stable à Internet et la sécurité indispensable à leur participation. Au-delà de la manipulation intentionnelle des informations, le contenu faux ou trompeur lié à la violence et à la sécurité publique qui ne remplit pas nécessairement les critères de Meta au titre de ses règles sur les fausses informations et les préjudices peut se diffuser rapidement et avoir des répercussions hors ligne avant que des notes de la communauté soient proposées, évaluées et publiées.
Le système risque également de publier du contenu violent si l’algorithme des notes de la communauté détecte une division qui ne correspond pas aux sources de violence d’un conflit précis. Dans ce scénario, le système pourrait éventuellement détecter un consensus malgré les divergences de groupes dominants qui partagent une certaine hostilité à l’égard d’un autre groupe impliqué dans le conflit, ce qui déboucherait sur des notes qui ciblent ce groupe mutuellement défavorisé, voire incitent à la violence à son encontre.
Les conséquences et les répercussions sur les droits humains de ces problèmes potentiels sont aggravées en temps de crise et de conflit à cause de la rapidité avec laquelle les évènements majeurs évoluent. Ainsi, la question de l’opportunité des notes de la communauté est essentielle. Le délai qui précède la publication des notes, que de nombreuses parties prenantes considèrent comme une préoccupation majeure, suggère que les notes de la communauté ne constituent pas une mesure de protection principale adéquate lors de crises et de conflits. En outre, ces situations se caractérisent par une propension accrue à la violence, ce qui signifie que les seuils d’incitation pourraient être plus faibles. Par conséquent, les notes qui ciblent des groupes particuliers peuvent plus facilement engendrer des préjudices hors ligne. Ici, le Conseil réitère la recommandation qu’il a émise dans sa décision Publications soutenant les émeutes au Royaume-Uni pour que Meta procède « à des évaluations continues de l’efficacité des notes de la communauté par rapport à la vérification des informations par des tiers » et qu’elle tienne compte en particulier « de la vitesse, de la précision et du volume des notes et des étiquettes apposées dans les cas où la propagation rapide de fausses informations entraîne un risque pour la sécurité publique ».
Comme dans le cadre d’élections, le Conseil part du principe que les autres mesures d’intégrité mises en place en période de crise et de conflit le resteront. Meta devrait s’assurer que tout déploiement des notes de la communauté qui implique ce genre de situations traite la manière dont le système est associé à ces protocoles et outils de crise. Le Conseil est préoccupé par le fait que, comme Meta l’a expliqué dans sa réponse à une question qu’il a posée, l’entreprise « n’ait pas prévu de dispositions relatives à l’utilisation du produit en situation de crise, y compris l’ajustement, la modification ou la suspension de la fonctionnalité ». Compte tenu des inquiétudes quant aux performances inégales des notes de la communauté et à l’absence de données pilote vérifiées en interne sur l’efficacité du système en temps de crise et de conflit, Meta devrait consulter des données et des classements pertinents, tels que les Armed Conflict Location & Event Data (ACLED), pour éviter de dépendre des notes de la communauté lors de ces évènements.
En raison de cette incertitude liée aux performances des notes de la communauté en réponse à des dynamiques conflictuelles complexes, ainsi qu’au fait que le système peut augmenter les risques de préjudices ou en comporter, le Conseil ne croit pas que les notes de la communauté devraient être déployées dans les pays qui sont le théâtre d’une crise ou d’un conflit prolongé. Selon le Conseil, il s’agit d’un autre seuil que Meta devrait utiliser pour déterminer où déployer les notes de la communauté.
Complexité linguistique à laquelle Meta ne peut s’adapter sur le plan technique et opérationnel
Pour que les notes de la communauté fonctionnent comme Meta le prévoit, la base de contributeurs doit refléter les différentes langues utilisées dans un contexte donné. Dans les pays où le programme ne fonctionne pas dans ces langues ou lorsque Meta n’est pas en mesure d’atteindre les niveaux de représentation et de participation linguistiques requis pour que le système fonctionne correctement, l’entreprise devrait ajourner le déploiement des notes de la communauté. Si elle ne le fait pas, les disparités linguistiques pourraient en être exacerbées dans les notes de la communauté qui sont proposées et publiées, ce qui nuirait au système en tant que source d’informations plurielles et diverses.
En outre, le Conseil a appelé Meta à de nombreuses reprises à s’assurer de la parité linguistique, aussi bien technique qu’opérationnelle, dans l’ensemble de ses systèmes de modération de contenu. Ces appels étaient axés sur des fonctions telles que le développement d’outils de modération automatisés qui prennent en compte le contexte dans toutes les langues, le fait de veiller à ce que les classificateurs sont précis, quelle que soit la langue, la collaboration avec des partenaires de confiance dans différentes langues et le maintien de relations avec les médias de vérification tierce qui peuvent évaluer les réclamations dans différentes langues au sein d’un marché donné. Les notes de la communauté seules ne peuvent remplir toutes les fonctions de la modération de contenu chez Meta.
Enfin, le Conseil fait remarquer que la manière dont les groupes utilisent les notes de la communauté peut varier sur les plans linguistique et culturel, et que cela a son importance. Par exemple, un clic sur le bouton qui permet d’évaluer une note comme « utile » peut signifier diverses choses dans différents pays, et ce de manière inattendue en fonction des normes relatives à la manière dont ce bouton devrait être utilisé, ou la connotation exacte du mot « utile » dans l’interface d’utilisation des notes de la communauté en fonction de sa traduction dans diverses langues. Ces différences affecteront la manière dont l’ensemble de données accumulées par le système des notes de la communauté est structuré, la signification qui doit y être attachée et, en fin de compte, les types de notes publiées. Dans les pays dont Meta prévoit que ces fonctionnalités des notes de la communauté ne peuvent pas être adaptées à la complexité linguistique, elle devrait ajourner le déploiement du programme jusqu’à ce que les recherches et les tests montrent que les utilisateurs de divers contextes culturels et linguistiques sont capables de comprendre le système et d’interagir avec lui.
Là où les divergences et les divisions sociales qui sous-tendent à la violence ne correspondent pas à un axe de polarisation unique
De manière générale, l’algorithme des notes de la communauté de X, de par sa conception, modélise les désaccords et les divisions qui existent dans un contexte particulier sur un seul axe de polarisation. Il essaye de trouver un consensus entre des groupes radicalement opposés de ce spectre. Meta n’a fourni aucune information qui suggérerait que son programme serait substantiellement différent. Toutefois, dans les contextes où les divergences ne peuvent pas être facilement modélisées le long d’un seul axe, cette assomption pourrait être inappropriée. Ainsi, les notes de la communauté ne traiteront probablement pas la manière dont plusieurs facteurs s’entrecroisent (sur le plan politique, ethnique, religieux, linguistique ou de la caste, par exemple) pour alimenter les divisions.
En pratique, cela signifie que, dans certaines situations, les notes de la communauté risquent de trouver un consensus le long d’un axe dont la pertinence est limitée par rapport aux divisions sociétales les plus significatives. Dans certains scénarios, des notes nuisibles qui atteignent un consensus risquent d’être publiées. Cela peut se produire, par exemple, quand des groupes dominants partagent un préjugé mutuel à l’encontre d’un groupe minoritaire, et que ce préjugé sert de « consensus » entre ces groupes dominants. Dans les contextes où l’algorithme ne détecte pas de division qui alimente le conflit et la violence et qu’il cherche à trouver un consensus pour y « remédier », ce risque de préjudice est particulièrement élevé. Aussi le Conseil recommande-t-il à Meta de faire preuve d’une extrême prudence lors de l’examen de pays caractérisés par ces dynamiques.
Le Conseil reconnaît que tous les contextes sociopolitiques sont, dans une certaine mesure, caractérisés par plusieurs axes de divergence. Toutefois, il y a des contextes dans lesquels les risques de discordance entre la façon dont les notes de la communauté modèlent les désaccords dans une société et l’aggravation de ce qui cause les divisions politiques et sociales dans ladite société. Cela concerne notamment les pays où la culture politique est caractérisée par une fragmentation linguistique, ethnique et religieuse. Ces pays doivent être catégoriquement exclus des projets de déploiement des notes de la communauté de Meta. À la place, le déploiement mondial des notes de la communauté devrait être séquencé de manière à permettre à Meta de tester les performances du système dans différents contextes et devrait commencer prudemment, dans les environnements plus semblables aux endroits pour lesquels Meta dispose déjà de données, de tests et de mesures d’atténuation des risques. L’algorithme des notes de la communauté pourrait également être conçu pour modéliser et intégrer plusieurs axes de divergence en même temps. Ici, le déploiement par Meta (et l’exclusion temporaire de certains pays qui ne remplissent pas les critères de déploiement initial) dépendrait des choix de conception qui pourraient distinguer les notes de la communauté de Meta de la version de X et les améliorer.
Le projet Varieties of Democracy (V-Dem) établit chaque année des classements de divers indicateurs de démocratie. Ceux-ci incluent des données sur les niveaux de polarisation dans différents pays, bien qu’ils offrent moins d’informations sur la nature de cette polarisation dans différents pays. Dans le cadre de la diligence raisonnable dont elle fait preuve en matière de droits humains pour le déploiement mondial des notes de la communauté, Meta devrait consulter des experts des pays caractérisés par un niveau élevé de polarisation afin d’évaluer si son algorithme est à même de saisir leurs principales divisions sociales et politiques.
Historique de réseaux de désinformation coordonnés
Les notes de la communauté reposent sur l’hypothèse qu’un ensemble suffisamment diversifié et indépendant de contributeurs évaluera le contenu de bonne foi et que les signaux de consensus permettront d’estimer de manière fiable la véracité des informations. Dans les environnements où des acteurs étatiques, des opérations d’influence commerciale ou d’autres acteurs malveillants ont montré à de nombreuses reprises leur capacité à coordonner de grands nombres de comptes pour promouvoir des informations trompeuses, cette assomption risque de ne pas se vérifier.
Meta a indiqué au Conseil qu’elle estimait que ses mesures de protection contre la manipulation et le contournement de ses notes de la communauté étaient suffisantes. Des tests continus en situation réelle des vulnérabilités des notes de la communauté produiront les données nécessaires pour vérifier si lesdites mesures sont adéquates. Si tel n’est pas le cas, les notes de la communauté risquent de devenir un vecteur de manipulation au lieu de protéger contre celle-ci. Ce risque ne fera que s’accentuer à mesure que l’intelligence artificielle facilitera la création et le fonctionnement à grande échelle de ces comptes et réseaux.
Le Conseil recommande à Meta de commencer par exclure les pays dans lesquels de larges réseaux de désinformation intentionnelle sont historiquement basés. Pour ce faire, Meta devrait se concentrer sur les marchés marqués par une nette prédominance de comportements non authentiques coordonnés et d’opérations d’influence qui ciblent les audiences nationales, comme le prouvent les propres rapports de Meta sur ces sujets. Leur inclusion à terme dans le programme de notes de la communauté devrait être conditionnée aux résultats de tests, y compris par simulation d’attaques des vulnérabilités du système, afin de montrer que les mesures de protection sont adéquates. Meta devrait non seulement tenir compte de la présence d’acteurs malveillants, y compris de ceux qui sont liés à des régimes autoritaires, mais aussi déterminer si ces acteurs ont fait part de leur intention de manipuler les écosystèmes d’information et possèdent la technologie nécessaire pour le faire à grande échelle. Des rapports au niveau des pays dans Freedom on the Net et le Classement mondial de la liberté de la presse documentent les campagnes de manipulation et les cas de désinformation orchestrés par un État, à l’instar des déclarations des entreprises.
Accès compliqué à Internet
Le Conseil recommande d’exclure les pays faisant face à des obstacles systémiques persistants d’accès à Internet, car pour fonctionner comme prévu, les notes de la communauté reposent sur une participation étendue, cohérente et équitable des contributeurs. Lorsque l’accès est limité à cause d’un manque d’infrastructures, de coûts élevés, d’une connectivité intermittente, de disparités régionales et, surtout, de coupures imposées par le gouvernement, le nombre de contributeurs à même de participer est forcément faible. Cela nuit à la prémisse principale selon laquelle les notes de la communauté reflètent un ensemble divers et représentatif de points de vue capables de déterminer collectivement quels éléments de contexte sont importants et s’ils sont pertinents par rapport à des affirmations potentiellement trompeuses. En outre, si des groupes particuliers sont exclus à cause de problèmes d’accès ou que d’autres groupes sont surreprésentés, le système risque d’amplifier certains biais.
Comme Meta le fait remarquer dans sa requête, les restrictions gouvernementales d’Internet constituent un sous-facteur particulièrement important parce qu’« une liberté d’accès à Internet restreinte (en raison d’une réglementation ou d’une censure) pourrait limiter l’accès des personnes à des informations opportunes et précises pour la rédaction des notes et qu’il pourrait leur être plus difficile d’identifier des sources fiables à ajouter au sein de leurs notes (p. ex., des restrictions sur l’utilisation de moteurs de recherche précis ou sur l’accès à certains sites médiatiques) ». Freedom on the Net aide à mesurer de manière holistique les obstacles à l’accès à Internet, plus globalement. Cet indicateur rassemble les obstacles infrastructurels, économiques, gouvernementaux, réglementaires et légaux à l’accès à Internet;
Pondération
Tout au long de l’énumération de facteurs à prendre en compte, le Conseil a souligné les conditions dans lesquelles les notes de la communauté pourraient augmenter les risques de préjudices ou en comporter. Ces préjudices affirmatifs ont été distingués des scénarios dans lesquels les dangers viendraient de l’inadéquation des notes de la communauté en tant que mesure d’atténuation, en particulier pour ce qui est des informations trompeuses qui ne remplissent pas les critères de suppression de Meta. Le Conseil recommande que les facteurs où les préjudices affirmatifs sont plus probables aient un coefficient de pondération plus élevé, et il a précisé que ceux-ci impliquaient les conditions dans lesquelles Meta ne devait pas déployer les notes de la communauté tant qu’elle n’aurait pas démontré qu’elle pouvait le faire d’une manière qui garantit que ces risques ont été atténués. Par ailleurs, le Conseil a recommandé à Meta de procéder avec prudence et d’échelonner ou d’ajourner ses déploiements jusqu’à ce que les tests montrent que ses mesures de protection sont adéquates. Cela ne signifie pas pour autant que ce deuxième type de facteurs est moins important. Le Conseil fait remarquer que ces consignes ne peuvent pas absolues. Au cours de ses délibérations, le Conseil a envisagé des scénarios dans lesquels la présence d’un facteur pouvait l’emporter, de sorte qu’il était approprié d’exclure un pays, ainsi que des scénarios dans lesquels aucun facteur n’était particulièrement prédominant, mais plusieurs facteurs étaient associés d’une telle manière que l’exclusion se justifiait.
En fin de compte, la diligence raisonnable dont Meta fait preuve en matière de droits humains et ses efforts d’atténuation des risques doivent la conduire à examiner les facteurs recommandés par le Conseil, en même temps que ses données de plateforme internes et les avis externes sur les performances des notes de la communauté. Le Conseil note que Meta effectue déjà le suivi de certains des facteurs ci-dessus, ainsi que des classements recommandés en tant que compléments aux facteurs, dans le cadre de son Index de priorisation des pays en fonction de leur intégrité. Il s’agit d’un processus semestriel sur lequel Meta s’appuie pour examiner et classer les pays qui présentent les risques les plus élevés de préjudices et de violence hors ligne. Le Conseil s’attend à ce que Meta fasse preuve de la même rigueur et du même bon sens pour déterminer comment déployer les notes de la communauté dans différents pays.
Dans l’analyse ci-dessus, le Conseil a fourni à Meta toute une série de facteurs qu’elle devrait prendre en compte pour déterminer si elle doit exclure un pays d’un futur déploiement des notes de la communauté en dehors des États-Unis, ainsi que des conseils sur les domaines dans lesquels la collecte et l’analyse de données supplémentaires sur le fonctionnement du programme seront essentielles pour évaluer la pertinence de ces facteurs et leurs enjeux à l’avenir. Pour prouver qu’elle a tenu compte des facteurs recommandés par le Conseil, Meta doit lui fournir les critères ou la matrice de risques qu’elle développe pour orienter le déploiement tous les six mois pendant sa période initiale, ainsi que des preuves de la façon dont ces critères sont appliqués au déploiement des notes de la communauté en fonction de chaque pays.
Le Conseil considérera que cette recommandation a été appliquée lorsque Meta aura fourni son premier rapport détaillé sur la façon dont les facteurs susmentionnés ont été pris en compte et pondérés pour chaque marché pertinent, et dont la collecte de données supplémentaires sur le fonctionnement du programme et leur évaluation seront intégrées aux réévaluations périodiques de la pondération desdits facteurs.
* Note de procédure
Les avis consultatifs en matière de politique du Conseil de surveillance sont préparés par des groupes de cinq membres et approuvés par la majorité du Conseil. Les décisions du Conseil ne représentent pas nécessairement les opinions personnelles de tous ses membres.
Pour cet avis consultatif en matière de politique, une étude indépendante a été commandée pour le compte du Conseil. Le Conseil a bénéficié de l’aide de Duco Advisors, une société de conseil spécialisée dans la géopolitique, la confiance et la sécurité, ainsi que la technologie.
Retour aux décisions de cas et aux avis consultatifs politiques