Confirmé

Images de manifestation associées à des slogans en soutien à Duterte

Le Conseil de surveillance a confirmé la décision de Meta de conserver une publication Facebook incluant une vidéo manipulée, mise en ligne pendant une crise politique survenue aux Philippines, en indiquant toutefois qu’une étiquette « Risque élevé » aurait dû être apposée sur le contenu, en raison du risque significatif d’induire les utilisateurs en erreur sur un sujet d’intérêt général.

Régions/Pays

Emplacement
Philippines

Plate-forme

Plate-forme
Facebook

Pour lire cette décision en tagalog, cliquez ici.

Para basahin ang desisyong ito sa wikang Tagalog, i-click ito.

Pour lire cette décision en bisaya, cliquez ici.

Aron mabasa kini nga desisyon sa Bisaya, pag-click dinhi.

Résumé

Le Conseil de surveillance a confirmé la décision de Meta de conserver une publication Facebook incluant une vidéo manipulée, mise en ligne pendant une crise politique survenue aux Philippines, en indiquant toutefois qu’une étiquette « Risque élevé » aurait dû être apposée sur le contenu, en raison du risque significatif d’induire les utilisateurs en erreur sur un sujet d’intérêt général. Le Conseil recommande à Meta d’expliquer publiquement les étiquettes apposées sur les contenus multimédias manipulés et la manière dont elle les applique. La vidéo aurait dû être vérifiée en priorité et le Conseil estime qu’elle est presque identique à d’autres contenus déjà soumis à vérification. En outre, Meta devrait fournir aux médias de vérification de meilleurs outils pour lutter contre les contenus trompeurs.

À propos du cas

En mars 2025, l’ancien président des Philippines Rodrigo Duterte a été extradé vers la Cour pénale internationale aux Pays-Bas, accusé d’avoir commis des crimes contre l’humanité pendant son mandat de 2016 à 2022. Quelques jours après cette arrestation, un utilisateur de Facebook a repartagé une vidéo manipulée publiée par un autre utilisateur. Cette vidéo repartagée contenait les images d’une manifestation en Serbie sans rapport avec l’arrestation de Duterte, auxquelles des légendes et un audio avaient été ajoutés afin de la faire passer pour une manifestation de soutien à Duterte aux Pays-Bas.

La vidéo incluait la superposition de texte « Netherland » (Pays-Bas). Dans cet audio, les manifestants scandent « Duterte » de manière répétée, avec en fond sonore la chanson « Bayan-Ko » en tagalog. « Bayan Ko » était une chanson populaire au cours des manifestations contre la loi martiale aux Philippines dans les années 1980.

La publication d’origine, partagées des centaines de fois et ayant reçu environ 100 000 vues, a été signalée par les systèmes automatisés de Meta comme pouvant contenir de fausses informations. Meta a inclus le contenu dans la file d’attente en ligne pour la vérification des informations. Par ailleurs, Meta a temporairement réduit la visibilité de la publications dans les fils Facebook des utilisateurs en dehors des États-Unis. Plusieurs vidéos similaires sont devenues virales, dont certaines ont été qualifiées de fausses par les partenaires de vérification des informations de Meta aux Philippines. Cependant, en raison du grand volume de publications en attente, les médias de vérification n’ont pas été en mesure d’examiner cette publication concrète. Un autre utilisateur de Facebook a signalé la publication repartagée en l’accusant de propager de fausses informations. Meta ayant conservé la publication, l’utilisateur a fait appel. L’appel a été soumis à un examen manuel, qui a confirmé la décision initiale. L’utilisateur a alors introduit un appel auprès du Conseil de surveillance.

Principales conclusions

Le Conseil s’accorde avec Meta pour dire que la publication devait être maintenue en ligne, celle-ci n’incluant pas le type de contenu interdit par la politique de Meta sur les fausses informations, comme les bureaux de votes, les procédures électorales ou l’éligibilité des candidats. Cependant, le Conseil note qu’en plus d’envoyer le contenu à la vérification des informations et de le rétrograder temporairement dans le fil des utilisateurs, Meta aurait dû apposer une étiquette « Risque élevé » sur celui-ci, car il contenait une vidéo photoréaliste retouchée numériquement, associée à un risque élevé d’induire le public en erreur pendant un évènement public important.

Compte tenu de l’importance de la transparence autour de l’étiquetage du contenu multimédia manipulé, le Conseil recommande à Meta de fournir une description de ses différentes étiquettes et des critères utilisés pour les appliquer. À l’heure actuelle, les informations les plus détaillées sur l’étiquetage par Meta du contenu multimédia manipulé figurent dans les décisions du Conseil.

Meta aurait dû prendre d’autres mesures pour garantir que la publication allait être soumise à vérification. Bien que, dans le cadre du processus de vérification, Meta accorde la priorité au contenu similaire pendant les élections, l’arrestation très médiatisée d’un ancien chef de l’État et autres crises politiques « actuelles, populaires et importantes » devraient être traitées comme des évènements critiques qui remplissent les critères pour faire l’objet d’une vérification renforcée. En outre, après examen, le Conseil a déterminé que le contenu aurait aussi dû être considéré comme presque identique à un contenu déjà vérifié et qu’il aurait dû être étiqueté en conséquence, tout en reconnaissant les difficultés rencontrées par Meta pour réaliser ces processus à grande échelle.

Le Conseil note que la vidéo manipulée peut faire partie de campagnes de fausses informations concertées, dans lesquelles du contenu similaire mais non identique est publié et partagé avec de légers ajustements pour contourner la vérification des informations. Cela rend impératif pour Meta de se doter de solides processus pour lutter contre les publications trompeuses virales, et notamment en accordant la priorité au contenu identique ou pratiquement identique lors des vérifications et en appliquant toutes les politiques pertinentes et les outils associés. Les médias de vérification des informations devraient également bénéficier de meilleurs outils, pour identifier rapidement le contenu viral susceptible de réaliser des déclarations trompeuses récurrentes.

Décision du Conseil de surveillance

Le Conseil confirme la décision de Meta de conserver le contenu.

Le Conseil recommande également à Meta ce qui suit :

  • Décrire les différentes étiquettes informatives utilisées par l’entreprise pour les contenus multimédias manipulés, et les cas dans lesquels elle les utilise.
  • Mettre en place une file d’attente séparée au sein de l’interface de vérification, destinée au contenu similaire sans être identique ou presque identique au contenu déjà vérifié sur un certain marché.

*Les résumés de cas donnent un aperçu des cas et n’ont pas valeur de précédent.

Décision complète sur les cas

  1. Description des cas et contexte

Après l’arrestation du président des Philippines Rodrigo Duterte en mars 2025 pour répondre d’accusations devant la Cour pénale internationale aux Pays-Bas, un utilisateur de Facebook a repartagé la vidéo d’un autre utilisateur. La vidéo d’origine montre un rassemblement de manifestants dans une rue, qui brandissent des pancartes et le drapeau serbe. La vidéo inclut la superposition de texte « Pays-Bas » et une chanson patriote en tagalog, « Bayan Ko », est diffusée en fond sonore. Le son des manifestants qui scandent « Duterte !», peut aussi être entendu. La chanson « Bayan Ko » était populaire pendant les manifestations contre la loi martiale dans les années 1980, dans le cadre de l’opposition au dictateur et ancien président Ferdinand Marcos Sr. La publication d’origine comportait une légende en anglais : « Netherlands supporters » (supporters des Pays-Bas) La publication Facebook repartagée faisant l’objet du présent cas incluait en légende trois emojis de visage implorant. La publication semblait donc être une manifestation serbe, sans rapport avec l’arrestation de Duterte, les légendes et l’audio associés lui donnant l’apparence d’une manifestation de soutien à Duterte aux Pays-Bas.

La publication Facebook d’origine a été partagée des centaines de fois et a enregistré environ 100 000 vues depuis sa mise en ligne. Au moment de sa mise en ligne, un classificateur Meta a signalé le contenu en tant que fausse information potentielle. L’entreprise a alors ajouté le contenu à la file d’attente en ligne fournie à ses partenaires de vérification tierce. Des versions semblables de cette vidéo sont devenues virales sur Facebook en mars 2025, dont plusieurs ont été vérifiées et qualifiées de fausses par les médias de vérification de Meta. Étant donné le nombre élevé de ces publications et leur propagation rapide sur la plateforme, les médias de vérification ne sont pas en mesure d’évaluer toutes les publications de cette file d’attente, laquelle peut inclure des publications similaires au contenu qu’ils ont déjà vérifié. Selon Meta, le média de vérification n’a pas évalué la publication d’origine et la mention « fausse » attribuée à des publications similaires n’a pas été automatiquement appliquée dans ce cas. Malgré l’absence d’évaluation, Meta a temporairement rétrogradé le contenu dans le fil des utilisateurs en dehors des États-Unis, y compris aux Philippines, en raison de certains signaux laissant présager de fausses informations.

Plusieurs jours après, un utilisateur a signalé la publication repartagée, mais selon Meta, ce signalement n’a pas été considéré comme prioritaire pour l’examen manuel. Meta n’a pris aucune mesure concernant le signalement et l’a fermé. Après avoir été informé de la conservation du contenu sur la plateforme par Meta, l’auteur du signalement a fait appel de la décision de Meta. Un examinateur a confirmé la décision initiale de garder le contenu en ligne, ce qui a mené l’auteur du signalement à faire appel de cette décision auprès du Conseil de surveillance. Lorsque le Conseil a sélectionné le cas, Meta a de nouveau ajouté la publication à la file d’attente de vérification, mais sans finalement l’évaluer.

Le Conseil fait remarquer le contexte suivant dans le cadre de sa décision.

Pendant son mandat de président des Philippines, de 2016 à 2022, Rodrigo Duterte a mené une campagne de lutte contre la drogue, marquée par une utilisation excessive de la force et les assassinats commis par des milices. Le Tribunal pénal international (TPI) a engagé un examen préliminaire de cette question, suivi d’une enquête complète. Le 11 mars 2025, Duterte a été envoyé aux Pays-Bas pour répondre d’accusations de crimes contre l’humanité devant le TPI.

Le président actuel Ferdinand Marcos, Jr., fils du défunt dictateur, a remporté les élections de 2022 et Sara Duterte, fille de Rodrigo Duterte, a été élue à la vice-présidence. Peu après les élections, l’alliance politique qui les liait a été rompue. En 2024 et en 2025, le conflit politique est monté d’un cran. En début d’année, une demande de destitution a étéprésentée à l’encontre de la vice-présidente Sara Duterte. En février, la Chambre des représentants des Philippines a voté la destitution de Sara Duterte, décision qui n’a finalement pas été appliquée. L’arrestation de Duterte en mars a été perçue par certains comme la conséquence de la querelle politique. La vice-présidente Sara Duterte a taxé l’arrestation de « kidnapping » tandis que les militants des droits de l’homme et les familles des victimes de la guerre de la drogue y ont vu une victoire en matière de responsabilisation.

Peu après l’arrestation de Duterte, des manifestations pour le soutenir ont éclaté aux Philippines et aux Pays-Bas. Les militants et les proches de victimes de la guerre de la drogue se sont également mobilisés, pour demander des responsabilités. Durant cette période, de nombreuses vidéos montrant un rassemblement en Serbie présenté comme une manifestation de soutien à Duterte aux Pays-Bas, vidéos similaires au contenu soumis à l’analyse, sont devenues virales sur les réseaux sociaux.

Trois organisations de vérification des informations, partenaires de Meta aux Philippines, ont qualifié certaines de ces vidéos de « fausses », en raison de signaux laissant présager que les images correspondaient à une manifestation en Serbie et non aux Pays-Bas, sans rapport avec l’arrestation de l’ancien président Duterte. Ces médias de vérification ont également publié leur évaluation, sanctionnée par la mention « fausse », sur leurs sites Web respectifs. D’après l’AFP, ces vidéos ont « détourné des visuels sans rapport pour gonfler la taille de la foule » (PC-31360). Une autres vidéo similaire, ayant récolté plus de trois millions de vues sur les réseaux sociaux, montrait une procession catholique faussement présentée comme un rassemblement de soutien à Duterte.

Lorsque l’AFP a envoyé un commentaire public pour ce cas, elle avait déjà vérifié « plus de 30 affirmations fausses ou trompeuses » en lien avec l’arrestation de Duterte (PC-31360). Rappler, un autre média de vérification de Meta aux Philippines a noté que « plusieurs versions de cette vidéo manipulée » étaient devenues virales sur Facebook dans le cadre de la « recrudescence d’opérations d’information », s’inscrivant dans des « campagnes inauthentiques et organisées », destinées à « manipuler l’opinion publique et les comportements à son profit »(PC-31349). Les spécialistes consultés par le Conseil ont déclaré que depuis 2016, ce sont les médias de vérification et les groupes de la société civile qui portent en grande partie le fardeau de la lutte contre la désinformation.

D’une manière plus générale, l’utilisation des réseaux sociaux aux Philippines est l’une des plus importante au monde, Facebook étant la plateforme la plus utilisée. Les réseaux sociaux jouent un rôle significatif dans l’élaboration du discours public autour des évènements de l’actualité. Par exemple, lors des élections nationales de 2016, les spécialistes en stratégie publicitaire et en relations publiques ont fonctionné comme des « architectes de la désinformation en réseau », afin de gérer les campagnes politiques, de recruter des influenceurs et des trolls en ligne pour semer certains récits politiques spécifiques. Lors des élections nationales de 2022, le révisionnisme historique autour de l’héritage de la famille Marcos s’est propagé sur les réseaux sociaux, ce qui, de l’avis de certains, a contribué à la victoire de Marcos Jr. aux présidentielles. Les spécialistes consultés par le Conseil ont expliqué que « les influenceurs sur les réseaux sociaux, les vlogeurs et les travailleurs numériques des entreprises de publicité et de relations publiques ont joué un rôle prépondérant dans la production et la propagation de la désinformation sur les plateformes de réseaux sociaux ». Au fur et à mesure de l’intensification de la rivalité entre le président Marcos et la vice-présidente Sara Duterte et de l’apparition de récits politiques antagoniques en ligne, les Philippins étaient de plus en plus préoccupés face à la désinformation, une étude ayant révélé qu’un « nombre record de 67 % » des gens sentaient grandir leur inquiétude face à la désinformation, à la mi-2025. Plus tôt dans l’année, le congrès philippin avait formé une commission d’enquête pour lutter contre la désinformation sur les réseaux sociaux, en invitant des influenceurs, vlogeurs et représentants des entreprises de réseaux sociaux à témoigner.

Aussi bien sous le gouvernement de Duterte que sous le gouvernement actuel de Marcos, la liberté d’expression a été mise à mal aux Philippines. Les journalistes et les médias considérés comme critiques envers Duterte ont été attaqués oufermés par le gouvernement pendant son mandat et pris pour cibles par des trolls en ligne. Les « étiquettes rouges », c’est-à-dire l’acte de signaler des groupes ou des individus en tant que « partisans, recruteurs ou membres de la nouvelle armée du peuple ou du parti communiste philippin », sont devenues une pratique habituelle, ciblant souvent les journalistes et les défenseurs des droits humains. Les menaces adressées aux médias se poursuivent sous la présidence de Marcos Jr. En juin 2025, le Rapporteur spécial des Nations Unies sur la liberté d’expression a interrogé le gouvernement des Philippines au sujet de l’intimidation et du harcèlement subis par les journalistes et les défenseurs des droits humains dans le pays. Ces difficultés, accompagnées de l’augmentation des campagnes de désinformation sur les réseaux sociaux, ont miné la confiance du public dans les institutions médiatiques aux Philippines.

2. Soumissions de l’utilisateur

D’après l’auteur du signalement, le contenu prétend montrer un rassemblement en soutien de Duterte, à la suite de sa détention par la Cour pénale internationale, ledit rassemblement n’ayant en fait jamais eu lieu. Cet utilisateur a affirmé que le contenu correspondait à un évènements différent et qu’il était donc « trompeur ». Il a déclaré par la suite que le contenu avait « déjà été vérifié » par l’un des médias de vérification de Meta aux Philippines.

3. Politiques de Meta relatives au contenu et soumissions

I. Politiques de Meta relatives au contenu

Standard de la communauté sur les fausses informations

Contenu susceptible d’être supprimé

En vertu de son Standard de la communauté sur les fausses informations, Meta supprime les fausses informations lorsqu’elles sont susceptibles de contribuer directement au risque de blessures physiques imminentes ou de favoriser directement «l’interférence avec le fonctionnement des processus politiques [Ingérence électorale ou ingérence dans un recensement] ». La désinformation impliquant une ingérence électorale, susceptible de suppression, est définie par une liste de fausses informations interdites concernant les horaires ou le lieu de vote, et l’éligibilité des électeurs ou des candidats.

Contenu éligible à la vérification tierce

Pour d’autres types de fausses informations politiques, plutôt que de les supprimer, Meta affirme privilégier « la réduction de leur prévalence ou créer un environnement propice à un dialogue productif ». Aux États-Unis, Meta a suspendu son programme de vérification tierce et lutte à présent contre le contenu trompeur par le biais des Notes de la communauté. La vérification des informations reste disponible en dehors des États-Unis. À cet effet, Meta collabore avec des organisations de vérification tierce certifiées par l’International Fact-Checking Network, réseau non-partisan (ou par l’European Fact-Checking Standards Network pour l’Europe), qui vérifient et évaluent l’exactitude des contenus le plus viraux sur les plateformes Meta.

Les médias de vérification peuvent examiner et évaluer les publications publiques de Facebook, Instagram et Threads, y compris les publicités, les articles, les photos, les vidéos, les reels, les contenus audio et les publications uniquement textuelles. Les mentions qui peuvent être attribuées à l’issue de l’évaluation sont faux, retouché, partiellement faux, manque de contexte, satire et vrai.

Les médias de vérification décident du contenu à examiner et réalisent leurs vérifications en toute indépendance de Meta. Ils peuvent soit identifier du contenu à leur propre initiative soit le sélectionner dans une file d’attente composée d’informations potentiellement fausses, fournie par Meta. Meta fournit le contenu de la file d’attente en fonction de différents signaux, et notamment « la manière dont les personnes réagissent ». Par exemple lorsque les utilisateurs marquent un contenu comme « fausse information » ou que les commentaires sur une publication « expriment leur incrédulité » au sujet de son authenticité.

Les médias de vérification accordent la priorité aux fausses informations virales et aux fausses affirmations vérifiables qui sont « actuelles, populaires et importantes » dans leur pays et leur langue. Les contenus non éligibles à la vérification incluent les « contenus ne contenant pas d’allégation vérifiable », les « opinions et discours de personnalités politiques » et le « contenu multimédia créé ou modifié numériquement contenant l’une des étiquettes ou filigranes de transparence de Meta en matière d’IA sur la base de son authenticité ». Cependant, lorsque le contenu multimédia manipulé contient une affirmation fausse sans l’utilisation d’un contenu multimédia créé ou modifié numériquement, les médias de vérification sont en droit d’évaluer la publication. Le contenu vérifié et qualifié de « faux », « retouché » ou « partiellement faux » peut être rétrogradé, non recommandé et refusé pour les publicités.

Contenu éligible à l’étiquetage du contenu multimédia manipulé

En vertu des règles sur le contenu média manipulé de la politique en matière de fausses informations, dans le cas du contenu trompeur qui est « créé ou modifié numériquement » mais « ne va pas à l’encontre des Standards de la communauté pour un autre motif », une étiquette informative « peut être placée sur le contenu » ou il peut être refusé s’il est envoyé comme publicité. Cela s’applique à « une image, une vidéo ou un contenu audio qui semble réaliste, créé ou retouché numériquement et impliquant un risque particulièrement élevé de tromper considérablement le public sur un sujet d’intérêt général ». Meta n’inclut pas dans la politique d’autres critères concernant les cas dans lesquels cette étiquette « peut » être placée.

Meta exige des personnes qu’elles indiquent, à l’aide de l’outil conçu à cet effet, « quand elles publient du contenu organique avec une vidéo ou un contenu audio qui semble réaliste, créé ou retouché numériquement ». Meta indique que l’utilisateur est passible de sanctions s’il ne satisfait pas à cette obligation.

Meta applique trois étiquettes informatives pour les contenus multimédias manipulés : l’étiquette « Risque élevé », l’étiquette « Notice sur l’IA » et l’étiquette « Risque élevé IA ». Dans le cas Appel vocal supposé pour truquer les élections du Kurdistan irakien, Meta a informé le Conseil que pour apposer une étiquette de risque élevé, le contenu devait (i) impliquer un risque particulièrement élevé de tromper considérablement le public sur un sujet d’intérêt général ; et (ii) présenter des indicateurs fiables d’avoir été créé ou retouché numériquement. L’étiquette « Risque élevé IA » est semblable à l’étiquette « Risque élevé », mais elle s’applique au contenu présentant des indicateurs fiables d’avoir été créé ou retouché avec l’IA. L’ étiquette « Notice sur l’IA » est destinée aux images, pas aux vidéos ou audio, que Meta détecte à l'aide d'« indicateurs d'images d'IA conformes aux normes de l'industrie ou lorsque des personnes ont spécifié qu'elles mettaient en ligne du contenu généré par l'IA ».

Le fait de placer une étiquette « Risque élevé » n’entraîne pas la rétrogradation du contenu ou sa suppression des recommandations Au lieu de cela, lorsque les utilisateurs tentent de repartager une image ou une vidéo classée « Risque élevé » sur Facebook, Instagram ou Threads, ils reçoivent un avis les avertissant que le contenu peut avoir été créé ou modifié numériquement.

Politiques de rétrogradation

Les Règles sur la diffusion du contenu de Meta décrivent les types de contenu pouvant être rétrogradés car « problématiques » ou de « basse qualité ». Meta base ses rétrogradations de ces types de contenu sur son « engagement envers plusieurs valeurs : répondre aux commentaires directs du public, inciter les éditeurs à investir dans du contenu de qualité et promouvoir une communauté plus sûre ». Selon Meta, cela permet aux individus de découvrir et de partager du contenu « sans être interrompus par un contenu problématique ou de mauvaise qualité ».

Parmi ces types de contenu que Meta déclare rétrograder se trouvent les fausses informations vérifiées, ainsi que le contenu évalué comme « susceptible d’enfreindre » les Standards de la communauté Meta. Lorsque du contenu est publié sur Facebook, il est évalué par un ensemble de classificateurs afin de déterminer s’il enfreint certains Standards de la communauté de la plateforme. Ces classificateurs indiquent un degré de « confiance » dans la probabilité d’infraction, que l’entreprise utilise comme signal pour prendre certaines mesures. Lorsque le score de confiance pour certains contenus est élevé, mais pas suffisant pour déclencher la suppression immédiate, Meta peut rétrograder le contenu. S’il est déterminé que le contenu enfreint l’une des politiques couvertes, il est supprimé. L’entreprise peut ajuster le seuil de confiance requis par les classificateurs individuels pour prendre certaines mesure, par exemple en temps de crise.

II. Soumissions de Meta

Meta déclare qu’il n’est pas possible pour les médias de vérification d’examiner toutes les fausses informations potentielles. L’entreprise leur indique donc de privilégier les « sujets viraux et pertinents pouvant potentiellement nuire au public ou se propager rapidement ».

Meta a indiqué au Conseil qu’elle fait appel à deux méthodes pour établir des priorités dans le contenu destiné à la vérification en temps de crise. Tout d’abord, Meta peut marquer comme urgent certains contenus de la file d’attente. Ensuite, pendant les évènements mondiaux à haute priorité, comme certaines crises ou élections considérées par Meta comme « évènements populaires », Meta filtre et place le contenu lié dans la file d’attente, en vue de sa vérification. Ce filtre fait appel à une liste de mots clés définis par des spécialistes des opérations sur le marché local, forts d’une expertise linguistique et contextuelle, et en utilisant des règles spécifiques. Le contenu identifié par le biais de ce processus reçoit une étiquette de sujet avec le nom de l’évènement correspondant et est inclus dans un affichage dédié, correspondant au filtre Évènements populaires temporels à l’intérieur de l’outil de vérification des informations. Pour être recevable en tant qu’évènement populaire, l’enjeu doit être important (crise dans le monde réel, débat civique ou risque de préjudice hors ligne...) et considéré comme associé à un risque élevé de propagation de fausses informations. Les médias de vérification sont libres de choisir de sélectionner du contenu urgent ou populaire en vue de son examen.

En plus de sélectionner du contenu dans la file d’attente de Meta, les médias de vérification peuvent identifier eux-même le contenu à vérifier sur les plateformes de Meta. Meta a déclaré aux Conseil que les médias de vérification ont accès à la Bibliothèque de contenu Meta, un outil Web de réaliser des recherches systématiques de contenu publiquement accessible sur les plateformes Meta. Les médias de vérification peuvent sélectionner du contenu découvert dans la Bibliothèque de contenu Meta en vue de son examen. Meta a déclaré « inviter proactivement » les médias de vérification à utiliser cet outil.

Meta n’a pas traité l’arrestation de l’ancien président par la Cour pénale internationale comme un évènement populaire et n’a pas qualifié le contenu d’urgent à vérifier. L’entreprise a déclaré au Conseil ne pas avoir été avertie de quelconques fausses informations liées à un risque de violence imminente ou de blessures physiques en lien avec les élections de mi-mandat de mai 2025 aux Philippines. Cependant, l’entreprise a également indiqué que ses partenaires de vérification ont fait apparaître des « allégations fréquentes relevant de fausses informations, comme de fausses allégations concernant l’arrestation de l’ancien président Rodrigo Duterte par le TPI et la destitution de sa fille [la vice-présidente] Sara Duterte ».

Meta a expliqué que lorsqu’un média de vérification évalue un contenu, il lui indique à quel niveau se situe la fausse information (dans la légende, seulement dans l’audio ou la vidéo ou une partie de celles-ci ou dans l’association du contenu multimédia à la légende). Meta fait alors appel à la technologie de correspondance pour appliquer cette évaluation uniquement au contenu identique ou presque identique en ce qui concerne cet aspect concret (p. ex. le même contenu multimédia ou le même contenu multimédia associé à la même légende). Si le média de vérification évalue uniquement la vidéo de la publication, Meta appliquera cette évaluation à toutes les publications contenant la même vidéo ou une vidéo presque identique. Cependant, si le média de vérification évalue à la fois la vidéo et la légende considérées comme un ensemble, l’évaluation ne sera appliquée qu’aux publications avec la même vidéo et la même légende, ou presque.

Meta définit le contenu « identique » comme le contenu partageant exactement les mêmes attributs que le contenu multimédia évalué par les médias de vérification. Le contenu qualifié de « presque identique » et « presque exactement le même » présente « de légères variations dans le format ou le texte superposé, mais transmet la même affirmation démentie ». Meta ne place pas automatiquement des étiquettes à grande échelle si le contenu ne remplit pas les standards nécessaires à être considéré comme identique ou presque identique. Cela est dû au fait que l’entreprise estime qu’une petite différence dans la formulation de l’affirmation est capable d’affecter si elle est vraie ou fausse. Pour Meta, cette approche « permet d’éviter les mauvaises applications en matière de vérification des informations ».

En l’espèce, Meta a estimé que le contenu du cas n’atteignait pas le seuil nécessaire pour être considéré comme identique ou presque identique, et recevoir ainsi la même étiquette d’évaluation que celle de vidéos semblables faisant passer les manifestations en Serbie pour des manifestations en soutien de Duterte aux Pays-Bas. Par exemple, certaines vidéos évaluées par des médias de vérification étaient accompagnées d’audios autres que la chanson « Bayan Ko » en arrière-fond, ou la légende était différente.

Le contenu envoyé aux médias de vérification en vue de son évaluation disparaît de la file d’attente au bout de sept jours si les médias de vérification ne l’ont pas sélectionné pour l’examiner Meta justifie cette durée par le fait qu’elle correspond à la tendance selon laquelle « la plupart des vues se produisent au cours des premiers jours du cycle de vie du contenu ». Les médias de vérification peuvent encore sélectionner du contenu à vérifier en dehors de la file d’attente de Meta et l’évaluer « quelle que soit l’ancienneté de sa publication sur la plateforme. Par exemple, si les médias de vérification se concentrent habituellement sur les sujets d’actualités, du contenu plus ancien peut réapparaître à la lumière de nouveaux éléments ».

Concernant les règles sur le contenu multimédia manipulé de sa politique sur les fausses informations, Meta n’a placé aucune de ses étiquettes, pas même celle de « Risque élevé », au contenu en l’espèce. Meta a expliqué au Conseil que cela était dû au fait que le cas n’avait pas fait l’objet d’une remontée interne. Au moment où le Conseil l’a sélectionné et où il a été analysé, le contenu « était déjà ancien de plus de 2 mois ». Au vu de « l’ancienneté du contenu et de son absence de viralité », Meta a décidé de ne pas non plus apposer l’étiquette de contenu multimédia manipulé à ce stade. Meta a mis l’accent sur le fait que l’étiquette de risque élevé n’est une politique appliquée qu’en cas de remontée. Elle est utilisée avec modération pour « aborder les contenus créés numériquement qui posent un risque tout spécialement sévère d’induire le public en erreur sur un problème important à un moment critique ». Selon Meta, c’est notamment « lorsque le contenu est publié proche dans le temps d’un évènement critique, comme une élection, et qu’il n’y a pas assez de temps pour que l’écosystème de l’information ou les médias de vérification traitent le contenu en question ». Comme le contenu a été publié deux mois avant les élections de mi-mandat de mai 2025 aux Philippines, d’après Meta ce laps de temps était suffisant à ce que « l’écosystème d’information ou le contre-discours corrige toute fausse information dans la publication (et en l’espèce, des versions similaires de la vidéo avaient déjà été vérifiées) ». Il semble que Meta n’ait pas considéré l’arrestation de Duterte ni les manifestations ultérieures comme constituant indépendamment des « évènements critiques ».

Les seules mesures de mise en application prises par Meta sur ce contenu ont consisté à réduire temporairement la visibilité de la publication dans le fil Facebook des utilisateurs en dehors des États-Unis, y compris aux Philippines, sur la base de signaux laissant penser que la publication contenait de fausses informations.

Le Conseil a posé des questions sur le fonctionnement de la vérification des informations, sur la manière dont Meta alloue les ressources aux médias de vérification, sur la manière dont des vidéos similaires de l’arrestation de Duterte ont été comparées à la vidéo repartagée. Il a également voulu savoir si Meta avait tenu compte des règles sur les contenus multimédias manipulés de la politique en matière de fausses informations pour modérer le contenu. Meta a répondu à toutes les questions.

4. Commentaires publics

Le Conseil de surveillance a reçu six commentaires publics qui répondent aux critères de soumission : Cinq de ces commentaires ont été soumis en Asie-Pacifique ou en Océanie, et un en Europe. Pour lire les commentaires publics envoyés avec consentement à la publication, veuillez cliquer ici.

Les soumissions couvraient les thèmes suivants : les limitations auxquelles font face les médias de vérification, l’expertise locale des médias de vérification, les inadéquations dans l’approche actuelle de Meta pour traiter les campagnes de désinformation coordonnées, et les comptes responsables de partager les fausses informations aux Philippines.

En juin 2025, dans le cadre de l’engagement courant des parties prenantes, le Conseil a consulté des représentants des organisations de vérification des informations, des universitaires et d’autres spécialistes en désinformation. Lors de ces rencontres, il a été discuté du fonctionnement de la vérification dans la pratique, de la vérification de Meta en dehors des États-Unis, du volume de contenu potentiellement trompeur traité par les médias de vérification et de la capacité des propagateurs de désinformation à introduire des changements dans les publications pour échapper à la détection, ainsi que du risque d’excès d’application posé par la technologie de correspondance visant à détecter les contenus identiques ou très similaires.

5. Analyse du Conseil de surveillance

Les campagnes de désinformation menacent l’intégrité des informations, la confiance du public et la démocratie en elle-même. Le Conseil a sélectionné le présent cas afin d’examiner la manière dont Meta aborde les informations fausses ou trompeuses sur ses plateformes, et notamment lorsqu’elles sont partagées à des périodes de tensions politiques exacerbées et dans des contextes où la désinformation influence le débat public. Le Conseil a analysé les décisions de Meta dans les cas présents et les a comparées à ses politiques relatives au contenu, à ses valeurs et à ses responsabilités en matière de droits humains. Il a également évalué les implications de ce cas-ci sur l’approche plus globale de la gouvernance du contenu par Meta.

5.1 Respect des politiques de Meta relatives au contenu

I. Règles relatives au contenu

Le Conseil estime que le contenu du présent cas ne remplit pas les critères nécessaires pour être supprimé en vertu du standard relatif à la politique sur les fausses informations. Le contenu ne fournit aucune information sur les catégories interdites en vertu de la présente politique (emplacement des bureaux de vote ou de recensement, procédures de vote ou éligibilité des électeurs ou des candidats). Le Conseil a également déterminé que le contenu remplit les critères d’éligibilité à la vérification des informations en vertu de la politique de Meta sur les fausses informations. Il est d’accord avec Meta pour soumettre la publication à la vérification des informations. Le contenu du cas remplit les conditions d’éligibilité à l’étiquetage des contenus multimédias manipulés selon la politiques sur les fausses informations de Meta. Meta aurait donc dû placer une étiquette « Risque élevé » sur le contenu.

Standard de la communauté sur les fausses informations et vérification tierce

Le contenu du cas remplit les conditions d’éligibilité à l’étiquetage des contenus multimédias retouchés selon la politiques sur les fausses informations de Meta. La publication contient une affirmation vérifiable, n’implique pas le discours de personnalités politiques et ne comporte pas d’étiquette de transparence en matière d’IA, qui rendrait le contenu inéligible à la vérification des informations (la nature trompeuse de la publication réside alors dans le fait qu’elle a été créée ou retouchée numériquement et non sur le contenu de ce qu’elle déclare). Elle satisfait aussi à une caractéristique justifiant de lui accorder la priorité pour la vérification des informations : elle est « actuelle, populaire et importante ». La publication a été partagée peu après l’arrestation de l’ancien président Duterte, marquée par des protestations en ligne et hors ligne. Au moment de la publication du contenu, des manifestations avaient éclaté, à la fois pour soutenir et pour condamner l’arrestation de Duterte. Des publications similaires au contenu, faisant état de manifestations de soutien à Duterte, étaient devenues virales sur les réseaux sociaux à cette période. L’un des médias de vérification de Meta a ainsi signalé que des vidéos similaires avaient enregistré plus de trois millions de vues. Qui plus est, l’arrestation s’est déroulée dans un contexte plus large de querelle politique intense entre le président Marcos et la vice-présidente Sara Duterte, dans un pays où la désinformation exerce une influence sur le débat politique.

Meta aurait dû prendre des mesures pour accorder la priorité à ce contenu dans la file d’attente qu’elle fournit aux médias de vérification. L’entreprise aurait dû marquer comme urgent le contenu au moment de l’inclure dans la file d’attente pour la vérification des informations. Meta aurait également dû désigner les fausses informations potentielles autour de l’arrestation de l’ancien président Duterte en tant qu’évènement populaire et elle aurait dû identifier et faire apparaître proactivement du contenu similaire après que les médias de vérification de Meta avaient qualifié une vidéo similaire comme fausse. Conformément au critère de Meta, l’enjeu est important pour le « débat civique » et il existait un « haut risque de propagation de fausses informations ». Il ressort des informations fournies au Conseil par Meta que Meta a fait preuve de négligence à cet égard.

Le contenu aurait également dû être reconnu comme presque identique à un autre contenu ayant déjà fait l’objet de vérifications et être étiqueté en conséquence. Les médias de vérification qui ont évalué des vidéos similaires ont décelé que l’association entre la séquence des manifestants en Serbie et l’audio des personnes qui scandent « Duterte ! » en arrière-fond est trompeuse. Les vidéos déjà évaluées ne contenaient pas la chanson « Bayan Ko » en plus du nom scandé. À cause de l’inclusion de cette chanson dans le contenu, la différence entre les deux contenus a été suffisante pour que la technologie de correspondance de Meta ne l’identifie pas comme identique ou presque identique à des vidéos similaires déjà examinées et qualifiées de fausses.

Pour le Conseil, les changements introduits constituent « des variations mineures » et le contenu réitère « la même affirmation démentie » qu’une vidéo similaire qualifiée de fausse par les médias de vérification de Meta. Les différences mineures dans l’audio, le texte et la légende ne modifiaient pas les caractéristiques fondamentales trompeuses du contenu. Lorsque des changements subtiles n’affectent pas la nature trompeuse, le contenu devrait être considéré comme presque identique.

Le Conseil a également reconnu que les systèmes automatisés que Meta utilise actuellement peuvent être incapables de déterminer cela à grande échelle. Le fait de placer une étiquette sur un contenu à l’audio différent sans aucune évaluation préalable pourrait entraîner l’étiquetage d’un contenu dans lequel l’audio sert en fait à critiquer ou démentir la vidéo trompeuse. Les parties prenantes consultées par le Conseil ont fait remarquer que la technologie de correspondance ne serait pas en mesure d’anticiper toutes les utilisations éventuelles et les nuances dans l’expression, et que l’étendre sans développer d’autres outils pour lutter contre les fausses informations pourrait aboutir à un excès d’application. En même temps, l’approche actuelle de Meta n’est pas efficace pour répondre aux acteurs qui ajustent subtilement le contenu pour se jouer du système et échapper à la mise en application. Meta devrait allouer suffisamment de ressources, automatisées ou autres, pour veiller à ce que les évaluations des médias de vérification soient appliquées efficacement.

Standard de la communauté sur les fausses informations et le contenu multimédia manipulé

Le Conseil estime que le contenu relevait du contenu multimédia manipulé et qu’il aurait dû recevoir une étiquette. D’après des vérification des informations publiques similaires, le contenu est une « vidéo photoréaliste » qui semble « créée ou retouchée numériquement ». Le Conseil considère que la séquence vidéo des manifestations serbes remplit les conditions d’un contenu « photoréaliste » tel que défini dans la politique sur les contenus multimédias manipulés. Le fait d’associer les images de la manifestation en Serbie à l’audio de la foule scandant le nom de Duterte et d’ajouter la superposition de texte « Pays-Bas » constitue une retouche numérique d’une séquence originale. La superposition du texte « Pays-Bas » déforme encore plus le sens de la vidéo, en créant l’illusion que les manifestations se déroulent aux Pays-Bas, alors qu’elles ont en fait lieu en Serbie. Par ailleurs, la publication « ne va pas à l’encontre des Standards de la communauté pour un autre motif », fait qui mériterait un traitement différent, comme la suppression. Le contenu pose un « un risque particulièrement élevé de tromper considérablement le public sur un sujet d’intérêt général », dans la mesure où il concerne un enjeu politique significatif aux Philippines. Des vidéos similaires avaient circulé sur les plateformes Meta et avaient été qualifiées comme fausses par des médias de vérification de Meta aux Philippines. Le volume de contenu trompeur similaire augmente donc le risque d’induire significativement en erreur le public. Au vu de ces facteurs, Meta aurait dû apposer l’étiquette « Risque élevé ».

Meta a argumenté qu’elle n’avait pas apposé d’étiquette de contenu multimédia manipulé parce que ledit contenu n’avait pas fait l’objet d’une remontée aux équipes internes, et qu’il avait été publié bien avant les élections de mai 2025. Un contre-discours suffisant démentant la fausse information avait ainsi eu le temps de se mettre en place. Qui plus est, au moment où le Conseil a sélectionné le cas, Meta n’envisageait pas d’ajouter l’étiquette étant donné l’ancienneté de la publication et son absence de viralité.

Le Conseil ne partage pas l’avis de Meta. D’abord, ces justifications ne semblent trouver aucun fondement dans les politiques de Meta destinées au public. Ensuite, même en utilisant ces critères internes, le Conseil est parvenu à différentes conclusions.

Meta aurait dû traiter l’arrestation de l’ancien président Duterte comme un évènement critique, garantissant ainsi la remontée des publications pertinentes, en vue de leur apposer éventuellement une étiquette « Risque élevé ». En vertu du propre standard de Meta, l’évènement de l’arrestation de Duterte a représenté un moment politique tendu aux Philippines, ayant généré un discours public critique sur les circonstances de l’arrestation, ainsi que des manifestations de soutien et en condamnation de l’ancien président, aux Philippines et à l’étranger. Les parties prenantes consultées par le Conseil ont insisté sur la rapidité à laquelle les discours autour de l’arrestation de Duterte se sont propagés sur les plateformes de Meta. Tel que l’a fait remarquer Meta, des versions similaires de la vidéo avaient déjà été vérifiées. L’arrestation a également coïncidé avec une querelle politique de longue date entre les deux plus hauts représentants du gouvernement du pays ; la vice-présidente Sara Duterte en est même arrivée à prétendre que son père avait été kidnappé.

Au vu de ses actions en l’espèce, Meta semble limiter aux élections ses interprétations des évènements critiques éligibles à recevoir l’étiquette de contenu multimédia manipulé, excluant ainsi les autres crises politiques. Le Conseil considère l’arrestation et l’ultérieure extradition vers la CPI d’un ancien chef de l’État comme un évènement critique. Étant donné la situation politique aux Philippines au moment de l’arrestation de l’ancien président, Meta a commis une erreur en traitant les élections de mai 2025 comme le seul évènement critique en jeu. En limitant effectivement aux élections la désignation d’un évènement critique, Meta a miné l’utilité de ses propres règles visant à limiter la propagation des contenus multimédias manipulés pendant les situations de tension politique exacerbée. Le contenu couvert en pratique par les règles sur les contenus multimédias manipulés paraît considérablement plus réduit que ce que la politique semble véhiculer.

Même en assumant que l’évènement critique dans ce cas était les élections de mai 2025, Meta n’aurait pas dû s’en remettre uniquement à la capacité de ses partenaires de vérification de faire apparaître et évaluer les affirmations relevant de la désinformation. Les médias de vérification consultés par le Conseil, ainsi que les commentaires publics envoyés mettaient massivement en avant les sévères limites de ressources affrontées par les médias de vérification dans leur mission (PC-31362, PressOne (Philippines) ; (PC-31357, Foundation for Media Alternatives (Philippines)). D’autres médias de vérification ont expliqué être dans l’impossibilité d’évaluer toutes les possibles versions de vidéos similaires. En plus du volume de contenus, les pourvoyeurs de désinformation introduisent de légers ajustements dans les contenu de sorte à distinguer les nouvelles publications du contenu déjà vérifié, et de contourner ainsi les technologies de correspondance de Meta traitant le contenu identique ou presque identique (PC-31357, Foundation for Media Alternatives (Philippines) ; PC-31349, Rappler (Philippines)). Les parties prenantes ont mis en avant que les affirmations factuelles ont tendance à être noyées sous la prolifération permanente de publications trompeuses dépourvues d’étiquettes sur les plateformes de Meta(PC-31358, European Fact-Checking Standards Network). L’un des médias de vérification de Meta a fait remarquer que ces publications font partie d’une campagne plus large organisée pour propager la désinformation (PC-31349, Rappler (Philippines)). Au vu des circonstances, Meta aurait dû conclure que « il [n’y avait] pas assez de temps pour que l’écosystème d’information ou les médias de vérification traitent le contenu en question », ce qui aurait amené à accorder la priorité à ce type de contenu aux fins de vérification des informations.

Lorsque des informations trompeuses semblent appartenir à une campagne de désinformation systémique plus vaste destinée à influencer l’opinion publique au sujet d’un certain enjeu politique ou social dans un contexte de tensions exacerbées, il est encore plus nécessaire de traiter les publications trompeuses virales, tout particulièrement lorsque les stratégies de prolifération évoluent rapidement dans le but de contourner la détection et l’examen. Dans des cas comme celui-ci, Meta devrait mettre en œuvre toutes les politiques pertinentes (y compris la vérification des informations et l’étiquetage) et les outils associés.

II. Mesures de mise en application

Dans la décision relative à la vidéo retouchée du président Biden, le Conseil a exprimé son inquiétude concernant les pratiques de rétrogradation de contenu qualifié de « faux » ou « retouché » par les médias de vérification tiers, sans informer les utilisateurs ni offrir de mécanismes d’appel. Le Conseil a déclaré dans cette décision que « [la] rétrogradation du contenu produit un impact négatif significatif sur la liberté d’expression. Meta devrait examiner ces politiques pour veiller à ce qu’il y soit clairement défini pourquoi et quand le contenu est rétrogradé, et à fournir aux utilisateurs l’accès à un recours efficace (article 2 du PIDCP) ». Parallèlement, le Conseil reconnaît qu’il peut arriver que la rétrogradation soit garantie comme une mesure moins intrusive que la suppression de contenu (voir ex. Publications soutenant les émeutes au Royaume-Uni, Allégations criminelles fondées sur la nationalité, Vidéo iranienne de maquillage pour le mariage d’une enfant).

En l’espèce, la démarche de Meta de rétrograder temporairement le contenu dans le fil des utilisateurs en dehors des États-Unis, y compris les utilisateurs aux Philippines, s’inscrivait dans sa pratique de rétrograder le contenu limite en infraction. Étant donné que le Conseil trouve également que le contenu est presque identique à du contenu déjà qualifié de faux, il serait également rétrogradé en vertu de la politique de Meta consistant à rétrograder le contenu évalué comme faux par les médias de vérification tiers. Cependant, le Conseil réitère également sa profonde inquiétude concernant le manque de clarté des politiques de rétrogradation et des opportunités de faire appel, et son impact potentiel sur l’expression politique.

5.2 Respect des responsabilités de Meta en matière de droits humains

Le Conseil estime que la décision de garder le contenu en ligne sur la plateforme, accompagné d’une étiquette le signalant comme du contenu multimédia manipulé à haut risque, aurait été cohérente avec les responsabilités de Meta dans le domaine des droits humains. Le Conseil convient que la transmission par Meta du contenu à la vérification des informations est en adéquation avec ses responsabilités en matière de droits humains, et en l’espèce, l’amélioration des outils à la disposition des médias de vérification tiers pour faciliter leur mission d’examen constituerait une manière d’assumer ces responsabilité.

Liberté d’expression (article 19 du PIDCP)

L’article 19 du Pacte international relatif aux droits civils et politiques prévoit une large protection de la liberté d’expression, en particulier le discours politique ( observation générale n° 34, paragraphes 11 et 12). Il offre une protection « particulièrement élevée » au « débat public concernant les personnalités politiques et les institutions publiques » (observation générale n° 34, paragraphe 38 20 ;voir également observation générale n° 25, paragraphes 12 et 25). Le Comité des droits de l’homme des Nations Unies a souligné que la liberté d’expression est essentielle à la conduite des affaires publiques et à l’exercice effectif du droit de vote (observation générale n° 34, paragraphe 20 ; voir également observation générale n° 25, paragraphes 12 et 25).

Le mensonge ne peut pas constituer la seule base pour supprimer des propos en vertu du droit international en matière de droit international relatif aux droits de l’homme ( Rapport du Secrétaire général sur la lutte contre la désinformation, A/77/287, paragraphe 13). Il ne peut être limité que s’il satisfait au test tripartite de la légalité, la légitimité, la nécessité et la proportionnalité. En 2024, plusieurs rapports spéciaux et des groupes de travail des Nations Unies ont réalisé une déclaration commune sur le renforcement de la démocratie et des droits humains pendant les élections à travers le monde : « Les entreprises de réseaux sociaux devraient examiner et doter de transparence leurs processus de modération de contenu et leurs algorithmes afin de garantir qu’ils ne contribuent pas à censurer les dissidents et à promouvoir les fausses informations. Les entreprises technologiques devraient mener à bien des diligences raisonnables, investir dans la vérification des informations et la compréhension des langues et des contextes locaux dans le cadre de leurs politiques de modération de contenu. »

Lorsque des restrictions de la liberté d’expression sont imposées par un État, elles doivent remplir des critères de légalité, d’objectif légitime, ainsi que de nécessité et de proportionnalité (article 19, paragraphe 3 du PIDCP). Ces exigences sont souvent reprises sous l’intitulé « test tripartite ». Le Conseil s’appuie sur ce test afin d’interpréter les responsabilités de Meta en matière de droits humains conformément aux Principes directeurs relatifs aux entreprises et aux droits de l’homme de l’ONU, que Meta elle-même s’est engagée à respecter dans sa Politique relative aux droits humains. Le Conseil utilise ce test à la fois pour la décision relative au contenu en cours d’examen et pour ce que cela dit de l’approche plus large de Meta en matière de gouvernance du contenu. Comme l’a déclaré le Rapporteur spécial de l’ONU sur la liberté d’expression, même si « les entreprises ne sont pas soumises aux mêmes devoirs que les gouvernements, leur influence est néanmoins telle qu’elle doit les inciter à se poser les mêmes questions qu’eux quant à la protection de la liberté d’expression de leurs utilisateurs » (A/74/486, paragraphe 41).

I. Légalité (clarté et accessibilité des règles)

Le principe de légalité prévoit que les règles qui limitent la liberté d’expression soient accessibles, claires et suffisamment précises pour permettre à un individu d’adapter son comportement en conséquence (Observation générale n° 34, paragraphe 25). En outre, ces règles « ne peu[ven]t pas conférer aux personnes chargées de [leur] application un pouvoir illimité de décider de la restriction de la liberté d’expression » et doivent « énoncer des règles suffisamment précises pour permettre aux personnes chargées de leur application d’établir quelles formes d’expression sont légitimement restreintes et quelles formes d’expression le sont indûment » (Ibid). Le Rapporteur spécial des Nations Unies sur la liberté d’expression a déclaré que lorsqu’elles s’appliquent aux acteurs privés, les règles régissant le discours en ligne devaient être claires et précises (A/HRC/38/35, paragraphe 46). Les personnes qui utilisent les plateformes de Meta doivent pouvoir accéder aux règles et les comprendre, et les équipes d’examen de contenu doivent disposer de conseils clairs sur leur application.

Le Standard de la communauté de Meta sur les fausses informations et autres politiques liées est clair dans son application au contenu de ce cas, mais il devrait être amélioré. Le texte de la politique sur les fausses informations destinée au public informe clairement les utilisateurs des règles applicables et des différentes conséquences de la publication de fausses informations et de contenus multimédias manipulés sur les plateformes de Meta (c'est-à-dire que le contenu est supprimé, vérifié ou accompagné d’une étiquette de contenu multimédia retouché). En parallèle, les types de contenu éligibles à la vérification, les critères de recrutement de médias de vérification et les politiques de rétrogradation peuvent être consultés sur différentes pages de l’Espace modération.

Dans la décision Appel vocal supposé pour truquer les élections du Kurdistan irakien, le Conseil a déclaré que Meta devrait envisager « d'intégrer les informations relatives aux différents signalements sur les contenus multimédias manipulés sur une seule page du Centre de transparence afin que les utilisateurs puissent facilement en savoir plus à leur sujet », et il réitère ce conseil dans le présent cas.

Cependant, le Conseil est inquiet que l’interprétation de Meta de ses règles relatives aux contenus multimédias manipulés pour l’étiquetage de l’IA rétrécisse leur portée, par rapport à celle établie dans la politique destinée au public. Meta devrait décrire les différents types d’étiquettes de l’IA appliquées, les critères à suivre à cet effet et leurs conséquences. À l’heure actuelle, la description la plus détaillée de l’utilisation des trois étiquettes d’IA utilisées par Meta figure dans la récente décision du Conseil Appel vocal supposé pour truquer les élections du Kurdistan irakien. Les règles destinées au public devraient refléter la règle interne de Meta selon laquelle un évènement critique est nécessaire pour apposer une étiquette « Risque élevé » à un contenu, et ce qui est considéré comme un évènement critique.

II. Objectif légitime

Par ailleurs, toute restriction de la liberté d’expression doit aussi, au minimum, répondre à l’un des objectifs légitimes énumérés dans le PIDCP, qui incluent la protection des droits d’autrui (article 19, paragraphe 3 du PIDCP). Lors de décisions précédentes, le Conseil a soutenu que la protection du droit de participer aux affaires publiques (article 25, PIDCP) constitue un objectif légitime pour la politique de Meta sur les fausses informations ( Appel vocal supposé pour truquer les élections du Kurdistan irakien, Vidéo retouchée du président Biden).

III. Nécessité et proportionnalité

Conformément à l’article 19(3) du PIDCP, le principe de nécessité et de proportionnalité requiert que les restrictions de la liberté d’expression soient « appropriées pour remplir leur fonction de protection, elles doivent constituer le moyen le moins perturbateur parmi ceux qui pourraient permettre d’obtenir le résultat recherché et elles doivent être proportionnées à l’intérêt à protéger » (Observation générale n° 34, paragraphe 34). À cet effet, l’entreprise peut d’abord évaluer les outils qu’elle possède pour atteindre cet objectif légitime sans entraver le discours ; ensuite, si ce n’est pas possible, identifier l’outil qui perturbe le moins le discours ; et pour finir, évaluer si la mesure sélectionnée est efficace (A/74/486, paragraphe 52).

Afin d’évaluer la nécessité et la proportionnalité de ces mesures, ainsi que pour déterminer les autres mesures nécessaires, le Conseil a tenu compte des aspects suivants : a) le contenu avait été publié au cours de tension politiques accrues aux Philippines, des explications différentes circulant autour des circonstances de l’arrestation de l’ancien président Duterte ; b) la forte utilisation des réseaux sociaux dans le pays ; c) des antécédents de désinformation et de fausses informations dans le pays, et notamment dans la période antérieure aux élections et pendant celles-ci ; d) la nature généralement divisée de l’environnement politique et médiatique ; e) la perte de légitimité continue des médias d’actualité et des journalistes, ainsi que le déclin de la confiance du public dans les institutions ; f) la probabilité que les contenus multimédias contenus dans la publication soient retouchés, au vu des publications similaires qualifiées de fausses par les trois médias de vérification de Meta dans le pays ; et g) la probabilité que les contenus multimédias numériquement retouchés trompent et influencent le public en lien avec un enjeu qui a alimenté la division dans le pays.

Le Conseil fait noter les mesures de Meta en lien avec le contenu du cas : soumission du contenu pour la vérification des informations, d’abord peu après la publication du contenu, puis encore lorsque ce cas est sélectionné par le Conseil ; rétrograder temporairement le contenu dans le fil d’actualité Facebook des utilisateurs hors États-Unis, y compris aux Philippines, à cause de signaux laissant penser que le contenu contient de fausses informations.

Si Meta a pris des mesures pour faciliter l’examen du contenu par les médias de vérification, elle aurait cependant dû prendre d’autres mesures conformément à ses politiques. Par exemple, l’entreprise aurait dû étiqueter le contenu comme urgent lors de son entrée dans la file d’attente pour la vérification, et traité l’arrestation comme un évènement populaire impliquant le débat civil. Meta aurait également dû identifier et faire apparaître proactivement du contenu de ce style, étant donné que les médias de vérification de Meta avaient signalé de fausses informations fréquentes concernant l’arrestation de l’ancien président Duterte, et que du contenu similaire avait été qualifié de faux par les médias de vérification de Meta.

Au vu de la nature des fausses informations politiques dans des contextes comme celui des Philippines, décrit plus haut, et leur propagation rapide, Meta devrait explorer des manières de mieux identifier et traiter les fausse informations par le biais de toutes les approches disponibles. Tel que mis en avant dans la déclaration conjointe des Rapporteurs spéciaux des Nations Unies, les entreprises devraient réagir face aux fausse informations via des pratiques de modération du contenu alimentées par le contexte local.

Meta devrait améliorer ses mécanismes pour que les médias de vérification examinent du contenu similaire aux contenus déjà antérieurement vérifiés. Dans la vidéo retouchée du président Biden, le Conseil a indiqué que fait d'apposer un signalement sur une petite partie du contenu « pourrait donner la fausse impression que le contenu non étiqueté est intrinsèquement fiable. » À l’heure actuelle, les médias de vérification peuvent identifier indépendamment du contenu de vérification, ce qui permet en théorie d’examiner du contenu similaire aux fausses informations déjà étiquetées. Toutefois, les parties prenantes ont informé le Conseil que CrowdTangle, l’outil de transparence appartenant à Meta devenu obsolète en 2024, faisait partie intégrante de ce processus. Bien que la Bibliothèque de contenu Meta soit à la disposition des médias de vérification, l’utilité réelle de cet outil pour lesdits médias est incertaine (voir publications incluant « From the River to the Sea » (De la rivière à la mer)). Les parties prenantes ont noté que la capacité des journalistes à accéder à l’outil est incohérente, tandis que certaines ont remarqué que l’outil n’est pas facile à utiliser pour le travail de vérification des informations, avec par exemple l’impossibilité de réaliser des recherche de texte dans des vidéos, des recherches d’images inversées et des recherches de groupes publics par localisation. Au vu de ces informations, Meta devrait continuer à interagir proactivement avec les médias de vérification tiers afin de veiller à ce que la Bibliothèque de contenu Meta soit adaptée à leurs objectifs.

La bibliothèque de contenu Meta doit également être complétée par d’autres mesures pour faire face aux fréquentes affirmations contenant des fausses informations. À cet effet, le Conseil recommande que Meta développe des outils dans sa file d’attente pour la vérification qui aident les partenaires de vérification à identifier rapidement le contenu viral qui bien que n’ayant pas été classé comme identique ou presque identique, est susceptible de répéter des affirmations évaluées comme fausses ou trompeuses. Cela fera apparaître les affirmations contenant des fausses information similaires à celles déjà vérifiées tout en évitant le risque d’excès d’application que pourrait entraîner l’élargissement de la définition du contenu « identique » et « presque identique ».

Meta devrait prendre des mesures pour améliorer sa réponse face aux fausses informations, notamment pour éviter de faire porter le fardeau du traitement des informations trompeuses à ses partenaires de vérification tiers. Malgré la déclaration de Meta relative à ses investissements en technologie visant à mieux détecter les « différences subtiles dans le contenu » susceptible de partager des informations trompeuses, le présent cas montre que des améliorations sont encore nécessaires. Dans le cadre de son programme de vérification des informations existant, par exemple, Meta devrait veiller à ce que les partenaires bénéficient du soutien et des ressources nécessaires à remplir la mission complexe qui leur est confiée par Meta. Meta devrait également s’occuper des comptes qui propagent de fausses informations de manière récurrente, y compris en appliquant la règle sur le comportement non authentique en lien avec le comportement non authentique coordonné.

Le Conseil est aussi inquiet face au défaut d’application par Meta de l’étiquette « Risque élevé » au contenu du présent cas, tel qu’autorisé par les politiques de l’entreprise. Le Conseil estime que cela aurait potentiellement aidé à empêcher la propagation d’informations fausses ou trompeuses aux Philippines pendant cette période critique. Les utilisateurs ayant vu la publication auraient été informés que le contenu était numériquement retouché, compte tenu de l’audio de la foule scandant « Duterte ! » et de la chanson « Bayan Ko » en arrière fond associées à la séquence des manifestations en Serbie. Tout particulièrement, l’étiquette « Risque élevé » a pour effet d’afficher une fenêtre pop-up aux utilisateurs qui veulent repartager la publication, les avertissant que la publication est susceptible d’avoir été numériquement retouchée. Bien que s’agissant d’une étiquette informative, cet avertissement introduit un degré de friction pouvant aider à réduire la propagation des publications trompeuses sur les évènements actuels, lorsque ce type de contenu a des chances de devenir viral. De la même manière, dans la décision Appel vocal supposé pour truquer les élections du Kurdistan irakien, le Conseil a contesté l’application sélective de l’étiquette « Risque élevé » de Meta, avant des élections divisées au Kurdistan irakien, en mettant en avant la confusion susceptible d’être causée par cette utilisation irrégulière des étiquettes de contenu trompeur. Le Conseil note qu’il a constaté des incohérences dans l’apposition des étiquettes IA au contenu, même en présence de signaux de génération par l’IA conformes aux standards du secteur. Le contenu généré par l’IA ne cessant de gagner en popularité sur les réseaux sociaux, il est décisif pour Meta d’améliorer la mise en application de ses politiques dans ce domaine.

En l’espèce, le Conseil est profondément préoccupé par le fait que Meta n’ait pas apposé l’étiquette « Risque élevé ». C’est une mesure que Meta aurait dû prendre, en complétant le programme de vérification des informations à l’aide d’autres politiques à sa disposition.

6. Décision du Conseil de surveillance

Le Conseil de surveillance confirme la décision de Meta de conserver le contenu.

7. Recommandations

Politique de contenu

1. Afin de mieux informer les utilisateurs sur la mise en application du Standard de la communauté sur les fausses informations de la politique sur les contenus multimédias manipulés, Meta devrait expliquer les différentes étiquettes informatives qu’elle utilise pour le contenu multimédia manipulé, en spécifiant que l’étiquette de risque élevé est appliquée en lien avec un évènement critique, et en détaillant ce qui est considéré comme un évènement critique.

Le Conseil considérera que cette recommandation a été mise en application lorsque Meta mettra à jour la formulation du Standard de la communauté sur les fausses informations afin de refléter cette modification.

Mise en application

2. Afin de permettre aux médias de vérification de lutter efficacement contre les mécanismes de fausses informations, Meta devrait mettre en place une file d’attente séparée au sein de l’interface de vérification, destinée au contenu similaire sans être identique ou presque identique au contenu déjà vérifié sur un certain marché.

Le Conseil considérera que cette recommandation a été mise en œuvre lorsque Meta aura partagé des informations avec le Conseil sur la nouvelle fonctionnalité de l’interface et la manière dont elle permet aux médias de vérification d’intégrer du nouveau contenu similaire aux vérifications existantes.

* Note de procédure :

  • Les décisions du Conseil de surveillance sont prises par des panels de cinq membres et approuvées par une majorité du Conseil dans son ensemble. Les décisions du Conseil ne représentent pas nécessairement les opinions de tous les membres.
  • En vertu de sa Charte, le Conseil de surveillance est habilité à examiner les appels déposés par les utilisateurs dont le contenu a été supprimé par Meta, les appels déposés par les utilisateurs ayant signalé un contenu que Meta n’a finalement pas supprimé, et les décisions que Meta lui transmet (article 2, section 1 de la Charte). Le Conseil dispose d’une autorité contraignante pour confirmer ou annuler les décisions de Meta relatives au contenu (article 3, section 5 de la Charte ; article 4 de la Charte). Le Conseil est habilité à émettre des recommandations non contraignantes auxquelles Meta doit répondre (article 3, section 4 de la Charte ; article 4). Lorsque Meta s’engage à donner suite aux recommandations, le Conseil surveille leur mise en œuvre.
  • Pour la décision sur ce cas, des recherches indépendantes ont été commandées au nom du Conseil. Le Conseil a bénéficié de l’aide de Duco Advisors, une société de conseil spécialisée dans la géopolitique, la confiance et la sécurité, ainsi que la technologie.* L’entreprise Lionbridge Technologies, LLC, dont les spécialistes parlent couramment plus de 350 langues et travaillent dans 5000 villes du monde entier, a fourni son expertise linguistique.*

Retour aux décisions de cas et aux avis consultatifs politiques