OVERTURNED
Appel vocal supposé pour truquer les élections du Kurdistan irakien
24 juin 2025
Le Conseil de surveillance a annulé la décision de Meta de ne pas signaler un enregistrement audio vraisemblablement manipulé dans lequel deux politiciens kurdes irakiens parlent de la falsification des élections législatives, moins de deux semaines avant l'ouverture des bureaux de vote, dans le cadre d'élections très contestées.
.بۆ خوێندنەوەی ئەم بەیانە بە شێوەزاری کوردی سۆرانی، تکایە لێرە کرتە بکە
Pour consulter cette annonce en kurde sorani, cliquez ici.
Résumé
Le Conseil de surveillance a annulé la décision de Meta de ne pas signaler un extrait audio vraisemblablement manipulé dans lequel deux politiciens kurdes irakiens parlent de la falsification des élections législatives, moins de deux semaines avant l'ouverture des bureaux de vote, dans le cadre d'élections très contestés et clivées. Le Conseil exige à Meta de signaler le contenu.
Le Conseil s'inquiète du fait que Meta applique sa politique relative aux médias manipulés de manière incohérente malgré la prévalence croissante des contenus manipulés dans tous les formats. Meta doit prioriser les investissements dans les technologies d’identification et de signalement des audios et vidéos manipulées à grande échelle, afin que les utilisateurs soient correctement informés.
Comme dans le cas présent, l'absence d'application automatique d'un signalement par Meta à toutes les occurrences du même contenu multimédia manipulé est incohérente et injustifiable.
En outre, Meta devrait créer des signalements pour les contenus multimédias manipulés déjà disponibles sur ses plateformes dans la langue locale. Cela devrait au minimum faire partie des efforts d’intégrité électorale de Meta.
À propos du cas
Moins de deux semaines avant les élections législatives du Kurdistan irakien, en octobre 2024, un média populaire affilié à l'un des principaux partis politiques de la région, le Parti démocratique du Kurdistan (PDK), a partagé un extrait audio de deux minutes sur sa page Facebook. La légende de la publication en kurde sorani affirme que l’extrait audio est « l’enregistrement d’une conversation » entre les frères Bafel et Qubad Talabani, membres de l’autre principal parti politique de la région, l’Union patriotique du Kurdistan (UPK) au sujet de leurs « sinistres projets » pour truquer les élections d’octobre 2024. Dans l’extrait audio, deux hommes parlent avec une voix-off en anglais (avec des sous-titres en kurde sorani et en anglais). Un homme dit que « 30 sièges minimum » ont été garantis à l’UPK, mais qu’ils doivent « se débarrasser » des « 11 sièges » que le PDK a supposément « toujours utilisés à son avantage ». L’autre homme exprime son approbation et insiste sur le fait qu’il faut que ces sièges aient l’air d’être gagnés légitimement étant donné que le peuple est informé, même s’il ne peut pas le prouver, que l’UPK est soutenu par Bagdad et leur « voisin ». La page Facebook de ce média compte environ 4 000 000 abonnés. La publication a été vue environ 200 000 fois.
Deux utilisateurs ont signalé ce contenu comme relayant de fausses informations, mais Meta a fermé les rapports de signalement sans examen. Après que l’un de ces utilisateurs ait fait appel auprès de Meta, l’entreprise a maintenu sa décision en se basant sur un score de classification. L’utilisateur a alors introduit un appel auprès du Conseil de surveillance.
Meta a identifié d’autres publications contenant l’extrait audio sur les pages Facebook et Instagram du même média et sur la page Facebook du PDK. Après avoir consulté un média d'information basé hors du Kurdistan irakien et un partenaire de confiance afin d'examiner la possibilité que l'enregistrement audio ait été créé numériquement, Meta a signalé certaines publications, mais pas le contenu en question. L’étiquette appliquée à d’autres publications avec le même son audio indique : « Ce contenu peut avoir été créé numériquement ou modifié afin de paraître authentique. »
Principales conclusions
Pour l'identification des contenus créés ou manipulés par l'IA sur ses plateformes, Meta a déclaré au Conseil être uniquement en mesure d'identifier et de signaler automatiquement les images statiques et non les contenus vidéo ou audio. Compte tenu de l'expertise et des ressources de l'entreprise, ainsi que de l'utilisation généralisée des plateformes Meta, celle-ci doit prioriser les investissements dans des technologies d'identification et de signalement à grande échelle de fichiers vidéo et audio manipulés.
L'absence de déploiement des outils dont Meta dispose pour appliquer automatiquement le signalement « Information IA » à toutes les occurrences du même contenu multimédia manipulé est incohérente et injustifiable. Dans le cas de la Vidéo retouchée du président Biden, Meta s'est engagé à mettre en œuvre la recommandation du Conseil établissant que, pour les contenus multimédias manipulés qui ne violent pas les autres Standards de la communauté, l'entreprise doit apposer un signalement sur « toutes les occurrences identiques de ce contenu multimédia sur la plateforme ». L’affirmation de Meta, dans ce cas, selon laquelle l’entreprise n’applique pas automatiquement le signalement « Haut risque » à tous les contenus où figure cet audio, est en contradiction avec cette recommandation. Les signalements « Info IA » et « Haut risque » sont des signalements informatique de Meta pour les contenus multimédias manipulés.
Le Conseil note qu'il existe des indicateurs fiables, notamment des signaux techniques, qui indiquent que l'extrait a été créé numériquement. Il remplit les conditions requises pour les contenus multimédias manipulés selon la politiques sur les fausses informations de Meta. Y apposer un signalement « Haut risque » est conforme aux politiques de Meta et aux responsabilités relatives aux droits humains. L’extrait audio a été publié pendant une période d’élections très contestées, dans une région ayant des antécédents d’élections falsifiées. Cela augmente la capacité de l’extrait audio à influencer les choix électoraux et à nuire à l'intégrité électorale. Apposer un signalement informatif sur le contenu du cas au lieu de supprimer totalement le contenu satisfait les exigences de nécessité et de proportionnalité.
Le Conseil s'inquiète du fait que les étiquettes de médias manipulés de Meta puissent ne pas être disponibles en kurde sorani. Et ce, malgré le fait que le kurde sorani soit l'une des langues disponibles dans l'application pour les utilisateurs de Facebook. Pour garantir que les utilisateurs soient informés lorsque du contenu est créé ou modifié numériquement, la mise à disposition du signalement dans la langue locale déjà disponible sur les plateformes de Meta devrait faire partie de ses efforts minimaux visant à garantir l'intégrité électorale.
Le Conseil s'inquiète également de la dépendance de l'entreprise vis-à-vis de tierces parties pour l'évaluation technique des contenus susceptibles d'avoir été manipulés. Meta devrait envisager de disposer de cette expertise en interne.
Le Conseil note que dans ce cas, la question porte sur l'authenticité ou la fausseté de l'enregistrement audio, et non sur la véracité des propos qui y sont tenus. Étant donné que le fait de signaler que l'audio a probablement été créé ou modifié numériquement permet également d'alerter les utilisateurs sur l'exactitude de son contenu, le Conseil estime que l'application de la politique relative aux fausses informations des contenus multimédias manipulés est suffisante. Cependant, le Conseil s'inquiète du fait que Meta semble ne pas disposer de médias de vérification en langue kurde pour vérifier les informations diffusées pendant les élections, dans le cadre de ses mesures visant à garantir l'intégrité des élections.
Décision du Conseil de surveillance
Le Conseil de surveillance annule la décision de Meta de ne pas signaler le contenu et demande que la publication soit signalée.
Le Conseil recommande également à Meta ce qui suit :
- Appliquer un signalement pertinent à tous les contenus utilisant le même contenu média manipulé, y compris tous les messages contenant l'extrait audio manipulé dans ce cas.
- S'assurer que les signalements informatifs relatifs aux contenus multimédias manipulés sur Facebook, Instagram et Threads s'affichent dans la même langue que celle choisie par l'utilisateur pour sa plateforme.
*Les résumés de cas donnent un aperçu des cas et n’ont pas valeur de précédent.
Décision complète sur le cas
1. Description du cas et contexte
Moins de deux semaines avant les élections législatives du Kurdistan irakien, en octobre 2024, un média populaire affilié au parti politique Parti démocratique du Kurdistan (PDK), a partagé un extrait audio de deux minutes sur sa page Facebook. La légende de la publication en kurde sorani affirme que l’extrait audio est « l’enregistrement d’une conversation » entre les frères Bafel et Qubad Talabani, membres du parti politique Union patriotique du Kurdistan (UPK) au sujet de leurs « sinistres projets » pour truquer les élections d’octobre 2024. Dans l’extrait audio, deux hommes parlent avec une voix-off en anglais (avec des sous-titres en kurde sorani et en anglais). L’un d’entre eux affirme à l’autre « 30 sièges minimum » leur ont été garantis, mais qu’ils doivent « se débarrasser des « 11 sièges » que le PDK a supposément « toujours utilisés à son avantage ». Cela permettrait de « rendre la monnaie de sa pièce » au PDK, selon l’intervenant. L’autre intervenant exprime son approbation et insiste sur le fait qu’il faut que ces sièges aient l’air d’être gagnés légitimement étant donné que le peuple est informé, même s’il ne peut pas le prouver, qu’ils sont soutenus par Bagdad et leur « voisin ». La page Facebook de ce média compte environ 4 000 000 abonnés. La publication a été vue environ 200 000 fois et a été partagée moins de 100 fois.
Un utilisateur a signalé la publication le jour de sa publication, selon le Standard de la communauté relatif aux Fausses informations de Meta. Cependant, le rapport n’a pas été priorisé pour un examen manuel, et Meta a fermé le rapport automatiquement en maintenant la publication sur Facebook, sans autre intervention. Le système HERO (High Risk Early Review Operations, opérations d’examen précoce en cas de risque élevé) de Meta a également identifié le contenu de ce cas pour un examen ultérieur sur la base d’indications selon lesquelles le contenu pouvait devenir viral. Le rapport a ensuite été fermé sans examen manuel car, selon Meta, la « viralité n’était pas assez élevée pour passer au stade de l’examen. » Peu après, un autre utilisateur a signalé le contenu pour fausses informations, mais Meta a également fermé ce rapport. Le deuxième utilisateur a fait appel de cette décision auprès de Meta, et l’entreprise a maintenu sa décision en se basant sur un score de classification. L’utilisateur a alors fait appel de la décision de Meta auprès du Conseil de surveillance. Le lendemain, Meta a identifié d’autres publications contenant l’extrait audio partagé sur les pages Facebook et Instagram du média qui avait partagé la publication de ce cas ainsi que sur la page Facebook du PDK. L’équipe de la Politique de contenu de Meta a envoyé ces publications à un média afin d’évaluer la probabilité que le contenu des publications ait été généré par l’IA, conformément à un partenariat établi en 2024. Un partenaire de confiance a également fourni des apports sur les signaux techniques et contextuels afin d’aider à déterminer si le contenu a été généré par l’IA. Après ces consultations, Meta a décidé de signaler certaines publications contenant l’extrait audio, mais pas le contenu de ce cas. L’étiquette appliquée à d’autres publications avec le même son audio indique : « Ce contenu peut avoir été créé numériquement ou modifié afin de paraître authentique. » Le Programme des partenaires de confiance est un réseau d’ONG, d’agences humanitaires et de chercheurs sur les droits humains issus de 113 pays qui signalent des publications et font part de leurs commentaires à Meta sur les politiques de contenu de l’entreprise et la manière dont celle-ci les applique.
Le Conseil fait remarquer le contexte suivant en parvenant à sa décision.
Le PDK et l’UPK sont les principaux partis politiques du Kurdistan irakien. Chacun dispose de ses propres forces de sécurité. Une rivalité de longue date existait entre les parties, qui a culminé en une guerre civile de 1994 à 1998. Finalement, les partis sont parvenus à un accord fragile de partage du pouvoir qui a provisoirement apaisé leur querelle. Cependant, ces dernières années, les tensions sont réapparues et se sont intensifiées, ce qui a causé des retards de plusieurs années dans la tenue des élections, qui ont finalement eu lieu en octobre 2024.
La plupart des médias du Kurdistan irakien sont « directement affiliés » à des partis politiques ou à des dirigeants de partis, qui leur fournissent des financements. Cela induit un traitement partisan de l'information. Les experts consultés par le Conseil ainsi que les rapports publics indiquent que le média qui a publié le contenu de ce cas est affilié au PDK, financé par celui-ci et est dépourvu d'indépendance éditoriale.
Facebook est la troisième plateforme la plus utilisée en Irak. L’utilisation de campagnes de désinformation coordonnées est courant lors des élections kurdes, comme les élections parlementaires de 2018. Les médias de l'ombre (« Shadow Media »), un réseau de pages de réseaux sociaux affiliées à des partis politiques et à des personnalités politiques influentes, auraient tenté d'influencer l'opinion publique avant les élections d'octobre 2024 en faveur de leurs commanditaires, parmi lesquels figurent des personnalités clés des deux partis.
Le 20 octobre 2024, le PDK a gagné les plus grand nombre de sièges parlementaires lors de l’élection. L’UPK est arrivé second. Masrour Barzani, du PDK, est le premier ministre actuel. Qubad Talabani, de l’UPK et supposé être l’un des intervenants de l’extrait audio, est l'actuel vice-Premier ministre.
2.Soumissions de l’utilisateur
L’utilisateur ayant signalé le contenu au Conseil indiquait que le son avait été généré par l’IA, avait été partagé pendant une campagne électorale « sensible » et était utilisé pour « nuire à la réputation d’un parti ».
Le média qui a publié le contenu a également soumis une déclaration au Conseil expliquant qu'il avait partagé l'enregistrement audio dans le cadre de sa couverture médiatique, « sans émettre d'opinion ni de commentaire sur le contenu lui-même », mais plutôt « simplement en tant qu’actualité locale ». Il a affirmé que son objectif était de publier des actualités « exactes ». Le média a indiqué qu’un parti politique avait publié ce fichier audio et que de nombreux partis politiques partagent régulièrement de telles vidéos. »
3. Politiques de Meta relatives au contenu et soumissions
I. Politiques de Meta relatives au contenu
Standard de la communauté sur les fausses informations
Le Standard de la Communautésur les fausses informations de Meta régit la modération des contenus multimédias manipulés sur ses plateformes. Pour le contenu qui n’enfreint pas la partie « ne pas publier » du Standard de la communauté, la politique se concentre sur une « réduction de la prévalence » ou la « création d’un environnement qui stimule le dialogue productif ». À cette fin, Meta peut placer une étiquette informative sur le contenu – ou rejeter le contenu envoyé en tant que publicité – lorsqu’il s’agit d’une image, d’une vidéo ou d’un contenu audio qui semble réaliste, créé ou retouché numériquement et impliquant un « risque particulièrement élevé de tromper considérablement le public sur un sujet d’intérêt général ».
II. Soumissions de Meta
Meta a trois signalements d’information différentes pour les contenus multimédias manipulés : (i) signalement « Information IA », ii) signalement « Haut risque » et (iii) signalement « Haut risque IA ».
Le signalement « Info IA » s'applique automatiquement au contenu que Meta détecte à l'aide d'« indicateurs d'images d'IA conformes aux normes de l'industrie ou lorsque des personnes ont spécifié qu'elles mettaient en ligne du contenu généré par l'IA ». Meta a antérieurement informé le Conseil que pour détecter les indicateurs d'image conformes aux normes de l'industrie, l'entreprise s'appuie sur « les métadonnées que les outils de création d'IA générique intègrent dans le contenu ». Cependant, à l'heure actuelle, la détection et l'application automatiques du signalement « Info IA » ne s'appliquent pas aux vidéos ou aux fichiers audio. Dans de tels cas, Meta compte sur les utilisateurs pour indiquer qu'ils téléchargent du contenu généré par l'IA.
Le label « Haut risque » s'applique aux contenus créés ou modifiés numériquement, tandis que le label « Haut risque IA » s'applique aux contenus générés par l'IA, conformément aux directives internes d'application. Les deux signalements s'appliquent aux contenus d’images, de son et de vidéo qui remplissent toutes les conditions suivantes : (i) ils présentent un risque particulièrement élevé de tromper gravement le public sur une question d'intérêt public ; (ii) il existe des indicateurs fiables montrant que le contenu a été créé ou modifié numériquement ; (iii) le signalement « IA à haut risque » exige en outre que le contenu présente des indicateurs fiables montrant qu'il a été créé ou modifié à l'aide de l'IA. Le signalement apposé sur un message varie selon qu'il s'agisse d'un signalement « haut risque » ou « Haut risque IA ». Un signalement « Haut risque » indique que « Ce contenu peut avoir été créé ou modifié numériquement pour paraître réel », tandis qu'un signalement « Haut risque IA » indique que « Ce contenu a été créé ou modifié numériquement à l'aide de l'IA pour paraître réel » (emphase ajoutée). Les deux signalements « Haut risque » comportent un lien permettant « d’en savoir plus » redirigeant l’utilisateur vers cet article. Selon Meta, en disposant de deux signalements différents, l’entreprise peut fournir des informations plus précises aux utilisateurs sur la probabilité que le contenu ait été manipulé et sur la méthode utilisée pour modifier ou créer le contenu multimédia. Lorsque l'entreprise n'est pas certaine que le contenu ait été créé numériquement, elle appose le signalement « Risque élevé », avertissant les utilisateurs que le contenu peut avoir été créé ou modifié numériquement. Le signalement apposé sur une publication est généralement libellé par défaut dans la langue définie par l'utilisateur sur la plateforme, mais Meta a déclaré ne pas traduire le signalement en kurde (même si les utilisateurs peuvent définir leur langue par défaut dans deux variantes différentes du kurde, dont le kurde sorani).
Meta a déclaré que l'apposition d'un signalement informatif, qu'il s'agisse d'un signalement « Info IA » ou de l'un des signalements « Haut Risque », n'entraîne pas la rétrogradation du contenu ni son retrait des recommandations. Meta peut afficher une fenêtre pop-up aux utilisateurs qui cliquent pour partager à nouveau du contenu portant la mention « Haut risque ». Lorsque les utilisateurs tentent de partager à nouveau une image ou une vidéo classée « Haut risque » sur Facebook, Instagram ou Threads, ils reçoivent un avis les avertissant que le contenu peut avoir été créé ou modifié numériquement. Cependant, ce signalement n’est pas disponible quand les publications sont partagées sous forme de stories Instagram ou de reels Facebook, comme dans ce cas.
Après avoir identifié trois publications contenant le même extrait audio, les équipes internes de Meta ont transmis ces publications à un média pour procéder à examiner la possibilité que l'audio ait été créé numériquement. En outre, Meta a consulté un Partenaire de confiance pour évaluer l’authenticité de l’audio. Meta a également pris en compte d'autres facteurs spécifiques au Kurdistan irakien, tels que le court intervalle entre la date à laquelle l'extrait audio a été partagé et la date des élections à venir, le manque de médias de vérification en langue kurde au Kurdistan irakien, les commentaires indiquant que certains utilisateurs ne considéraient pas l'enregistrement audio comme manipulé et les classificateurs internes de Meta détectant d'autres cas où cet extrait audio risquait de devenir viral. Sur la base de ces considérations, Meta a apposé un signalement « Haut risque » sur les publications contenant le même extrait audio que celui détecté et évalué par l'entreprise, mais pas sur le contenu dans ce cas. La société a expliqué qu'elle n'avait pas appliqué le signalement à toutes les publications contenant l'extrait audio afin d'éviter de signaler à tort des contenus qui ne rempliraient pas les critères du signalement, telles que les publications démystifiant ou condamnant cet extrait audio. Pour Meta, le fait de signaler toutes les instances de l'extrait audio pourrait prêter à confusion pour les utilisateurs.
Dans le cadre de ses efforts en matière d'intégrité pour les élections d'octobre 2024, Meta a informé le Conseil que la société effectuait quotidiennement des recherches ciblées pour détecter les discours hostiles et les infractions relevant de l'ingérence électorale, qu'elle surveillait les publicités politiques et les cas d'usurpation d'identité et de harcèlement des candidats politiques. Meta a également indiqué avoir mis en place une équipe pluridisciplinaire dotée de compétences linguistiques et contextuelles afin d'évaluer les risques sur la plateforme et de mettre en œuvre des mesures d'atténuation appropriées avant et pendant les élections du 20 octobre 2024. C'est ainsi que les trois publications virales contenant l'extrait audio, indépendamment du contenu du cas, ont été identifiées. Un classificateur interne a détecté ces trois publications comme susceptibles de devenir virales, avec plus de 1,5 million de vues combinées.
Le Conseil a posé des questions sur : les signalements que Meta applique aux contenus multimédias manipulés ; le processus d'identification de ces contenus multimédias et le moment où Meta applique automatiquement un signalement à un contenu similaire ou identique ; si le contenu a fait l'objet d'une vérification des informations ; et les efforts de Meta en matière d'intégrité électorale au Kurdistan irakien. Meta a répondu à toutes les questions.
4. Commentaires publics
Le Conseil de surveillance a reçu deux commentaires publics qui répondent aux critères de soumission. Un commentaire a été envoyé depuis la région Moyen-Orient et Afrique du Nord, et l’autre depuis la région Asie centrale et du Sud. Pour consulter les commentaires publics soumis accompagnés d’un consentement à la publication, cliquez ici.
Les envois portaient sur les thèmes suivants : l'authenticité de l'extrait audio ; la prédominance de la propagande pendant les élections au Kurdistan irakien ; et la liberté de la presse dans la région.
5. Analyse du Conseil de surveillance
Le Conseil a sélectionné ce cas afin d'examiner comment Meta garantit la liberté d'expression tout en luttant contre les contenus multimédias manipulés partagés dans le contexte d'élections. Ce cas relève de la priorité stratégique du Conseil suivante : Élections et espace civique.
Le Conseil a analysé les décisions de Meta dans les cas présents et les a comparées à ses politiques relatives au contenu, à ses valeurs et à ses responsabilités en matière de droits humains. Il a également évalué les implications de ce cas-ci sur l’approche plus globale de la gouvernance du contenu par Meta.
5.1 Respect des politiques de Meta relatives au contenu
Règles relatives au contenu
Standard de la communauté sur les fausses informations
Le Conseil juge que le contenu du cas remplit les conditions requises pour les contenus multimédias manipulés selon la politiques sur les fausses informations de Meta. Un signalement « Haut Risque » aurait donc dû être appliqué.
La publication concerne une question d'importance publique dans la région, à savoir les élections au Kurdistan irakien. Ce contenu crée un risque élevé de tromper le public, qu’il s’agisse des audiences nationales ou internationales. La voix off en anglais était peut-être destinée au personnel diplomatique de la région ou aux observateurs internationaux, tandis que les sous-titres en kurde sorani rendaient l’extrait accessible à l’électorat. Le contenu a été vu environ 200 000 fois, et il a été partagé juste avant l’élection. Il y a des indicateurs fiables qui indiquent que le contenu a été créé ou altéré numériquement. Des sources de confiance de Meta l’ont confirmé lors de leur évaluation de l’authenticité de l’extrait audio. Ces sources comprenaient un Partenaire de confiance et un média situé hors du Kurdistan irakien, sur lesquels Meta s'est basés pour évaluer les contenus susceptibles d'avoir été créés ou modifiés numériquement. Ces sources ont souligné le caractère peu naturel de la conversation et l'absence de rythme conversationnel. Elles ont également relevé des signaux techniques indiquant que l'enregistrement audio avait probablement été créé numériquement. Ces signaux comprenaient des bruits de fond discontinus, ainsi que des évaluations effectuées par des outils de détection basés sur l'intelligence artificielle. Les équipes internes de Meta ont donné leur accord pour apposer une mention « Haut risque » sur l'audio sous-jacent dans d'autres publications où il était présent, et non sur le contenu de ce cas. Un signalement « Haut risque » indiquant que le contenu pouvait avoir été créé ou altéré numériquement aurait dû être appliqué au contenu de ce cas. Le Conseil estime que l'explication fournie par Meta pour justifier pourquoi l'entreprise n'a pas appliqué le signalement à tous les contenus comportant le même extrait audio n'est pas convaincante. L'analyse des arguments de Meta et les conclusions du Conseil relatifs à l'application du signalement à tous les contenus présentant les mêmes contenus multimédias manipulés sont incluses dans la section consacrée à l'analyse des droits humains ci-dessous.
5.2 Respect des responsabilités de Meta en matière de droits humains
Le Conseil estime que l'apposition d'une mention « Haut Risque » sur le contenu est requise si les politiques de Meta sont correctement interprétées. Conformément à l'analyse de l'article 19 du Pacte international relatif aux droits civils et politiques (PIDCP) ci-dessous, l'application de ce signalement au contenu dans le cas présent et dans tous les cas où l'extrait audio est utilisé est également conforme aux responsabilités de Meta en matière de droits humains.
Liberté d’expression (article 19 du PIDCP)
L’article 19 du Pacte international relatif aux droits civils et politiques prévoit une large protection de la liberté d’expression, en particulier de l’expression politique ( observation générale nº 34, paragraphes 11 et 12). Le Comité des droits de l’homme des Nations Unies (NU) a affirmé que la valeur d’expression est particulièrement élevée lorsque des enjeux politiques sont abordés (observation générale n° 34, paragraphes 11 et 13). Lorsque des restrictions de la liberté d’expression sont imposées par un État, elles doivent remplir des critères de légalité, d’objectif légitime, ainsi que de nécessité et de proportionnalité (article 19, paragraphe 3 du PIDCP). Ces exigences sont souvent reprises sous l’intitulé « test tripartite ». Le Conseil s’appuie sur ce test afin d’interpréter les responsabilités de Meta en matière de droits humains conformément aux Principes directeurs relatifs aux entreprises et aux droits de l’homme de l’ONU, que Meta elle-même s’est engagée à respecter dans sa Politique relative aux droits humains. Le Conseil utilise ce test à la fois pour la décision relative au contenu en cours d’examen et pour ce que cela dit de l’approche plus large de Meta en matière de gouvernance du contenu. Comme l’a déclaré le Rapporteur spécial de l’ONU sur la liberté d’expression, même si « les entreprises ne sont pas soumises aux mêmes devoirs que les gouvernements, leur influence est néanmoins telle qu’elle doit les inciter à se poser les mêmes questions qu’eux quant à la protection de la liberté d’expression de leurs utilisateurs » (A/74/486, paragraphe 41).
Le Comité des droits de l’homme des Nations Unies a souligné que la liberté d’expression est essentielle à la conduite des affaires publiques et à l’exercice effectif du droit de vote (observation générale n° 34, paragraphe 20, voir également observation générale n° 25, paragraphes 12 et 25). Parallèlement, plusieurs rapporteurs spéciaux et groupes de travail des Nations unies ont publié une déclaration commune en 2024 dans laquelle ils affirment que : « Bien que le discours politique bénéficie d'une forte protection en vertu du droit international, il arrive parfois que des responsables politiques abusent de cette liberté pour tenir des propos nuisibles et diffuser de la désinformation, notamment en ce qui concerne les résultats électoraux et l'intégrité des élections. Les campagnes de diffamation coordonnées et l'utilisation de deepfakes sur les réseaux sociaux sont particulièrement alarmantes, car elles sont devenues des outils puissants pour manipuler les élections, notamment par des acteurs étrangers qui cherchent à interférer dans les élections depuis d'autres pays » (voir également le rapport du Rapporteur spécial des Nations Unies, A/HRC/47/25, paragraphe 18, sur la manière dont la désinformation est diffusée par les politiciens et les médias traditionnels ; le rapport du Rapporteur spécial des Nations Unies sur la concrétisation du droit à la liberté d'opinion et d'expression dans le contexte électoral, A/HRC/26/30).
Le Conseil remarque que l’extrait audio a été publié pendant une période d’élections très contestées, dans une région ayant des antécédents d’élections marquées par des irrégularités. Cela augmente la capacité de l’extrait audio à influencer les choix électoraux et à nuire à l'intégrité de l’élection. Comme l'indique le rapport du Rapporteur spécial des Nations Unies, les plateformes de réseaux sociaux ont une influence très forte sur l'intégrité électorale (A/HRC/47/25, paragraphe 16). Le Conseil estime que, compte tenu des conclusions de l'expert indépendant des Nations Unies sur l'omniprésence de la désinformation électorale à travers le monde, les responsabilités de Meta en matière de droits humains l'obligent à prendre les mesures appropriées afin d'atténuer ses effets néfastes. Si ces mesures d'atténuation limitent le droit à la liberté d'expression de l'utilisateur, elles doivent respecter les trois critères énoncés à l'article 19, paragraphe 3, du PIDCP.
I. Légalité (clarté et accessibilité des règles)
Le principe de légalité prévoit que les règles qui limitent la liberté d’expression soient accessibles, claires et suffisamment précises pour permettre à un individu d’adapter son comportement en conséquence (observation générale n° 34, paragraphe 25). En outre, ces règles « ne peu[ven]t pas conférer aux personnes chargées de [leur] application un pouvoir illimité de décider de la restriction de la liberté d’expression » et doivent « énoncer des règles suffisamment précises pour permettre aux personnes chargées de leur application d’établir quelles formes d’expression sont légitimement restreintes et quelles formes d’expression le sont indûment » (Ibid). Le Rapporteur spécial des Nations Unies sur la liberté d’expression a déclaré que lorsqu’elles s’appliquent aux acteurs privés, les règles régissant le discours en ligne devaient être claires et précises (A/HRC/38/35, paragraphe 46). Les personnes qui utilisent les plateformes de Meta doivent pouvoir accéder aux règles et les comprendre, et les équipes d’examen de contenu doivent disposer de conseils clairs sur leur application.
Le Conseil juge que la politique sur les fausses informations sur les contenus multimédias manipulés est suffisamment clair telle qu’elle est appliquée au contenu de ce cas. Le texte de la politique destiné au public informe clairement les utilisateurs des règles applicables et des conséquences de la publication de tels contenus sur les plateformes de Meta (c'est-à-dire l'ajout d'une mention informative), dans le mesure où ils n'enfreignent pas d'autres Standards de la Communauté. Cependant, Meta devrait envisager d'intégrer les informations relatives aux différents signalements sur les contenus multimédias manipulés sur une seule page du Centre de transparence afin que les utilisateurs puissent facilement en savoir plus à leur sujet.
II.Objectif légitime
Par ailleurs, toute restriction de la liberté d’expression doit au minimum répondre à l’un des objectifs légitimes énumérés dans le PIDCP, qui incluent la protection des droits d’autrui (article 19, paragraphe 3, PIDCP). Dans le cas de la vidéo retouchée du Président Biden, le Conseil avait estimé que la protection du droit de participer aux affaires publiques (article 25 du PIDCP) était un objectif légitime.
III.Nécessité et proportionnalité
Conformément à l’article 19(3) du PIDCP, le principe de nécessité et de proportionnalité requiert que les restrictions de la liberté d’expression soient « appropriées pour remplir leur fonction de protection, elles doivent constituer le moyen le moins perturbateur parmi ceux qui pourraient permettre d’obtenir le résultat recherché et elles doivent être proportionnées à l’intérêt à protéger » (Observation générale n° 34, paragraphe 34).
Le Rapporteur spécial des Nations Unies sur la liberté d'expression a noté ( A/74/486, para 51) que « les entreprises possèdent les outils pour traiter le contenu dans le respect des droits de l’homme, s’agissant à certains égards d’une gamme d’outils plus étendue que celle à la disposition des États. » Dans cette ordre d’idée, le Conseil estime qu’apposer un signalement informatif sur le contenu du cas, tel que le signalement « Haut Risque », au lieu de supprimer totalement le contenu satisfait les exigences de nécessité et de proportionnalité. Afin de déterminer la nécessité et la proportionnalité de cette mesure, le Conseil a pris en considération les facteurs suivants : a) le contenu multimédia a été publié à l'approche des élections ; b) il existe des antécédents de désinformation et de fausses informations lors d'élections précédentes ; c) les clivages dans le contexte politique ; d) le contrôle politique exercé sur les médias d'information dans la région, c'est-à-dire la source de l'information ; e) la probabilité que les contenus multimédias contenus dans la publication soient altérés, comme l'indiquent deux évaluations indépendantes ; et f) la probabilité que les contenus multimédias altérés numériquement induisent en erreur et influencent l'électorat.
Le droit d'accès à l'information et le droit de vote sont étroitement liés, se renforcent mutuellement et constituent des éléments constitutifs de la démocratie. La Déclaration conjointe de 2009 du Rapporteur spécial des Nations unies sur la promotion et la protection du droit à la liberté d’opinion et d’expression, le Représentant de l’Organisation pour la sécurité et la coopération en Europe pour la liberté des médias, le Rapporteur spécial de l’Organisation des États américains pour la liberté d’expression, le Rapporteur spécial sur la liberté d’expression et l’accès à l’information de la Commission africaine des droits de l’homme et des peuples a souligné que « des élections libres et justes ne sont possibles que lorsque l'électorat est bien informé et a accès à des informations plurielles et suffisantes ». Apposer un signalement informatif sur le contenu est la mesure la moins intrusive pour informer les utilisateurs de la probabilité que l'extrait audio ait été créé numériquement, ce qui atténuerait les risques de tromper le public à l'approche d'élections très clivées et contestées. En appliquant le signalement « Haut Risque », Meta indique aux utilisateurs que le contenu peut être créé numériquement et fournit des conseils pour évaluer le contenu sans se prononcer sur la véracité des informations susceptibles d'influencer les élections. Le Conseil note également le climat médiatique partisan au Kurdistan irakien, tant dans les médias traditionnels que sur les réseaux sociaux (voir PC-31199, Centre d'études avancées en droit numérique et intelligence artificielle). Maintenir le contenu en ligne sans signalement nuit à la capacité des utilisateurs à s'informer et à participer au débat politique dans un écosystème déjà fragile sur le plan de la liberté d'expression.
La cohérence interne et la cohésion relative à l'interférence sur l'expression (c'est-à-dire le signalement) exigent que le signalement soit appliqué à tous les occurrences de l’extrait audio. Dans le cas de la Vidéo retouchée du président Biden, le Conseil a recommandé que, pour les contenus multimédias manipulés qui ne violent pas les autres Standards de la communauté, l'entreprise appose un signalement sur « toutes les occurrences identiques de ce contenu multimédia sur la plateforme ». Le Conseil reconnaît l’engagement de Meta pour mettre en œuvre cette recommandation. Appliquer le signalement à toutes les occurrences de l’extrait audio faisant l'objet de cette affaire serait conforme à cet engagement. L’affirmation de Meta, dans ce cas, selon laquelle l’entreprise n’applique pas automatiquement le signalement « Haut risque » à tous les contenus où figure cet audio, est en contradiction avec cette recommandation.
Il est important de noter que le signalement ne dévalorise pas le contenu et n'empêche pas qu'il soit recommandé. De plus, la crainte de Meta de causer des confusions chez les utilisateurs en signalant de manière erronée les contenus qui démystifient ou condamnent l'enregistrement audio n'est ni pertinente, ni étayée par des preuves. Au contraire, ne pas apposer le signalement sur toutes les occurrences de l'enregistrement audio augmente les risques d'induire le public en erreur et de le dérouter. Le Conseil note que certains utilisateurs ont commenté la publication du média en pensant que l'enregistrement audio était authentique. Selon Meta, l'entreprise avait apposé un signalement sur d'autres publications du même contenu multimédia qui contenaient le même extrait audio. Le fait de signaler certaines publications, mais pas toutes, du même contenu multimédia risque de semer la confusion, voire pire, d'induire encore plus les utilisateurs en erreur. Comme l'a souligné le Conseil dans sa décision relative à la vidéo retouchée du président Biden, le fait d'apposer un signalement sur une petite partie du contenu « pourrait donner la fausse impression que le contenu non signalé est intrinsèquement fiable ». Le Conseil s'inquiète de l'application sélective de ce signalement par Meta, à l'approche d'élections très contestées et clivées. Le Conseil n'est toutefois pas convaincu de la nécessité de deux signalements « Haut risque » distinct, où l'un indiquant que le contenu peut avoir été manipulé et l'autre indique qu'il l'a été. Meta devrait réévaluer si cette complexité supplémentaire a une utilité.
Le Conseil s'inquiète également du fait que les signalement de contenus multimédias manipulés de Meta ne sont pas disponibles en kurde sorani, qui est l'une des langues utilisées dans le contenu de ce cas (c'est-à-dire que les sous-titres sont en kurde sorani). Le Conseil note que le kurde sorani est l'une des langues disponibles dans l'application pour les utilisateurs de Facebook. Cependant, les utilisateurs dont les paramètres de langue sont réglés par défaut sur le kurde sorani ne pourront pas voir les signalements relatifs à l'IA, telles que l'étiquette « Haut Risque », dans ce dialecte. Dans plusieurs de ses décisions, le Conseil a recommandé la traduction des Standards de la Communauté de Meta et de certains aspects de ses directives internes en matière d'application dans les langues utilisées par ses utilisateurs. Cela permet d'assurer que les utilisateurs sont informés des règles et que celles-ci sont appliquées de manière rigoureuses (voir Préoccupations au Pendjab concernant les réseaux sociaux en Inde, Bot du Myanmar, Réappropriation des mots arabes). De même, le label « Haut risque » vise à informer l'utilisateur que le contenu peut avoir été manipulé numériquement. Au minimum, la mise à disposition du signalement dans la langue locale déjà disponible sur les plateformes de Meta devrait faire partie de ses efforts visant à garantir l'intégrité électorale.
Le Conseil note que la question dans ce cas porte sur l'authenticité de l'enregistrement audio, indépendamment de l'exactitude des allégations qui sont formulées. Étant donné que le fait de signaler que l'audio a probablement été créé ou modifié numériquement permet également d'alerter les utilisateurs sur l'exactitude de son contenu, le Conseil estime que l'application de la politique relative aux fausses informations des contenus multimédias manipulés est suffisante. Cependant, le Conseil s'inquiète du fait que Meta semble ne pas disposer de médias de vérification en langue kurde pour vérifier les informations diffusées pendant les élections, dans le cadre de ses mesures visant à garantir l'intégrité des élections. Cela est particulièrement vrai dans le contexte d'un environnement politique extrêmement clivé, de médias indépendants limités et d'un historique de désinformation électorale et de campagnes de désinformation coordonnées.
Mise en application
Le Conseil s'inquiète à la fois du manque de cohérence et des limites de l'application de la politique de Meta en matière de contenus multimédias manipulés, ainsi que du fait que l'entreprise s'en remette à des tiers pour l'évaluation technique des contenus susceptibles d'avoir été manipulés. Dans la décision sur la vidéo retouchée du Président Biden, Meta avait déclaré au Conseil que les « vidéos comportant des discours étaient considérées comme les plus trompeuses et les plus faciles à détecter de manière fiable. » Dans ce cas, le Conseil a souligné à Meta que « les contenus audio seuls peuvent comporter moins d'indices d'inauthenticité et donc être tout autant voire plus trompeurs que les contenus vidéo ». Dans ce cas, le Conseil avait suggéré à Meta de ne pas se concentrer sur les photographies ou les images statiques, mais de prioriser l'identification des vidéos et des fichiers audio manipulés. Cependant, pour l'identification des contenus créés ou manipulés par l'IA sur ses plateformes, Meta a indiqué être uniquement en mesure d'identifier et de signaler automatiquement les images statiques et non les contenus vidéo ou audio. Par l'apposition du signalement « Info IA » sur les fichiers audio et vidéo, l'entreprise compte sur les utilisateurs pour signaler eux-mêmes l'utilisation de l'IA. Dans la mesure où Meta est l'une des entreprises leaders de technologique et d'intelligence artificielle au monde, avec ses ressources et la large utilisation de ses plateformes, le Conseil réitère que Meta devrait prioriser les investissements dans des technologies permettant d'identifier et de signaler à grande échelle les vidéos et les fichiers audio manipulés. De plus, pour les contenus que l'entreprise a déjà identifiés et évalués comme susceptibles d'avoir été manipulés et qui « présentent un risque particulièrement élevé de tromper gravement le public sur une question d'importance publique », le fait que Meta n'ait pas déployé les outils dont elle dispose pour appliquer automatiquement le signalement à tous les contenus contenant des contenus multimédias manipulés est incohérent et injustifiable.
Enfin, Meta devrait reconsidérer s'il est possible de disposer en interne de l'expertise nécessaire pour évaluer si le contenu a été manipulé. Le Conseil ne comprend pas pourquoi une entreprise disposant d'une telle expertise technique et de telles ressources externalise l'identification des contenus multimédias susceptibles d'être manipulés dans des situations à haut risque à des organes de presse ou à des partenaires de confiance.
6. Décision du Conseil de surveillance
Le Conseil de surveillance annule la décision de Meta de ne pas signaler le contenu et demande que la publication soit signalée.
7. Recommandations
Mise en application
1. Meta devrait appliquer le signalement approprié à tous les contenus comportant les mêmes contenus multimédias manipulés sur ses plateformes, y compris toutes les occurrences contenant l'extrait audio manipulé dans le cas présent, afin de garantir que les signalements « Haut risque » soient appliquées de manière cohérente à tous les contenus manipulés identiques ou similaires.
Le Conseil considérera que cette recommandation aura été mise en œuvre lorsque Meta lui fournira un processus clair permettant d'identifier et d'appliquer de manière cohérente le label « Haut risque » pour tous les cas de contenus multimédias manipulés sur la plateforme.
2. Dans le cadre de ses efforts visant à garantir l'intégrité électorale et à informer les utilisateurs de la présence de contenus manipulés sur ses plateformes en période électorale, Meta devrait veiller à ce que les mentions informatives relatives aux contenus manipulés sur Facebook, Instagram et Threads soient affichées dans la même langue que celle choisie par l'utilisateur pour son utilisation de la plateforme.
Le Conseil considérera que cette recommandation aura été mise en œuvre lorsque Meta fournira des informations dans son Centre de transparence sur les langues, où les signalements de contenus multimédias manipulés seront disponibles pour les utilisateurs sur ses plateformes.
* Note de procédure :
- Les décisions du Conseil de surveillance sont prises par des panels de cinq membres et approuvées par une majorité du Conseil dans son ensemble. Les décisions du Conseil ne représentent pas nécessairement les opinions de tous les membres.
- En vertu de sa Charte, le Conseil de surveillance est habilité à examiner les appels déposés par les utilisateurs dont le contenu a été supprimé par Meta, les appels déposés par les utilisateurs ayant signalé un contenu que Meta n’a finalement pas supprimé, et les décisions que Meta lui transmet (article 2, section 1 de la Charte). Le Conseil dispose d’une autorité contraignante pour confirmer ou annuler les décisions de Meta relatives au contenu (article 3, section 5 de la Charte ; article 4 de la Charte). Le Conseil est habilité à émettre des recommandations non contraignantes auxquelles Meta doit répondre (article 3, section 4 de la Charte ; Article 4). Lorsque Meta s’engage à donner suite aux recommandations, le Conseil surveille leur mise en œuvre.
- Pour la décision sur ce cas, des recherches indépendantes ont été commandées au nom du Conseil. Le Conseil a bénéficié de l’aide de Duco Advisors, une société de conseil spécialisée dans la géopolitique, la confiance et la sécurité, ainsi que la technologie.
- L’entreprise Lionbridge Technologies, LLC, dont les spécialistes parlent couramment 350 langues et travaillent dans 5000 villes du monde entier, a fourni son expertise linguistique.
Retour aux décisions de cas et aux avis consultatifs politiques