Renversé
Vidéo générée par l’IA dans le cadre du conflit Israël-Iran
10 mars 2026
Dans le cadre de son analyse de la propagation des contenus générés par l’IA au cours des conflits armés, à partir d’un cas concret portant sur la guerre de 2025 entre Israël et l’Iran, le Conseil de surveillance invite Meta à redoubler d’efforts pour permettre aux utilisateurs d’identifier ces contenus.
Pour lire cette décision en farsi, cliquez ici.
برای خواندن حکم کامل به زبان فارسی، در اینجا کلیک کنید.
Pour lire cette décision en hébreu, cliquez ici.
לקריאת החלטה זו בעברית יש ללחוץ כאן.
Résumé
Dans le cadre de son analyse de la propagation des contenus générés par l’IA au cours des conflits armés, à partir d’un cas concret portant sur la guerre de 2025 entre Israël et l’Iran, le Conseil de surveillance invite Meta à redoubler d’efforts pour permettre aux utilisateurs d’identifier ces contenus. Son approche en matière de mise en avant des contenus générés par l’IA doit évoluer. Cela implique notamment de fournir des informations détaillées à grande échelle sur l’origine des médias, sur la base de normes de provenance du contenu, d’investir dans des outils de détection plus performants et de développer de meilleures méthodes pour un étiquetage approprié. Meta doit établir un nouvel ensemble de règles distinctes afin de garantir que les utilisateurs puissent reconnaître de manière fiable les contenus générés par l’IA. Elle doit également modifier ses politiques actuelles afin de garantir une réponse rapide et adéquate aux contenus trompeurs générés par l’IA.
L’entreprise doit respecter ses engagements publics et utiliser ses propres outils ainsi que ceux disponibles dans l’ensemble du secteur afin de lutter efficacement contre les contenus trompeurs générés par l’IA qui se propagent sur les plateformes.
Le Conseil annule la décision de Meta de laisser la publication en ligne sans l’accompagner d’une étiquette indiquant qu’il s’agit d’IA à risque élevé.
Pourquoi c’est important
À mesure que la quantité et la qualité du contenu généré par l’IA augmentent, celui-ci aura une incidence profonde sur les personnes et les sociétés. Les risques sont accrus lorsque des deepfakes conçus pour tromper, manipuler ou accroître l’engagement sont partagés pendant des conflits et des crises, comme en Iran et au Venezuela en 2026, et se propagent rapidement sur les plateformes de différentes entreprises. Au cours de ces deux crises, on a prétendu que des contenus trompeurs générés par l’IA étaient authentiques et que des contenus authentiques avaient été fabriqués de toutes pièces. Cela accentue l’incapacité du public à discerner la vérité, ce qui est emblématique du « dividende du menteur » (liar’s dividend) et conduit à une méfiance générale à l’égard de toutes les informations. Les campagnes d’influence axées sur l’IA constituent un défi croissant observé à l’échelle mondiale ces dernières années, exacerbé par des écosystèmes médiatiques et Internet restrictifs qui limitent les informations crédibles. Cependant, le fait que les contenus générés par l’IA soient trompeurs ne constitue pas en soi une raison légitime pour restreindre la liberté d’expression. Le secteur doit faire preuve de cohérence pour aider les utilisateurs à distinguer les contenus trompeurs générés par l’IA, et les plateformes doivent lutter contre les pages et les comptes abusifs qui partagent ces contenus.
À propos des cas
La guerre entre Israël et l’Iran en juin 2025 a marqué un tournant, avec l’apparitionde contenus trompeurs issus de l’IA générative sur les réseaux sociaux, rapidement qualifiés de « guerre douce ». Ces contenus trompeurs auraient été vus un nombre incalculable de fois, et les gouvernements israélien et iranien ont été accusés de tenter d’exercer une influence à l’aide de l’IA. Le 15 juin, deux jours après le début du conflit israélo-iranien de 12 jours, une vidéo a été publiée sur une page Facebook se présentant comme une source d’information. L’utilisateur qui a publié la vidéo se trouvait aux Philippines. La vidéo montrait des dégâts importants causés à des bâtiments, avec un texte en anglais incrusté disant « Live now – Haifa Towards Down » (En direct – Haïfa sur le point de tomber) [sic] et la date de publication. La vidéo était très similaire à une autre, provenant de TikTok et identifiée par un média de vérification indépendant (Agence France-Presse) comme étant fausse et générée par l’IA. Une légende accompagnant la publication Facebook énumérait de nombreuses phrases accrocheuses liées au conflit, ainsi que des termes et des hashtags sans rapport. La publication a été vue plus de 700 000 fois, et plusieurs commentaires ont fait remarquer que le contenu était généré par l’IA.
Six utilisateurs ont signalé le cas à Meta, mais il n’a été ni examiné par l’entreprise ni vérifié par des médias de vérification tiers. Un utilisateur a fait appel auprès du Conseil. Après que le Conseil a sélectionné ce cas, Meta a confirmé que la publication n’enfreignait pas le Standard de la communauté relatif aux fausses informations, car elle ne « contribuait pas directement au risque de blessures physiques imminentes » et ne nécessitait pas d’étiquette IA.
Des signes évidents de tromperie liés à la publication ont conduit le Conseil à interroger Meta sur l’identité et le comportement des comptes liés à la page. L’entreprise a ensuite désactivé trois comptes liés à la page pour abus d’interactions et manque d’authenticité, supprimant ainsi la page et, avec elle, le contenu du cas. La page était éligible à la monétisation via le programme Étoiles de Meta.
Principales conclusions
Le Conseil estime que le contenu présentait un risque non négligeable d’induire le public en erreur sur une question importante à un moment critique, et que Meta aurait donc dû appliquer une mention « IA à risque élevé ». La publication ne remplissait pas les critères requis pour être supprimée (risque imminent de blessures physiques ou de violence). Meta doit redoubler d’efforts pour lutter contre la multiplication des contenus trompeurs générés par l’IA sur ses plateformes, notamment par des réseaux de pages et de comptes non authentiques ou abusifs, en particulier sur des questions d’intérêt public, afin que les utilisateurs puissent faire la distinction entre ce qui est réel et ce qui est faux.
Le Conseil s’inquiète des informations selon lesquelles Meta applique de manière incohérente les normes de la Coalition for Content Provenance and Authenticity (C2PA), même pour les contenus générés par ses propres outils d’IA, et que seule une partie de ces contenus est correctement étiquetée. La C2PA définit des normes techniques visant à intégrer des informations sur la provenance sous forme de métadonnées dans les contenus, ce qui permet aux plateformes d’identifier plus facilement les contenus générés par l’IA et d’apposer des étiquettes pour informer les utilisateurs.
Les mécanismes actuels permettant d’apposer ne serait-ce que l’étiquette standard « IA Info » sur une vidéo (déclaration volontaire de l’utilisateur ou escalade vers l’équipe chargée de la politique de contenu) ne sont ni suffisamment robustes ni assez complets pour faire face à l’ampleur et à la vitesse du contenu généré par l’IA, en particulier lors d’une crise ou d’un conflit où l’engagement sur la plateforme est accru. Un système qui dépend de manière excessive de la divulgation volontaire de l’utilisation de l’IA et d’un examen approfondi (qui se produit rarement) pour étiqueter correctement ces contenus ne peut pas permettre de relever les défis de l’environnement actuel. Certains membres du Conseil ont également fait remarquer que les étiquettes « IA à risque élevé » (pour les contenus susceptibles de tromper les utilisateurs sur des questions importantes) doivent également être associées à une rétrogradation ou à un retrait des recommandations afin de répondre aux préoccupations liées à la propagation des répercussions des contenus trompeurs.
L’approche limitée de Meta consistant à étendre les évaluations aux contenus identiques ou quasi identiques a peut-être empêché cette publication de faire l’objet d’une vérification des informations. Les contraintes en matière de ressources et le volume considérable de contenu publié rendent difficile pour les médias de vérification d’assurer un examen rapide de tous les contenus trompeurs, en particulier en période de conflit ou de crise. Le Conseil réitère sa recommandation selon laquelle Meta devrait veiller à ce que les médias de vérification disposent de ressources suffisantes et de directives leur permettant de donner la priorité aux contenus liés aux conflits. Le protocole politique de crise (PPC) et les désignations d’événements populaires auraient dû permettre à Meta d’assurer un soutien plus efficace aux médias de vérification tiers pendant la crise. La répartition des évaluations dans une catégorie plus large de vidéos très similaires aurait pu limiter considérablement les dommages potentiels, notamment en les rétrogradant. Ce cas met en évidence les inefficacités de l’approche actuelle de Meta pendant les conflits armés, ce qui renforce les préoccupations déjà exprimées par le Conseil.
Il est préoccupant que, malgré l’activation du PPC et l’allocation de ressources supplémentaires, Meta n’ait pas identifié de sa propre initiative les signaux évidents d’abus d’interactions sur la page et n’ait enquêté sur les comptes à l’origine de ces abus qu’en réponse aux questions du Conseil. Une application rigoureuse des politiques fondées sur le comportement aurait pu prévenir les préjudices causés par ces comptes en infraction, plutôt que de s’en remettre à des mesures correctives en aval fondées sur le contenu, qui sont sujettes à un taux d’échec élevé.
Décision du Conseil de surveillance
Le Conseil annule la décision de Meta de conserver le contenu sans étiquette IA à risque élevé.
Le Conseil recommande à Meta ce qui suit :
- Créer un Standard de la communauté relatif au contenu généré par l’IA, distinct du Standard de la communauté relatif aux fausses informations, fournissant des règles complètes sur la préservation de la provenance, sur les protocole l’étiquetage de l’IA et sur l’auto-divulgation.
- Développer des moyens permettant d’apposer beaucoup plus fréquemment des étiquettes « Risque élevé » et « IA à risque élevé » sur les contenus, à l’aide de canaux d’escalade plus clairs provenant de systèmes automatisés et d’un examen à grande échelle, afin que cet étiquetage puisse être appliqué à un volume nettement plus important.
- Joindre des informations sur la provenance et des filigranes invisibles aux contenus créés par les outils d’IA de Meta, y compris en appliquant des identifiants de contenu (tels que définis par la C2PA) lors de la création.
- Mettre en œuvre des identifiants de contenu à grande échelle et veiller à ce qu’ils soient clairement et systématiquement visibles et accessibles chaque fois que les détails sur la provenance sont disponibles.
- Investir dans des outils de détection plus performants pour les contenus multiformats (audio, audiovisuel et image) générés par l’IA.
- Publier une explication claire des sanctions en cas de non-divulgation de contenus créés ou modifiés numériquement, y compris les critères de sanction et les limitations qui en découlent.
- Modifier le Standard de la communauté relatif aux fausses informations afin de garantir que l’examen rapide des informations erronées qui risquent directement d’entraîner des violences ou des blessures physiques imminentes ne dépende pas uniquement des signaux provenant de partenaires externes. Un levier CPP devrait allouer des ressources à la détection rapide et proactive de ces contenus illicites, avec le soutien de l’expertise et des actions internes, y compris l’étiquetage et l’enquête sur les comptes et les pages à l’origine des publications.
* Les résumés de cas donnent un aperçu des cas et n’ont pas valeur de précédent.
Décision complète sur le cas
1. Description du cas et contexte
Le 13 juin 2025, Israël a lancé une importante frappe aérienne visant notamment des installations nucléaires et militaires iraniennes. Les dirigeants israéliens ont déclaré que ces attaques avaient pour but d’empêcher le développement du programme nucléaire iranien. Cela a déclenché plus d’une semaine et demie d’attaques intenses entre les deux pays. L’Iran a tiré des centaines de missiles sur des villes israéliennes, dont beaucoup ont été interceptés par les défenses israéliennes, tandis qu’Israël a frappé plusieurs sites à travers l’Iran, notamment près de la capitale Téhéran. Le 18 juin, le secrétaire général des Nations unies (ONU), Antonio Guterres, s’est déclaré « profondément alarmé » par l’escalade militaire, ajoutant que « toute intervention militaire supplémentaire pourrait avoir des conséquences énormes, non seulement pour les parties concernées, mais aussi pour l’ensemble de la région et pour la paix et la sécurité internationales en général ». Le 21 juin, les États-Unis ont mené une série d’attaques visant des sites nucléaires en Iran. Le 24 juin, un cessez-le-feu a été annoncé entre Israël et l’Iran.
Le conflit israélo-iranien de 2025 a marqué un tournant, l’influence croissante des contenus générés par l’IA sur les réseaux sociaux étant désormais considérée comme une « guerre douce » à part entière. La British Broadcasting Corporation a rapporté que trois vidéos trompeuses générées par l’IA sur le conflit ont été vues plus de 100 millions de fois. Le ministre israélien des Affaires étrangères a partagé une vidéo d’une attaque contre la prison d’Evin à Téhéran, qui, selon une analyse médico-légale, aurait été générée par l’IA, bien qu’une attaque contre la prison ait réellement eu lieu. Une étude du Citizen Lab de l’université de Toronto a fait état d’un réseau coordonné de profils inauthentiques sur X (anciennement Twitter), prétendument associés à Israël, encourageant les Iraniens à s’opposer à leur gouvernement. Le gouvernement israélien a également signalé des campagnes iraniennes menées par des bots visant à influencer l’opinion publique sur le conflit et les conséquences de leurs attaques contre Israël.
Les contenus trompeurs générés par l’IA constituent depuis quelques années un défi croissant et persistant dans les crises et les conflits à travers le monde. Ce défi est exacerbé dans les endroits où la liberté d’expression est menacée et où la répression des médias indépendants et les coupures d’Internet empêchent la diffusion d’informations crédibles susceptibles de discréditer les campagnes trompeuses. Au cours de ses délibérations sur cette affaire, le Conseil a observé comment l’opération américaine visant à capturer le président du Venezuela et les manifestations antigouvernementales de masse en Iran ont donné lieu à des affirmations selon lesquelles des contenus trompeurs générés par l’IA étaient authentiques et à des réfutations selon lesquelles des contenus authentiques avaient été fabriqués de toutes pièces. Ces deux situations ont mis à mal la capacité du public à distinguer le vrai du faux, illustrant parfaitement le concept du « dividende du menteur » (liar’s dividend) et risquant d’entraîner une méfiance générale à l’égard de toute information.
Plusieurs approches techniques ont vu le jour pour aider les plateformes et les utilisateurs à faire la distinction entre les médias synthétiques ou manipulés et les médias authentiques. L’une d’elles consiste à retracer la provenance, c’est-à-dire l’historique vérifiable d’un actif numérique, tel qu’une image, une vidéo ou un document. La Coalition for Content Provenance and Authenticity (C2PA) a défini des normes techniques visant à intégrer des informations sur la provenance sous forme de métadonnées dans les contenus, ce qui permet aux plateformes d’identifier plus facilement les contenus générés par l’IA et d’apposer des étiquettes pour informer les utilisateurs. Bien que ces outils soient encore en cours d’évolution et qu’aucun ne constitue une solution parfaite, ils sont considérés comme « le minimum requis en matière de génération et de diffusion responsables de contenus générés par l’IA ». Parallèlement, les investissements dans la détection automatisée, tels que les classificateurs, peuvent permettre de découvrir d’autres signaux indiquant que le contenu a été généré par l’IA.
Le cas présent illustre bien ces défis. Le 15 juin, au moment de l’escalade du conflit israélo-iranien, une vidéo a été publiée sur une page Facebook se présentant comme une source d’information et disposant de 161 000 abonnés. La vidéo montrait des dégâts importants causés à des bâtiments, entourés de panaches de fumée et de décombres, avec un texte en anglais incrusté disant « Live now – Haifa Towards Down » (En direct – Haïfa sur le point de tomber) [sic] et la date de publication. La publication faisait vraisemblablement référence à Haïfa, une ville du nord d’Israël. La vidéo semble très similaire à une autre provenant de TikTok et identifiée par le média de vérification indépendant Agence France-Presse (AFP) comme étant fausse et générée par l’IA (l’AFP ne fournit que des images fixes de la vidéo évaluée, mais celles-ci sont identiques aux images du contenu du cas). Une légende en anglais accompagnant la publication Facebook énumérait de nombreuses phrases accrocheuses liées au conflit, ainsi que des termes et des hashtags sans rapport, sans récit clair. Elle mentionnait le conflit en cours, les dirigeants politiques mondiaux, les incendies de forêt, les missiles et d’autres éléments. La publication a été vue plus de 700 000 fois, et plusieurs commentaires ont fait remarquer que le contenu était généré par l’IA.
Six utilisateurs ont signalé le contenu de ce cas à neuf reprises au total, mais les systèmes automatisés de Meta ne l’ont pas classé comme prioritaire pour un examen manuel. Le jour même où le contenu a été publié, un classificateur de fausses informations l’a transmis à médias de vérification tiers, mais il n’a jamais été examiné ni évalué. Cela n’avait rien d’inhabituel, car Meta signale un volume important de fausses informations potentielles qui dépasse la capacité d’examen des médias de vérification.
Après avoir épuisé les procédures d’appel internes au sein de l’entreprise, l’un des utilisateurs ayant signalé le contenu a fait appel de la décision de Meta de laisser le contenu en ligne auprès du Conseil. Après que le Conseil a sélectionné ce cas, Meta a confirmé que la publication n’enfreignait pas le Standard de la communauté relatif aux fausses informations, car elle ne « contribuait pas directement au risque de blessures physiques imminentes ». Meta a également défendu sa décision de ne pas étiqueter le contenu. Elle n’a pris aucune mesure à l’encontre de la page ou des comptes responsables du contenu.
En raison des signes évidents de tromperie liés à cette publication, le Conseil a posé à Meta une série de questions sur l’identité et le comportement de la page et des comptes qui la gèrent. Cela a donné lieu à une enquête, qui a permis à Meta d’identifier que les administrateurs de la page avaient enfreint les règles relatives à l’abus d’interactions et au manque d’authenticité. L’entreprise a alors définitivement désactivé trois comptes, ce qui a entraîné la suppression de la page et du contenu du cas de la plateforme.
2. Soumissions des utilisateurs
Dans sa requête adressée au Conseil, l’utilisateur qui a demandé le retrait du contenu s’est plaint que Meta autorise les « terrorism acts » (actes terroristes) sur sa plateforme. Sa déclaration n’indiquait pas clairement qu’il comprenait que le contenu était généré par l’IA ou trompeur.
3. Politiques de Meta relatives au contenu et soumissions
I. Règles de Meta relatives au contenu
Standard de la communauté sur les fausses informations
En vertu du Standard de la communauté relatif aux fausses informations, Meta supprime les « fausses informations ou les rumeurs non vérifiables qui, selon les partenaires spécialisés, sont susceptibles de contribuer directement à un risque de violence ou de blessures physiques imminentes pour les personnes ». Dans les pays « soumis à un risque accru de violence sociale », Meta travaille « proactivement avec des partenaires locaux pour comprendre quelles sont les fausses affirmations susceptibles de contribuer directement à un risque de blessures physiques imminentes » afin d’identifier et de supprimer ces affirmations.
Dans la section « Médias manipulés », Meta indique que pour les contenus n’allant pas à l’encontre des Standards de la communauté pour un autre motif, elle peut ajouter une étiquette informative sur la publication lorsqu’il s’agit d’une image, d’une vidéo ou d’un contenu audio qui semble réaliste, créé ou retouché numériquement et impliquant un « risque particulièrement élevé de tromper considérablement le public sur un sujet d’intérêt général ». La politique en matière de fausses informations exige également des utilisateurs qu’ils indiquent quand elles publient du « contenu organique avec des vidéos photoréalistes ou de l’audio réaliste qui ont été créés ou retouchés numériquement ». Ne pas utiliser l’outil de divulgation de l’IA peut exposer à des sanctions.
Par ailleurs, Meta interdit également des contenus et des comportements qui « coïncident souvent avec la diffusion de fausses informations ». Cela inclut les Standards de la communauté sur l’intégrité des comptes, sur les pratiques trompeuses et sur le comportement non authentique coordonné. Pour toutes les autres fausses informations qui n’enfreignent pas le Standard de la communauté relatif aux fausses informations, Meta se concentre sur une « réduction de la prévalence » ou la « création d’un environnement qui stimule un dialogue productif ». En dehors des États-Unis, Meta fait appel à des médias de vérification tiers indépendants pour examiner et évaluer le contenu, ce qui peut entraîner l’ajout d’étiquettes correspondant à l’évaluation du contenu. Les évaluations comprennent les mentions « faux » et « modifié » et peuvent entraîner une réduction de la diffusion du contenu. Meta utilise la technologie pour mettre en évidence les informations potentiellement erronées afin que les médias de vérification les examinent, et ces derniers peuvent également identifier eux-mêmes les contenus à examiner. En janvier 2025, Meta a annoncé mettre fin au programme de vérification tierce aux États-Unis et s’orienter plutôt vers un modèle de Note de la communauté.
Les Règles de monétisation des partenaires de Meta définissent les règles applicables aux pages qui « gagnent de l’argent sur les plateformes » et précisent que les contenus signalés comme contenant de fausses informations ou des pièges à clics peuvent ne pas être éligibles à la monétisation. Les Règles de monétisation pour le contenu précisent également que les règles pour « créer un contenu monétisable qui garantit la sécurité des marques » et limitent ou réduisent la monétisation du contenu qui représente ou décrit certains sujets, tels que « les tragédies ou conflits, y compris les dommages matériels ». Dans le même ordre d’idées, les comptes liés à la page en question ont tous deux été supprimés en raison d’infractions au niveau du compte liées à des abus d’interactions.
II. Soumissions de Meta
Meta a déclaré que la publication n’enfreignait pas la politique relative aux fausses informations, qui exige la suppression des contenus « susceptibles de contribuer directement au risque de blessures physiques imminentes ». Sa décision a pris en considération le fait qu’aucun expert indépendant, tel qu’un partenaire local, n’avait signalé le contenu ou toute tendance connexe en matière de fausses informations.
Meta n’a appliqué aucune étiquette au contenu au titre des règles relatives aux médias manipulés. Meta applique trois étiquettes différentes aux médias manipulés : Info IA, Risque élevé ou IA à risque élevé
L’étiquette d’informations Info IA s’applique automatiquement au contenu quand Meta détecte des « indicateurs d’images d’IA conformes aux normes de l’industrie ou lorsque des personnes ont spécifié qu’elles mettaient en ligne du contenu généré par l’IA ». Comme le Conseil l’a révélé dans le cas de l’Appel vocal supposé pour truquer les élections du Kurdistan irakien Meta n’est actuellement en mesure d’identifier automatiquement et d’apposer l’étiquette « Info IA » que sur des images statiques, en s’appuyant sur les métadonnées que de nombreux outils d’IA générative intègrent dans ce type de contenu. Pour que l’étiquette soit apposée sur du contenu audio ou vidéo, les utilisateurs doivent le signaler eux-mêmes. Dans le cas présent, aucun signalement n’a été effectué. Selon les procédures actuelles de Meta, une étiquette ne pouvait pas être ajoutée automatiquement dans ces circonstances.
L’étiquette Risque élevé s’applique aux contenus qui (i) présentent un risque particulièrement élevé de tromperie matérielle du public sur une question d’importance publique ; et (ii) présentent des indicateurs fiables de création ou de modification numérique. Contrairement à l’étiquette « Info IA », l’étiquette « Risque élevé » relève d’une politique d’escalade uniquement, ce qui signifie que seules les équipes internes de Meta peuvent l’appliquer après examen manuel. Il n’y a pas eu d’escalade de ce type pour le contenu en question avant que le Conseil ne sélectionne ce cas.
L’étiquette IA à risque élevé est appliquée aux mêmes conditions que l’étiquette « Risque élevé », mais pour le contenu présentant des indicateurs fiables d’avoir été créé ou retouché avec l’IA. Il s’agit également d’une politique d’escalade uniquement, qui nécessite un examen manuel. Les équipes internes chargées de la politique de Meta n’ont examiné ce contenu qu’après sa sélection par le Conseil. Elles ont estimé que trop de temps s’était écoulé pour que cette étiquette soit pertinente ou urgente.
Meta prend en compte les sources externes et internes disponibles qu’elle juge crédibles pour déterminer si un contenu est le produit de l’IA ou s’il a été créé ou modifié numériquement. Les sources externes peuvent inclure des organisations de vérification tierces indépendantes qui sont en mesure de fournir une base technique à leur détermination, telle qu’une référence à un modèle de détection de l’IA ou une conclusion d’un expert médico-légal.
Comme expliqué dans la décision relative aux Images de manifestation associées à des slogans en soutien à Duterte, les étiquettes de médias manipulés n’entraînent pas de rétrogradation automatique du contenu ni son retrait des recommandations. Au lieu de cela, les utilisateurs qui partagent à nouveau du contenu portant ces étiquettes peuvent voir s’afficher une fenêtre contextuelle, ce qui peut réduire naturellement la portée du contenu. Le message de la fenêtre contextuelle dépend du fait que le contenu ait été créé ou non à l’aide de l’IA.
Meta dispose de plusieurs systèmes en dehors des États-Unis pour identifier et traiter les informations potentiellement fausses. Certains systèmes ne font qu’envoyer le contenu à des médias de vérification tiers, tandis que d’autres l’envoient pour examen et appliquent une rétrogradation temporaire en attendant les résultats. Le fait que le contenu soit uniquement envoyé pour examen ou que sa portée soit réduite dépend du type de système qui le signale, ainsi que de facteurs tels que la langue et le pays concernés.
Selon Meta, le protocole de politique de crise (PPC) a été activé au moment du conflit entre Israël et l’Iran. Israël était désigné dans le cadre du PPC depuis les attaques du 7 octobre 2023 dans le pays. L’Iran a été désigné au début du conflit de juin 2025. L’activation du protocole permet à l’entreprise de déployer un ensemble de leviers destinés à renforcer sa réponse aux crises et à permettre à ses équipes d’évaluer et d’atténuer le risque de préjudice imminent. Au cours de cette crise, cela n’a entraîné aucun changement dans les systèmes de modération automatisés et le contenu des cas a été examiné à l’aide des modèles et des seuils existants.
Meta a désigné le conflit israélo-iranien comme un « événement populaire » afin d’aider les médias de vérification tiers à identifier et à démentir les fausses informations virales liées au conflit, compte tenu du risque élevé de propagation de fausses informations. Au moment où le cessez-le-feu a été mis en place, les médias de vérification avaient déjà publié plusieurs vérifications des informations liées au conflit. Meta indique disposer de médias de vérification en Israël et aux Philippines (où se trouve l’utilisateur à l’origine de la publication), mais pas en Iran.
Après que le Conseil a demandé à Meta d’enquêter sur le comportement de cette page et des comptes liés, l’entreprise a désactivé les comptes de trois administrateurs différents de la page.
Un administrateur a été désactivé pour avoir enfreint la politique relative à la représentation de la véritable identité en « mentant sur leur identité afin de tromper les autres personnes ou de les induire en erreur, de se soustraire aux règles ou d’enfreindre nos Standards de la communauté ». Le deuxième compte a été désactivé en vertu de la politique relative à l’intégrité des comptes, car il appartenait à la même personne/entité qu’un compte désactivé. Le troisième a été désactivé en vertu de la politique relative au spam pour abus d’interactions. La politique relative au spam interdit de manière générale diverses pratiques trompeuses, mensongères ou excessives visant à augmenter de manière artificielle l’engagement sur les publications. Cela a conduit à la suppression de la page et du contenu publié par celle-ci. Avant sa suppression, la page était éligible à la monétisation via le programme Étoiles de Meta.
Le Conseil a posé des questions sur l’étiquetage, la détection de l’IA, la vérification des informations, la mise en application du PPC, les comportements au niveau des pages et des comptes, etc. Meta a répondu à toutes ces questions.
4. Commentaires publics
Le Conseil a reçu six commentaires publics qui répondent aux critères de soumission. Quatre commentaires proviennent d’Europe et deux des États-Unis. Pour consulter les commentaires publics soumis accompagnés d’un consentement à la publication, cliquez ici.
Les soumissions portaient sur les thèmes suivants : la modération du contenu pendant les conflits et les crises, la prévalence du contenu généré par l’IA et la recrudescence du comportement non authentique coordonné dans les conflits armés, les limites de la définition de Meta des « blessures physiques imminentes », l’importance de la vérification des faits pendant les conflits armés, les standards et la mise en application des étiquettes de médias manipulés, l’importance des standards C2PA dans la détection, et plus encore.
5. Analyse du Conseil de surveillance
Le Conseil a sélectionné ce cas afin d’examiner les politiques et les pratiques de Meta concernant la mise en application de ses règles relatives au partage de contenus trompeurs générés par l’IA sur ses plateformes, en particulier dans le contexte des conflits armés. Ce cas relève des priorités stratégiques du Conseil, notamment les situations de crise et de conflit ainsi que l’IA et l’automatisation.
Le Conseil a analysé la décision de Meta dans le cas présent et l’a comparée à ses politiques relatives au contenu, à ses valeurs et à ses responsabilités en matière de droits humains. Il a également évalué les implications de ce cas-ci sur l’approche plus globale de la gouvernance du contenu par Meta.
5.1 Respect des politiques de Meta relatives au contenu
Règles relatives au contenu
Le Conseil estime que le contenu du cas ne nécessitait pas de suppression en vertu du Standard de la communauté sur les fausses informations, mais que Meta aurait dû appliquer une étiquette « IA à risque élevé » au contenu en vertu de ses règles relatives aux médias manipulés.
La publication n’enfreignait pas les politiques de Meta en matière de fausses informations nécessitant une suppression, car elle n’était pas susceptible de contribuer à des violences imminentes ou à des blessures physiques. La vidéo exagérait de manière trompeuse les répercussions d’une attaque iranienne contre Israël et a été publiée peu de temps après la chute de missiles sur Haïfa. Bien que cela ait probablement accru le désarroi des personnes trompées, cela n’était pas susceptible de contribuer à des actes de violence de la part de civils israéliens contre des adversaires présumés ni d’influencer directement la réponse du gouvernement israélien. Rien n’indique que des actes de violence aient été commis entre communautés au sein d’Israël en réaction à des descriptions trompeuses des attaques.
Malgré cette conclusion, il est préoccupant que Meta n’ait fourni aucune analyse du risque potentiel de préjudice dans son analyse du contenu. Au lieu de cela, elle a conclu que, comme aucun partenaire de confiance ne lui avait signalé le contenu, celui-ci n’enfreignait pas ses règles. Cette attitude n’est pas acceptable alors que de nombreux partenaires de confiance informent le Conseil que l’entreprise est moins réactive aux demandes et aux préoccupations, en partie en raison d’une réduction significative des capacités des équipes internes de Meta. Meta devrait être capable de mener elle-même de telles évaluations des risques, plutôt que de compter uniquement sur ses partenaires pour la contacter lors d’un conflit armé. Il s’agissait d’une page très suivie, le contenu était viral, le classificateur de fausses informations de Meta l’avait signalé et plusieurs utilisateurs également. Des sources crédibles telles que l’AFP ont démenti une vidéo très similaire, invitant Meta à examiner de manière proactive les affirmations trompeuses qui auraient pu causer un préjudice. L’activation du PPC aurait dû garantir que Meta dispose des ressources nécessaires pour mener elle-même ce type d’évaluations et contacter de manière proactive ses partenaires afin d’obtenir des informations sur le contexte local si nécessaire. Dans ces circonstances, le contenu aurait dû être transmis à un niveau supérieur pour être examiné.
Si cela avait été le cas, il aurait été clair que le contenu présentait un risque important d’induire le public en erreur sur une question importante à un moment critique, et une étiquette « IA à risque élevé » aurait été apposée. En se présentant comme un média d’information et en accompagnant la vidéo d’un texte indiquant qu’il s’agissait d’images « En direct » depuis Haïfa, cette page a présenté ce contenu comme des images authentiques d’un conflit armé en cours mettant en danger la vie de civils Cet utilisateur, dont la page se présentait déjà à tort comme une source d’information crédible, n’aurait pas révélé sa supercherie en divulguant lui-même son utilisation de l’IA. Les oiseaux blancs peu réalistes qui volaient dans la vidéo et le fait que des organisations spécialisées telles que l’AFP aient déterminé que le contenu était généré par l’IA auraient dû inciter Meta à évaluer la nécessité d’un étiquetage. Meta aurait également dû corriger son erreur dès que le Conseil l’a signalée. Les recherches menées par le Conseil sur la plateforme ont révélé que plusieurs versions de cette vidéo et des captures d’écran associées circulaient sur les plateformes de Meta plusieurs semaines plus tard, et que l’entreprise n’en avait étiqueté aucune.
Si cette publication spécifique avait également été examinée par des médias de vérification tiers, ce contenu aurait probablement reçu une étiquette indiquant qu’il était faux et aurait été rétrogradé (sur la base de l’évaluation par l’AFP d’une vidéo très similaire). L’approche limitée de Meta consistant à étendre les évaluations à des contenus identiques ou quasi identiques a peut-être empêché ce contenu d’être également évalué (par exemple en raison de l’ajout d’un texte superposé à la vidéo). Les contraintes en matière de ressources et le volume considérable de contenu publié rendent difficile pour les médias de vérification d’assurer un examen rapide de tous les contenus trompeurs, en particulier en période de conflit ou de crise. Le Conseil réitère son avis selon lequel Meta devrait veiller à ce que les médias de vérification disposent de ressources suffisantes et de directives sur la priorité à accorder aux contenus liés aux conflits, afin de mener à bien la tâche difficile que Meta leur confie (voir Images de manifestation associées à des slogans en soutien à Duterte).
Il est préoccupant que, pendant cette crise et malgré l’activation du PPC et l’allocation de ressources supplémentaires, Meta n’ait pas identifié de sa propre initiative les signaux évidents d’abus d’interactions sur la page et n’ait enquêté sur les comptes à l’origine de ces abus qu’en réponse aux questions du Conseil. Une application rigoureuse des politiques sur l’intégrité et l’authenticité fondées sur le comportement aurait pu prévenir les préjudices causés par ce contenu en infraction soutenu par plusieurs comptes en infraction, plutôt que de s’en remettre à des mesures correctives en aval fondées sur le contenu, qui sont sujettes à un taux d’échec élevé.
5.2 Respect des responsabilités de Meta en matière de droits humains
Le Conseil estime que, conformément aux responsabilités de Meta en matière de droits humains, une étiquette « IA à risque élevé » indiquant que le contenu a été manipulé aurait dû être apposée sur ce contenu, et que Meta doit redoubler d’efforts pour lutter contre la prolifération de contenus trompeurs générés par l’IA sur ses plateformes, notamment par le biais de réseaux de comptes et de pages non authentiques ou abusifs.
Liberté d’expression (article 19 du PIDCP)
L’article 19 du Pacte international relatif aux droits civils et politiques (PIDCP) prévoit une large protection pour l’expression, y compris politique. Ce droit inclut la « liberté de rechercher, de recevoir et de répandre des informations et des idées de toute espèce » (article 19, paragraphe 2). Lorsque des restrictions de la liberté d’expression sont imposées par un État, elles doivent remplir des critères de légalité, d’objectif légitime, ainsi que de nécessité et de proportionnalité (article 19, paragraphe 3 du PIDCP). Ces exigences sont souvent reprises sous l’intitulé « test tripartite ». Le Conseil s’appuie sur ce test afin d’interpréter les responsabilités de Meta en matière de droits humains conformément aux Principes directeurs relatifs aux entreprises et aux droits de l’homme de l’ONU, que Meta elle-même s’est engagée à respecter dans sa Politique relative aux droits humains. Le Conseil utilise ce test à la fois pour la décision relative au contenu en cours d’examen et pour ce que cela dit de l’approche plus large de Meta en matière de gouvernance du contenu. Comme l’a déclaré le Rapporteur spécial de l’ONU sur la liberté d’expression, même si « les entreprises ne sont pas soumises aux mêmes devoirs que les gouvernements, leur influence est néanmoins telle qu’elle doit les inciter à se poser les mêmes questions qu’eux quant à la protection de la liberté d’expression de leurs utilisateurs » (A/74/486, paragraphe 41).
En outre, le Groupe de travail des Nations Unies sur les droits de l’homme et les sociétés a déclaré que « le risque de violations caractérisées des droits de l’homme est plus élevé dans les zones touchées par des conflits », « la diligence raisonnable des entreprises doiv[en]t donc être renforcées en conséquence » (A/75/212, paragraphe 13). Dans un rapport de 2024 sur le conflit entre Israël et Gaza, la Rapporteuse spéciale des Nations unies sur la liberté d’expression et d’opinion a révélé que les plateformes manquaient systématiquement à cette responsabilité dans les conflits et a souligné les risques accrus liés à la désinformation et à la mésinformation dans de telles situations (A/79/319, paragraphes 60 et 66). Dans le conflit entre Israël et l’Iran, les coupures d’Internet ont profondément perturbé l’accès des civils à l’information, créant un vide rapidement comblé par des médias trompeurs générés par l’IA (voir : PC-31545 WITNESS).
Meta dispose d’une gamme solide d’outils pour atténuer les dommages potentiels causés par les contenus trompeurs générés par l’IA sur ses plateformes. Ce cas montre que la détection et le signalement devraient être mis en œuvre de manière plus cohérente, fréquente et efficace afin d’éviter tout préjudice probable à court terme pour les utilisateurs, en particulier dans les situations de conflit où les enjeux sont beaucoup plus importants. Cela devrait s’accompagner d’une allocation de ressources adéquate aux médias de vérification tiers et de conseils pour donner la priorité aux contenus provenant de conflits, ainsi que d’investissements dans la mise en œuvre de mesures précises contre les abus comportementaux au niveau des comptes et des pages.
I. Légalité (clarté et accessibilité des règles)
Le principe de légalité prévoit que les règles qui limitent la liberté d’expression soient accessibles, claires et suffisamment précises pour permettre à un individu d’adapter son comportement en conséquence (Observation générale n° 34, paragraphe 25). En outre, ces règles « ne peu[ven]t pas conférer aux personnes chargées de [leur] application un pouvoir illimité de décider de la restriction de la liberté d’expression » et doivent « énoncer des règles suffisamment précises pour permettre aux personnes chargées de leur application d’établir quelles formes d’expression sont légitimement restreintes et quelles formes d’expression le sont indûment » (Ibid). Le Rapporteur spécial des Nations Unies sur la liberté d’expression a déclaré que lorsqu’elles s’appliquent aux acteurs privés, les règles régissant le discours en ligne devaient être claires et précises (A/HRC/38/35, paragraphe 46). Les personnes qui utilisent les plateformes de Meta devraient pouvoir accéder aux règles et les comprendre, et les équipes d’examen de contenu devraient disposer de consignes claires sur leur application.
Le Standard de la communauté sur les fausses informations devrait apporter davantage de clarté aux utilisateurs et aux personnes chargées de faire respecter les règles.
L’explication générale selon laquelle Meta collabore avec des tiers pour identifier les tendances trompeuses ne précise pas clairement que la mise en application dépend entièrement de la communication des préoccupations des partenaires à Meta. Plutôt que de clarifier ce point, une approche différente s’impose, pour les raisons exposées ci-dessous.
La seule description publique détaillée des trois étiquettes utilisées par Meta pour signaler les médias manipulés se trouve dans les décisions du Conseil. Le Conseil réitère sa recommandation à Meta de décrire de manière exhaustive les trois étiquettes utilisées pour signaler les médias manipulés, les critères d’application de ces étiquettes et leurs conséquences (Images de manifestation associées à des slogans en soutien à Duterte) tout en soulignant que cette approche doit également évoluer.
En outre, la politique relative aux médias manipulés ne décrit pas publiquement les sanctions qui « peuvent » être appliquées si un utilisateur ne divulgue pas lui-même l’utilisation de l’IA. Meta a expliqué au Conseil que ces sanctions ne sont appliquées qu’en cas d’escalade en réponse à des manquements répétés et peuvent avoir une incidence sur la distribution de contenu ou entraîner la suspension temporaire de certaines fonctionnalités du compte. Meta semble exercer un large pouvoir discrétionnaire dans ce domaine et des informations plus claires devraient être fournies aux utilisateurs.
Présenter davantage d’informations sur la provenance du contenu, l’étiquetage et l’auto-divulgation dans le Standard de la communauté sur les fausses informations pourrait créer une confusion entre les efforts visant à atténuer la tromperie et les mesures positives visant à promouvoir l’intégrité de l’information. Toutes les utilisations de contenu généré par l’IA et toutes les applications d’étiquettes ne permettront pas de lutter contre les tentatives de tromperie. Définir ces règles dans un Standard de la communauté distinct pourrait aider à clarifier l’approche de Meta et à améliorer le comportement des utilisateurs.
II. Objectif légitime
Par ailleurs, toute restriction de la liberté d’expression doit au minimum répondre à l’un des objectifs légitimes énumérés dans le PIDCP, qui incluent la protection de la sécurité et des droits d’autrui.
Dans le cas de la vidéo retouchée du président Biden, le Conseil a souligné que « le fait d’empêcher les gens d’être induits en erreur ne constitue pas en soi une raison légitime pour restreindre la liberté d’expression ». Cependant, le Standard de la communauté sur les fausses informations vise également à atténuer le risque de blessures physiques ou de violences imminentes à l’encontre de personnes, ce qui constitue un objectif légitime au regard des droits d’autrui (Observation générale n° 34, paragraphe 28).
III. Nécessité et proportionnalité
Conformément à l’article 19(3) du PIDCP, le principe de nécessité et de proportionnalité requiert que les restrictions de la liberté d’expression soient « appropriées pour remplir leur fonction de protection, elles doivent constituer le moyen le moins perturbateur parmi ceux qui pourraient permettre d’obtenir le résultat recherché et elles doivent être proportionnées à l’intérêt à protéger » (Observation générale n° 34, paragraphe 34).
La Rapporteuse spéciale des Nations Unies sur la liberté d’expression a déclaré que « lors des conflits armés, les populations sont extrêmement vulnérables et ont particulièrement besoin d’une information précise et fiable afin de garantir leur sécurité et leur bien-être. Pourtant, c’est précisément dans ces situations que leur liberté d’expression et d’opinion [...] est la plus entravée par les circonstances de la guerre, par les parties au conflit et par les autres acteurs qui manipulent et restreignent l’information à des fins politiques, militaires et stratégiques » (A/77/288, paragraphe 1).
La Rapporteuse spéciale également souligné que « les entreprises possèdent les outils pour traiter le contenu dans le respect des droits de l’homme, s’agissant à certains égards d’une gamme d’outils plus étendue que celle à la disposition des États. Cette gamme d’options leur permet d’adapter leurs réactions à des contenus problématiques spécifiques, en fonction de leur gravité et d’autres facteurs » (A/74/486, paragraphe 51).
Pour évaluer la nécessité et la proportionnalité des mesures potentielles, le Conseil a pris en considération les éléments suivants : (a) le fait que la page se présentait de manière trompeuse comme une source d’information crédible ; (b) le fait que le contenu était directement lié à un conflit armé en cours ; (c) la vulnérabilité des civils à la recherche d’informations vérifiées dans le contexte de ce conflit ; (d) la propagation rapide et bien documentée de contenus trompeurs générés par l’IA pendant ce conflit (voir CP-31528 Alan Turing Institute) ; (e) la diffusion multiplateforme de contenus similaires ou quasi identiques ; et (f) les incitations à la participation et à la monétisation liées à la production de médias manipulés pendant les conflits.
Le Conseil estime qu’apposer une étiquette « IA à risque élevé » sur le contenu manipulé répondrait aux exigences de nécessité et de proportionnalité, et s’inquiète du fait que Meta ne l’ait pas fait. Cette mesure aurait été beaucoup moins intrusive que la suppression, étant donné que la tromperie était peu susceptible d’entraîner un préjudice imminent. À ce stade, une telle étiquette aurait un caractère informatif et n’entraînerait pas de rétrogradation ou de suppression des recommandations. Meta afficherait une fenêtre contextuelle aux utilisateurs qui tenteraient de partager à nouveau un contenu portant cette étiquette. Une étiquette contribuerait à réduire les conséquences de cette tromperie sur les utilisateurs qui recherchent des informations précises en ligne sur au sujet du conflit.
De précédents cas traités par le Conseil ont montré que la diffusion de médias manipulés sans étiquette peut éroder la confiance dans l’authenticité du contenu de la plateforme de manière plus générale. C’est particulièrement vrai pendant les conflits armés, où les médias manipulés représentant des atteintes au droit international humanitaire peuvent diminuer la confiance dans ces cadres juridiques et dans la protection qu’ils offrent aux civils. Pour assumer ses responsabilités en matière de droits humains, Meta aurait dû intensifier l’examen du contenu sans s’en remettre à des tiers, afin d’étiqueter le contenu sans délai.
Les mécanismes actuels permettant d’apposer ne serait-ce que l’étiquette standard « IA Info » sur une vidéo (déclaration volontaire de l’utilisateur ou escalade vers l’équipe chargée de la politique de contenu) ne sont ni suffisamment robustes ni assez complets pour faire face à l’ampleur et à la vitesse du contenu généré par l’IA, en particulier lors d’une crise ou d’un conflit où l’engagement sur la plateforme est accru. Le Conseil souligne qu’un système qui dépend de manière excessive de la divulgation volontaire de l’utilisation de l’IA et d’un examen approfondi (qui se produit rarement) pour étiqueter correctement ces contenus ne peut pas permettre de relever les défis de l’environnement actuel.
Certains membres ont fait remarquer que la définition de Meta de « violence ou blessures physiques imminentes » ne tient pas compte des diverses façons dont les contenus trompeurs générés par l’IA pourraient avoir des répercussions moins directes, mais néanmoins graves, sur la société pendant un conflit armé. Cela pourrait, par exemple, compromettre l’accès aux informations fiables nécessaires pour tenir les acteurs gouvernementaux et autres parties responsables, accroître la vulnérabilité des populations à la manipulation et permettre d’autres formes d’influence trompeuse. Pour ces membres du Conseil, le simple fait d’apposer l’étiquette « média manipulé » sans accompagner cette mesure d’une rétrogradation ou d’un retrait des recommandations est insuffisant pour répondre à ces préoccupations. Supprimer la portée de ces contenus lors de moments à haut risque tels que les conflits armés serait une intervention nécessaire et proportionnée. Le Conseil reconnaît qu’une évaluation erronée de ces contenus par des médias de vérification tiers aurait également abouti à ce résultat.
À l’échelle du secteur, il existe des défis techniques importants pour garantir un étiquetage précis et cohérent du contenu généré par l’IA. Meta a expliqué au Conseil qu’elle utilise des indicateurs standard du secteur, à savoir les métadonnées que les outils d’IA générative intègrent souvent dans le contenu, pour étiqueter automatiquement les images statiques. Cependant, tous les outils d’IA générative n’ajoutent pas encore les métadonnées nécessaires pour appliquer une étiquette. Même si un outil ajoute les métadonnées, les utilisateurs peuvent facilement les supprimer du contenu avant de le partager sur les réseaux sociaux. Les mécanismes limités de Meta reflètent peut-être ces défis actuels, mais il incombe à l’entreprise de réagir de manière proactive à l’évolution rapide de la technologie. Cette question dépasse le cadre des contenus trompeurs, car ces limites empêchent les utilisateurs de vérifier l’authenticité de toutes les informations. Ces difficultés ne feront que s’intensifier à mesure que le volume et la qualité des vidéos et des fichiers audio générés par l’IA continueront de dépasser les capacités des outils de détection et d’étiquetage disponibles. Le Conseil encourage vivement Meta à donner la priorité à l’amélioration de ses mécanismes de détection et d’étiquetage afin de mieux détecter toutes les formes de contenu généré par l’IA sur ses plateformes, d’informer correctement les utilisateurs lorsqu’ils sont susceptibles d’interagir avec des médias manipulés et de se concentrer sur les types de contenu qui présentent les risques les plus élevés.
Le Conseil salue la présence de Meta au sein du comité directeur de la C2PA. La C2PA affirme qu’à mesure du développement rapide du partage d’informations, il est essentiel de retracer la provenance des médias. Elle fournit une norme technique ouverte pour déterminer l’origine et les modifications apportées au contenu numérique. Les rapports indiquant que Meta ne met pas systématiquement en œuvre les normes de la C2PA, même pour le contenu généré par l’IA à partir de ses propres outils, sont préoccupants. Une étude récente a montré que, lorsqu’elles sont inspectées par les outils de la C2PA, seule une partie des images et des vidéos générées par les outils d’IA de Meta fournissent des informations sur leur contenu et reçoivent un étiquetage approprié.
Le contenu du cas semble avoir d’abord été publié sur la plateforme TikTok, avant d’être rapidement partagé sur d’autres plateformes, avec des publications similaires apparaissant sur Facebook, Instagram et X, malgré le rapport de l’AFP sur le caractère mensonger de contenus similaires. Les commentaires publics ont souligné la nécessité d’une collaboration multiplateforme solide pendant les périodes de conflit armé afin de réduire et d’atténuer la propagation de contenus trompeurs générés par l’IA.
Comme souligné précédemment, le PPC et les désignations d’événements populaires auraient dû permettre à Meta d’assurer un soutien plus efficace aux médias de vérification tiers pendant cette crise. En particulier répartir les évaluations dans une catégorie plus large de vidéos très similaires aurait pu limiter considérablement les dommages potentiels, notamment en les rétrogradant. Ce cas met en évidence les lacunes de l’approche actuelle de Meta lors de conflits armés, renforçant les préoccupations exprimées par le Conseil dans des cas précédents dans des contextes différents (Images de manifestation associées à des slogans en soutien à Duterte).
6. Décision du Conseil de surveillance
Le Conseil annule la décision de Meta de conserver le contenu sans étiquette IA à risque élevé.
7. Recommandations
A. Politique de contenu
Fausses informations
- Afin de garantir un examen rapide des fausses informations qui entraînent des risques imminents de blessures physiques ou de violence en situation de crise, Meta devrait modifier son Standard de la communauté relatif aux fausses informations afin de garantir que la mise en application de cette règle ne dépende pas des signalements de partenaires externes. Le protocole de politique de crise devrait prévoir un levier permettant d’allouer des ressources pour la détection proactive et en temps opportun de ces contenus contraires à la politique, avec le soutien d’experts internes, afin d’identifier, d’examiner et de traiter les contenus concernés par la politique (notamment en apposant des étiquettes conformément à la politique relative aux médias manipulés et en enquêtant sur les comptes et les pages qui affichent des signaux d’abus d’interactions).
Le Conseil considérera cette mesure comme mise en œuvre lorsque Meta aura mis à jour sa politique relative aux fausses informations afin de refléter ces exigences pour la catégorie « Blessures physiques ou violence ».
Contenu généré par l’IA
2. Afin de renforcer la confiance dans les informations diffusées sur ses plateformes, Meta devrait créer un Standard de la communauté pour les contenus générés par l’IA, distinct du Standard de la communauté sur les fausses informations. Ce nouveau Standard de la communauté devrait fournir des informations détaillées sur la préservation de la provenance (c’est-à-dire la conservation des informations détaillées sur l’historique d’un contenu numérique), les protocoles d’étiquetage de l’IA et les règles d’auto-divulgation.
Le Conseil considérera cette recommandation comme mise en œuvre lorsque Meta publiera un nouveau Standard de la communauté spécifiquement dédié aux contenus générés par l’IA.
3. Afin d’améliorer la clarté de ses règles, Meta devrait publier une explication claire des sanctions en cas de non-divulgation de contenus créés ou modifiés numériquement. Elle devrait fournir des critères pour les sanctions et énumérer les fonctionnalités du compte qui sont limitées en conséquence et pour combien de temps.
Le Conseil considérera cette mesure comme mise en œuvre lorsque Meta mettra à jour le Standard de la communauté pour inclure ces détails sur les sanctions et publiera les directives révisées dans son Espace modération public.
B. Mise en application
Provenance
4. Afin de garantir que les utilisateurs puissent identifier de manière fiable les contenus générés par l’IA, Meta devrait mettre en œuvre à grande échelle les identifiants de contenu (tels que définis par la Coalition for Content Provenance and Authenticity) et veiller à ce qu’ils soient clairement et systématiquement visibles et accessibles aux utilisateurs chaque fois que les détails relatifs à la provenance sont disponibles. La provenance ne devrait pas rester uniquement détectable en interne ou limitée aux systèmes en arrière-plan.
Le Conseil considérera cette mesure comme mise en œuvre lorsque Meta fournira un rapport expliquant les modifications apportées à ses interfaces et à ses produits afin de garantir que les identifiants de contenu soient affichés de manière cohérente et claire aux utilisateurs lorsqu’ils sont disponibles.
Détection et étiquetage
5. Afin d’améliorer la détection et la précision de l’étiquetage, Meta devrait investir dans des outils de détection plus performants pour les contenus multiformats (audio, audiovisuel et image) générés par l’IA. Les outils doivent aider les équipes chargées de l’escalade à mieux identifier les tendances en matière de contenu généré par l’IA, y compris les préjudices potentiels liés aux contenus trompeurs dans les situations de crise.
Le Conseil considérera cette recommandation comme mise en œuvre lorsque l’entreprise confirmera que des outils plus performants ont été adoptés et communiquera des données transparentes sur les performances de ces outils. Ces conclusions doivent être ventilées par langue et par pays, et indiquer si le protocole de politique de crise a été activé. Ces données doivent refléter des périodes comparables avant et après l’introduction de ces changements.
6. Afin de garantir un étiquetage plus précis, Meta devrait joindre des informations sur la provenance et des filigranes invisibles au contenu créé par les outils d’IA de Meta, afin qu’il puisse être détecté et étiqueté de manière cohérente sur toutes les plateformes. Cela devrait inclure l’application de références de contenu au moment de la création, ainsi que l’utilisation d’indicateurs standard du secteur pour attribuer tout le contenu généré par Meta AI.
Le Conseil considérera cette recommandation comme mise en œuvre lorsque la société lui aura communiqué un rapport sur la manière dont Meta AI ajoute et conserve de manière cohérente les données de provenance et les filigranes invisibles aux contenus partagés sur la plateforme.
7. Afin d’harmoniser l’utilisation des étiquettes « Risque élevé » et « IA à risque élevé » sur les contenus trompeurs, Meta devrait mettre en place des procédures permettant d’apposer ces étiquettes sur les contenus beaucoup plus fréquemment, à l’aide de canaux d’escalade plus clairs provenant de systèmes automatisés et d’une révision à grande échelle, de sorte que ces étiquettes puissent être apposées en beaucoup plus grand nombre.
Le Conseil considérera cette recommandation comme mise en œuvre lorsqu’il existera de nouvelles voies d’escalade pour apposer les étiquettes « Risque élevé » et « IA à risque élevé » sur les contenus, et que Meta rendra compte au Conseil du nombre de ces étiquettes apposées en 2026, par trimestre. L’absence de dénominateur (c’est-à-dire le volume total de contenus non étiquetés qui ne satisfont pas à ce seuil) ne devrait pas constituer un obstacle à la communication de ces informations au Conseil.
* Note de procédure :
- Les décisions du Conseil de surveillance sont prises par des panels de cinq membres et approuvées par une majorité du Conseil dans son ensemble. Les décisions du Conseil ne représentent pas nécessairement les opinions de tous les membres.
- En vertu de sa Charte, le Conseil de surveillance est habilité à examiner les appels déposés par les utilisateurs dont le contenu a été supprimé par Meta, les appels déposés par les utilisateurs ayant signalé un contenu que Meta n’a finalement pas supprimé, et les décisions que Meta lui transmet (article 2, section 1 de la Charte). Le Conseil dispose d’une autorité contraignante pour confirmer ou annuler les décisions de Meta relatives au contenu (article 3, section 5 de la Charte ; article 4 de la Charte). Le Conseil est habilité à émettre des recommandations non contraignantes auxquelles Meta doit répondre (article 3, section 4 de la Charte ; article 4). Lorsque Meta s’engage à donner suite aux recommandations, le Conseil surveille leur mise en œuvre.
- Pour la décision sur ce cas, des recherches indépendantes ont été commandées au nom du Conseil. Le Conseil a bénéficié de l’aide de Duco Advisors, une société de conseil spécialisée dans la géopolitique, la confiance et la sécurité, ainsi que la technologie.
Retour aux décisions de cas et aux avis consultatifs politiques