Le Conseil demande de nouvelles règles concernant l’IA trompeuse dans les conflits
10 mars 2026
En analysant la propagation de contenus générés par l’IA dans les conflits armés dans le cadre d’un cas concernant la guerre Israël-Iran en 2025, le Conseil de surveillance invite Meta à redoubler d’efforts pour permettre aux utilisateurs d’identifier ces contenus. Son approche en matière d’identification des contenus générés par l’IA doit évoluer. Cela implique notamment de fournir des informations détaillées à grande échelle sur l’origine des contenus multimédias, d’après des normes sur la provenance des contenus, d’investir dans des outils de détection plus performants et de développer de meilleures méthodes pour qu’une mention appropriée soit apposée. Meta doit créer un nouvel ensemble de règles distinctes afin de garantir que les utilisateurs peuvent reconnaître de manière fiable les contenus générés par l’IA. En outre, l’entreprise doit modifier ses politiques actuelles afin de garantir une réponse rapide et adéquate aux contenus trompeurs générés par l’IA.
Elle doit respecter ses engagements publics et utiliser ses propres outils, ainsi que ceux disponibles sur le marché afin de lutter efficacement contre les contenus trompeurs générés par l’IA qui se propagent sur les plateformes.
Le Conseil renverse la décision de Meta de conserver la publication en ligne dans ce cas sans la mention « IA à haut risque ».
Pourquoi est-ce important ?
Plus la quantité et la qualité du contenu généré par l’IA augmentent, plus son impact sur les personnes et les sociétés sera profond. Les risques sont encore accrus lorsque des deepfakes conçus pour tromper, manipuler ou accroître l’engagement sont partagés lors de conflits et de crises, comme en Iran et au Venezuela en 2026, et que ces contenus se propagent rapidement sur les différentes plateformes. Au cours de ces deux crises, des contenus trompeurs générés par l’IA ont été considérés comme authentiques tandis que des contenus authentiques ont été considérés comme étant fabriqués de toutes pièces. Cela accentue l’incapacité du public à discerner la vérité, ce qui est symptomatique du dividende du menteur et conduit à une méfiance générale envers toutes les informations. Les campagnes d’influence pilotées par l’IA constituent un défi croissant observé à l’échelle mondiale ces dernières années, exacerbé par des écosystèmes médiatiques et Internet restrictifs qui limitent l’accès à des informations crédibles. Cependant, le fait que les résultats générés par l’IA soient trompeurs ne constitue pas en soi une raison légitime pour restreindre la liberté d’expression. Le secteur doit faire preuve de cohérence pour aider les utilisateurs à distinguer les contenus trompeurs générés par l’IA, et les plateformes doivent prendre des mesures contre les comptes et les pages abusifs qui partagent ces types de contenus.
À propos des cas
La guerre Israël-Iran en juin 2025 a marqué un tournant, la présence de contenus trompeurs générés par l’IA sur les réseaux sociaux étant désormais considérée comme une forme de « guerre immatérielle » (« soft war »). Ces contenus trompeurs auraient généré un nombre considérable de vues, et les gouvernements israélien et iranien ont tous deux été accusés de tenter d’exercer une influence grâce à l’IA. Le 15 juin, deux jours après le début de la guerre des 12 jours entre Israël et l’Iran, une vidéo a été publiée sur une page Facebook qui se présentait comme une source d’information. L’auteur de la publication était basé aux Philippines. La vidéo montrait des dommages importants causés à des bâtiments, avec un texte en anglais en superposition indiquant « Live now – Haifa Towards Down » [sic] (En direct – Haïfa frappée massivement), avec la date de publication. La vidéo était très similaire à une autre provenant de TikTok et identifiée par un vérificateur de faits indépendant (Agence France-Presse) comme étant fausse et générée par l’IA. Une légende sur la publication Facebook mentionnait de nombreux gros titres liés au conflit ainsi que des mots-clés et des hashtags décousus. La publication a été vue plus de 700 000 fois, et plusieurs commentaires ont souligné que son contenu avait été généré par l’IA.
Six utilisateurs ont signalé le cas à Meta, mais celui-ci n’a été ni examiné par l’entreprise ni vérifié par des vérificateurs de faits tiers. Un utilisateur a fait appel auprès du Conseil. Après que le Conseil a sélectionné ce cas, Meta a confirmé que la publication n’enfreignait pas le Standard de la communauté Fausses informations, car elle ne « contribuait pas directement au risque de préjudice physique imminent » et ne nécessitait pas de mention d’utilisation de l’IA.
Des signes manifestes d’informations trompeuses liées à cette publication ont conduit le Conseil à interroger Meta sur l’identité et le comportement des comptes liés à cette page. L’entreprise a ensuite désactivé trois comptes liés à la page pour abus d’engagement et non-authenticité, supprimant ainsi la page et, avec elle, le contenu de ce cas. La page était éligible à la monétisation via le programme Étoiles de Meta.
Principaux constats
Le Conseil estime que le contenu présentait un risque important d’induire le public en erreur sur une question importante en période de conflit, et que Meta aurait donc dû apposer une mention « IA à haut risque ». La publication ne remplissait pas les critères requis pour être supprimée (faisant courir un risque imminent de préjudice physique ou de violence). Meta doit redoubler d’efforts pour lutter contre la prolifération de contenus trompeurs générés par l’IA sur ses plateformes, notamment via des réseaux non authentiques ou piratés de comptes et de pages, en particulier sur des questions d’intérêt public, afin que les utilisateurs puissent faire la distinction entre ce qui est réel et ce qui est faux.
Le Conseil s’inquiète de signalements d’après lesquels Meta applique de manière incohérente la norme C2PA (Coalition for Content Provenance and Authenticity), même pour les contenus générés par ses propres outils d’IA, et que seule une partie de ces contenus portent la mention appropriée. La C2PA définit des normes techniques visant à intégrer les informations sur la provenance sous forme de métadonnées dans le contenu, ce qui permet aux plateformes d’identifier plus facilement le contenu généré par l’IA et d’apposer des mentions afin d’informer les utilisateurs.
Les mécanismes actuels permettant d’apposer ne serait-ce que la mention standard « Info IA » sur une vidéo (déclaration volontaire de l’utilisateur ou signalement à l’équipe chargée de la politique de contenu) ne sont ni suffisamment solides ni assez complets pour faire face à l’ampleur et à la vitesse de diffusion des contenus générés par l’IA, en particulier lors d’une crise ou d’un conflit qui génère une activité intense sur la plateforme. Un système qui s’appuie trop sur la déclaration volontaire du recours à l’IA et sur un examen approfondi (qui se produit rarement) pour apposer les mentions appropriées aux contenus ne peut pas relever les défis posés par l’environnement actuel. Certains membres du Conseil ont également souligné que les mentions « IA à haut risque » (pour les contenus susceptibles d’induire les utilisateurs en erreur sur des questions importantes) doivent également s’accompagner d’une pénalisation ou d’un retrait des recommandations afin de répondre aux préoccupations liées à la propagation de contenus trompeurs.
L’approche restrictive de Meta consistant à calquer les évaluations sur plusieurs contenus identiques ou quasi identiques a pu empêcher l’évaluation de cette publication après une vérification des faits. Compte tenu des contraintes en matière de ressources et du volume considérable de contenus, il est difficile pour les vérificateurs de faits de garantir un examen rapide de tous les contenus trompeurs, en particulier lors d’un conflit ou d’une crise. Le Conseil réitère que Meta doit veiller à ce que les vérificateurs de faits disposent de ressources suffisantes et de directives pour hiérarchiser les contenus liés aux conflits. Les désignations Protocole de politique de crise (CPP) et Événements d’actualité auraient dû permettre à Meta de soutenir plus efficacement les vérificateurs de faits tiers pendant la crise. Calquer des évaluations sur une catégorie plus large de vidéos très similaires aurait pu limiter considérablement les dommages potentiels, notamment en les pénalisant. Ce cas met en évidence les lacunes de l’approche actuelle de Meta dans les conflits armés, renforçant ainsi les préoccupations déjà exprimées par le Conseil.
Il est préoccupant que, malgré l’activation du CPP et l’allocation de ressources supplémentaires, Meta n’ait pas identifié de sa propre initiative les signes évidents d’abus d’engagement sur la page et n’ait enquêté sur les comptes à l’origine de ces abus qu’en réponse aux questions du Conseil. Une application rigoureuse des politiques fondées sur le comportement aurait pu prévenir les préjudices causés par ces comptes en infraction, plutôt que de s’appuyer sur des mesures d’atténuation après-coup fondées sur le contenu et susceptibles d’afficher un taux d’échec élevé.
Décision du Conseil de surveillance
Le Conseil renverse la décision de Meta de conserver le contenu sans mention « IA à haut risque ».
Le Conseil recommande à Meta de :
- Créer un Standard de la Communauté pour les contenus générés par l’IA, distinct du Standard de la Communauté Fausses informations, qui fournisse des règles complètes sur la conservation des informations sur la provenance, les protocoles d’apposition de mentions et la déclaration volontaire en cas de recours à l’IA.
- Développer des moyens permettant d’apposer beaucoup plus fréquemment les mentions « Haut risque » et « IA à haut risque » sur les contenus, à l’aide de canaux d’escalade plus clairs provenant de systèmes automatisés et d’un examen à grande échelle, afin que ce type de mention puisse être apposé sur un volume de contenus nettement plus important.
- Joindre des informations sur la provenance et des filigranes invisibles aux contenus créés par les outils d’IA de Meta, y compris l’application des crédits de contenu (tels que définis par la C2PA) lors de la création.
- Implémenter les crédits de contenu à grande échelle et veiller à ce qu’ils soient clairement et systématiquement visibles et accessibles dès que les détails relatifs à la provenance sont disponibles.
- Investir dans des outils de détection plus performants pour les contenus multiformats (audio, audiovisuels et images) générés par l’IA.
- Publier une explication claire des sanctions applicables en cas de non-déclaration volontaire de contenus créés ou modifiés numériquement, y compris les critères de détermination des sanctions et les restrictions qui en découlent.
- Modifier le Standard de la Communauté Fausses informations afin de garantir que l’examen rapide des fausses informations qui présentent un risque immédiat de violence ou de préjudice physique ne dépende pas uniquement des signalements provenant de partenaires externes. Un levier du protocole doit allouer des ressources pour la détection proactive et rapide de ces contenus en infraction, avec le soutien d’une expertise et de mesures internes, notamment l’apposition de mentions et une investigation sur les comptes et les pages publiant ces contenus.
Plus d’informations
Pour lire les commentaires publics sur ce cas, cliquez ici.