Identifier et signaler les fichiers audio et vidéo modifiés par l’IA
24 juin 2025
Le Conseil de surveillance a annulé la décision de Meta de ne pas signaler un enregistrement audio vraisemblablement modifié dans lequel deux politiciens kurdes irakiens discutent de fraude électorale, moins de deux semaines avant l’ouverture des bureaux de vote, dans le cadre d’une élection très disputée et polarisée. Le Conseil exige que Meta signale le contenu.
Le Conseil s’inquiète du fait que, malgré la prévalence croissante des contenus modifiés dans tous les formats, Meta applique sa politique relative aux médias modifiés de manière incohérente. Meta doit donner la priorité aux investissements technologiques permettant d’identifier et de signaler à grande échelle les contenus audio et vidéo modifiés afin que les utilisateurs soient correctement informés.
Comme dans le cas présent, le fait que Meta n’ait pas automatiquement signalé toutes les occurrences du même média modifié est incohérent et injustifiable.
De plus, Meta devrait mettre à disposition sur ses plateformes des étiquettes pour les médias modifiés dans les langues déjà disponibles. Cela devrait faire partie des efforts de Meta en matière d’intégrité électorale.
À propos du cas
Moins de deux semaines avant les élections législatives du Kurdistan irakien, en octobre 2024, un média populaire affilié à l’un des principaux partis politiques de la région, le Parti démocratique du Kurdistan (PDK), a partagé un clip audio de deux minutes sur sa page Facebook. La légende de la publication en kurde sorani affirme que l’enregistrement audio est une « conversation enregistrée » entre les frères Bafel et Qubad Talabani, membres de l’autre grand parti politique de la région, l’Union patriotique du Kurdistan (PUK), au sujet de leurs « plans sinistres » visant à truquer les élections d’octobre 2024. Dans l’enregistrement audio, deux hommes s’expriment en anglais (avec des sous-titres en kurde sorani et en anglais). Un homme affirme qu’un « minimum de 30 sièges » a été garanti au PUK, mais qu’il doit « se débarrasser » des « 11 sièges » que le KDP aurait « toujours utilisés à son avantage ». L’autre homme est d’accord, soulignant la nécessité de faire croire que ces sièges ont été remportés légitimement, car les gens savent, sans pouvoir le prouver, que le PUK est soutenu par Bagdad et son « voisin ». La page Facebook de ce média compte environ 4 000 000 d’abonnés. Cette publication a été vue environ 200 000 fois.
Deux utilisateurs ont signalé le contenu pour fausse information, mais Meta a clos les signalements sans vérification. Après qu’un de ces utilisateurs ait fait appel auprès de Meta, la société a maintenu sa décision en se basant sur un score de classification. L’utilisateur a ensuite fait appel auprès du Conseil de surveillance.
Meta a identifié d’autres publications contenant le clip audio sur les pages Facebook et Instagram du même média et sur la page Facebook du KDP. Après avoir consulté un média d’information basé en dehors du Kurdistan irakien et un partenaire de confiance afin d’examiner la possibilité que l’enregistrement audio ait été créé numériquement, Meta a signalé certaines publications, mais pas le contenu dans ce cas précis. L’étiquette appliquée à d’autres publications avec le même contenu audio indique : « Ce contenu peut avoir été créé ou modifié numériquement pour paraître réel. »
Principaux constats
En ce qui concerne l’identification des contenus créés ou modifiés par l’IA sur ses plateformes, Meta a déclaré au Conseil ne pas être en mesure d’identifier et de signaler automatiquement le contenu vidéo ou audio, mais uniquement les images statiques. Au regard de son expertise, de ses ressources et de la large utilisation de ses plateformes, Meta doit accorder la priorité aux investissements technologiques visant à détecter et signaler à grande échelle les vidéos et fichiers audio modifiés.
Le fait que Meta n’ait pas déployé ses outils pour appliquer automatiquement l’étiquette « Informations IA » à tous les médias modifiés est incohérent et injustifiable. Dans le cas de la vidéo modifiée de l’affaire du président Biden, Meta s’est engagée à implémenter la recommandation du Conseil : apposer une étiquette sur toutes les occurrences identiques de ce contenu sur la plateforme, dès lors qu’il ne viole pas d’autres standards de la communauté. Or, l’entreprise affirme ne pas appliquer automatiquement l’étiquette « Risque élevé » aux contenus contenant de l’audio, ce qui va à l’encontre de cette recommandation. Les étiquettes « Informations IA » et « Risque élevé » sont des étiquettes informatives utilisées par Meta pour les médias modifiés.
Le Conseil note qu’il existe des indicateurs fiables, notamment des signaux techniques, qui montrent que le clip a été créé numériquement. Cela répond aux exigences relatives aux médias modifiés dans le cadre de la politique de Meta en matière de fausse information. Le fait d’attribuer l’étiquette « Risque élevé » est conforme aux politiques et aux responsabilités de Meta en matière de droits humains. L’enregistrement audio a été publié pendant une période électorale très controversée dans une région où les élections ont souvent été entachées de problèmes. Cela renforce la capacité de l’audio à influencer les choix électoraux et à nuire à l’intégrité électorale. Apposer une étiquette informative sur le contenu, plutôt que de le supprimer complètement, satisfait aux exigences de nécessité et de proportionnalité.
Le Conseil s’inquiète du fait que les étiquettes de médias modifiés de Meta ne soient pas disponibles en kurde sorani. Et ce, malgré le fait que le kurde sorani soit l’une des langues disponibles dans l’application pour les utilisateurs de Facebook. Afin de garantir que les utilisateurs soient informés lorsqu’un contenu est créé ou modifié numériquement, Meta devrait inclure la mise à disposition de l’étiquette dans la langue locale déjà disponible sur ses plateformes parmi ses efforts en matière d’intégrité électorale.
Le Conseil s’inquiète également de la dépendance de l’entreprise à l’égard de tiers pour l’évaluation technique des contenus susceptibles d’avoir été modifiés. Meta devrait envisager de disposer de cette expertise en interne.
Le Conseil note que la question porte sur l’authenticité ou la falsification de l’enregistrement audio, plutôt que sur la véracité du contenu de celui-ci. Étant donné que le fait de signaler l’audio comme étant susceptible d’avoir été créé ou modifié numériquement alerterait également les utilisateurs sur l’exactitude de son contenu, le Conseil estime que l’application de la politique relative aux fausses informations aux médias modifiés est suffisante. Cependant, le Conseil s’inquiète du fait que Meta ne disposait pas de vérificateurs de faits parlant kurde pour examiner le contenu pendant les élections dans le cadre de ses mesures visant à garantir l’intégrité du scrutin.
Décision du Conseil de surveillance
Le Conseil de surveillance infirme la décision de Meta de ne pas signaler le contenu et exige que la publication soit signalée.
Le Conseil recommande également à Meta :
- d’appliquer une étiquette pertinente à tous les contenus utilisant le même média modifié, y compris toutes les publication contenant l’audio modifié dans ce cas précis ;
- de veiller à ce que les étiquettes informatives relatives aux médias modifiés sur Facebook, Instagram et Threads s’affichent dans la même langue que celle choisie par l’utilisateur pour sa plateforme.
Pour plus d’informations
Pour lire les commentaires publics sur ce cas, cliquez ici.