Renversé
Clip promotionnel pour une interview en Iraq
31 juillet 2025
Un utilisateur a fait appel de la décision de Meta de supprimer une publication Facebook qui comprenait un clip vidéo d’une interview télévisée avec un dignitaire religieux chiite et homme politique irakien majeur. Après que le Conseil a porté l’appel à l’attention de Meta, l’entreprise est revenue sur sa décision initiale et a restauré la publication.
Les décisions sommaires concernent les cas pour lesquels Meta est revenue sur sa décision initiale après que le Conseil les a portés à l’attention de l’entreprise. Elles contiennent des informations relatives aux erreurs reconnues par Meta. Elles sont approuvées par une partie du Conseil (et pas par l’ensemble de ses membres), n’impliquent pas de commentaires publics et n’ont pas valeur de précédent pour le Conseil. Les décisions sommaires exercent une influence directe sur les décisions de Meta en assurant la transparence quant à ses corrections et en identifiant les domaines dans lesquels Meta pourrait améliorer son application des politiques.
Résumé
Un utilisateur a fait appel de la décision de Meta de supprimer une publication Facebook qui comprenait un clip vidéo d’une interview télévisée avec un dignitaire religieux chiite et homme politique irakien majeur. Après que le Conseil a porté l’appel à l’attention de Meta, l’entreprise est revenue sur sa décision initiale et a restauré la publication.
À propos du cas
En août 2023, le responsable de l’Iraqi Media Network, un holding gouvernemental pour les organisations médiatiques, a publié sur Facebook un clip vidéo d’une interview avec Qais Hadi Sayed Hasan al-Khazali, un homme politique, dignitaire religieux et chef militaire d’Asa’ib Ahl al-Haq, un parti politique irakien et organisation paramilitaire chiite. Dans le clip, al-Khazali discute de différents sujets, notamment des relations des États-Unis et de l’Iraq avec Israël. La légende en arabe qui accompagne la vidéo indique : « Tonight ... an important discussion on the latest political developments and recent foreign forces movements with Sheikh Qais Al-Khazali, Secretary-General of Asa’ib Ahl al-Haq movement » (Ce soir… une discussion importante sur les derniers développements politiques et mouvements des forces étrangères avec le cheikh Qais Al-Khazali, secrétaire général du mouvement Asa’ib Ahl al-Haq) et contient le hashtag #IraqiNews. Le texte arabe en superposition sur la vidéo indique : « Exclusive Interview » (Interview exclusive) et « Tonight at 10 p.m. » (Ce soir à 22 h).
Au titre de sa politique sur les organismes et individus dangereux, Meta considère al-Khazali comme un individu dangereux et Asa’ib Ahl al-Haq comme un organisme dangereux. L’entreprise explique que le niveau 1 de cette politique se concentre sur « les organisations terroristes, notamment les personnes et les entités que les États-Unis qualifient de Foreign Terrorist Organizations ou de Specially Designated Global Terrorists (organisations étrangères considérées comme terroristes) ». Meta n’a toutefois pas publié sa liste d’organismes et d’individus dangereux.
En vertu de son standard de la communauté sur les organismes et individus dangereux, l’entreprise supprime « les glorifications, les soutiens et les représentations » des personnes ou des organisations qui « revendiquent des objectifs violents ou qui sont impliqué[e]s dans des activités violentes ». La politique autorise le « contenu qui comprend des références à des organismes et des individus désignés comme dangereux dans le contexte du discours social et politique », y compris les types de contenu « qui rendent compte, discutent de manière neutre ou condamnent » des organismes et des individus dangereux ou leurs activités. Dans cette politique, Meta explique que les reportages incluent « les informations partagées à des fins de sensibilisation sur des évènements locaux et mondiaux impliquant des personnes et organisations désignées ».
Après que le Conseil a porté ce cas à l’attention de Meta, l’entreprise a déterminé que le contenu n’aurait pas dû être supprimé au titre de sa politique sur les organismes et les individus dangereux, étant donné que le texte en superposition « Exclusive Interview » (Interview exclusive) et le hashtag « Iraqi News » (Actualités irakiennes) suggéraient que le contenu rapportait une interview avec Al-Khazali. En outre, l’entreprise a noté que « les clips n’émettaient aucun jugement positif sur Al-Khazali ou ses actions ». L’entreprise a par la suite restauré le contenu sur Facebook.
Autorité et champ de compétence du Conseil
Le Conseil jouit de l’autorité nécessaire pour examiner la décision de Meta à la suite d’un appel interjeté par l’utilisateur dont le contenu a été supprimé (article 2, section 1 de la Charte ; article 3, section 1 des Statuts).
Lorsque Meta reconnaît avoir commis une erreur et revient sur sa décision dans un cas soumis à l’examen du Conseil, ce dernier peut décider de ne statuer que sommairement sur ce cas (article 2, section 2.1.3 des Statuts). Le Conseil réexamine la décision initiale afin de mieux comprendre le processus de modération de contenu, de réduire les erreurs et d’accroître l’équité pour les personnes qui utilisent Facebook, Instagram et Threads.
Importance du cas
Ce cas est un exemple d’application disproportionnée du standard de la communauté de Meta sur les organismes et individus dangereux. Les systèmes de modération de contenu de l’entreprise n’ont pas réussi à reconnaître l’exception prévue pour les reportages qui impliquent des entités désignées. Le Conseil a précédemment fait remarquer dans sa décision sommaire Commentaire sur l’élection du maire de Karachi que de telles erreurs pouvaient avoir des effets négatifs sur la capacité des utilisateurs à « partager des commentaires politiques et des reportages d’actualité » sur les organisations qualifiées de « dangereuses » et que ces erreurs portaient ainsi atteinte à la liberté d’expression.
Le Conseil a émis plusieurs recommandations pertinentes par le passé qui visent à améliorer la transparence et la précision de l’application de la politique relative aux organismes et aux individus dangereux, y compris de ses exceptions. Le Conseil a d’abord recommandé à Meta d’« évaluer l’exactitude des examinateurs qui appliquent l’autorisation d’informer en vertu de la politique relative aux personnes et organisations dangereuses afin d’identifier les problèmes systémiques à l’origine des erreurs de mise en application » (recommandation n° 5 de la décision Mention des talibans dans les informations d’actualité). En novembre 2023, Meta a indiqué qu’elle mettait à jour sa politique sur les organismes et individus dangereux pour y inclure des informations sur la manière dont l’entreprise aborde les reportages d’actualité dans le cadre d’une discussion neutre ou d’une condamnation. Meta a également informé le Conseil qu’elle « effectuait le suivi de la précision avec laquelle l’exception relative aux discours sociopolitiques était appliquée » (Mise à jour trimestrielle de Meta Q3 2023 au Conseil de surveillance). L’entreprise n’a toutefois pas publié d’informations qui corroboreraient cette déclaration.
En outre, dans l’un de ses avis consultatifs en matière de politique, le Conseil a demandé à Meta d’« [e]xpliquer les méthodes qu’elle utilise pour évaluer la précision de l’examen manuel et les performances des systèmes automatisés dans la mise en application de sa politique sur les personnes et organisations dangereuses » (recommandation n° 6 de l’avis Référence à des personnes dangereuses désignées sous le terme « chahid »). Le Conseil a estimé que cette recommandation avait été recadrée par Meta. L’entreprise a déclaré qu’elle menait des audits afin d’évaluer la précision de ses décisions en matière de modération de contenu et qu’elle en tirait des leçons. Meta n’a toutefois pas expliqué les méthodes qu’elle utilise pour réaliser ces audits.
L’application répétitivement disproportionnée de la politique de l’entreprise sur les organismes et individus dangereux nuit à la capacité des utilisateurs à partager des informations et des reportages d’actualité légitimes sur les activités de personnes ou d’organisations désignées. Le Conseil estime que la mise en œuvre de la totalité des deux recommandations susmentionnées contribuerait encore davantage à renforcer la capacité de Meta à améliorer la précision de sa modération en réduisant les effets négatifs des erreurs sur la liberté d’expression des utilisateurs. Un rapport public sur le degré de précision des examens et les méthodes employées pour les évaluer permettrait à l’entreprise de faire preuve de plus de transparence et de générer un engagement avec Meta qui a le potentiel d’entraîner d’autres améliorations.
Décision
Le Conseil a annulé la décision initiale de Meta de supprimer le contenu. Le Conseil reconnaît que Meta a corrigé son erreur initiale une fois que le Conseil a porté le cas à son attention.
Retour aux décisions de cas et aux avis consultatifs politiques