Renversé

Vidéo journalistique sur l’avenir de la Somalie

Un utilisateur a fait appel de la décision de Meta de supprimer un clip vidéo d’actualité sur une conférence internationale sur la Somalie.

Type de décision

Résumé

Politiques et sujets

Sujet
Journalisme
Norme communautaire
Personnes et organisations dangereuses

Régions/Pays

Emplacement
Royaume-Uni, Somalie

Plate-forme

Plate-forme
Facebook

Les décisions sommaires concernent les cas pour lesquels Meta est revenue sur sa décision initiale après que le Conseil les a portés à l’attention de l’entreprise. Elles contiennent des informations relatives aux erreurs reconnues par Meta. Elles sont approuvées par une partie du Conseil (et pas par l’ensemble de ses membres), n’impliquent pas de commentaires publics et n’ont pas valeur de précédent pour le Conseil. Les décisions sommaires exercent une influence directe sur les décisions de Meta en assurant la transparence quant à ses corrections et en identifiant les domaines dans lesquels Meta pourrait améliorer son application des politiques.

Résumé

Un utilisateur a fait appel de la décision de Meta de supprimer un clip vidéo d’actualité sur une conférence internationale sur la Somalie. Le clip montre un journaliste en train de poser des questions à des personnes en Somalie ainsi que des images de leaders et de drapeaux du groupe armé al-Chabab. Après que le Conseil a porté l’appel à l’attention de Meta, l’entreprise est revenue sur sa décision initiale et a restauré la publication.

À propos du cas

En mai 2025, un utilisateur Facebook et journaliste vérifié a publié un clip vidéo d’actualité accompagné de la question : « Who gets to decide Somalia’s future? » (À qui revient-il de décider de l’avenir de la Somalie ?). La légende incluait également des références à la Conférence de Londres de 2012 sur la Somalie. La vidéo et la légende étaient toutes les deux en anglais. La vidéo originale avait été diffusée en 2013 sur la chaîne de télévision britannique publique Channel 4.

Dans celle-ci, il traite des controverses qui entourent la conférence sur la Somalie, un sommet international majeur organisé par le Royaume-Uni pour aborder l’avenir du pays africain. La légende note que la conférence excluait al-Chabab et indique que le groupe cherchait à renverser le gouvernement en Somalie et qu’il « contrôlait la majorité du pays » à l’époque. Dans la vidéo, le journaliste met en évidence la distance métaphorique qui existe entre les dirigeants occidentaux et le peuple somalien en faisant remarquer que de nombreuses personnes en Somalie n’avaient pas été capables de reconnaître les principaux dirigeants britanniques qui discutaient de l’avenir de leur pays lorsqu’on leur avait montré des photos d’eux. La vidéo contenait également des images des leaders et des drapeaux d’al-Chabab.

Harakat al-Chabab al-Moudjahidin, plus couramment appelé al-Chabab, est un groupe révolutionnaire islamiste lié à al-Qaeda. Le groupe agit principalement en Somalie et a perpétré plusieurs attaques dans les pays limitrophes. Al-Chabab est considéré comme une organisation dangereuse au titre de la politique de Meta sur les organisations et personnes dangereuses.

En vertu de ladite politique, l’entreprise supprime « les glorifications, les soutiens et les représentations » d’individus ou d’organismes qui « revendiquent des objectifs violents ou qui sont impliqués dans des activités violentes ». Toutefois, la politique autorise « les contenus qui apportent des informations, discutent en toute neutralité ou condamnent les personnes et les organisations dangereuses ou leurs activités » dans le contexte d’un « discours social et politique ». Selon la politique, les « reportages incluent les informations partagées à des fins de sensibilisation sur des évènements locaux et mondiaux impliquant des personnes et organisations désignées ».

Dans son appel au Conseil, l’utilisateur a indiqué qu’il faisait état « de problématiques importantes pour informer le public » et que ce reportage avait été diffusé sur une chaîne de télévision conforme aux directives nationales. L’utilisateur a souligné que « le journalisme n’est pas un crime ».

Après que le Conseil a porté ce cas à l’attention de Meta, l’entreprise est revenue sur sa décision initiale. Meta a déterminé que le contenu était un reportage qui remettait en question le fait qu’al-Chabab ait été exclu de la conférence sur l’avenir de la Somalie par le gouvernement du Royaume-Uni, compte tenu du fait qu’al-Chabab contrôle une grande partie du pays. Meta a également indiqué que les images des leaders et des drapeaux d’al-Chabab « avaient été éditées de manière appropriée et qu’elles ne glorifiaient ni ne soutenaient » le groupe. Meta a conclu que la suppression initiale du contenu était infondée puisqu’il s’agit d’un discours sociopolitique couvert par l’exception à la politique sur les organisations et personnes dangereuses. L’entreprise a par la suite restauré le contenu sur Facebook.

Autorité et champ de compétence du Conseil

Le Conseil jouit de l’autorité nécessaire pour examiner la décision de Meta à la suite d’un appel interjeté par l’utilisateur dont le contenu a été supprimé (article 2, section 1 de la Charte ; article 3, section 1 des Statuts).

Lorsque Meta reconnaît avoir commis une erreur et revient sur sa décision dans un cas soumis à l’examen du Conseil, ce dernier peut décider de ne statuer que sommairement sur ce cas (article 2, section 2.1.3 des Statuts). Le Conseil réexamine la décision initiale afin de mieux comprendre le processus de modération de contenu, de réduire les erreurs et d’accroître l’équité pour les personnes qui utilisent Facebook, Instagram et Threads.

Importance du cas

Ce cas met en évidence le fait que Meta continue à appliquer trop strictement son standard de la communauté sur les organisations et personnes dangereuses, y compris lorsqu’il s’agit de contenu publié par un journaliste vérifié, diffusé par un service de télévision grand public et couvert par l’exception à la politique réservée au discours social et politique. Les erreurs de modération comme celle-ci n’affectent pas seulement la liberté d’expression des auteurs de ce type de publications, mais également l’accès des autres utilisateurs à l’information, en particulier dans les pays en conflit, où cet accès est essentiel.

Le Conseil a déjà rendu une décision au sujet de deux publications qui faisaient référence à al-Chabab. Dans ces cas-là, Meta a supprimé par erreur du contenu au titre de sa politique sur les organisations et personnes dangereuses alors que la première publication fournissait des informations sur une entité désignée et que la seconde la condamnait, et ce sans équivoque. Le Conseil a également émis plusieurs recommandations relatives à la mise en application de la politique de Meta sur les organisations et personnes dangereuses. Le Conseil a notamment recommandé d’« évaluer l’exactitude des examinateurs qui appliquent l’autorisation d’informer en vertu de la politique relative aux personnes et organisations dangereuses afin d’identifier les problèmes systémiques à l’origine des erreurs de mise en application » (recommandation n° 5 de la décision Mention des talibans dans les informations d’actualité). En novembre 2023, Meta a indiqué qu’elle mettait à jour sa politique sur les organisations et personnes dangereuses pour y inclure des informations sur la manière dont l’entreprise « aborde les reportages d’actualité dans le cadre d’une discussion neutre ou d’une condamnation ». Meta a également informé le Conseil qu’elle « effectuait le suivi de la précision avec laquelle l’exception relative aux discours sociopolitiques était appliquée » (Mise à jour trimestrielle de Meta Q3 2023 au Conseil de surveillance). Toutefois, Meta n’a pas partagé les résultats avec le Conseil. Celui-ci considère donc que Meta n’a pas publié d’informations qui prouvent la mise en place de cette recommandation.

Par ailleurs, dans l’un de ses avis consultatifs en matière de politique, le Conseil a recommandé à Meta d’« [e]xpliquer les méthodes qu’elle utilise pour évaluer la précision de l’examen manuel et les performances des systèmes automatisés dans la mise en application de sa politique sur les personnes et organisations dangereuses » (recommandation n° 6 de l’avis Référence à des personnes dangereuses désignées sous le terme « chahid »). Le Conseil a estimé que cette recommandation avait été recadrée par Meta. L’entreprise a déclaré qu’elle menait des audits afin d’évaluer la précision de ses décisions en matière de modération de contenu et qu’elle en tirait des leçons. Meta n’a toutefois pas expliqué les méthodes utilisées pour réaliser ces évaluations, qui permettraient d’améliorer encore la transparence de ses mesures de modération, y compris en ce qui concerne les différences entre les divers marchés et langues. Meta a refusé de rendre ces méthodes publiques.

Le Conseil a en outre émis une recommandation axée sur la modération automatique, demandant à Meta d’« implémente[r] une procédure d’examen interne pour analyser continuellement un échantillon statistiquement représentatif des décisions de suppression de contenu automatisées afin d’annuler les erreurs de modération et d’en tirer des leçons » (recommandation n° 5 du cas Symptômes du cancer du sein et nudité). Le Conseil estime que Meta n’a pas tenu compte de cette recommandation, étant donné que l’entreprise l’a groupée avec une autre recommandation sans mener de procédure d’examen interne comme le préconisait le Conseil.

Les erreurs répétées dues à une application trop stricte de la politique de l’entreprise sur les organisations et personnes dangereuses nuisent à la capacité des utilisateurs à publier et à partager des reportages et des informations d’actualité sur les organisations désignées, ce qui restreint leur liberté d’expression. Les cas soumis au Conseil suggèrent que ce type d’erreurs surviennent trop fréquemment. Dans ce cas-ci, le Conseil a également tenu compte du fait que la vidéo émanait d’un journaliste vérifié et qu’elle avait été diffusée par un service de télévision grand public du Royaume-Uni en 2013. La réduction de ces erreurs doit être une priorité pour Meta. La mise en place complète des recommandations susmentionnées pourrait réduire le nombre de suppressions indues au titre de la politique de l’entreprise sur les organisations et personnes dangereuses.

Décision

Le Conseil a annulé la décision initiale de Meta de supprimer le contenu. Le Conseil reconnaît que Meta a corrigé son erreur initiale une fois que le Conseil a porté le cas à son attention.

Retour aux décisions de cas et aux avis consultatifs politiques