Décision sur plusieurs affaires

Mention de Al-Shabaab

Dans ce résumé de décision, le Conseil a examiné deux publications faisant référence au groupe terroriste Al-Shabaab.

2 cas inclus dans ce lot

Renversé

FB-41ERXHF1

Cas relatif à des personnes et organisations dangereuses sur Facebook

Plate-forme
Facebook
Sujet
Guerre et conflits
Standard
Personnes et organisations dangereuses
Emplacement
Somalie
Date
Publié le 22 novembre 2023
Renversé

FB-XP5K3L52

Cas relatif à des personnes et organisations dangereuses sur Facebook

Plate-forme
Facebook
Sujet
Guerre et conflits
Standard
Personnes et organisations dangereuses
Emplacement
Somalie
Date
Publié le 22 novembre 2023

Il s’agit d’un résumé de la décision. Les résumés des décisions examinent les cas où Meta est revenue sur sa décision initiale concernant un élément de contenu après que le Conseil a porté l’affaire à l’attention de l’entreprise. Ces décisions incluent des informations sur les erreurs reconnues de Meta, et informent le public sur l’impact du travail du Conseil. Elles sont approuvées par un groupe de membres du Conseil, et non par le Conseil dans son ensemble. Elles n’impliquent pas de processus de commentaires publics, et n’ont pas valeur de précédent pour le Conseil. Les résumés des décisions assurent la transparence des corrections apportées par Meta et mettent en évidence les domaines dans lesquels l’entreprise pourrait améliorer l’application de sa politique.

Résumé du cas

Dans ce résumé de décision, le Conseil a examiné deux publications faisant référence au groupe terroriste Al-Shabaab. Après que le Conseil a porté ces deux appels à l’attention de Meta, l’entreprise est revenue sur ses décisions initiales et a restauré les deux publications.

Description du cas et contexte

En ce qui concerne le premier cas, survenu en juillet 2023, un utilisateur de Facebook, en réalité un organe de presse, a publié une photo montrant une arme et du matériel militaire posés par terre aux pieds des soldats accompagnée d’une légende affirmant que les « Somali government forces » (forces gouvernementales somaliennes) et les « residents » (habitants) ont entrepris une opération militaire et tué des membres des forces de Al-Shabaab dans la région somalienne du Mudug.

Le second cas, datant également de juillet 2023, concerne la publication de deux images avec une légende diffusées par un utilisateur de Facebook. La première image montre une femme en train de peindre un pilier bleu en noir. La seconde photo montre l’emblème noir du mouvement Al-Shabaab peint sur ce même pilier. La légende affirme que « the terrorists that used to hide have come out of their holes, and the world has finally seen them. » (les terroristes qui avaient l’habitude de se cacher sont sortis de leurs trous, et le monde les a enfin vus).

Harakat al-Shabaab al-Mujahideen, communément connu sous le nom de Al-Shabaab, ou la « Jeunesse » (en arabe) représente un groupe terroriste lié à Al-Qaïda qui tente de renverser le gouvernement somalien. Le groupe agit principalement en Somalie et a perpétré plusieurs attaques dans les pays limitrophes.

Meta a d’abord supprimé la publication de Facebook en invoquant sa politique relative aux personnes et organisations dangereuses, en vertu de laquelle l’entreprise supprime les contenus qui « font l’éloge », « soutiennent de manière substantielle » ou « représentent » des personnes et des organisations qu’elle désigne comme dangereuses. Cependant, la politique reconnaît que « les utilisateurs peuvent partager des contenus incluant des références à des personnes et organisations dangereuses pour les signaler, les condamner ou engager une discussion neutre sur leurs activités ».

Dans leur appel adressé au Conseil, les deux utilisateurs ont expliqué que leur contenu n’enfreignait pas les Standards de la communauté de Meta. L’utilisateur du premier cas a désigné son compte comme un organe de presse et indiqué que sa publication constitue un reportage d’information sur l’opération menée par le gouvernement contre le groupe terroriste Al-Shabaab. L’utilisateur du second cas a indiqué que l’objectif de sa publication est d’informer et de sensibiliser sur les activités menées par Al-Shabaab et de les condamner.

Après que le Conseil a porté ces deux cas à l’attention de Meta, l’entreprise a déterminé que les publications n’enfreignaient pas ses politiques. Bien que ces publications évoquent Al-Shabaab, une organisation dangereuse désignée, elles n’en font pas l’éloge, mais enquêtent sur ce groupe et le condamnent. Meta a conclu que leur suppression initiale était erronée, car les publications relèvent d’une exception à la politique relative aux personnes et organisations dangereuses, et les a restaurées sur la plateforme.

Autorité et champ d’application du Conseil

Le Conseil jouit de l’autorité nécessaire pour examiner la décision de Meta à la suite d’un appel interjeté par l’utilisateur dont le contenu a été supprimé (article 2, section 1 de la Charte ; article 3, section 1 des Statuts).

Lorsque Meta reconnaît avoir commis une erreur et revient sur sa décision dans un cas soumis à l’examen du Conseil, ce dernier peut sélectionner ce cas pour un résumé de la décision (article 2, section 2.1.3 des Statuts). Le Conseil réexamine la décision initiale afin de mieux faire comprendre le processus de modération des contenus, de réduire les erreurs et d’accroître l’équité pour les utilisateurs de Facebook et d’Instagram.

Importance du cas

Ces cas mettent en lumière une application excessive de la politique de Meta sur les personnes et organisations dangereuses dans un pays en proie à un conflit armé et aux attaques terroristes. Ce type d’erreurs discrédite les réels efforts réalisés pour condamner, informer et sensibiliser sur les organisations terroristes, notamment les abus et atrocités supposés commis par ces groupes en violation des droits de l’homme.

Le Conseil a précédemment émis plusieurs recommandations concernant la politique de Meta sur les personnes et organisations dangereuses. Il a recommandé à Meta d’« évaluer l’exactitude des examinateurs qui appliquent l’autorisation d’informer en vertu de la politique relative aux personnes et organisations dangereuses afin d’identifier les problèmes systémiques à l’origine des erreurs de mise en application », sujet sur lequel Meta a prouvé ses progrès en matière de mise en œuvre (« Mention des talibans dans les informations d’actualité », recommandation n° 5). Le Conseil a également recommandé à Meta d’« ajouter des critères et illustrations à la politique de Meta sur les personnes et les organisations dangereuses afin de mieux appréhender les exceptions, notamment concernant les discussions neutres et les reportages d’actualités », une recommandation dont Meta a justifié la mise en place en publiant des informations connexes (« Publication partagée d’Al Jazeera », recommandation n° 1). Par ailleurs, le Conseil a recommandé à Meta d’« implémenter une procédure d’examen interne pour analyser continuellement un échantillon statistiquement représentatif des décisions de suppression de contenu automatisées afin d’annuler les erreurs de modération et d’en tirer des leçons », (« Symptômes du cancer du sein et nudité », recommandation n° 5). Meta a expliqué qu’elle travaillait déjà sur cette recommandation, mais n’a pas publié d’informations afin d’en prouver la mise en place.

Décision

Le Conseil a annulé la décision initiale de Meta visant à supprimer les deux éléments de contenu. Le Conseil reconnaît que Meta a corrigé son erreur initiale une fois que le Conseil a porté ces cas à l’attention de Meta.

Retour aux décisions de cas et aux avis consultatifs politiques