Le Conseil de surveillance annonce deux cas concernant un discours du Parlement pakistanais et une vidéo des Forces de soutien rapide du Soudan

Aujourd’hui, le Conseil présente deux nouveaux cas qu’il va examiner. Nous en profitons pour inviter organisations et particuliers à nous envoyer des commentaires publics.

Sélection des cas

Puisque nous ne pouvons pas traiter tous les cas, le Conseil donne la priorité à ceux davantage susceptibles de toucher de nombreuses personnes à travers le monde, ayant une importance cruciale pour le débat public ou soulevant des questions majeures à propos des politiques de Meta.

Les cas que nous présentons aujourd’hui sont les suivants :

Rapport sur le discours du Parlement pakistanais

2023-038-FB-MR

Cas soumis par Meta

Pour envoyer vos commentaires publics, de façon anonyme si vous le souhaitez, cliquez ici.

En mai 2023, une chaîne d’information pakistanaise a publié sur sa Page Facebook une vidéo d’une personnalité politique s’adressant aux membres du Parlement du pays. Dans la vidéo, son discours fait référence à une ancienne tradition qui consistait à sacrifier des personnes dans le Nil pour contrôler les inondations. Cette tradition lui sert de comparaison avec ce qui devrait se passer au Pakistan aujourd’hui. En outre, cette personnalité politique indique avoir déclaré, dans un discours précédent, que le Pakistan ne pourrait « se guérir » tant que certains fonctionnaires, dont les militaires, n’auraient pas été pendus.

La personne fait ensuite allusion à la crise politique actuelle au Pakistan, se mettant en cause elle-même ainsi que ses collègues en déclarant que « nous sommes tous et toutes responsables de cette situation ». Le texte superposé de la vidéo et la légende de la publication reprennent ses déclarations antérieures sur la pendaison des fonctionnaires. La légende mentionne également les vives réactions que le discours a suscitées au sein du Parlement. Le contenu a été partagé environ 20 000 fois et a suscité environ 40 000 réactions, dont la majorité sont des mentions « J’aime ».

Le contenu a été publié dans la semaine qui a suivi l’arrestation de l’ancien premier ministre pakistanais. Cette arrestation a provoqué des manifestations et des affrontements avec la police, qui ont fait au moins huit morts du côté des manifestant·es et ont aggravé la crise politique dans le pays. Selon les médias, des milliers de partisan·es de l’ancien premier ministre, y compris des personnalités politiques, ont été arrêté·es à la suite des manifestations. Les journalistes ont été visé·es par des arrestations et des accusations de mutinerie. Les élections étaient prévues pour le 8 février 2024, après avoir été reportées deux fois en 2023.

En vertu de sa politique relative à la violence et à l’incitation, Meta supprime les « déclarations prônant une violence de haute gravité ». Toutefois, elle autorisera les déclarations potentiellement en infraction si elles sont partagées dans un contexte de sensibilisation, y compris les contenus qui visent clairement à informer autrui sur un sujet ou une question spécifique. Meta fait également une exception pour le contenu d’intérêt médiatique, qui permet de conserver sur les plateformes de l’entreprise des contenus qui enfreignent la politique lorsque la valeur d’intérêt public l’emporte sur le risque de préjudice.

Entre juin et septembre 2023, les systèmes automatisés de Meta ont identifié à 45 reprises le contenu comme étant potentiellement en infraction. Plusieurs examens manuels, notamment réalisés dans le cadre du système de vérification croisée et par l’équipe régionale des opérations de Meta ainsi que par ses spécialistes des politiques et du sujet concerné, ont abouti à des résultats différents. L’examen final a permis de déterminer que le contenu n’enfreignait pas la politique en matière de violence et d’incitation, autorisant ainsi la vidéo à rester sur Facebook.

Meta a renvoyé le cas devant le Conseil, déclarant qu’il était « important et difficile parce qu’il concernait le discours violent d’une personnalité politique utilisé de manière rhétorique, et qu’il nécessitait la prise en compte du contexte entourant la publication pour parvenir à notre décision ».

Le Conseil a choisi ce cas en raison des questions pertinentes qu’il soulève sur la manière dont Meta doit traiter les discours des personnalités politiques et toute couverture médiatique de ces discours sur ses plateformes, en particulier pendant la période précédant les élections. Ce cas offre l’occasion d’explorer directement les questions relatives à la protection du journalisme. En outre, il s’inscrit dans le cadre de la priorité stratégique du Conseil, à savoir les élections et l’espace civique.

Le Conseil aimerait recevoir des commentaires publics sur les points suivants :

  • La situation politique et des droits humains au Pakistan, en particulier en ce qui concerne la critique du gouvernement avant les élections de février 2024.
  • La liberté des médias au Pakistan, y compris le rôle que jouent les plateformes de réseaux sociaux dans la diffusion d’une couverture indépendante des évènements politiques.
  • Les informations sur les demandes du gouvernement de supprimer le contenu des réseaux sociaux au Pakistan et ailleurs.
  • La modération par Meta de contenus mettant en scène des personnalités politiques, en particulier lorsque ces contenus comportent ce qui pourrait être considéré comme un discours violent, mais qui est utilisé de manière rhétorique.
  • Les critères à définir pour décider si un contenu est « digne d’intérêt » ou s’il est publié à des fins de « sensibilisation ».

Dans ses décisions, le Conseil peut fournir des recommandations en matière de politiques à Meta. Bien que ces recommandations ne soient pas contraignantes, Meta doit y répondre sous 60 jours. De ce fait, le Conseil appréciera tout commentaire public proposant des recommandations pertinentes pour ce cas.

Vidéo d’un prisonnier des Forces de soutien rapide au Soudan

2023-039-FB-UA

Appel d’un·e utilisateur·ice pour la suppression d’un contenu de Facebook

Pour envoyer vos commentaires publics, de façon anonyme si vous le souhaitez, cliquez ici.

En août 2023, un·e utilisateur·ice Facebook a publié une vidéo montrant des hommes armés au Soudan détenant une personne à l’arrière d’un véhicule militaire. L’homme, qui s’exprime en arabe dans la vidéo et qui n’est pas l’utilisateur ayant publié le contenu, se présente comme un membre des Forces de soutien rapide (FSR). Il poursuit en affirmant que la personne détenue signalait des drones et venait d’un autre pays qui aidait les Forces armées du Soudan (FAS). La légende sous la vidéo, également en arabe, accuse les opposant·es des FSR de collaborer avec des personnes étrangères.

L’homme dans la vidéo affirme qu’ils poursuivent les dirigeants des Forces armées du Soudan et leurs partenaires étrangers dans le pays. L’homme déclare qu’il reste fidèle à son chef, Mohamed Hamdan Dagalo. La vidéo contient des remarques désobligeantes sur les ressortissant·es étrangers et étrangères et les dirigeant·es d’autres pays qui soutiennent les FAS.

En avril 2023, des combats ont éclaté au Soudan entre les FAS et les FSR, un groupe paramilitaire. D’autres groupes ont depuis rejoint le conflit armé, qui a fait des milliers de morts et forcé plus de quatre millions de personnes à fuir. Les Nations Unies ont condamné les violences et mis en garde contre leurs effets dévastateurs sur les civils et la situation humanitaire dans le pays. Le 11 août 2023, Meta a désigné les FSR comme une organisation terroriste de niveau 1 dans le cadre de sa politique relative aux personnes et organisations dangereuses. Le département du Trésor américain a sanctionné Abdelrahim Hamdan Dagalo, figure de proue des FSR, le 6 septembre 2023. Selon Meta, il est le frère de Mohamed Hamdan Dagalo, qui dirige les FSR.

Peu après sa publication, plusieurs utilisateur·ices de Facebook ont signalé le contenu pour terrorisme, discours haineux et violence. En raison du faible degré de gravité et de viralité, ces signalements n’ont pas fait l’objet d’un examen manuel prioritaire et le contenu a été conservé sur la plateforme. Après que le Conseil a porté le cas à l’attention de Meta, l’entreprise a examiné la publication dans le cadre de sa politique relative aux personnes et organisations dangereuses, et l’a supprimée de Facebook.

Le Conseil a choisi ce cas pour évaluer la portée et l’application de la politique de Meta relative aux personnes et organisations dangereuses dans le cadre d’un conflit en cours dans un pays où l’espace civique est considérablement restreint. Ce cas relève des priorités stratégiques du Conseil, notamment les situations de crise et de conflit.

Le Conseil aimerait recevoir des commentaires publics sur les points suivants :

  • Informations sur le traitement par les FSR des otages ou des prisonniers et prisonnières de guerre, et sur la façon dont l’utilisation des réseaux sociaux qui les identifient a un impact sur leur sécurité et les expose à un traitement dégradant et humiliant et à la curiosité publique.
  • Comment les FSR et les FAS utilisent les réseaux sociaux pour façonner les récits autour du conflit, et si la désignation par Meta des FSR comme organisation dangereuse a eu un impact sur l’accès à l’information et la sécurité des personnes au Soudan.
  • Comment le droit international humanitaire (également connu sous le nom de droit des conflits armés) s’applique à la modération par Meta des publications montrant des prisonniers et prisonnières de guerre et des otages identifiables.
  • L’application par Meta de ses politiques de contenu pour les contenus en langue arabe concernant le conflit au Soudan, en particulier les publications vidéo.
  • La priorité accordée par Meta aux contenus à examiner de manière automatisée et manuelle dans les situations de conflit, ainsi que les principes et les facteurs qui devraient guider la conception des opérations afin de garantir que les contenus les plus nuisibles soient examinés et donnent lieu à une action.

Dans ses décisions, le Conseil peut fournir des recommandations en matière de politiques à Meta. Bien que ces recommandations ne soient pas contraignantes, Meta doit y répondre sous 60 jours. De ce fait, le Conseil appréciera tout commentaire public proposant des recommandations pertinentes pour ce cas.

Commentaires publics

Si vous ou votre organisation pensez pouvoir apporter un regard différent sur les cas évoqués ce jour et aider le Conseil à prendre une décision, envoyez vos contributions en utilisant le lien ci-dessus. Veuillez noter que les commentaires publics peuvent être envoyés de façon anonyme. Les commentaires publics seront ouverts jusqu’au mardi 23 janvier à 23 h 59 de votre heure locale, soit pendant une période de 14 jours.

Prochaines étapes

Au cours des prochaines semaines, les membres du Conseil délibéreront sur ces cas. Une fois leurs décisions finales rendues, nous les publierons sur le site Web du Conseil de surveillance.

Pour recevoir nos actualités lorsque le Conseil annonce de nouveaux cas ou publie des décisions, inscrivez-vous ici.

Retour Aux Actualités