Le Conseil de surveillance confirme la décision de Meta dans le cas de la publication sur les armes liée au conflit soudanais

Le Conseil de surveillance a confirmé la décision de Meta de supprimer une publication montrant une cartouche d’arme accompagnée d’une légende expliquant comment créer et lancer un cocktail Molotov. Selon le Conseil, la publication a enfreint le Standard de la communauté de Facebook relatif à la violence et à l’incitation, en présentant un risque de préjudice imminent susceptible d’exacerber la violence en cours au Soudan. Ce cas a soulevé de vives inquiétudes quant aux responsabilités de Meta en matière de droits humains, notamment pour ce qui est du partage de contenu qui donne des instructions sur les armes lors de conflits armés. Afin d’observer ces responsabilités, Meta doit veiller à clarifier les exceptions qui s’appliquent à ses règles sur la violence et l’incitation. L’entreprise doit par ailleurs élaborer des outils afin de corriger ses propres erreurs en cas d’envoi d’une notification erronée à ses utilisateurs et utilisatrices, en précisant le Standard de la communauté que leur contenu a enfreint.

À propos du cas

En juin 2023, une personne a publié l’illustration d’une cartouche d’arme sur Facebook, avec une liste de ses composants en arabe. La légende de la publication explique comment créer un cocktail Molotov à l’aide des composants listés, et indique que le port du casque est requis pour lancer ce dispositif incendiaire. Elle conclut avec un appel à la victoire du peuple soudanais et des Forces armées soudanaises (FAS).

Deux mois avant la publication du contenu, des combats ont éclaté au Soudan entre les FAS et les Forces de soutien rapide (FSR), un groupe paramilitaire que Meta a désigné comme une organisation dangereuse en août 2023. Ce conflit armé n’en finit pas au Soudan et s’est répandu dans tout le pays, les deux parties belligérantes ayant eu recours à des armes explosives dans des zones densément peuplées par des civils.

Les systèmes automatisés de Meta ont détecté le contenu et conclu qu’il enfreignait le Standard de la communauté de Facebook en matière de violence et d’incitation. Meta a supprimé la publication, puis appliqué une pénalité standard au profil de la personne à l’origine de la publication. Cette personne a immédiatement fait appel. Après analyse, l’un des membres de l’équipe d’examen manuel de Meta a jugé que la publication enfreignait la politique relative aux biens et services restreints. La personne à l’origine de la publication a alors fait appel auprès du Conseil, suite à quoi Meta a déterminé que le contenu aurait dû être supprimé mais, comme stipulé dans sa décision initiale, en vertu du Standard de la communauté sur la violence et l’incitation.

Principales observations

Le Conseil considère que la publication a enfreint la politique relative à la violence et à l’incitation sur la base de deux critères. Tout d’abord, l’effet combiné de l’image et de la légende a enfreint la règle qui interdit les « instructions relatives à la fabrication ou à l’utilisation d’armes dans lesquelles il est explicitement indiqué que l’objectif est de provoquer de graves blessures à une personne ou de la tuer ». Sans tenir compte de l’intention de la personne qui a créé la publication, le guide détaillé pour créer un cocktail Molotov et la recommandation de porter un casque montrent que le contenu appelle à suivre ces instructions. Par ailleurs, le recours à la violence en soutien aux FAS dans le cadre du conflit armé en cours ne relève pas d’un objectif non violent. La politique sur la violence et l’incitation interdit d’expliquer comment confectionner des armes, à moins que le « contexte montre que le contenu a un but non violent ».

La règle qui interdit d’expliquer comment créer et utiliser des armes prévoit une exception lorsque le contenu est partagé « dans le cadre d’un sport d’autodéfense, d’un entraînement de l’armée d’un pays, de jeux vidéo commercialisés ou d’actualités ». Les parties prenantes que le Conseil a consultées ainsi que des reportages ont soutenu que Meta autorise de telles instructions dans l’exercice de l’autodéfense lors de certains conflits armés. Meta a nié ces déclarations. Le Conseil n’est pas en mesure de déterminer la véracité de ces affirmations contradictoires.

Il est cependant essentiel que les règles de Meta sur un sujet aussi important soient claires, et que leur mise en application soit cohérente et rigoureuse. Compte tenu de l’utilisation des plateformes de Meta par les soldats et les civils lors des conflits en vue de partager des informations sur l’usage des armes, ou du contenu violent pour l’autodéfense, Meta doit définir plus clairement les exceptions liées aux « sports d’autodéfense » et à l’« entraînement de l’armée ». Le Conseil ne partage pas l’avis de Meta selon lequel ces termes utilisés dans le langage public du Standard de la communauté sur la violence et l’incitation revêtent un « sens évident ». À des fins de clarté, Meta doit désigner quels acteurs peuvent bénéficier d’une exception liée aux « sports d’autodéfense » et dans quel cadre elle s’applique. En outre, le langage public de la politique sur les instructions expliquant comment créer ou utiliser des armes ou des explosifs ne stipule pas expressément que les contextes d’autodéfense ne sont pas pris en compte lors de conflits armés.

Ce cas souligne également une autre exception peu claire concernant le Standard de la communauté sur la violence et l’incitation, qui autorise les menaces proférées contre les terroristes et d’autres individus violents. Son manque de clarté provient du fait que Meta ne précise pas si elle s’applique à toutes les organisations et personnes désignées en vertu de sa politique sur les organismes et individus dangereux. Ce cas relève de cette exception, car les FSR faisaient partie de cette catégorie pendant la période concernée en 2023. Les utilisateurs et utilisatrices ne peuvent néanmoins pas savoir si leur publication pourrait être supprimée ou non pour ce motif, car la liste des organismes et individus désignés n’a pas été communiquée au public. Le Conseil a déjà fait part de ses préoccupations sur ce manque de clarté dans notre décision relative à la vidéo d’un poste de police haïtien.

Il s’inquiète également que le système de notification de Meta ne soit pas configuré pour permettre à l’entreprise de rectifier ses propres erreurs lorsqu’elle n’indique pas correctement quel Standard de la communauté a été enfreint. Au nom de l’impartialité, il est essentiel de pouvoir informer correctement les utilisateurs et utilisatrices de leur infraction. Les notifications erronées les empêchent de faire appel et d’accéder à un recours. Dans le cas présent, la personne à l’origine de la publication a été informée par erreur que sa publication avait été supprimée pour discours haineux, alors que sa suppression relevait en réalité du Standard de la communauté sur la violence et l’incitation. Le Conseil encourage toutefois Meta à étudier les moyens techniquement faisables qui s’offrent à l’entreprise pour corriger les notifications envoyées aux utilisateurs et utilisatrices.

La décision du Conseil de surveillance

Le Conseil de surveillance a confirmé la décision de Meta de supprimer la publication.

Le Conseil recommande à Meta de :

  • Modifier sa politique sur la violence et l’incitation afin d’y inclure une définition de « sport d’autodéfense » et d’« entraînement de l’armée » en tant qu’exceptions aux règles qui interdisent d’expliquer comment créer ou utiliser des armes, et préciser qu’elle n’autorise aucune exception liée à l’autodéfense pour de telles instructions dans le cadre d’un conflit armé.
  • Élaborer des outils pour rectifier ses propres erreurs lors de l’envoi de messages notifiant les utilisateurs et utilisatrices du Standard de la communauté qui a été enfreint, afin de les aider à identifier les politiques que leur contenu n’a pas observées.

Pour en savoir plus

Pour lire l’intégralité de la décision, cliquez ici.

Pour lire un résumé des commentaires publics relatifs à ce cas, cliquez ici.

Retour Aux Actualités