Le Conseil de surveillance annonce de nouveaux cas d’examen accéléré concernant le conflit entre Israël et le Hamas

Aujourd’hui, le Conseil de surveillance a annoncé qu’il se pencherait sur deux cas concernant le conflit entre Israël et le Hamas. Cet examen sera effectué de manière accélérée. Les décisions seront publiées dès que possible, et au plus tard dans les 30 jours.

Les statuts du Conseil de surveillance prévoient un examen accéléré dans des « circonstances exceptionnelles, notamment lorsque le contenu pourrait avoir des conséquences graves dans le monde réel ». Le Conseil estime que la situation en Israël et à Gaza atteint ce seuil. C’est la première fois que le Conseil a recours à la procédure d’examen accélérée.

Les événements récents au Moyen-Orient ont soulevé des questions sur la manière dont les entreprises de réseaux sociaux doivent modérer les contenus dans les situations de conflit. Dans les semaines qui ont suivi le début du conflit, le Conseil a vu la moyenne quotidienne des appels signalés par les utilisateurs comme étant liés à la région du Moyen-Orient et de l’Afrique du Nord presque tripler.

Après avoir examiné une série de recours, le Conseil a sélectionné deux cas qui abordent des questions importantes liées au conflit et représentent des problèmes plus larges affectant les utilisateurs de Facebook et d’Instagram.

Hôpital Al-Shifa

Appel d’un utilisateur pour restaurer un contenu sur Instagram

Le premier contenu comprend une vidéo montrant ce qui semble être les conséquences d’une attaque sur une cour à l’extérieur de l’hôpital Al-Shifa dans la ville de Gaza. Le contenu, publié sur Instagram début novembre, montre des personnes, dont des enfants, blessées ou mortes, allongées sur le sol et/ou en train de pleurer. Une légende en arabe et en anglais sous la vidéo indique que l’hôpital a été pris pour cible par « l’occupation usurpatrice », une référence à l’armée israélienne, et que des organisations de défense des droits humains et d’information ont été identifiées. Meta a d’abord supprimé la publication pour violation de ses règles en matière de contenu violent et explicite. Cependant, suite à la sélection de ce cas par le Conseil, Meta est revenue sur sa décision initiale et a rétabli le contenu avec un écran d’avertissement « contenu dérangeant ».

Otages enlevés en Israël

Appel d’un utilisateur pour restaurer un contenu sur Facebook

Le deuxième cas montre une femme suppliant ses ravisseurs de ne pas la tuer alors qu’elle est prise en otage et emmenée sur une moto. On voit la femme assise à l’arrière de la moto, tendant la main et implorant qu’on lui laisse la vie sauve. La vidéo montre ensuite un homme, qui semble être un autre otage, emmené par ses ravisseurs. Dans une légende, l’utilisateur qui a posté le contenu décrit les ravisseurs comme des militants du Hamas et invite les autres utilisateurs à regarder la vidéo pour « mieux comprendre » l’horreur à laquelle Israël a dû faire face le 7 octobre 2023. L’utilisateur a publié le contenu environ une semaine après les attentats du 7 octobre. Dans le cadre de sa politique relative aux organismes et individus dangereux, Meta a désigné le Hamas comme une organisation dangereuse de niveau 1 et a qualifié les attentats du 7 octobre d’attaques terroristes.

Meta a supprimé la publication qui, selon elle, enfreignait deux politiques. Tout d’abord, ses règles sur la violence et l’incitation, qui ont été temporairement examinées pour inclure le contenu qui identifie clairement les otages, même si cela est fait pour condamner ou faire connaître leur situation. Ensuite, la politique de Meta concernant les organismes et individus dangereux interdit catégoriquement les images tierces dépeignant le moment d’attaques terroristes désignées avec des victimes clairement visibles. Cependant, dans les semaines qui ont suivi les attaques d’octobre, Meta a révisé ses règles en réponse aux tendances dans la manière dont les vidéos d’enlèvements d’otages étaient partagées et signalées. Cela a conduit Meta à revenir sur sa décision initiale dans ce cas, restaurant le contenu avec un écran d’avertissement.

Que se passe-t-il ensuite ?

Un panel de membres du Conseil va maintenant délibérer sur ces cas et décider si le contenu doit être autorisé sur Facebook ou Instagram. Ils seront contraignants pour Meta.

En raison de contraintes de temps, le Conseil n’est pas en mesure de prendre en compte les commentaires publics pour les cas accélérés. Les décisions concernant ces cas seront publiées sur le site web du Conseil dans les 30 jours suivant cette annonce.

Remarque : Le Conseil de surveillance est une organisation indépendante qui examine les décisions de Meta de supprimer ou de laisser du contenu sur Facebook et Instagram dans un nombre restreint de cas emblématiques. Le Conseil examine et, si nécessaire, annule les décisions de l’entreprise.

Retour Aux Actualités