Décision sur plusieurs affaires
Signalements de victimes de viol israéliennes
4 avril 2024
Un utilisateur a fait appel des décisions de Meta de supprimer deux publications Facebook qui décrivent les violences sexuelles perpétrées par des militants du Hamas au cours des attaques terroristes qui ont eu lieu le 7 octobre 2023 en Israël. Après que le Conseil a porté ces appels à l’attention de Meta, l’entreprise est revenue sur ses décisions initiales et a restauré les publications.
2 cas inclus dans ce lot
FB-YCJP0Q9D
Cas relatif à des personnes et organisations dangereuses sur Facebook
FB-JCO2RJI1
Cas relatif à des personnes et organisations dangereuses sur Facebook
Ceci est une décision sommaire. Les décisions sommaires concernent les cas pour lesquels Meta est revenue sur sa décision initiale après que le Conseil les a portés à l’attention de l’entreprise. Elles contiennent des informations relatives aux erreurs reconnues par Meta. Elles sont approuvées par une partie du Conseil (et pas par l’ensemble de ses membres), n’impliquent pas de commentaires publics et n’ont pas valeur de précédent pour le Conseil. Les décisions sommaires ont une influence directe sur les décisions de Meta en assurant la transparence quant à ses corrections et en identifiant les domaines dans lesquels Meta pourrait améliorer son application des politiques.
Résumé du cas
Un utilisateur a fait appel des décisions de Meta de supprimer deux publications Facebook qui décrivent les violences sexuelles perpétrées par des militants du Hamas au cours des attaques terroristes qui ont eu lieu le 7 octobre 2023 en Israël. Après que le Conseil a porté ces appels à l’attention de Meta, l’entreprise est revenue sur ses décisions initiales et a restauré les publications.
Description du cas et contexte
En octobre 2023, un utilisateur de Facebook a importé deux publications distinctes l’une à la suite de l’autre. Identique, leur contenu incluait la vidéo d’une femme qui décrivait le viol d’Israéliennes par le Hamas au cours des attaques terroristes du 7 octobre. La légende contenait un avertissement et la personne intervenant dans la vidéo prévenait les utilisateurs et les utilisatrices de la nature explicite du contenu. La vidéo présente ensuite des images de l’enlèvement de deux femmes par le Hamas ; l’un des clips implique une femme gravement blessée, couchée sur le ventre dans un camion, tandis que l’autre montre une femme blessée alors qu’elle est sortie de force de l’arrière d’un véhicule. Ces images ont été partagées à grande échelle au lendemain de l’attaque. La première publication a été partagée quelque 4000 fois, et la seconde moins d’une cinquantaine de fois.
Les deux publications ont été initialement supprimées par Meta pour infraction au standard de la communauté sur les organismes et individus dangereux. En vertu de cette politique, l’entreprise interdit les images tierces qui représentent le moment d’une attaque qualifiée de terroriste perpétrée sur des victimes identifiables, et ce quelles que soient les circonstances, même si lesdites images sont partagées pour condamner l’attaque ou sensibiliser à son sujet. En outre, en vertu du standard de la communauté de Meta sur la violence et l’incitation, l’entreprise supprime les « représentations d’enlèvements ou de kidnappings, sauf s’il apparaît clairement qu’elles sont partagées par la victime ou sa famille en tant qu’appel à l’aide, ou partagées à des fins d’information, de condamnation ou de sensibilisation ».
Dès le début de l’attaque commise par le Hamas le 7 octobre, Meta a appliqué à la lettre sa politique sur les organismes et individus dangereux aux vidéos qui montraient les exactions subies par des victimes visibles. Meta a justifié cette approche dans sa publication Newsroom du 13 octobre, où elle explique qu’elle a agi de la sorte pour « assurer avant tout la sécurité des personnes kidnappées par le Hamas ». Les deux publications concernées dans ces deux cas-ci ont donc été supprimées pour infraction à la politique de Meta sur les organismes et individus dangereux.
À la suite de cette décision, de nombreux médias se sont mis à diffuser des images de l’attaque et des personnes ont commencé à publier du contenu similaire pour la condamner et y sensibiliser. En conséquence, aux environs du 20 octobre, Meta a mis à jour ses politiques pour autoriser le partage de ces images aux seules fins de condamner ces atrocités et d’y sensibiliser. Elle a également ajouté un écran d’avertissement pour prévenir que les images pouvaient choquer. Meta a officialisé cette modification le 5 décembre, lors de la mise à jour de sa publication Newsroom initiale du 13 octobre (cf. Otages kidnappés en Israël pour en savoir plus).
À l’origine, Meta a supprimé de Facebook les deux publications concernées dans ces deux cas-ci. L’utilisateur a fait appel de ces décisions auprès du Conseil. Après que le Conseil a porté ces cas à l’attention de Meta, l’entreprise a déterminé que les publications n’enfreignaient plus ses politiques, compte tenu de l’exception accordée un peu plus tôt, et les a donc restaurées.
Autorité et champ d’application du Conseil
Le Conseil jouit de l’autorité nécessaire pour examiner les décisions de Meta à la suite d’appels interjetés par la personne dont le contenu a été supprimé (article 2, section 1 de la Charte ; article 3, section 1 des Statuts).
Lorsque Meta reconnaît avoir commis une erreur et revient sur sa décision dans un cas soumis à l’examen du Conseil, ce dernier peut décider de ne statuer que sommairement sur ce cas (article 2, section 2.1.3 des Statuts). Le Conseil réexamine la décision initiale afin de mieux comprendre le processus de modération de contenu, de réduire les erreurs et d’accroître l’équité pour les personnes qui utilisent Facebook et Instagram.
Importance du cas
Ces deux cas mettent en lumière les défis que Meta doit relever pour modérer les contenus liés à un conflit à haut risque qui évolue constamment et rapidement. Comme l’a estimé le Conseil dans sa décision sommaire Otages kidnappés en Israël, la politique initiale de Meta, qui visait à interdire les publications représentant des otages, protégeait leur dignité et veillait à ce qu’ils ne soient pas exposés à la curiosité publique. Toutefois, le Conseil a également trouvé que, si des circonstances exceptionnelles le permettent et qu’un intérêt public impérieux ou l’intérêt vital des otages le requiert, des exceptions d’ampleur et de durée restreintes peuvent se justifier. Compte tenu du contexte, la restauration de ce type de contenu sur la plateforme, accompagnée de l’affichage d’un écran d’avertissement « marquer comme dérangeant », est cohérente avec les politiques de contenu, les valeurs et les responsabilités de Meta en matière de droits humains. Cela serait également cohérent avec les lois humanitaires internationales et la pratique qui consiste à conserver la documentation de violations présumées afin de pouvoir en rendre compte à l’avenir et d’améliorer la sensibilisation du public. Dans ce cas-ci, le Conseil a également remarqué que Meta avait mis trop de temps à appliquer cette exception à tous les utilisateurs et à toutes les utilisatrices, et que l’approche de l’entreprise en matière de modération de contenus liés au conflit évolue rapidement et est accompagnée d’un manque continu de transparence.
Le Conseil a précédemment émis des recommandations qui sont pertinentes dans le cas présent. Le Conseil a recommandé à Meta d’annoncer ses exceptions aux standards de la communauté, notamment « leur durée et leur préavis d’expiration, afin de donner aux personnes qui utilisent ses plateformes un préavis des modifications de politique autorisant une certaine expression » (recommandation n° 5 du cas Slogan de protestation en Iran). Meta a partiellement mis en œuvre cette recommandation, comme le prouvent les informations qu’elle a publiées. Par le passé, le Conseil a également recommandé à Meta de conserver des preuves des potentiels crimes de guerre, crimes contre l’humanité et graves violations des droits humains afin de pouvoir en rendre compte à l’avenir (recommandation n° 1 du cas Vidéo explicite au Soudan et recommandation n° 1 du cas Vidéo de prisonniers de guerre arméniens). Meta a accepté de mettre en œuvre cette recommandation, mais elle y travaille encore. Le Conseil insiste auprès de Meta pour qu’elle mette en place ces recommandations afin d’assurer que le contenu lié aux droits humains est modéré avec précision sur ses plateformes.
Décision
Le Conseil a annulé les décisions initiales de Meta visant à supprimer les deux éléments de contenu. Le Conseil reconnaît que Meta a corrigé ses erreurs initiales une fois qu’il a porté ces deux cas à l’attention de l’entreprise.
Retour aux décisions de cas et aux avis consultatifs politiques