Décision sur plusieurs affaires

Contenu explicite dans des contextes de sensibilisation

Quatre utilisateurs ont fait appel de la décision de Meta de supprimer leurs publications Facebook et Instagram qui comportaient du contenu explicite dans des contextes de sensibilisation.

4 cas inclus dans ce lot

Renversé

FB-PW4MPO8J

Cas de contenu violent et explicite sur Facebook

Plate-forme
Facebook
Sujet
Évènements d’actualité,Sécurité,Guerres et conflits
Standard
Contenu violent et explicite
Emplacement
Mexique
Date
Publié le 21 avril 2026
Renversé

FB-GKN5CHBI

Cas de contenu violent et explicite sur Facebook

Plate-forme
Facebook
Sujet
Évènements d’actualité,Sécurité,Guerres et conflits
Standard
Contenu violent et explicite
Emplacement
Mexique
Date
Publié le 21 avril 2026
Renversé

FB-S5ZFX6W8

Cas de contenu violent et explicite sur Facebook

Plate-forme
Facebook
Sujet
Évènements d’actualité,Sécurité,Guerres et conflits
Standard
Contenu violent et explicite
Emplacement
Russie,Ukraine
Date
Publié le 21 avril 2026
Renversé

IG-IA95C08R

Cas de contenu violent et explicite sur Instagram

Plate-forme
Instagram
Sujet
Évènements d’actualité,Sécurité,Guerres et conflits
Standard
Contenu violent et explicite
Emplacement
Brésil
Date
Publié le 21 avril 2026

Les décisions sommaires concernent les cas pour lesquels Meta est revenue sur sa décision initiale après que le Conseil les a portés à l’attention de l’entreprise. Elles contiennent des informations relatives aux erreurs reconnues par Meta. Elles sont approuvées par une partie du Conseil (et pas par l’ensemble de ses membres), n’impliquent pas de commentaires publics et n’ont pas valeur de précédent pour le Conseil. Les décisions sommaires exercent une influence directe sur les décisions de Meta en assurant la transparence quant à ses corrections et en identifiant les domaines dans lesquels Meta pourrait améliorer son application des politiques.

Résumé

Quatre utilisateurs ont fait appel de la décision de Meta de supprimer leurs publications Facebook et Instagram qui comportaient du contenu explicite dans des contextes de sensibilisation. Après que le Conseil a porté ces appels à l’attention de Meta, l’entreprise est revenue sur ses décisions initiales et a restauré les quatre publications.

À propos des cas

En août et septembre 2025, quatre utilisateurs issus de trois pays différents (Mexique, Ukraine et Brésil) ont publié du contenu avec des images explicites dans des contextes de sensibilisation qui, dans un premier temps, a été supprimé par Meta pour infraction à la politique sur le contenu violent et explicite.

Dans le premier cas, l’utilisateur a publié une vidéo sur Facebook qui représentait un individu, un seau d’eau à la main, près de plusieurs personnes qui souffraient de brûlures visibles, apparemment causées par l’explosion d’un camion de gaz à Mexico. La légende, traduite de l’espagnol, dit ceci : « Mistakes you should not make » (Erreurs à ne pas commettre). Dans la piste audio, une personne explique que l’individu doté du seau s’apprêtait à verser de l’eau sur les brûlés, ce qui aurait mis leur peau à vif en contact avec des bactéries. Dans son appel au Conseil, l’utilisateur a indiqué que la vidéo traitait d’une explosion au Mexique.

Le deuxième cas concerne une publication Facebook avec une vidéo de plusieurs victimes de ce qui semble être la même explosion à Mexico. Au moment où la vidéo se concentre sur certaines des victimes, qui sont nues, les images s’assombrissent. La légende, traduite de l’espagnol, comprend les mots « Strong images » (Images fortes), suivis de hashtags tels que « #fire » (#incendie) et « #news » (#actualité). Dans son appel au Conseil, l’utilisateur a indiqué qu’il « informait le public sur des sujets importants ».

Dans le troisième cas, un média a publié une vidéo qui contient deux images de gorge coupée. La légende, traduite de l’ukrainien, dit ce qui suit : « With his throat cut, [name] crawled for five days from captivity to Ukrainian positions [...] Together with his comrades, he fell into an ambush by Russian soldiers. » (La gorge coupée, [nom] a rampé pendant cinq jours de l’endroit où il était retenu en captivité jusqu’aux positions ukrainiennes […]. Avec ses camarades, il est tombé dans une embuscade tendue par des soldats russes.) La publication affirme également que le combattant et ses camarades ont été torturés en captivité. Dans son appel au Conseil, le média a expliqué que la vidéo avait été publiée en guise de « preuve importante de tortures et de graves violations des droits humains » et qu’elle « était d’intérêt public puisqu’elle documentait des crimes et sensibilisait à [leurs] conséquences ».

Dans le quatrième cas, un utilisateur d’Instagram a publié une vidéo d’un individu qui s’arrache la peau de la main pour révéler sa chair à vif. La légende, traduite du portugais, fournit des informations sur les risques d’infection et de déshydratation liés à une détérioration de l’intégrité de la peau. Elle souligne à quel point il est important de soigner correctement les lésions cutanées. La légende contient également des hashtags relatifs aux soins infirmiers et de santé. Dans son appel au Conseil, l’utilisateur a indiqué qu’il était un enseignant et spécialiste de la dermatologie, et que son contenu éducatif s’adressait aux étudiants et aux professionnels de santé.

Au titre de sa politique sur le contenu violent et explicite, Meta interdit les « vidéos de personnes, vivantes ou décédées, dans des contextes non médicaux, qui représentent : […] des entrailles visibles, telles que des organes, des os ou des tissus musculaires de personnes vivantes ou décédées ; des personnes brûlées ou calcinées ; ou un égorgement. »

Après que le Conseil a sélectionné les cas, Meta a jugé qu’elle avait eu tort de supprimer les quatre publications. Dans le premier cas, Meta a conclu que, bien que les blessures soient visibles, le contenu n’enfreint pas la politique parce qu’il ne montre pas de rougeurs, de cloques, de desquamation ou de suintement. Dans le deuxième cas, Meta a tiré la même conclusion, cette fois-ci parce que les blessures ne sont pas visibles en raison de l’assombrissement de l’image lorsqu’elles se retrouvent en son centre. Pour ce qui est du troisième cas, Meta a expliqué qu’elle avait apposé un « écran d’avertissement pour indiquer que le contenu est sensible et qu’elle réservait ce type de contenu aux personnes âgées d’au moins 18 ans ». L’entreprise a donc conclu que le contenu devait être autorisé à condition qu’il soit placé derrière un écran d’avertissement et que sa visibilité soit réservée aux adultes. Dans le quatrième cas, Meta a fait remarquer que « le contenu représente de la chair à vif de surface, sans organes, os, ni tissus musculaires visibles », et a ajouté que « les brûlures ne semblent pas suffisamment graves pour constituer une violation » de la politique sur le contenu violent et explicite. Par conséquent, Meta a restauré les quatre publications, et apposé un écran d’avertissement et une limite d’âge au contenu du troisième cas.

Autorité et champ de compétence du Conseil

Le Conseil jouit de l’autorité nécessaire pour examiner la décision de Meta à la suite d’un appel interjeté par l’utilisateur dont le contenu a été supprimé (article 2, section 1 de la Charte ; article 3, section 1 des Statuts).

Lorsque Meta reconnaît avoir commis une erreur et revient sur sa décision dans un cas soumis à l’examen du Conseil, ce dernier peut décider de ne statuer que sommairement sur ce cas (article 2, section 2.1.3 des Statuts). Le Conseil réexamine la décision initiale afin de mieux comprendre le processus de modération de contenu, de réduire les erreurs et d’accroître l’équité pour les personnes qui utilisent Facebook, Instagram et Threads.

Importance des cas

Cette décision fournit plusieurs exemples d’application trop sévère du standard de la communauté de Meta relatif au contenu violent et explicite, ce qui montre à quel point la surmodération peut affecter les efforts de sensibilisation liés à l’actualité qui implique des violations des droits humains ou des sujets d’intérêt public ou de santé.

Dans le cas Vidéo explicite au Soudan, le Conseil a noté que, bien que la justification du standard de la communauté relatif au contenu violent et explicite stipule que Meta autorise les utilisateurs à sensibiliser, les règles spécifiques de ce standard n’incluent pas d’exception en cas de « sensibilisation ». Le Conseil a recommandé à Meta de « modifier le standard de la communauté relatif au contenu violent et explicite, afin d’autoriser les vidéos explicites de personnes décédées ou non lorsqu’elles sont partagées à des fins de sensibilisation ou de témoignage concernant des violations des droits humains. Ces contenus devraient être autorisés avec l’apposition d’un écran d’avertissement afin d’annoncer qu’il s’agit de contenus potentiellement dérangeants » (recommandation nº 1 du cas Vidéo explicite du Soudan). Le Conseil estime que cette recommandation a été recadrée par Meta. L’entreprise a indiqué : « L’année dernière, nous avons invité le Conseil à participer à un Forum sur les politiques lié à cette recommandation […]. En fin de compte, étant donné les avis reçus au cours de l’élaboration de la politique, nous nous sommes alignés sur le statu quo afin de supprimer le contenu par défaut, mais d’autoriser le contenu avec un écran d’avertissement en cas de contexte supplémentaire. Bien que cela ne modifie pas le standard de la communauté pour autoriser les vidéos qui représentent des personnes ou des corps lorsqu’elles sont partagées à des fins de sensibilisation ou de documentation de violations des droits humains à grande échelle, ledit standard continue d’autoriser que ce type de contenu soit évalué en cas de remontée » (Mise à jour trimestrielle Q4 2023 de Meta à l’attention du Conseil de surveillance).

Pour ce qui est du troisième cas, qui montre les conséquences d’actes de violence manifestes à l’encontre d’un prisonnier ukrainien, le Conseil a déjà recommandé à Meta de « s’engager à préserver les preuves d’atrocités ou de graves violations des droits humains, telles que celles qui sont mentionnées dans le Statut de Rome de la Cour pénale internationale, et, le cas échéant, de les transmettre aux autorités compétentes, en mettant à jour ses politiques internes pour clarifier les protocoles mis en place à cet égard » (recommandation n° 1 du cas Vidéo de prisonniers de guerre arméniens). Dans la même décision, le Conseil a également décrété que, « à la suite de l’élaboration du protocole sur la conservation des preuves liées à des atrocités et à de graves violations des droits humains, Meta devrait le mettre à la disposition du public dans l’Espace modération » (recommandation n° 4 du cas Vidéo de prisonniers de guerre arméniens). Meta a indiqué avoir implémenté ces recommandations, mais n’a pas publié d’informations pour le prouver. En réponse à ces deux recommandations, Meta a déclaré : « Nous avons communiqué avec le Conseil de surveillance […] pour lui transmettre les détails de notre nouvelle approche relative à la conservation de potentielles preuves d’atrocités et de graves violations du droit international en matière de droits humains » (Mise à jour semestrielle H1 2024 de Meta à l’attention du Conseil de surveillance).

Le Conseil estime que l’application totale des recommandations susmentionnées permettrait aux utilisateurs de sensibiliser plus efficacement aux actualités qui impliquent des violations des droits humains ou des sujets d’intérêt public ou de santé.

Décision

Le Conseil a annulé les décisions initiales de Meta de supprimer les quatre éléments de contenu. Le Conseil reconnaît que Meta a corrigé ses erreurs initiales une fois qu’il a porté ces cas à l’attention de l’entreprise.

Retour aux décisions de cas et aux avis consultatifs politiques