Décision sur plusieurs affaires

Publications de sensibilisation aux troubles de l’alimentation

Après avoir analysé deux cas concernant des publications visant à sensibiliser le public aux troubles de l’alimentation pendant la semaine de sensibilisation aux troubles de l’alimentation, le Conseil de surveillance estime que Meta devrait mieux se préparer à faire face à une augmentation soudaine de l’engagement pendant ces périodes, où des discours présentant un intérêt public pourraient être supprimés à tort.

2 cas inclus dans ce lot

Renversé

IG-XMV96DJO

Cas relatif au suicide et à l’automutilation sur Instagram

Plate-forme
Instagram
Sujet
Liberté d’expression,Santé
Standard
Suicide et automutilation
Emplacement
États-Unis
Date
Publié le 4 novembre 2025
Renversé

IG-3YAH57M8

Cas relatif au suicide et à l’automutilation sur Instagram

Plate-forme
Instagram
Sujet
Liberté d’expression,Santé
Standard
Suicide et automutilation
Emplacement
États-Unis
Date
Publié le 4 novembre 2025

Résumé

Après avoir analysé deux cas concernant des publications visant à sensibiliser le public aux troubles de l’alimentation pendant la semaine de sensibilisation aux troubles de l’alimentation, le Conseil de surveillance estime que Meta devrait mieux se préparer à faire face à une augmentation soudaine de l’engagement pendant ces périodes, où des discours présentant un intérêt public pourraient être supprimés à tort. Le Conseil s’inquiète des répercussions potentielles sur la visibilité des contenus de sensibilisation. Les plateformes de Meta devraient permettre aux utilisateurs de se soutenir mutuellement plutôt que d’entraver leur liberté d’expression autour de contenus utiles. Les utilisateurs doivent pouvoir fournir des informations supplémentaires dans leurs appels afin de déterminer si leur contenu relève des exceptions à la politique relative au suicide, à l’automutilation et aux troubles de l’alimentation, afin d’améliorer les examens et de réduire les erreurs de mise en application. Le Conseil annule la décision initiale de Meta de retirer le contenu dans ces deux cas.

À propos des cas

Dans le premier cas, un utilisateur d’Instagram aux États-Unis a publié un carrousel de photos comprenant des photos de l’utilisateur. La légende racontait son expérience personnelle avec un trouble de l’alimentation, son désir de sensibiliser les gens à ce type de trouble et sa gratitude pour le soutien reçu.

Dans le deuxième cas, un autre utilisateur d’Instagram, également aux États-Unis, a partagé un carrousel de photos comprenant des images accompagnées d’un texte donnant des conseils sur la manière de parler des personnes perçues comme maigres ou en sous-poids. La troisième image du carrousel conseillait aux gens de ne pas deviner la taille des vêtements d’une personne et d’éviter de faire des commentaires suggérant que les gens pourraient être en train de dépérir.

Les deux publications comportaient des hashtags fréquemment utilisés à des fins de sensibilisation et ont été partagées pendant la semaine de sensibilisation aux troubles de l’alimentation, séparément, en 2023 et 2025.

En 2025, les systèmes automatisés de Meta ont identifié la première publication et la troisième image de la deuxième publication comme potentiellement en infraction. Les examinateurs ont déterminé qu’elles enfreignaient toutes deux la politique relative au suicide, à l’automutilation et aux troubles de l’alimentation. Pour la première publication, l’ensemble du carrousel de photos était visible par l’examinateur, tandis que pour la deuxième publication, seule la troisième image était visible. Meta a supprimé la première publication dans son intégralité et la troisième image de la deuxième publication.

Après que les deux utilisateurs ont fait appel de ces suppressions, Meta a finalement maintenu ses décisions. Les utilisateurs ont alors fait appel auprès du Conseil. Lorsque le Conseil a sélectionné ces cas, Meta a conclu que ces publications avaient été partagées sans des contextes ne les mettant pas en infraction et les a restaurés.

Principales conclusions

Le Conseil estime que les publications n’ont pas enfreint le Standard de la communauté de Meta relatif au suicide, à l’automutilation et aux troubles de l’alimentation. Leur suppression était également incompatible avec les responsabilités de Meta en matière de droits humains, car elle n’était ni nécessaire ni proportionnée pour protéger la santé publique.

Ces cas mettent en évidence trois domaines dans lesquels Meta peut s’améliorer pour respecter ses engagements en matière de droits humains liés à la sensibilisation et aux contenus de soutien : la préparation aux périodes de sensibilisation récurrentes à l’échelle mondiale, la visibilité des contenus de sensibilisation et l’amélioration du processus d’examen des appels. Les plateformes de Meta devraient permettre aux utilisateurs de se soutenir mutuellement plutôt que d’entraver leur liberté d’expression autour de contenus utiles.

Meta devrait renforcer sa préparation aux semaines de sensibilisation, qui sont des périodes prévisibles et récurrentes pendant lesquelles des discours d’intérêt public pourraient être retirés à tort. En tant qu’entreprise mondiale, Meta devrait élaborer un calendrier des périodes mondiales de sensibilisation et l’utiliser pour ajuster ses pratiques de mise en application.

Des outils adéquats sont nécessaires, et les utilisateurs doivent pouvoir fournir des informations supplémentaires dans leurs appels afin d’améliorer l’examen des appels et de réduire les erreurs de mise en application. Le Conseil s’inquiète du fait que, dans les deux cas, les examinateurs chargés de l’examen secondaire n’aient pas pu mener à bien leur examen en raison d’erreurs de chargement du contenu dans les outils internes. Bien qu’un autre examinateur ait déjà conclu que les deux publications n’étaient pas en infraction, la décision initiale de supprimer les deux publications a été appliquée. Meta devrait fournir des outils adéquats pour un examen manuel initial et un examen des appels holistiques pour tous les types de contenu et toutes les fonctionnalités du produit, y compris les carrousels de photos.

Décision du Conseil de surveillance

Le Conseil de surveillance annule la décision initiale de Meta de retirer le contenu.

Le Conseil recommande également à Meta ce qui suit :

  • Communiquer les mesures spécifiques qu’elle prend pour éviter une mise en application excessive des règles relatives au contenu pendant les périodes de sensibilisation et d’indiquer si ces mesures diffèrent de celles appliquées à d’autres moments dans le cadre de la mise en application de ces règles.

Le Conseil rappelle l’importance de ses recommandations précédentes concernant l’évaluation du taux de précision des examinateurs, et recommande à Meta ce qui suit :

  • Procéder à des évaluations régulières du taux de précision des examinateurs.
  • Améliorer ses rapports de transparence en permettant de consulter ce taux par pays et par langue pour chaque Standard de la communauté en augmentant le nombre d’informations sur les taux d’erreurs mises à la disposition du public.

* Les résumés de cas donnent un aperçu des cas et n’ont pas valeur de précédent.

Décision complète sur les cas

  1. Description des cas et contexte

Cette décision concerne deux cas aux États-Unis impliquant des publications en anglais comportant plusieurs images, ce que Meta appelle un « carrousel de photos ». Les deux publications comportaient une légende et des hashtags fréquemment utilisés à des fins de sensibilisation et ont été partagées pendant la semaine de sensibilisation aux troubles de l’alimentation, séparément, en 2023 et 2025.

Dans le premier cas, un utilisateur d’Instagram a publié un carrousel de photos comprenant des photos de l’utilisateur. La légende évoquait l’expérience personnelle de l’utilisateur en matière de troubles de l’alimentation, son désir de sensibiliser les gens à ces troubles, sa gratitude pour le soutien reçu et comprenait des hashtags de sensibilisation aux troubles de l’alimentation et relatifs à la semaine de sensibilisation aux troubles de l’alimentation.

Dans le deuxième cas, un autre utilisateur d’Instagram, qui se présente comme un professionnel de la santé mentale, a partagé un carrousel de photos comprenant plusieurs images accompagnées d’un texte donnant des conseils sur la manière de parler du poids et de la taille des personnes perçues comme maigres ou en sous-poids. Les images comprenaient des exemples de déclarations inappropriées accompagnées de suggestions alternatives sur la manière d’aborder ces questions avec plus de sensibilité. La troisième image du carrousel conseillait aux gens de ne pas deviner la taille des vêtements d’une personne et d’éviter de faire des commentaires suggérant que les gens pourraient être en train de dépérir. La légende indiquait que, bien que l’utilisateur n’ait pas personnellement souffert d’un trouble de l’alimentation, des personnes lui avaient fait des commentaires sur son poids jugé trop bas. La légende contenait plusieurs hashtags, notamment pour sensibiliser le public aux troubles de l’alimentation et relatifs à la semaine de sensibilisation aux troubles de l’alimentation.

En mars 2025, plus de deux ans après sa publication, les systèmes automatisés de Meta ont identifié la première publication comme potentiellement en infraction et l’ont fait remonter pour un examen manuel. De même, fin février 2025, au lendemain de la publication du deuxième carrousel, les systèmes automatisés de Meta ont identifié la troisième image comme potentiellement en infraction et l’ont fait remonter pour un examen manuel. Les examinateurs ont déterminé que les deux publications enfreignaient la politique de Meta relative au suicide, à l’automutilation et aux troubles de l’alimentation. Pour la première publication, l’ensemble du carrousel de photos était visible par l’examinateur, tandis que pour la deuxième publication, seule la troisième image du carrousel était visible.

Meta a supprimé la première publication dans son intégralité et la troisième image de la deuxième publication, laissant le reste du carrousel sur Instagram. L’utilisateur qui a publié la première publication n’a pas été pénalisé, car l’examinateur a estimé que le contenu était partagé dans un contexte promotionnel « positif ». Le deuxième utilisateur a été sévèrement pénalisé et s’est vu imposer une restriction de 30 jours, l’empêchant de passer en direct et de publier des publicités, car l’examinateur a estimé que la publication était partagée dans un contexte promotionnel « encourageant ». Dans ses observations soumises au Conseil, Meta a déclaré faire la distinction entre les contenus qui « encouragent » les troubles de l’alimentation, soit explicitement, soit par des moyens tels que la fourniture d’instructions, et les contenus qui parlent « positivement » d’un trouble de l’alimentation, sans encourager les autres à adopter un comportement alimentaire déséquilibré. Les deux types de contenus sont susceptibles d’être supprimés, mais seul le premier entraîne une sanction.

Les deux utilisateurs ont fait appel des décisions de Meta. Lors du premier examen de chaque publication, les examinateurs ont conclu qu’elles n’étaient pas en infraction. Les publications ont ensuite été soumises à un deuxième examen, mais les examinateurs suivants n’ont pas pu mener à bien leur examen, car les images ne se chargeaient pas dans l’outil d’examen interne. Bien que les premiers examinateurs aient déjà conclu que les deux publications n’étaient pas en infraction, Meta a maintenu ses décisions initiales de suppression. Les utilisateurs ont fait appel de ces décisions auprès du Conseil.

Lorsque le Conseil a sélectionné ces cas, les experts en la matière de Meta ont réexaminé les publications et ont conclu qu’elles avaient été partagées dans des contextes n’entraînant pas une infraction. L’entreprise est revenue sur ses décisions initiales, a restauré les deux publications dans leur intégralité et a annulé la sanction infligée au compte du deuxième utilisateur.

2. Soumissions de l’utilisateur

Les utilisateurs qui ont fait appel auprès du Conseil ont expliqué qu’ils souhaitaient sensibiliser le public aux troubles de l’alimentation et à leur guérison. Le premier utilisateur a souligné qu’il avait partagé une histoire personnelle sans aucune image explicite. Le deuxième utilisateur a déclaré avoir opposé des expressions blessantes à des conseils sur la manière de communiquer avec plus de sensibilité.

3. Politiques de Meta relatives au contenu et soumissions

I. Politiques de Meta relatives au contenu

La politique relative au suicide, à l’automutilation et aux troubles de l’alimentation interdit aux utilisateurs « de glorifier ou de promouvoir volontairement ou non le suicide, l’automutilation ou les troubles de l’alimentation », mais permet de « partager ses expériences, sensibiliser à ces fléaux et rechercher un soutien mutuel ».

Il est permis de mentionner par écrit ou verbalement le suicide, l’automutilation ou les troubles de l’alimentation, mais seuls les adultes âgés de 18 ans et plus peuvent voir le contenu, et Meta envoie des ressources aux auteurs des publications en question. Les directives internes de Meta à l’intention des examinateurs n’autorisent ce type de contenu que s’il ne contient pas d’images explicites d’automutilation.

La justification de la Politique indique que le contenu relatif au rétablissement après une tentative de suicide, un acte d’automutilation ou un trouble de l’alimentation est autorisé. Selon les directives internes, un contenu est considéré comme relevant du rétablissement s’il contient une déclaration claire indiquant que l’utilisateur a souffert ou se remet d’un trouble de l’alimentation passé. Les directives internes précisent que les contenus relatifs à des troubles de l’alimentation passés sont autorisés s’ils indiquent clairement le rétablissement et ne contiennent pas d’images explicites ou de plaies cicatrisées.

Les directives internes autorisent également les contenus créés comme ressources de soutien pour les victimes de troubles de l’alimentation, à condition qu’ils ne contiennent pas d’images d’automutilation. Les ressources de soutien sont définies comme le partage d’informations sur les options de traitement, y compris les thérapies et les programmes d’hospitalisation, les coordonnées des lignes d’assistance téléphonique, les noms des organisations et des sites web offrant un soutien, et l’encouragement à consulter un médecin ou un professionnel.

II. Soumissions de Meta

Après que le Conseil a sélectionné ces cas, Meta a conclu qu’aucune des deux publications n’enfreignait le Standard de la communauté relatif au suicide, à l’automutilation et aux troubles de l’alimentation.

Meta a estimé que la première publication présentait des images non explicites de l’utilisateur et décrivait son expérience personnelle des troubles de l’alimentation de manière non explicite. Meta a observé que la publication avait été faite pendant la semaine de sensibilisation aux troubles de l’alimentation et qu’elle contenait une légende visant à sensibiliser le public au rétablissement après des troubles de l’alimentation.

Meta a déterminé que la deuxième publication ne faisait pas la promotion ni n’encourageait les troubles de l’alimentation. Au contraire, le contenu visait à « fournir des ressources utiles aux personnes souffrant de troubles de l’alimentation et à leurs proches afin d’encourager une discussion réfléchie et productive ».

Le Conseil a posé 14 questions à Meta sur les modalités et la mise en application du Standard de la communauté relatif au suicide, à l’automutilation et aux troubles de l’alimentation. Meta n’a répondu à aucune des questions du Conseil.

4. Commentaires publics

Le Conseil de surveillance a reçu quatre commentaires publics répondant aux critères de soumission. Trois commentaires provenaient des États-Unis et du Canada et un de la zone Asie-Pacifique et Océanie. Pour consulter les commentaires publics soumis accompagnés d’un consentement à la publication, cliquez ici.

Les soumissions portaient sur les thèmes suivants : les approches permettant de distinguer et de marquer les contenus encourageant les troubles de l’alimentation par rapport à ceux axés sur le rétablissement, les études sur les effets du partage ou de la réception d’informations ou de ressources sur les troubles de l’alimentation sur les réseaux sociaux, l’importance de donner la priorité aux contenus liés aux troubles de l’alimentation pour l’examen manuel et la prise en compte d’approches alternatives au-delà de la suppression de contenu.

5. Analyse du Conseil de surveillance

Le Conseil a sélectionné ces cas afin d’évaluer la manière dont les politiques et les pratiques de mise en application de Meta traitent les contenus de sensibilisation ou les ressources d’aide liés aux troubles de l’alimentation et à leur guérison. Ces cas tombent sous le coup de la priorité du Conseil intitulée « Application automatisée des politiques et de la curation de contenu ».

Le Conseil a analysé les décisions de Meta dans les cas présents et les a comparées à ses politiques relatives au contenu, à ses valeurs et à ses responsabilités en matière de droits humains. Il a également évalué les implications de ce cas-ci sur l’approche plus globale de la gouvernance du contenu par Meta.

5.1 Respect des politiques de Meta relatives au contenu

Règles relatives au contenu

Le Conseil estime que les publications n’enfreignaient pas le Standard de la communauté relatif au suicide, à l’automutilation et aux troubles de l’alimentation et avaient été réalisée dans le but de sensibiliser et de fournir des ressources utiles sur les troubles de l’alimentation.

La première publication contient un témoignage personnel sur la guérison d’un trouble de l’alimentation. La publication d’un témoignage de guérison pendant la semaine de sensibilisation aux troubles de l’alimentation, accompagnée de hashtags de sensibilisation dans la légende, indique clairement que l’utilisateur souhaitait sensibiliser le public à la guérison des troubles de l’alimentation. Par conséquent, cette publication relève de l’exception relative à la sensibilisation prévue par la politique relative au suicide, à l’automutilation et aux troubles de l’alimentation.

Concernant la deuxième publication, l’utilisateur, qui se présente comme un professionnel de la santé mentale, a partagé des conseils sur la manière de parler du poids et de la taille des personnes perçues comme maigres ou en sous-poids. Dans la troisième image, l’utilisateur opposait sans ambiguïté les expressions blessantes à des conseils sur la manière de communiquer de manière plus réfléchie. Même isolément, il est difficile de comprendre comment cette image aurait pu être considérée comme une infraction. Le fait de partager cette publication pendant la semaine de sensibilisation aux troubles de l’alimentation, associée à des hashtags de sensibilisation et à des explications dans la légende, confirme en outre que l’utilisateur partageait des conseils et des ressources de soutien.

5.2. Respect des responsabilités de Meta en matière de droits humains

Le Conseil estime que la suppression du contenu n’était pas conforme aux responsabilités de Meta en matière de droits de l’homme.

Liberté d’expression (article 19 du PIDCP)

L’article 19 du Pacte international relatif aux droits civils et politiques (PIDCP) prévoit de nombreuses protections pour la liberté d’expression. Ce droit inclut la « liberté de rechercher, de recevoir et de répandre des informations et des idées de toute espèce ». L’accès aux informations est un élément clé de la liberté d’expression. L’article 12 du Pacte international relatif aux droits économiques, sociaux et culturels (PIDESC) garantit le droit à la santé, y compris le droit de jouir d’une éducation et d’accéder à des informations liées à la santé (PIDESC, article 12 ; Comité des droits économiques, sociaux et culturels, observation générale n° 14 [2000], paragraphe 3).

Lorsque des restrictions de la liberté d’expression sont imposées par un État, elles doivent remplir des critères de légalité, d’objectif légitime, ainsi que de nécessité et de proportionnalité (article 19, paragraphe 3 du PIDCP). Ces exigences sont souvent reprises sous l’intitulé « test tripartite ». Le Conseil s’appuie sur ce test afin d’interpréter les responsabilités de Meta en matière de droits humains conformément aux Principes directeurs relatifs aux entreprises et aux droits de l’homme des Nations unies (ONU), que Meta elle-même s’est engagée à respecter dans sa Politique relative aux droits humains. Le Conseil utilise ce test à la fois pour la décision relative au contenu en cours d’examen et pour ce que cela dit de l’approche plus large de Meta en matière de gouvernance du contenu. Comme l’a déclaré le Rapporteur spécial de l’ONU sur la liberté d’expression, même si « les entreprises ne sont pas soumises aux mêmes devoirs que les gouvernements, leur influence est néanmoins telle qu’elle doit les inciter à se poser les mêmes questions qu’eux quant à la protection de la liberté d’expression de leurs utilisateurs » (A/74/486, paragraphe 41).

I. Légalité (clarté et accessibilité des règles)

Le principe de légalité prévoit que les règles qui limitent la liberté d’expression soient accessibles, claires et suffisamment précises pour permettre à un individu d’adapter son comportement en conséquence (Observation générale n° 34, paragraphe 25). En outre, ces règles « ne peu[ven]t pas conférer aux personnes chargées de [leur] application un pouvoir illimité de décider de la restriction de la liberté d’expression » et doivent « énoncer des règles suffisamment précises pour permettre aux personnes chargées de leur application d’établir quelles formes d’expression sont légitimement restreintes et quelles formes d’expression le sont indûment » (Ibid.). Le Rapporteur spécial des Nations Unies sur la liberté d’expression a déclaré que lorsqu’elles s’appliquent aux acteurs privés, les règles régissant le discours en ligne devaient être claires et précises (A/HRC/38/35, paragraphe 46). Les personnes qui utilisent les plateformes de Meta doivent pouvoir accéder aux règles et les comprendre, et les équipes d’examen de contenu doivent disposer de conseils clairs sur leur application.

Le Conseil estime que les règles relatives à l’admission et au rétablissement des troubles de l’alimentation sont suffisamment claires pour s’appliquer à ces cas.

II. Objectif légitime

Toute restriction de la liberté d’expression doit également poursuivre un ou plusieurs des objectifs légitimes listés dans l’article 19, paragraphe 3 du PIDCP). Dans ces cas-ci, le Conseil estime que le standard de la communauté relatif au suicide, à l’automutilation et aux troubles de l’alimentation concernant le contenu sur les troubles de l’alimentation répond à l’objectif légitime de protéger la santé publique et de respecter les droits d’autrui à la santé physique et mentale, en particulier ceux des jeunes et des adolescents (article 12 du PIDESC, article 19 de la CIDE, observation générale n° 13, [2011], paragraphe 28, observation générale n° 15, [2013], paragraphe 84, voir aussi Régime à base de jus de fruits).

III. Nécessité et proportionnalité

Conformément à l’article 19(3) du PIDCP, le principe de nécessité et de proportionnalité requiert que les restrictions de la liberté d’expression soient « appropriées pour remplir leur fonction de protection, elles doivent constituer le moyen le moins perturbateur parmi ceux qui pourraient permettre d’obtenir le résultat recherché et elles doivent être proportionnées à l’intérêt à protéger » (observation générale n° 34, paragraphe 34).

Sans les réponses de Meta aux questions du Conseil dans ces cas, la capacité du Conseil à examiner en profondeur les erreurs de mise en application et à fournir des directives plus spécifiques sur les responsabilités de Meta en matière de droits humains, en particulier celles liées au contenu de sensibilisation ou au contenu fournissant des ressources de soutien, était limitée. Le retrait de ces publications n’était clairement ni nécessaire ni proportionné pour protéger la santé publique. Les deux publications contenaient des signaux sans équivoque indiquant que les utilisateurs partageaient des contenus de sensibilisation et de soutien pendant la semaine de sensibilisation aux troubles de l’alimentation.

Le Conseil a précédemment déclaré que, pour démontrer que Meta avait choisi les moyens les moins intrusifs pour atteindre un objectif légitime, l’entreprise devait prendre en compte les questions suivantes : (1) si l’objectif d’intérêt public pouvait être atteint au moyen de mesures qui n’empiètent pas sur le discours ; (2) dans le cas contraire, si, parmi les mesures qui portent atteinte à la liberté d’expression, la plateforme a choisi la mesure la moins intrusive ; et (3) si la mesure choisie contribue réellement à la réalisation de l’objectif légitime (Allégations sur un remède au covid, citation A/74/486, paragraphe 52). L’examen de ces questions dans le cadre de ces cas met en évidence trois domaines à améliorer pour que Meta respecte son engagement en matière de liberté d’expression en ne recourant pas à des suppressions de discours qui ne sont pas nécessaires : la préparation à des périodes de sensibilisation récurrentes à l’échelle mondiale, la visibilité du contenu de sensibilisation, et l’amélioration du processus d’examen des appels. Les améliorations apportées dans chacun de ces domaines aident Meta à montrer qu’elle utilise le cadre du Rapporteur spécial des Nations unies pour démontrer qu’elle prend des mesures de diligence raisonnable afin d’éviter de supprimer inutilement des propos de ses plateformes.

Préparation aux événements de sensibilisation et précision de la mise en application

Ces cas soulèvent des questions quant à la préparation de Meta aux semaines périodiques de sensibilisation du public qui suscitent un engagement accru, notamment quant à savoir si Meta tire suffisamment parti des évaluations de la précision de la mise en application pour aider l’entreprise à améliorer sa préparation à ces périodes récurrentes.

Les événements de sensibilisation sont des périodes dédiées à l’information du public sur des questions d’importance publique. Ces événements offrent une occasion privilégiée de mieux faire comprendre, de partager des informations, d’attirer l’attention et de susciter le soutien grâce, entre autres, à l’engagement communautaire, à l’éducation et à des efforts de collecte de fonds. Les réseaux sociaux sont l’un des moyens les plus importants permettant aux gens de communiquer et de s’exprimer librement. Les erreurs de mise en application qui restreignent les contenus de sensibilisation ou le partage de ressources entravent négativement ces conversations et ces occasions. C’est particulièrement le cas lorsque, comme dans le deuxième cas, des sanctions et des restrictions de compte sont imposées aux utilisateurs qui publient des messages, les empêchant de participer ouvertement à ces conversations pendant ces périodes importantes.

Meta devrait donc s’efforcer de veiller à ce que ses politiques relatives à la plateforme et ses pratiques de mise en application soient appropriées lors des événements de sensibilisation. Cela inclut les événements à caractère local et mondial, tels que la sensibilisation aux troubles de l’alimentation ou au cancer du sein, entre autres.

Dans le cadre de son enquête sur ce cas, le Conseil a recherché dans la bibliothèque de contenu de Meta des publications relatives à la sensibilisation aux troubles de l’alimentation et à la guérison sur Instagram entre 2023 et 2025. Le Conseil a analysé un échantillon représentatif de plus de 18 000 publications, qui ne comprenait que les publications visibles sur la plateforme. Cette analyse a révélé des pics constants dans le volume de ce type de contenu pendant la semaine de sensibilisation aux troubles de l’alimentation, indiquant une tendance récurrente à l’augmentation de l’engagement des utilisateurs pendant ces périodes. Plus de la moitié des publications encourageaient le public à partager du contenu ou à participer à des événements de sensibilisation. Les autres publications concernaient principalement des personnes partageant leur expérience des troubles de l’alimentation, notamment des récits personnels sur le diagnostic, la lutte et la guérison, ainsi que des publications proposant des conseils thérapeutiques. Cela montre qu’il est important pour l’entreprise d’être attentive à ces événements de sensibilisation et de s’y préparer.

Le Conseil a évalué le degré de préparation de Meta à d’autres périodes d’engagement accru impliquant des discussions d’intérêt public et des moments de sensibilisation associés à des campagnes de santé publique. Par exemple, le Conseil a examiné 15 publications visant à sensibiliser le public au cancer du sein, partagées pendant le mois de la sensibilisation au cancer du sein en 2024. Le Conseil a demandé à Meta de poursuivre ses efforts pour mettre en œuvre les recommandations du Conseil issues de la décision Symptômes du cancer du sein et nudité afin de prévenir et de corriger les erreurs et de continuer à améliorer sa capacité à détecter avec précision les contenus qui relèvent des exceptions à la politique relative à la nudité et aux activités sexuelles chez les adultes.

Le Conseil a également souligné la nécessité pour Meta de mettre en place des mécanismes permettant d’évaluer l’efficacité des efforts déployés pour faire respecter ses politiques lors d’autres périodes où il est particulièrement important de veiller à une mise en application rigoureuse, comme les élections. En réponse aux recommandations formulées la décision Discours d’un général brésilien, Meta a élaboré un cadre permettant d’évaluer les efforts de l’entreprise en matière d’intégrité électorale, en établissant huit piliers fondamentaux, notamment des processus de gestion des risques électoraux, la coopération avec des parties prenantes externes et des outils visant à soutenir l’engagement civique (voir l’annexe du rapport semestriel H1 de 2025).

Alors que des efforts devraient être mis en place au quotidien afin de préserver le contenu de sensibilisation, Meta devrait renforcer sa préparation aux semaines de sensibilisation, qui sont des périodes prévisibles et récurrentes pendant lesquelles des discours d’intérêt public pourraient être retirés à tort. En tant qu’entreprise mondiale, Meta devrait élaborer un calendrier des périodes mondiales de sensibilisation et l’utiliser pour ajuster ses pratiques de mise en application. Les mesures spécifiques à prendre pendant ces périodes pourraient inclure la mise en place de procédures visant à surveiller activement les contenus liés aux troubles de l’alimentation pendant ces périodes de sensibilisation, le suivi des hashtags de campagne afin de réduire les suppressions injustifiées de publications de soutien ou la mise en œuvre d’un processus d’examen accéléré pour les recours liés à des violations en rapport avec des événements de sensibilisation. D’autres mesures pourraient inclure la surveillance des données en temps réel afin de détecter les pics de suppressions erronées.

Le Conseil a déjà abordé cette question dans plusieurs cas relevant de différents domaines politiques, soulignant l’importance de procéder périodiquement à des audits sur la précision. Cela permet à l’entreprise d’évaluer et de rendre compte de l’exactitude des évaluateurs et d’utiliser ces résultats pour éclairer ses opérations d’application et l’élaboration de ses politiques. Cela est particulièrement important en ce qui concerne l’application des politiques pertinentes avant et après les périodes de sensibilisation spécifiques. La mise en application intégrale des recommandations pertinentes antérieures du Conseil (voir ci-dessous) concernant l’exactitude par les examinateurs et les erreurs de mise en application est nécessaire pour que Meta garantisse la préservation des discours de sensibilisation, ce qui peut contribuer à lutter contre les discours préjudiciables liés aux troubles de l’alimentation et à leur guérison. Le Conseil exhorte également Meta à communiquer les mesures spécifiques qu’elle prend pour éviter une mise en application excessive des règles relatives au contenu pendant les périodes de sensibilisation en indiquant si ces mesures diffèrent de celles appliquées à d’autres moments dans le cadre de la mise en application de ces règles. Cela est important non seulement pour sensibiliser le public aux troubles de l’alimentation et à leur guérison, mais aussi pour d’autres périodes d’engagement public axées sur la prévention des préjudices et la sensibilisation.

Le Conseil a demandé à plusieurs reprises à Meta d’évaluer régulièrement le taux d’exactitude des examinateurs et de communiquer la manière dont ces résultats contribueraient à améliorer l’élaboration et la mise en application des politiques (voir p. ex. Demande d’Adderall®, recommandation n° 3). En réponse, Meta a déclaré qu’elle « collectait et évaluait déjà des données sur la base des retraits et des restaurations » et qu’elle « rendait compte du nombre de contenus faisant l’objet d’un appel et de contenus restaurés sur Facebook et Instagram dans [son] rapport sur l’application des Standards de la communauté » (voir mise à jour trimestrielle de Meta concernant le Conseil de surveillance pour le troisième trimestre 2023). Le Conseil estime que cette recommandation a été omise ou reformulée, car les indicateurs de suppression et de restauration liés aux appels des utilisateurs mentionnés par Meta ne sont pas les mêmes que les indicateurs de précision des examinateurs mentionnés dans la recommandation. Le Conseil note également que l’entreprise n’a pas indiqué comment les données qu’elle collecte contribuent à l’amélioration des opérations d’application et à l’élaboration des politiques.

Le Conseil appelle également Meta à partager davantage d’informations avec le public au sujet du taux d’erreurs de modération en ajoutant ce taux par pays, par langue et par standard de la communauté dans ses rapports de transparence ( Inquiétude pendjabie concernant le RSS en Inde, recommandation nº 3). En réponse, Meta a communiqué de manière confidentielle au Conseil un résumé des données relatives à la mise en application, qui comprend « un aperçu des données relatives à la précision de la mise en application » (voir l’annexe du rapport semestriel H1 de 2025). Le Conseil considère cette recommandation comme omise ou reformulée. Les données communiquées par Meta ne constituent pas des rapports de transparence plus détaillés sur les taux d’erreur, consultables par pays et par langue pour chaque Standard de la communauté. Le Conseil demande à nouveau à ce que des rapports de transparence plus détaillés aident le public à détecter les endroits où les erreurs sont les plus fréquentes, y compris les répercussions spécifiques susceptibles de toucher les groupes minoritaires, et à alerter Meta pour que l’entreprise y remédie.

Visibilité du contenu de sensibilisation

Le Conseil s’inquiète des répercussions potentielles sur la visibilité des contenus de sensibilisation, déjà limités aux utilisateurs adultes.

Sans les réponses de Meta aux questions du Conseil dans ces cas, la capacité du Conseil à examiner les répercussions des autres mesures de modération du contenu, au-delà des suppressions, sur le contenu visant à sensibiliser ou à partager du contenu de soutien sur les troubles alimentaires était limitée.

Le Conseil a appris que ces interventions alternatives s’accompagnent souvent de restrictions quant à la visibilité du contenu. Par exemple, les contenus jugés faux ou modifiés par des médias de vérification tiers sont rétrogradés, ce qui signifie qu’ils apparaissent plus bas dans les fils d’actualité des utilisateurs (voir, p. ex.Vidéo modifiées du président Biden, Publications soutenant les émeutes au Royaume-Uni). De même, lorsqu’un contenu est masqué par un écran d’avertissement, il est supprimé des recommandations faites aux utilisateurs qui ne suivent pas le compte qui a publié le message (voir, p. ex. Hôpital Al-Shifa, Otages enlevés en Israël,Assassinat d’un candidat dans le cadre des élections municipales au Mexique).

Si Meta autorise les utilisateurs à utiliser ses plateformes pour se soutenir mutuellement et partager des ressources utiles sur les troubles de l’alimentation et leur guérison, ses systèmes ne doivent pas empêcher ces contenus d’atteindre leur public cible, en particulier lorsque ces contenus ne sont visibles que par des utilisateurs adultes. Par exemple, le Conseil a précédemment estimé que l’exclusion des recommandations de contenus de sensibilisation placés derrière un écran d’avertissement et visibles uniquement par les personnes âgées de plus de 18 ans ne constituait pas une restriction nécessaire ou proportionnée à la liberté d’expression (Hôpital Al-Shifa, Otages enlevés en Israël).

Examen de l’appel

Ces cas mettent en évidence la nécessité de mettre à disposition des outils adéquats et de permettre aux utilisateurs de fournir des informations supplémentaires dans leurs appels afin d’améliorer l’examen des appels et de réduire les erreurs de mise en application.

Il est préoccupant que, lors de l’appel, les examinateurs secondaires dans les deux cas n’aient pas pu terminer l’examen des carrousels, car les images ne se chargeaient pas dans l’outil interne des examinateurs. Bien qu’un autre examinateur ait déjà conclu que les deux publications n’étaient pas en infraction, la décision initiale de supprimer les deux publications a quand même été appliquée.

Sans les réponses de Meta aux questions du Conseil dans ces cas, la capacité du Conseil à comprendre les causes des erreurs d’application, si et quand le dysfonctionnement de l’outil a été corrigé, ainsi que la nature et l’ampleur de ses conséquences sur le contenu publié pendant la semaine de sensibilisation aux troubles de l’alimentation, était limitée. Meta devrait s’assurer de disposer de systèmes permettant de corriger rapidement tout problème au sein des outils qu’elle fournit à ses examinateurs.

6. Décision du Conseil de surveillance

Le Conseil de surveillance annule la décision initiale de Meta de retirer le contenu dans les deux cas examinés.

7. Recommandations

Transparence

  1. Meta devrait communiquer les mesures spécifiques qu’elle prend pour éviter une mise en application excessive des règles relatives au contenu pendant les périodes de sensibilisation, comme la semaine de sensibilisation aux troubles de l’alimentation, et indiquer si ces mesures diffèrent de celles appliquées à d’autres moments dans le cadre de la mise en application de ces règles.

Le Conseil considérera cette recommandation comme mise en œuvre lorsque Meta aura communiqué les mesures concrètes prises pour éviter toute mise en application excessive concernant les périodes de sensibilisation.

Le Conseil rappelle également l’importance de ses recommandations précédentes concernant l’évaluation du taux de précision des examinateurs. Conformément à ces recommandations, Meta devrait :

  • Procéder à des évaluations régulières des taux de précision des examinateurs (Demande d’Adderall®, recommandation n° 3).
  • Améliorer ses rapports de transparence en permettant de consulter ce taux par pays et par langue pour chaque Standard de la communauté en augmentant le nombre d’informations sur les taux d’erreurs mises à la disposition du public (Inquiétude pendjabie concernant le RSS en Inde, recommandation n° 3).

* Note de procédure :

  • Les décisions du Conseil de surveillance sont prises par des panels de cinq membres et approuvées par une majorité du Conseil dans son ensemble. Les décisions du Conseil ne représentent pas nécessairement les opinions de tous les membres.
  • En vertu de sa Charte, le Conseil de surveillance est habilité à examiner les appels déposés par les utilisateurs dont le contenu a été supprimé par Meta, les appels déposés par les utilisateurs ayant signalé un contenu que Meta n’a finalement pas supprimé, et les décisions que Meta lui transmet (article 2, section 1 de la Charte). Le Conseil dispose d’une autorité contraignante pour confirmer ou annuler les décisions de Meta relatives au contenu (article 3, section 5 de la Charte ; article 4 de la Charte). Le Conseil est habilité à émettre des recommandations non contraignantes auxquelles Meta doit répondre (article 3, section 4 de la Charte ; article 4). Lorsque Meta s’engage à donner suite aux recommandations, le Conseil surveille leur mise en œuvre.

Retour aux décisions de cas et aux avis consultatifs politiques