Décision sur plusieurs affaires

Publications pédagogiques sur l’ovulation

Dans ce résumé de la décision, le Conseil examine deux publications pédagogiques sur l’ovulation. Le Conseil estime que la décision initiale de Meta de supprimer chaque publication rend plus difficile l’accès à un domaine d’informations très stigmatisé sur la santé des femmes. Après que le Conseil a porté ces deux appels à l’attention de Meta, l’entreprise est revenue sur ses décisions initiales et a restauré les deux publications.

2 cas inclus dans ce lot

Renversé

FB-YZ2ZBZWN

Cas de nudité et d’actes sexuels d’adultes sur Facebook

Plate-forme
Facebook
Sujet
Santé,Égalité des sexes et des genres
Standard
Nudité et actes sexuels d’adultes
Emplacement
États-Unis,Pakistan
Date
Publié le 16 novembre 2023
Renversé

IG-F5NPUOXQ

Cas de nudité et d’actes sexuels d’adultes sur Instagram

Plate-forme
Instagram
Sujet
Santé,Égalité des sexes et des genres
Standard
Nudité et actes sexuels d’adultes
Emplacement
Argentine
Date
Publié le 16 novembre 2023

Il s’agit d’un résumé de la décision. Les résumés des décisions examinent les cas où Meta est revenue sur sa décision initiale concernant un élément de contenu après que le Conseil a porté l’affaire à l’attention de l’entreprise. Ces décisions comprennent des informations sur les erreurs reconnues de Meta. Elles sont approuvées par un groupe de membres du Conseil, et non par le Conseil dans son ensemble. Elles ne tiennent pas compte des commentaires publics et n’ont pas valeur de précédent pour le Conseil. Les résumés des décisions assurent la transparence des corrections apportées par Meta et mettent en évidence les domaines dans lesquels l’application de sa politique pourrait être améliorée.

Résumé du cas

Dans ce résumé de la décision, le Conseil examine deux publications pédagogiques sur l’ovulation. Le Conseil estime que la décision initiale de Meta de supprimer chaque publication rend plus difficile l’accès à un domaine d’informations très stigmatisé sur la santé des femmes. Après que le Conseil a porté ces deux appels à l’attention de Meta, l’entreprise est revenue sur ses décisions initiales et a restauré les deux publications.

Description du cas et contexte

Dans le premier cas, le 15 mars 2023, une utilisatrice de Facebook basée aux États-Unis a commenté une publication dans un groupe Facebook. Le commentaire était rédigé en anglais et comprenait une photo de quatre types différents de glaire cervicale et des niveaux de fertilité correspondants, avec une description de chacun d’entre eux superposée à la photo. Ce commentaire répondait à la publication d’une autre personne qui posait des questions sur le SOPK (syndrome des ovaires polykystiques), les problèmes de fertilité et les pertes vaginales. Le contenu n’a pas été vu, ni partagé, et a été signalé une fois par les systèmes automatisés de Meta. Le groupe déclare que son objectif est d’aider les femmes pakistanaises qui souffrent de « pathologies invisibles » liées à la santé reproductive, telles que « l’endométriose, l’adénomyose, le SOPK et d’autres problèmes menstruels », à disposer d’un espace sûr pour discuter des défis auxquels elles sont confrontées et pour se soutenir mutuellement.

Pour le second cas, le 7 mars 2023, une utilisatrice d’Instagram a publié une vidéo montrant la main d’une personne au-dessus d’un évier avec des pertes vaginales sur ses doigts. La légende sous la vidéo est écrite en espagnol et le titre indique : « Ovulation - How to Recognize It? » (Ovulation, comment la reconnaître ?) Le reste de la légende décrit en détail comment la glaire cervicale devient plus claire pendant l’ovulation et à quel moment du cycle menstruel on peut s’attendre à ovuler. Elle décrit également d’autres changements physiologiques auxquels on peut s’attendre lors de l’ovulation, tels qu’une augmentation de la libido et de la température corporelle, ainsi que des difficultés à dormir. La description du compte de l’utilisatrice indique qu’il est dédié à la santé vaginale et vulvaire et à l’éducation sur les règles et la menstruation. Le contenu a été vu plus de 25 000 fois, n’a pas été partagé et a été signalé une fois par les systèmes automatisés de Meta.

Dans les deux cas, Meta a d’abord supprimé chacun des deux contenus en vertu de sa politique relative à la nudité et aux activités sexuelles chez les adultes, qui interdit les « images d’activité sexuelle », sauf « en cas de contexte médical ou sanitaire ». Cependant, Meta a reconnu que les deux contenus relevaient de sa tolérance pour le partage d’images présentant des sous-produits de l’activité sexuelle (qui peuvent inclure des sécrétions vaginales) dans un contexte médical ou de santé et les a restaurés sur chaque plateforme.

Après que le Conseil a porté ces deux cas à l’attention de Meta, l’entreprise a déterminé qu’aucun contenu n’enfreignait le Standard de la communauté relatif à la nudité et aux activités sexuelles chez les adultes et que les suppressions étaient erronées. L’entreprise a ensuite restauré les deux contenus sur Facebook et Instagram respectivement.

Autorité et champ d’application du Conseil

Le Conseil jouit de l’autorité nécessaire pour examiner les décisions de Meta à la suite d’un appel interjeté par l’utilisatrice dont le contenu a été supprimé (article 2, section 1 de la Charte ; article 3, section 1 des Statuts).

Lorsque Meta reconnaît avoir commis une erreur et revient sur sa décision dans un cas soumis à l’examen du Conseil, ce dernier peut sélectionner ce cas pour un résumé de la décision (article 2, section 2.1.3 des Statuts). Le Conseil réexamine la décision initiale afin de mieux faire comprendre le processus de modération des contenus, de réduire les erreurs et d’accroître l’équité pour les utilisateurs de Facebook et d’Instagram.

Importance du cas

Ces cas mettent en évidence les difficultés à faire respecter les tolérances relatives au contenu médical et sanitaire prévues dans les règles de Meta sur la nudité et les activités sexuelles chez les adultes. Comme l’a écrit l’utilisatrice du premier cas dans son appel auprès du Conseil, la compréhension de l’apparence et de la texture de la glaire cervicale aide les femmes à suivre leurs cycles dans le cadre de l’ovulation et de la fertilité. Elle note également que toutes les femmes n’ont pas les moyens ou les ressources nécessaires pour obtenir ces informations auprès d’un médecin, pour acheter des kits d’ovulation ou pour faire des analyses de sang afin de suivre l’ovulation. La décision initiale de Meta de supprimer ce contenu rend plus difficile l’accès à ce qui est déjà un domaine d’informations très stigmatisé sur la santé des femmes.

Précédemment, le Conseil a émis des recommandations concernant la politique relative à la nudité et aux activités sexuelles chez les adultes, dans le but d’éduquer et de sensibiliser à l’information médicale et sanitaire, ainsi que d’améliorer l’application des tolérances définies dans les Standards de la communauté de l’entreprise. Le Conseil a notamment demandé à Meta d’améliorer la détection automatique des images avec du texte superposé afin de s’assurer que les publications de sensibilisation aux symptômes du cancer du sein ne soient pas signalées à tort pour examen (« Symptômes du cancer du sein et nudité », recommandation n° 1) et de veiller à ce que les appels fondés sur des exceptions soient examinés en priorité par des spécialistes (« Meme aux deux boutons », recommandation n° 5). Alors que Meta évalue actuellement la faisabilité de la deuxième recommandation, Meta a terminé son travail sur la première recommandation. Meta a déployé un nouveau classificateur de contenu de santé basé sur l’image et a amélioré un classificateur de superposition de texte existant afin d’optimiser les techniques d’Instagram pour identifier le contenu contextuel du cancer du sein. Pendant 30 jours en 2023, ces améliorations ont contribué à l’envoi pour examen manuel de 3 500 contenus supplémentaires qui auraient été automatiquement supprimés auparavant.

La mise en œuvre intégrale de ces deux recommandations contribuera à réduire le taux d’erreur des contenus supprimés à tort lorsqu’ils sont publiés en vertu d’une tolérance prévue par le Standard de la communauté, par exemple pour sensibiliser ou éduquer les utilisatrices sur divers aspects de la santé reproductive des femmes.

Décision

Le Conseil a annulé la décision initiale de Meta visant à supprimer les deux éléments de contenu. Le Conseil reconnaît que Meta a corrigé son erreur initiale une fois que le Conseil a porté ces cas à l’attention de l’entreprise.

Retour aux décisions de cas et aux avis consultatifs politiques