Renversé

Symptômes du cancer du sein et nudité

Le Conseil de surveillance a annulé la décision de Facebook de supprimer une publication d’Instagram.

Type de décision

Standard

Politiques et sujets

Sujet
Santé, Sécurité
Norme communautaire
Nudité et actes sexuels d’adultes

Régions/Pays

Emplacement
Brésil

Plate-forme

Plate-forme
Instagram

Pour lire cette décision en portugais brésilien, cliquez ici.
Para ler a decisão completa em Português do Brasil, clique aqui.

Résumé du cas

Le Conseil de surveillance a annulé la décision de Facebook de supprimer une publication d’Instagram. Une fois le cas présent sélectionné par le Conseil, Facebook a restauré le contenu. Les systèmes automatiques de Facebook avait initialement supprimé la publication, car ils estimaient qu’elle enfreignait le standard de la communauté de l’entreprise relatif à la nudité et aux activités sexuelles chez les adultes. Le Conseil a jugé que la publication était autorisée en vertu d’une exception accordée pour « sensibilisation au cancer du sein » et que la modération automatique de Facebook suscitait dans ce cas-ci d’importantes préoccupations en matière des droits de l’homme.

À propos du cas

En octobre 2020, un utilisateur au Brésil a publié une photo sur Instagram, indiquant en portugais dans le titre que son objectif était de sensibiliser aux symptômes du cancer du sein. L’image était rose et en phase avec l’action « Octobre rose », une campagne internationale de sensibilisation à cette maladie. Huit photographies sur l’image représentaient les symptômes du cancer du sein et étaient accompagnées de descriptions correspondantes. Cinq d’entre elles affichaient des mamelons féminins découverts, tandis que les trois autres photographies représentaient des seins de femme dont les mamelons étaient soit hors cadre, soit couverts par une main. La publication a été supprimée par un système automatique appliquant le standard de la communauté Facebook relatif à la nudité et aux activités sexuelles chez les adultes. Une fois le cas sélectionné par le Conseil, Facebook a déterminé qu’il s’agissait d’une erreur et a restauré la publication.

Principales observations

Dans sa réponse, Facebook a affirmé que le Conseil devrait refuser d’entendre le cas présent. Puisqu’elle a restauré la publication, l’entreprise estimait en effet qu’il n’existait plus aucun désaccord entre l’utilisateur et Facebook au sujet du contenu et que l’examen du cas présent n’avait donc plus lieu d’être.

Le Conseil rejette l’argument de Facebook. La nécessité de désaccord s’applique uniquement au moment où l’utilisateur épuise les voies de recours en interne. Puisqu’un désaccord entre l’utilisateur et Facebook existait à ce moment-là, le Conseil peut entendre le cas.

La décision de Facebook de restaurer le contenu ne rend donc pas le présent cas insignifiant, comme l’entreprise le prétend. En plus de rendre des décisions contraignantes quant à la restauration de certains contenus, le Conseil fournit également aux utilisateurs l’ensemble des raisons pour lesquelles leur publication avait été supprimée. La suppression à tort de cette publication dénote un manque de surveillance manuelle adéquate, ce qui suscite des préoccupations en matière des droits de l’homme. La détection et la suppression de cette publication sont le résultat d’un processus entièrement automatisé. Les systèmes automatiques de Facebook ne sont pas parvenus à reconnaître les mots « cancer du sein » qui apparaissaient en portugais sur l’image, et la publication a été supprimée par erreur. Étant donné que les règles de Facebook traitent les mamelons féminins et masculins différemment, l’utilisation d’un système automatisé imprécis pour appliquer lesdites règles affecte la liberté d’expression des femmes de manière disproportionnée. Cette mise en application qui s’appuie uniquement sur l’automatisation des processus sans surveillance manuelle appropriée nuit également à la liberté d’expression.

Dans le cas présent, l’utilisateur a été informé que sa publication enfreignait les Règles de la communauté Instagram, ce qui induit que le partage de photos représentant des mamelons de femme découverts dans le but de sensibiliser au cancer du sein est interdit. Or, le standard de la communauté Facebook relatif à la nudité et aux activités sexuelles chez les adultes autorise expressément la nudité lorsque l’utilisateur cherche à « sensibiliser à une cause ou à des fins pédagogiques ou sanitaires » et, plus spécifiquement, autorise le partage d’images de mamelons de femme découverts afin d’accroître la « sensibilisation au cancer du sein ». Puisque les Standards de la communauté Facebook s’appliquent à Instagram, la publication de l’utilisateur est couverte par l’exception susmentionnée. La suppression du contenu par Facebook était dès lors incohérente avec ses Standards de la communauté.

Décision du Conseil de surveillance

Le Conseil de surveillance a annulé la décision initiale de Facebook de supprimer le contenu et demande que la publication soit restaurée. Le Conseil note que Facebook a déjà pris des mesures à cet effet.

Le Conseil recommande à Facebook de :

  • informe ses utilisateurs lorsque l’entreprise recourt à la modération automatisée de leur contenu, qu’elle s’assure que ses utilisateurs puissent, dans certains cas, faire appel des décisions automatiques auprès d’un être humain et qu’elle améliore la détection automatique d’images avec texte superposé afin que les publications de sensibilisation aux symptômes du cancer du sein ne soient pas signalées à tort pour examen. Facebook doit également améliorer ses rapports de transparence sur la manière dont l’entreprise utilise la modération automatisée.
  • révise les Règles de la communauté Instagram afin de spécifier que les mamelons de femme peuvent être affichés pour sensibiliser au cancer du sein et de préciser qu’en cas d’incohérences entre les Règles de la communauté Instagram et les Standards de la communauté Facebook, ces derniers prévalent.

*Les résumés de cas fournissent une présentation du cas et n’ont pas valeur de précédent.

Décision complète sur le cas

1. Résumé de la décision

Le Conseil de surveillance a annulé la décision initiale de Facebook de supprimer le contenu et note que Facebook a restauré la publication après que le Conseil a décidé d’entendre le cas présent La décision de Facebook de restaurer le contenu ne prive pas le Conseil de son autorité à entendre le cas.

Le Conseil a jugé que le contenu était autorisé en vertu de l’exception accordée pour la « sensibilisation au cancer du sein » dans le standard de la communauté Facebook relatif à la nudité et aux activités sexuelles chez les adultes.

Le Conseil a émis des avis consultatifs au sujet de la cohérence de contenu entre les règlements respectifs d’Instagram et de Facebook ainsi que sur l’utilisation de la modération automatisée des contenus et sur la transparence de ces pratiques.

2. Description du cas

En octobre 2020, un utilisateur au Brésil a publié une photo sur Instagram, indiquant en portugais dans le titre que son objectif était de sensibiliser aux symptômes du cancer du sein. L’image était rose et en phase avec l’action « Octobre rose », une campagne internationale populaire au Brésil qui vise à sensibiliser au cancer du sein. Les huit photographies qui constituaient l’unique image de la publication représentaient les symptômes de cette maladie et étaient accompagnées des descriptions correspondantes, telles que « rides », « enflures » et « blessures ». Cinq d’entre elles affichaient des mamelons de femme découverts. Les trois autres photographies représentaient des seins de femme dont les mamelons étaient soit hors cadre, soit couverts par une main. L’utilisateur n’a pas commenté davantage cette publication.

La publication a été détectée et supprimée par un classificateur à machine learning, entraîné pour identifier la nudité dans les photographies et appliquer les Standards de la communauté Facebook relatifs à la nudité et aux activités sexuelles chez les adultes, qui concernent également Instagram.

L’utilisateur a fait appel de cette décision auprès de Facebook. Par le passé, Facebook a déclaré publiquement à plusieurs reprises que l’entreprise ne serait pas toujours en mesure de proposer à ses utilisateurs la possibilité de faire appel en raison d’une réduction temporaire de sa capacité de révision provoquée par la COVID-19. En outre, Facebook a annoncé que les appels ne feraient pas tous l’objet d’un examen manuel.

L’utilisateur a envoyé une demande d’examen au Conseil, qui a décidé d’accepter le cas. Suite à la sélection du Conseil et à l’attribution du cas à un jury, Facebook est revenu sur sa décision initiale de supprimer la publication et l’a restaurée en décembre 2020. Facebook affirme que la décision initiale de supprimer la publication est due à l’automatisation des processus de modération et qu’elle a dès lors été identifiée comme une erreur de mise en application des règlements. Toutefois, Facebook n’a pris connaissance de l’erreur que lorsque celle-ci a été portée à son attention par le biais du Conseil.

3. Autorité et champ d’application

Le Conseil jouit de l’autorité nécessaire pour examiner la décision de Facebook en vertu de l’article 2 (Autorité responsable de l’examen) de la Charte du Conseil et peut confirmer ou annuler cette décision en vertu de l’article 3, section 5 (Procédures d’examen : résolution) de la Charte. Facebook n’a pas soumis de raison pour l’exclusion du contenu comme l’exige l’article 2, section 1.2.1 (Contenu indisponible pour l’examen par le Conseil) des Statuts du Conseil, ni indiqué qu’elle considère le cas comme étant inéligible en vertu de l’article 2, section 1.2.2 (Obligations légales) des Statuts.

Alors que Facebook a publiquement salué l’examen de ce cas par le Conseil, l’entreprise a suggéré dans les documents qu’elle a déposés que le Conseil refuse d’entendre le cas présent, considérant qu’il n’avait plus de raison d’être.

Puisque l’entreprise a restauré le contenu, Facebook estime qu’il n’existe plus de désaccord au sujet de sa publication. Or, selon elle, ce désaccord est un critère indispensable pour qu’un cas puisse être entendu, selon l’article 2, section 1 de la Charte du Conseil :

si une personne n’est pas d’accord avec la décision de Facebook et qu’elle a épuisé les voies de recours, une demande d’examen peut être envoyée au Conseil.

Le Conseil n’est pas d’accord avec cette interprétation de la Charte qui, selon lui, requiert un désaccord entre Facebook et l’utilisateur uniquement au moment où ce dernier épuise les voies de recours internes à l’entreprise. Ce critère était bien rempli. La procédure d’examen du Conseil est distincte des processus d’appel internes de Facebook et n’en constitue pas une extension. Que Facebook corrige les erreurs portées à son attention par le Conseil et, ce faisant, exempte les cas d’un examen par ce dernier reviendrait à intégrer à tort le Conseil au processus interne de Facebook et à compromettre l’indépendance du Conseil.

Même si Facebook est revenue sur sa décision et a restauré le contenu, des dommages irréversibles ont été causés dans ce cas-ci. Prise au début du mois de décembre 2020, la décision de Facebook de restaurer le contenu ne compense pas le fait que la publication de l’utilisateur a été supprimée pendant toute la durée de la campagne « Octobre rose ».

Dans ce cas-ci, la restauration du contenu n’est pas le seul objectif du recours qu’offre le Conseil. En vertu de l’article 4 (Mise en application) de la Charte du Conseil et de l’article 2, section 2.3.1 (Mise en application des décisions du Conseil) des Statuts, Facebook s’engage à prendre des mesures concernant les « contenus identiques aux contextes similaires ». Ainsi, l’impact des décisions prises par le Conseil va bien au-delà du contenu du cas présent.

En outre, il est important de parvenir à une décision pleinement motivée, même lorsque Facebook s’y conforme à l’avance. Le Conseil offre aux utilisateurs l’occasion d’être entendus et de recevoir des explications exhaustives sur les raisons qui ont poussé à la suppression inappropriée de leur contenu. Lorsque la suppression des contenus s’effectue exclusivement de manière automatisée, les règles relatives au contenu sont intégrées dans du code et peuvent être considérées comme inséparables de celui-ci et donc auto-applicables. Entendre le cas permet au Conseil d’émettre des avis consultatifs sur la manière dont les pratiques de modération de contenu de Facebook s’appliquent, y compris par le biais de l’automatisation.

Pour ces raisons, le Conseil juge que son autorité à examiner le cas présent n’est pas affectée par la décision de Facebook de restaurer le contenu après que le Conseil a sélectionné le cas. Le Conseil procède à l’examen de la décision initiale de supprimer le contenu.

4. Standards pertinents

Le Conseil a pris les éléments suivants en considération dans sa décision :

I. Règles relatives au contenu de Facebook :

La justification du standard de la communauté relatif à la nudité et aux activités sexuelles chez les adultes stipule que Facebook vise à limiter l’affichage de nudité et d’activités sexuelles parce que certaines personnes « peuvent être sensibles à ce type de contenu » et « pour empêcher le partage de contenus montrant des actes non consentis ou des mineurs ». Les utilisateurs ne doivent pas « publier des images montrant des corps d’adultes réels nus, où la nudité se définit comme [...] des mamelons de femme découverts, sauf lorsqu’il s’agit d’images illustrant [...] des interventions dans le domaine médical (par exemple, mastectomie, sensibilisation au cancer du sein [...]). »

Les Règles de la communauté Instagram stipulent une interdiction générale des mamelons de femme découverts, en précisant quelques exceptions liées à la santé, mais sans inclure spécifiquement la « sensibilisation au cancer du sein ». Les Règles de la communauté renvoient vers les Standards de la communauté Facebook.

II. Valeurs de Facebook :

Les valeurs de Facebook pertinentes dans ce cas sont détaillées dans l’introduction aux Standards de la communauté. La première est la « liberté d’expression », qui est décrite comme « primordiale » :

L’objectif de nos Standards de la communauté a toujours été de créer un espace d’expression et de donner une voix aux personnes. […] Nous souhaitons que les personnes puissent s’exprimer ouvertement sur les sujets qui comptent pour elles, même si d’autres peuvent marquer leur désaccord ou y trouveraient à redire.

Facebook limite la « liberté d’expression » au profit de quatre valeurs. Le Conseil considère que deux de ces valeurs sont pertinentes pour cette décision :

Sécurité : Nous nous engageons à faire de Facebook un endroit sûr. Les formes d’expression menaçantes peuvent intimider, exclure ou réduire au silence et ne sont pas autorisées sur Facebook.

Confidentialité: Nous nous engageons à protéger votre vie privée et vos données personnelles. La confidentialité donne aux personnes la liberté d’être elles-mêmes, et de choisir quand et comment elles partagent du contenu sur Facebook, ce qui facilite la création de liens.

III. Normes internationales relatives aux droits de l’homme :

Les Principes directeurs relatifs aux entreprises et aux droits de l’homme des Nations Unies (PDNU), soutenus par le Conseil des droits de l’homme des Nations Unies en 2011, établissent un cadre de travail volontaire pour les responsabilités relatives aux droits de l’homme des entreprises privées. L’analyse du Conseil dans le cas présent s’est appuyée sur les dispositions de traités des Nations Unies et les directives faisant autorité des mécanismes des droits de l’homme des Nations Unies, dont les suivants :

  • Le droit à la liberté d’expression : l’article 19 du Pacte international relatif aux droits civils et politiques (PIDCP) ; le commentaire général n° 34, Comité des droits de l’homme (2011) (Commentaire général 34) ; les rapports du Rapporteur spécial des Nations unies sur la liberté d’opinion et d’expression : A/HRC/38/35 (2018) ; A/73/348 (2018) et A/HRC/44/49 (2020).
  • Le droit à la santé : l’article 12 du Pacte international relatif aux droits économiques, sociaux et culturels (ICESCR) ; l’observation générale n° 14, Comité des droits économiques, sociaux et culturels, E/C.12/2000/4 (2000).
  • Le droit à un recours effectif : l’article 2 du PIDCP ; l’observation générale n° 31, Comité des droits de l’homme CCPR/C/21/Rev.1/Add. 13 (2004).
  • Le droit à la vie privée : l’article 17 du PIDCP ;
  • Le droit à la non-discrimination : l’article 2 du PIDCP (paragraphe 1) ; l’article 1 de la Convention sur l’élimination de toutes les formes de discrimination à l’égard des femmes (CEDAW).
  • Les droits de l’enfant : l’article 6 de la Convention relative aux droits de l’Enfant (CIDE) ; l’observation générale n° 13, Comité des droits de l’Enfant, CRC/C/GC/13 (2011).

5. Déclaration de l’utilisateur

L’utilisateur déclare que le contenu a été publié dans le cadre de la campagne nationale « Octobre rose » pour la prévention du cancer du sein. Il montre certains symptômes principaux du cancer du sein qui, selon l’utilisateur, sont essentiels pour détecter la maladie tôt et sauver des vies.

6. Explication de la décision de Facebook

Facebook a précisé que la décision initiale de supprimer le contenu constituait une erreur. L’entreprise a expliqué au Conseil que les Standards de la communauté s’appliquent à Instagram. S’il est vrai que les Standards de la communauté interdisent de manière générale les mamelons de femme découverts, ces derniers sont autorisés à « des fins pédagogiques ou sanitaires », y compris pour la sensibilisation au cancer du sein. Facebook a restauré le contenu parce qu’il correspondait à cette exception.

Facebook affirme qu’il est important pour ses valeurs « liberté d’expression » et « sécurité » d’autoriser ce contenu sur la plateforme. L’entreprise déclare que la détection et la décision prise initialement en défaveur de ce contenu étaient entièrement automatisées. Ce processus automatisé n’est pas parvenu à déterminer que le contenu a été clairement publié à des « fins pédagogiques ou sanitaires ». Facebook prétend également que le type de modération à l’origine de la suppression du contenu, qu’il s’agisse d’un processus automatisé ou d’une modération manuelle en interne, n’est pas pertinent dans le cadre de l’examen du cas présent par le Conseil. Facebook aimerait que le Conseil se concentre sur les implications de la modération et non sur la méthode employée.

7. Soumissions de parties tierces

Le Conseil de surveillance a pris 24 commentaires publics en considération pour le cas présent : huit d’Europe, cinq d’Amérique latine et des Caraïbes, et onze des États-Unis et du Canada. Sept d’entre eux ont été envoyés au nom d’une organisation. Un commentaire a été envoyé sans consentement à la publication.

Les soumissions abordaient les thèmes suivants : la question de savoir si la publication était conforme aux valeurs et aux Standards de la communauté Facebook, l’importance de la sensibilisation au cancer du sein pour un diagnose précoce, la critique de l’hypersexualisation et de la censure des mamelons de femme par rapport à ceux d’un homme ; l’influence de Facebook sur la société ; l’hypermodération du contenu engendrée par l’usage de l’automatisation ainsi qu’un avis sur la manière d’améliorer le processus de publication de commentaires publics.

8. Analyse du Conseil de surveillance

8.1 Le respect des règles relatives au contenu de Facebook

La décision de Facebook de supprimer le contenu publié sur Instagram par l’utilisateur n’est pas conforme aux règles relatives au contenu de l’entreprise.

Selon Facebook, les Standards de la communauté s’appliquent à l’ensemble des produits de l’entreprise, y compris à Instagram. Dans ce cas-ci, l’utilisateur a été notifié que son contenu enfreignait les Règles de la communauté Instagram, qui ont été citées à l’utilisateur. Les différences entre ces politiques justifient une analyse séparée.

I. Règles de la communauté Instagram

Les Règles de la communauté « en bref » résument la politique d’Instagram comme suit : « Respectez chaque personne sur Instagram, et ne publiez pas de contenus indésirables ni d’images de nudité. » Considérée seule, cette politique implique que la publication de l’utilisateur enfreint les règles d’Instagram.

La « version détaillée » des Règles de la communauté est plus nuancée. Sous l’en-tête « publiez des photos et des vidéos appropriées pour une audience variée », il est stipulé :

pour un bon nombre de raisons nous n’autorisons pas la nudité sur Instagram [...] Cela inclut également certaines photos de mamelons féminins. En revanche, les photos de cicatrices post-mastectomie et de femmes qui allaitent un enfant sont autorisées.

Cette explication n’autorise pas expressément les photos de mamelons féminins découverts à des fins de sensibilisation au cancer du sein. Même si les Règles de la communauté Instagram fournissent un hyperlien vers le standard de la communauté Facebook relatif à la nudité et aux activités sexuelles chez les adultes, le rapport entre ces deux politiques, y compris laquelle prévaut contre l’autre, n’est pas expliqué.

II. Standards de la communauté Facebook

Le standard de la communauté relatif à la nudité et aux activités sexuelles chez les adultes, sous Contenu répréhensible, stipule que l’affichage de scènes de nudité adulte, définie pour inclure des « mamelons féminins découverts » ainsi que les activités sexuelles, est généralement limité sur la plateforme. Deux raisons en sont données : « certaines personnes au sein de notre communauté peuvent être sensibles à ce type de contenu » et « pour empêcher le partage de contenus montrant des actes non consentis ou des mineurs ».

Le standard de la communauté précise que la nudité adulte consensuelle est autorisée si l’utilisateur indique clairement que le contenu est publié « pour sensibiliser à une cause, ou à des fins pédagogiques ou sanitaires ». La section « Ne publiez pas » du standard de la communauté répertorie « la sensibilisation au cancer du sein » en guise d’exemple de situation liée à la santé où il est acceptable de montrer des mamelons féminins découverts.

Le Conseil estime que la publication de l’utilisateur, bien que montrant des mamelons féminins découverts, correspond exactement à l’exception accordée aux situations liées à la santé à des fins de sensibilisation au cancer du sein. Acceptant l’explication de Facebook selon laquelle les Standards de la communauté s’appliquent à Instagram, le Conseil estime que la publication de l’utilisateur s’y conforme.

La décision de Facebook de supprimer le contenu était donc incohérente avec les Standards de la communauté. Le Conseil reconnaît que Facebook est d’accord avec cette conclusion.

8.2 Conformité avec les valeurs de Facebook

Les valeurs de Facebook sont décrites dans l’introduction des Standards de la communauté, mais il n’y est pas fait directement référence dans les Règles de la communauté Instagram.

La décision de Facebook de supprimer le contenu de l’utilisateur n’était pas conforme aux valeurs de l’entreprise. La valeur « liberté d’expression » comprend clairement les discussions sur des sujets de santé et est particulièrement importante pour sensibiliser aux symptômes du cancer du sein. Les représentations des symptômes précoces de cette maladie sont d’une grande aide pour rendre des informations médicales plus accessibles. Le partage de ces informations contribue à la « sécurité » de toutes les personnes susceptibles de développer ce type de cancer. Aucune indication ne laisse supposer que les photographies comprenaient des images non consensuelles. De ce fait, la « liberté d’expression » n’a pas souffert de la « sécurité » et de la « confidentialité » dans le cas présent.

8.3 Respect des normes internationales relatives aux droits de l’homme

I. Liberté d’expression (article 19 du PIDCP)

La décision de Facebook de supprimer la publication n’était pas non plus conforme aux normes internationales relatives aux droits de l’homme en matière de liberté d’expression (article 19 du PIDCP). Les informations liées à la santé sont particulièrement importantes (A/HRC/44/49, paragraphe 6) et sont en outre protégées en tant que partie intégrante du droit à la santé (article 12 du PIDESC) ; E/C.12/2000/4, paragraphe 11). Au Brésil, où les campagnes de sensibilisation sont cruciales afin de promouvoir le diagnose précoce des cancers du sein, le Conseil met l’accent sur le rapport entre ces deux droits.

Ce droit à la liberté d’expression n’est pas absolu. Lorsqu’elle restreint la liberté d’expression, Facebook doit remplir les critères de légalité, d’objectif légitime ainsi que de nécessité et de proportionnalité. La suppression du contenu par Facebook ne remplit pas la première et la troisième parties de ce test.

a. Légalité

Toute règle restreignant la liberté d’expression doit être claire, précise et accessible par le public (observation générale 34, paragraphe 25). Les Standards de la communauté Facebook autorisent les mamelons de femme dans le cadre de la sensibilisation au cancer du sein, tandis que les Règles de la communauté Instagram ne mentionnent que les cicatrices post-mastectomie. Les utilisateurs d’Instagram ne sont pas non plus informés que les Standards de la communauté Facebook prévalent contre les Règles de la communauté. Cette incohérence et ce manque de clarté sont aggravés par les avis de suppression qui sont envoyés aux utilisateurs et qui ne font référence qu’aux Règles de la communauté. Les règles de Facebook en la matière échouent donc au test de légalité.

b. Objectif légitime

Toute restriction de la liberté d’expression doit avoir un objectif légitime, répertorié dans l’article 19, paragraphe 3 du PIDCP. Facebook affirme que son Standard de la communauté relatif à la nudité et aux activités sexuelles chez les adultes aide à empêcher le partage d’images d’abus d’enfants et de scènes intimes non consensuelles sur Facebook et sur Instagram. Le Conseil note que ces deux catégories de contenus sont interdites en vertu des Standards de la communauté de chaque réseau et qu’elles ne bénéficient pas des exceptions applicables à la nudité adulte consensuelle. Ces objectifs sont cohérents avec la restriction de la liberté d’expression en vertu des standards internationaux relatifs aux droits de l’homme pour protéger « les droits d’autrui » (article 19, paragraphe 3 du PIDCP). Ceux-ci incluent le droit à la vie privée des victimes du partage d’images intimes non consensuelles (article 17 du PIDCP) et les droits de l’enfant à la vie et au développement (article 6 du CIDE), qui sont menacés en cas d’exploitation sexuelle (CRC/C/GC/13, paragraphe 62).

c. Proportionnalité et nécessité

Toutes les restrictions de la liberté d’expression « doivent être appropriées pour remplir leur fonction de protection, elles doivent constituer le moyen le moins perturbateur parmi ceux qui pourraient permettre d’obtenir le résultat recherché et elles doivent être proportionnées à l’intérêt à protéger » (observation générale 34, paragraphe 34).

Le Conseil estime que la suppression non fondée des informations servant un intérêt public ne peut pas être proportionnée.

Le Conseil est préoccupé par le fait que le contenu a été supprimé à tort par un système de modération automatique et, potentiellement, sans examen manuel ou appel possible. Ceci reflète les limites des technologies automatisées lorsqu’il s’agit de comprendre le contexte et de saisir la complexité de la communication humaine dans le cadre de la modération de contenu (Rapporteur spécial des Nations Unies sur la liberté d’expression, A/73/348, paragraphe 15). Dans ce cas-ci, ces technologies ne sont pas parvenues à reconnaître les mots « cancer du sein » qui apparaissent dans l’angle supérieur gauche de l’image en portugais. Le Conseil reconnaît que les technologies automatisées sont essentielles à la détection des contenus qui enfreignent potentiellement les règles. Néanmoins, une modération de contenu qui s’appuie exclusivement sur l’automatisation, en particulier à l’aide de technologies aux capacités de compréhension du contexte limitées, entraîne une hypermodération qui interfère de manière disproportionnée avec la liberté d’expression des utilisateurs.

Le Conseil reconnaît que la modération automatisée peut être nécessaire pour supprimer rapidement les images intimes non consensuelles et les scènes d’abus d’enfants afin d’éviter des dommages immédiats et irréparables. Toutefois, lorsque du contenu est supprimé pour prévenir ces dommages, l’intervention doit être fondée sur les politiques en vigueur relatives à l’exploitation sexuelle, et les utilisateurs ont notifié que leur contenu avait été supprimé à ces fins. Pour autant, les suppressions automatiques doivent être sujettes à une procédure d’examen interne expliquée sous la section 9.2 (I), et un recours à un examen manuel doit être proposé (A/73/348, paragraphe 70), ce qui permet de remédier aux erreurs de modération.

Une modération de contenu automatisée qui ne fournit pas les garanties nécessaires ne représente pas pour Facebook une manière proportionnée de réagir aux formes de nudité adulte enfreignant les règles.

d. Égalité et non-discrimination

Toute restriction de la liberté d’expression doit respecter le principe d’égalité et de non-discrimination (observation générale 34, paragraphe 26 et 32). Plusieurs commentaires publics ont fait valoir que les politiques de Facebook relatives à la nudité chez les adultes sont discriminatoires envers les femmes.

Étant donné que les règles de Facebook traitent les mamelons masculins et féminins différemment, le recours à une automatisation imprécise pour faire appliquer ces règles aura certainement des retombées disproportionnées sur les femmes, ce qui suscite des inquiétudes en matière de discrimination (article 1 du CEDAW ; article 2 du PIDCP). Au Brésil comme dans de nombreux autres pays, la sensibilisation aux symptômes du cancer du sein est cruciale. Dès lors, les actions de Facebook compromettent non seulement le droit des femmes à la liberté d’expression, mais également leur droit à la santé.

II. Le droit au recours (article 2 du PIDCP)

Le Conseil salue le fait que Facebook a restauré le contenu. Toutefois, il n’a pas encore été possible de remédier complètement aux conséquences négatives de cette erreur. La publication, destinée au mois de sensibilisation au cancer du sein (en octobre), n’a été restaurée qu’au début du mois de décembre. La restauration du contenu n’a pas rendu le cas présent insignifiant : puisque le Conseil a sélectionné le cas, l’utilisateur a le droit d’être entendu et de recevoir une décision pleinement motivée.

Le Rapporteur spécial des Nations Unies sur la liberté d’opinion et d’expression a identifié la responsabilité de fournir un recours comme l’un des aspects les plus pertinents des Principes directeurs relatifs aux entreprises et aux droits de l’homme des Nations Unies (UNGP) en ce qui concerne les entreprises qui pratiquent la modération de contenu (A/HRC/38/35, paragraphe 11). S’il n’y avait aucune possibilité d’appel, la surutilisation de la modération automatisée par Facebook ne respecterait pas le droit de l’utilisateur à un recours effectif (article 2 du PIDCP ; CCPR/C/21/Rev.1/Add. 13, paragraphe 15) ou ne lui permettrait pas d’être à la hauteur de ses responsabilités conformément aux Principes directeurs relatifs aux entreprises et aux droits de l’homme des Nations Unies (principes 29 et 31). Le Conseil est particulièrement préoccupé par le fait que Facebook ne dit pas à ses utilisateurs quand elle modère leur contenu par le biais de l’automatisation et par le fait que l’appel à un examen manuel ne soit pas forcément disponible dans tous les cas. Cela reflète une préoccupation majeure quant au manque de transparence de Facebook sur son utilisation de la modération automatisée et aux circonstances dans lesquelles l’appel interne n’est peut-être pas toujours disponible.

9. Décision du Conseil de surveillance

9.1 Décision concernant le contenu

Le Conseil de surveillance a annulé la décision initiale de Facebook de supprimer le contenu et demande que la publication soit laissée en ligne. Le Conseil note que Facebook a déjà pris des mesures à cet effet.

9.2 Avis consultatif sur la politique

I. Automatisation de la modération, transparence et droit à un recours effectif

Le Conseil recommande à Facebook de :

  • améliore la détection automatique d’images avec texte superposé afin d’assurer que les publications de sensibilisation aux symptômes du cancer du sein ne soient pas signalées à tort pour examen.
  • garantisse que les utilisateurs soient notifiés des raisons de la mise en application des politiques relatives au contenu à leur encontre, en leur fournissant notamment la règle spécifique des Standards de la communauté sur laquelle Facebook s’est basée pour prendre sa décision.
  • dise aux utilisateurs quand l’automatisation est utilisée pour appliquer des mesures de modération contre leur contenu, y compris en leur fournissant des descriptions accessibles de ce que cela signifie.
  • garantisse que les utilisateurs puissent faire appel à un examen manuel en cas de décisions prises par les systèmes automatisés lorsque le contenu est considéré comme ayant enfreint le standard de la communauté Facebook relatif à la nudité et aux activités sexuelles chez les adultes. Lorsque Facebook cherche à prévenir l’exploitation sexuelle des enfants ou la diffusion d’images intimes non consensuelles, elle doit appliquer ses standards de la communauté relatifs à l’exploitation sexuelle des adultes et à l’exploitation sexuelle, à la maltraitance et à la nudité d’enfants au lieu de recourir à des politiques d’hypermodération de la nudité chez les adultes. Les appels doivent toujours être disponibles dans ces cas-là de sorte que les suppressions à tort de contenus de nudité adulte consensuelle puissent être annulées.
  • implémente une procédure d’examen interne pour analyser continuellement un échantillon statistiquement représentatif des décisions de suppression de contenu automatisées afin d’annuler les erreurs de modération et d’en tirer des leçons.
  • élargisse les rapports de transparence pour dévoiler des données sur le nombre de décisions de suppression automatisées par standard de la communauté et sur la proportion de ces décisions qui ont dû être annulées à la suite d’un examen manuel.

Ces recommandations ne doivent pas être mises en pratique d’une manière qui compromettrait le droit à la santé des modérateurs de contenu durant la pandémie de COVID-19.

II. Le rapport entre les Standards de la communauté et les Règles de la communauté :

Le Conseil recommande à Facebook de :

  • revoie l’explication « en bref » des Règles de la communauté Instagram afin de préciser que l’interdiction de nudité d’adultes n’est pas absolue ;
  • revoie la « version détaillée » des Règles de la communauté Instagram afin de préciser que les mamelons de femme visibles peuvent être affichés pour sensibiliser au cancer du sein ;
  • précise que les Règles de la communauté Instagram sont interprétées en phase avec les Standards de la communauté Facebook et que ces derniers prévalent en cas d’incohérences entre les deux politiques.

*Note de procédure :

Les décisions du Conseil de surveillance sont préparées par des jurys de cinq membres et doivent être acceptées par une majorité du Conseil. Elles ne représentent pas nécessairement les opinions personnelles de tous ses membres.

Retour aux décisions de cas et aux avis consultatifs politiques