Renversé
Un journaliste suédois dénonce des violences sexuelles sur mineurs
1 février 2022
Le Conseil de surveillance a annulé la décision de Meta visant à supprimer une publication décrivant des incidents de violence sexuelle envers deux mineures.
Résumé du cas
Remarque : avant de passer à la lecture, veuillez noter que la décision suivante comprend des informations potentiellement sensibles liées à un contenu sur des violences sexuelles envers des personnes mineures.
Le Conseil de surveillance a annulé la décision de Meta visant à supprimer une publication décrivant des incidents de violence sexuelle envers deux mineures. Le conseil a estimé que la publication n’enfreignait pas le Standard de la communauté sur l’exploitation sexuelle, la maltraitance et la nudité d’enfants. Au regard du contexte plus large de cette publication, il est manifeste que l’utilisateur signalait une question d’intérêt général et condamnait l’exploitation sexuelle d’une mineure.
À propos du cas
En août 2019, un utilisateur suédois a publié sur sa page Facebook une photo de stock d’une jeune fille assise, la tête entre les mains, de manière à dissimuler son visage. Cette image était assortie d’une légende en suédois qui décrivait des incidents de violence sexuelle envers deux mineures. La publication donne des détails sur les viols de deux mineures anonymes, leur âge et la ville dans laquelle le premier crime est survenu. L’utilisateur précise également les peines dont les deux auteurs anonymes ont écopé pour leurs crimes.
La publication soutient que le système judiciaire suédois est trop indulgent et incite à la criminalité. L’utilisateur plaide en faveur de la création d’un registre de délinquants sexuels dans le pays. Il cite également des sources dans la section des commentaires de la publication, en identifiant les affaires pénales par les numéros de référence des tribunaux et en fournissant des liens vers la couverture des crimes par les médias locaux.
La publication donne des détails explicites sur les conséquences néfastes que le crime a engendrées sur la première victime. Elle comprend également des citations attribuées à l’auteur, lequel se serait vanté du viol auprès de ses amis et aurait fait référence à la mineure en utilisant des termes sexuellement explicites. Alors que l’utilisateur a publié le contenu sur Facebook en août 2019, Meta l’a supprimé deux ans plus tard, en septembre 2021, en vertu de ses règles sur l’exploitation sexuelle, la maltraitance et la nudité d’enfants.
Principales observations
Le Conseil estime que cette publication n’enfreint pas le Standard de la communauté sur l’exploitation sexuelle, la maltraitance et la nudité d’enfants. La description précise et clinique des séquelles du viol ainsi que l’insertion de la déclaration sexuellement explicite de l’auteur des faits ne constituent pas un langage axé sur l’exploitation sexuelle d’enfants ou sur la représentation d’un mineur dans un « contexte sexualisé ».
Le Conseil conclut également que la publication ne présentait pas un mineur dans un « contexte sexualisé », car au regard du contexte plus large de cette publication, il est manifeste que l’utilisateur signalait une question d’intérêt général et condamnait l’exploitation sexuelle d’une mineure.
Le Conseil constate que Meta ne définit pas des termes clés, tels que « représentation » et « sexualisation », dans ses Standards de la communauté accessibles au public. Par ailleurs, bien que Meta ait déclaré au Conseil qu’elle autorisait le « signalement » du viol et de l’exploitation sexuelle, l’entreprise le l’indique pas dans ses politiques accessibles au public et n’opère pas de distinction entre la « représentation » et le « signalement ». Une recommandation, présentée ci-dessous, aborde ces points.
Il est troublant de constater que Meta a supprimé la publication de la plateforme après deux ans sans fournir d’explication adéquate sur les raisons de cette suppression. Aucune modification substantielle des politiques au cours de cette période n’explique ladite suppression.
Décision du Conseil de surveillance
Le Conseil de surveillance annule la décision de Meta visant à supprimer le contenu et demande à ce que la publication soit restaurée.
En guise d’avis consultatif en matière de politiques, le Conseil recommande à Meta de :
- Définir la sexualisation et la représentation explicite dans le Standard de la communauté sur l’exploitation sexuelle, la maltraitance et la nudité d’enfants. Meta devrait préciser que le langage exprès ne constitue pas toujours une sexualisation ou une représentation explicite. Elle devrait également expliquer la différence qui sépare les termes juridiques, cliniques ou médicaux du contenu explicite. Meta devrait en outre apporter des éclaircissements sur la distinction entre l’exploitation sexuelle d’enfants et le signalement de cette exploitation. Le Conseil considérera la recommandation comme adoptée lorsqu’une définition des termes clés et de la distinction précitée aura été ajoutée au Standard de la communauté.
- Suivre un processus d’élaboration de politiques, en ce compris sous la forme d’une discussion sur le forum de politique, afin de déterminer s’il y a lieu d’intégrer à ses Standards de la communauté une interdiction d’identification fonctionnelle des enfants victimes de violence sexuelle, et comment procéder. Ce processus devrait inclure l’engagement des parties prenantes et des spécialistes sur l’identification fonctionnelle et les droits de l’enfant. Le Conseil considérera cette recommandation comme adoptée lorsque Meta publiera le compte rendu du forum de politique des produits qui a abrité la discussion.
*Les résumés de cas fournissent une présentation du cas et n’ont pas valeur de précédent.
Décision complète sur le cas
1. Résumé de la décision
Le Conseil de surveillance annule la décision de Meta visant à supprimer le contenu de Facebook. La publication relate le viol de deux mineures et emploie des termes explicites pour décrire l’agression et ses conséquences sur l’une des survivantes. Meta a appliqué le Standard de la communauté sur l’exploitation sexuelle, la maltraitance et la nudité d’enfants pour supprimer la publication et a porté le cas devant le Conseil de surveillance. Le Conseil estime que le contenu n’enfreint pas la politique contre les représentations de l’exploitation sexuelle d’enfants et doit dès lors être restauré.
2. Description du cas
En août 2019, un utilisateur suédois a publié sur sa page Facebook une photo de stock d’une jeune fille assise, la tête entre les mains, de manière à dissimuler son visage. L’image était accompagnée d’une légende en suédois qui décrivait des incidents de violence sexuelle envers deux mineures en employant des termes explicites. La publication donne des détails sur les viols de deux mineures anonymes, leur âge et la ville dans laquelle le premier crime est survenu. L’utilisateur précise également les peines dont les deux auteurs anonymes ont écopé pour ces crimes. L’un d’entre eux se serait vu infliger une peine non privative de liberté, car il était mineur au moment de l’infraction. L’autre aurait récemment purgé une peine privative de liberté pour un crime violent envers une autre femme. L’utilisateur soutient que le système judiciaire suédois est trop indulgent et incite à la criminalité. Il plaide en faveur de la création d’un registre de délinquants sexuels dans le pays. Il cite des sources dans la section des commentaires de la publication, en identifiant les affaires pénales par les numéros de référence des tribunaux et en fournissant des liens vers la couverture des crimes par les médias locaux. Au moment de la publication du contenu, les discussions sur les peines applicables aux agressions sexuelles perpétrées à l’encontre de mineurs faisaient partie d’un débat plus large sur la réforme de la justice pénale en Suède. La page Facebook de l’utilisateur se consacre à la publication de contenus sur les auteurs d’abus sexuels sur mineurs et d’appels à la réforme des peines existantes pour les crimes sexuels en Suède.
La publication contient des informations détaillées et explicites sur les conséquences néfastes du crime sur la première victime, notamment en décrivant ses traumatismes physiques et psychologiques, le harcèlement en ligne et hors ligne dont elle a été victime, ainsi que le soutien psychologique qu’elle a reçu. Elle comprend également des citations attribuées à l’auteur, lequel se serait vanté du viol auprès de ses amis et aurait fait référence à la mineure en utilisant des termes sexuellement explicites. La publication indique en effet que l’auteur a déclaré à ses amis que « la fille était “serrée” et a fièrement montré ses mains tachées de sang ».
La publication a été vue environ deux millions de fois, a reçu 2 000 commentaires et a fait l’objet de 20 000 réactions. Selon Meta, le contenu a été partagé sur une page dont les paramètres de confidentialité étaient définis sur le mode public, ce qui signifie que tout le monde pouvait le voir. La page est suivie par environ 100 000 abonnés, dont 95 % se trouvent en Suède.
Entre sa publication en août 2019 et le 1er septembre 2021, huit utilisateurs ont envoyé des avis pour signaler des infractions potentielles pour discours haineux, violence et incitation, et harcèlement et intimidation. Les procédures permettant aux utilisateurs de donner leur avis sur une publication et de signaler une infraction présumée sont distinctes. Les utilisateurs se voient proposer les deux possibilités. Les avis envoient des signaux à Meta qui sont pris en considération dans l’ensemble et peuvent influencer la matière dont le contenu est classé par ordre de priorité dans le fil des utilisateurs. Lorsqu’un utilisateur signale une publication pour une infraction présumée des politiques, la publication est évaluée par Meta afin d’en vérifier la conformité. Un utilisateur a signalé la publication le 5 septembre 2019 pour violation de la politique sur le harcèlement et l’intimidation, ce qui a conduit à un examen automatique qui a considéré que la publication n’était pas en infraction et l’a laissée en ligne. En août 2021, la technologie de Meta a identifié la publication comme potentiellement en infraction. Après un examen manuel, il a été déterminé qu’elle enfreignait la politique sur l’exploitation sexuelle, la maltraitance et la nudité d’enfants, et a été supprimée. Le compte du créateur de contenu a reçu une pénalité entraînant deux limitations distinctes des fonctionnalités. La première empêchait l’utilisateur de lancer un direct sur Facebook, d’utiliser des produits publicitaires, et de créer ou de rejoindre des salons sur Messenger. La seconde, une limitation de 30 jours, empêchait l’utilisateur de créer du nouveau contenu, exception faite des messages privés. À la suite de l’appel de l’utilisateur contre cette décision et d’un examen manuel supplémentaire, la publication n’a pas été restaurée, mais la pénalité associée à la suppression a été annulée. Meta a annulé la pénalité, car elle a estimé que la publication poursuivait l’objectif de sensibiliser son audience. Dans son Espace modération, l’entreprise indique que l’application d’une pénalité « dépend de la gravité du contenu, du contexte dans lequel il a été partagé et du moment de sa publication », mais elle ne mentionne pas explicitement qu’une pénalité peut être annulée ou suspendue si la publication du contenu visait à sensibiliser les lecteurs.
Meta affirme avoir supprimé cinq éléments de contenu de cette page en 2021, tous pour violation de la politique sur l’exploitation sexuelle, la maltraitance et la nudité d’enfants. Trois des publications supprimées ont été restaurées à la suite d’un examen supplémentaire qui a conclu qu’elles avaient été retirées par erreur. Les pénalités associées à ces suppressions ont été annulées au moment de la restauration des publications.
Lorsque la publication du présent cas a été supprimée, Meta a également limité la diffusion de la page et l’a retirée des recommandations. Dans son Espace modération, l’entreprise explique que les pages ou les groupes qui enfreignent les politiques à maintes reprises peuvent être retirés des recommandations et voir leur diffusion limitée. L’espace modération ne précise pas la durée de ces pénalités. Meta a affirmé au Conseil qu’une page était supprimée des recommandations aussi longtemps qu’elle dépasse le seuil de pénalité. Le seuil de pénalité est de trois pénalités pour une infraction classique et d’une pénalité pour une infraction grave (p. ex. une infraction impliquant l’exploitation sexuelle d’enfant, le suicide et l’automutilation, ou le terrorisme).
3. Autorité et champ d’application
Le Conseil est compétent pour examiner les décisions que Meta lui présente pour examen (article 2, section 1 de la Charte ; article 2, section 2.1.1 des Statuts). Le Conseil peut confirmer ou annuler la décision de Meta (article 3, section 5 de la Charte), et ce, de manière contraignante pour l’entreprise (article 4 de la Charte). Meta doit également évaluer la possibilité d’appliquer la décision à un contenu identique dans un contexte parallèle (article 4 de la Charte). Les décisions du Conseil peuvent inclure des avis consultatifs sur la politique avec des recommandations non contraignantes auxquelles Meta doit répondre (article 3, section 4 ; article 4 de la Charte).
4. Standards pertinents
Le Conseil de surveillance a pris les éléments suivants en considération dans sa décision :
I. Standards de la communauté Facebook
La justification de la politique sur l’exploitation sexuelle, la maltraitance et la nudité d’enfants indique que Meta n’autorise pas le contenu qui « exploite sexuellement ou met en danger les enfants ». En vertu de cette politique, Meta supprime tout contenu qui « menace, dépeint, glorifie, soutient, fournit des instructions pour, fait des déclarations d’intention envers, admet une quelconque participation à ou partage des liens avec l’exploitation sexuelle d’enfants ». L’entreprise interdit également tout contenu « (y compris des photos, des vidéos, de l’art hors-ligne, du contenu numérique et des descriptions verbales) représentant des enfants dans un contexte sexualisé ». Cette politique interdit en outre les contenus identifiant ou ridiculisant les victimes présumées d’exploitation sexuelle d’enfants en utilisant leur nom ou leur image, mais n’interdit pas l’identification fonctionnelle d’un mineur.
II. Valeurs de Meta
Les valeurs de Meta sont détaillées dans l’introduction des Standards de la communauté Facebook. La liberté d’expression y est décrite comme « primordiale » :
L’objectif de nos Standards de la communauté a toujours été de créer un espace d’expression et de donner une voix aux personnes. […] Nous souhaitons que les personnes puissent s’exprimer ouvertement sur les sujets qui comptent pour elles, même si d’autres peuvent marquer leur désaccord ou y trouveraient à redire.
Meta limite la liberté d’expression au profit de quatre autres valeurs, dont trois sont pertinentes en l’espèce :
La sécurité : les formes d’expression menaçantes peuvent intimider les autres personnes, les exclure ou les réduire au silence, et ne sont donc pas autorisées sur Facebook.
La confidentialité : nous nous engageons à protéger la vie privée et les informations. La confidentialité donne la liberté nécessaire pour être soi-même, pour choisir quand et comment partager des informations sur Facebook et pour créer des liens plus facilement.
La dignité : Nous pensons que chacun mérite les mêmes droits et la même dignité. Nous attendons de chaque personne qu’elle respecte la dignité d’autrui et qu’elle ne harcèle ni ne rabaisse les autres.
III. Normes relatives aux droits de l’homme
Les Principes directeurs relatifs aux entreprises et aux droits de l’homme des Nations unies (PDNU) établissent un cadre de travail volontaire pour les responsabilités relatives aux droits de l’homme des entreprises privées. En 2021, Meta a annoncé l’entrée en vigueur de sa Politique en matière des droits de l’homme, dans laquelle elle réaffirme son engagement à respecter les droits de l’homme conformément aux PDNU. L’analyse du Conseil sur ce cas s’est appuyée sur les normes de droits de l’homme suivantes :
- Le droit à la liberté d’opinion et d’expression : l’article 19 du Pacte international relatif aux droits civils et politiques (PIDCP) ; l’observation générale n° 34, Comité des droits de l’homme, 2011 ; le rapport du rapporteur spécial des Nations unies sur la liberté d’opinion et d’expression : A/74/486 (2019) ; le rapport du rapporteur spécial des Nations unies sur la liberté d’opinion et d’expression : A/HRC/17/27 (2011).
- L’intérêt supérieur de l’enfant : l’article 3 de la Convention relative aux droits de l’enfant (CIDE) ; l’observation générale n° 25, Comité des droits de l’enfant, 2021.
- Le droit à la santé physique et mentale : l’article 12 du Pacte international relatif aux droits économiques, sociaux et culturels (PIDESC) ; les articles 17 et 19 de la CIDE sur les droits des enfants à accéder à des informations visant à promouvoir leur santé physique et mentale et à être protégés contre toute forme de violence physique ou mentale.
- Le droit à la vie privée : l’article 17 du PIDCP ; l’article 16 de la CIDE ; les observations finales, Népal, Comité des droits de l’enfant, 21 septembre 2005, CRC/C/15/Add.261, paragraphes 45 et 46.
5. Déclaration de l’utilisateur
À la suite du renvoi de Meta et de la décision du Conseil d’accepter le cas, l’utilisateur a reçu un message l’informant de l’examen du Conseil et lui donnant la possibilité de faire une déclaration du Conseil. L’utilisateur n’a pas émis de déclaration.
6. Explication de la décision de Meta
Dans sa justification, Meta a expliqué que le contenu avait été supprimé, car il enfreignait le Standard de la communauté sur l’exploitation sexuelle, la maltraitance et la nudité d’enfants. Elle a précisé que deux lignes rendaient la publication en infraction : l’une décrivant en détail les séquelles physiques du viol et la seconde citant la description sexuellement explicite de l’auteur, lequel a déclaré que la mineure était « serrée ». L’entreprise a renvoyé aux conclusions d’spécialistes provenant d’un grand nombre de sources, dont le Rape, Abuse and Incest National Network (RAINN), la « 2021 Tackling Child Sexual Abuse Strategy » du Royaume-Uni et la « Stratégie visant à lutter plus efficacement contre les abus sexuels concernant des enfants » de l’UE, ainsi qu’à de nombreux articles universitaires, selon lesquels l’autorisation des représentations de viol peut porter préjudice aux victimes en les traumatisant à nouveau, en portant atteinte à leur vie privée et en favorisant le harcèlement.
Meta a également expliqué que, bien que certaines de ses politiques prévoient des exceptions pour autoriser le partage de contenu normalement en infraction s’il est publié pour condamner des actes préjudiciables ou y sensibiliser, le défi de « déterminer où commence le risque [de nouveau traumatisme] et où prend fin le bénéfice de la sensibilisation » l’a amenée à interdire les représentations explicites, même lorsqu’elles sont partagées de bonne foi et à des fins de sensibilisation. Dans sa justification au Conseil, l’entreprise a indiqué qu’elle autorise le signalement de viols et d’agressions sexuelles sans représentation explicite. Elle a en outre expliqué qu’elle entendait par « représentation » le fait de publier une image, un audio, une description écrite ou une diffusion.
Meta a précisé dans sa justification qu’elle avait estimé que les valeurs de confidentialité, de sécurité et de dignité des mineurs l’emportaient sur la valeur de liberté d’expression, car le contenu explicite peut revictimiser les enfants. L’entreprise a également déclaré que, bien que la publication ne nomme pas la victime, les informations fournies pourraient être utilisées pour identifier la victime et conduire à un traitement discriminatoire.
Par ailleurs, elle a précisé que la Convention relative aux droits de l’enfant (CIDE) avait servi de base pour définir ses politiques et ses valeurs, citant l’observation générale n° 25 (2021) du Comité des droits de l’enfant des Nations unies pour mettre en ouvre des politiques et des pratiques visant à protéger les enfants contre les « risques, connus et émergents, de toute forme de violence dans l’environnement numérique ». Meta a déclaré au Conseil que le risque de revictimisation l’a conduite à déterminer que la suppression était nécessaire. Bien qu’elle envisage d’appliquer l’exception de l’intérêt médiatique au contenu explicite lorsque l’intérêt public de l’expression est particulièrement fort et que le risque de préjudice est faible, Meta a conclu qu’en l’espèce, le risque de préjudice l’emportait sur la valeur d’intérêt public de l’expression. Selon l’entreprise, Facebook a appliqué l’intérêt médiatique aux infractions de la politique sur l’exploitation sexuelle d’enfants six fois au cours de l’année dernière.
7. Soumissions de tierces parties
En l’espèce, le Conseil a reçu 10 commentaires publics de parties prenantes, notamment du monde universitaire et d’organisations de la société civile, axés sur les droits des victimes d’agressions sexuelles, les droits des enfants et la liberté d’expression. Trois commentaires provenaient d’Europe, deux d’Amérique latine et des Caraïbes et cinq des États-Unis et du Canada. Les soumissions portent sur des sujets tels que l’importance de la protection de la vie privée des victimes ; le danger de supprimer le discours des victimes ou des organisations œuvrant pour la prévention de l’exploitation sexuelle et de la maltraitance d’enfants ; le rôle des choix de conception de la plateforme Meta dans la promotion des publications à sensation ; et la nécessité d’une plus grande transparence et de plus de clarté sur le système de modération du contenu de la plateforme.
Le 30 novembre 2021, une table ronde virtuelle a rassemblé sept groupes et organisations de défense dont la mission était de représenter les victimes de violence domestique et sexuelle envers les femmes et les enfants. La discussion a abordé un certain nombre de sujets liés au contenu du cas, notamment la distinction entre ce que le grand public pourrait considérer comme une description explicite d’un viol et les descriptions cliniques réelles de l’acte et de ses conséquences ; l’exploitation ou la victimisation secondaire des victimes dans le but de solliciter ou de récolter des dons ; la valorisation des victimes en leur demandant ce qu’elles souhaitent et en obtenant leur consentement éclairé lors du signalement des crimes commis à leur encontre ; et l’importance primordiale des organismes d’aide aux victimes.
Pour lire les commentaires publics soumis pour ce cas, veuillez cliquer ici.
8. Analyse du Conseil de surveillance
Le Conseil examine la question de la restauration de ce contenu sous trois angles : les Standards de la communauté Facebook, Les valeurs publiquement énoncées de Meta ; et ses responsabilités en matière de droits de l’homme. Il conclut que le contenu n’enfreint pas les Standards de la communauté Facebook et qu’il doit être restauré. Les valeurs de Meta et ses responsabilités en matière de droits de l’homme justifient la restauration du contenu. Le Conseil recommande à Meta d’apporter des changements à ses politiques de contenu pour fournir une définition claire de la sexualisation, de la représentation explicite et du signalement.
8.1. Respect des Standards de la communauté
Le Conseil conclut que cette publication n’enfreint pas le Standard de la communauté sur l’exploitation sexuelle, la maltraitance et la nudité d’enfants et que le contenu n’aurait pas dû être supprimé. Il estime que la description précise et clinique des séquelles du viol ainsi que l’insertion de la déclaration sexuellement explicite de l’auteur des faits ne constituent pas un langage axé sur l’exploitation sexuelle d’enfants ou sur la représentation d’un mineur dans un « contexte sexualisé ».
Le Conseil affirme également que la publication ne présentait pas un mineur dans un « contexte sexualisé », car au regard du contexte plus large de cette publication, il est manifeste que l’utilisateur signalait une question d’intérêt général et condamnait l’exploitation sexuelle d’une mineure. L’utilisateur a reproduit le langage utilisé par les médias suédois pour rendre compte des témoignages apportés dans les affaires judiciaires des viols dont il est question dans la publication.
8.2. Respect des valeurs de Meta
Le Conseil estime que la décision de Meta visant à supprimer la publication est incompatible avec sa valeur de liberté d’expression. Il convient que les valeurs de confidentialité, de sécurité et de dignité revêtent une grande importance lorsqu’il s’agit de contenus qui décrivent explicitement l’exploitation sexuelle d’un mineur. Toutefois, il estime que les deux phrases en question n’ont pas atteint le niveau d’un contenu exploitant sexuellement des enfants. En outre, l’intérêt public à attirer l’attention sur cette question et à informer les lecteurs, ou à plaider pour des réformes juridiques et politiques, s’inscrit au cœur de la valeur de liberté d’expression. En évaluant les différentes valeurs impliquées en l’espèce, le Conseil souligne également l’importance de ne pas réduire au silence les défenseurs et les victimes d’exploitation sexuelle d’enfants. Il reconnaît également que certaines victimes peuvent être moins enclines à s’exprimer de peur que les détails explicites de l’agression ne deviennent viraux sur la plateforme.
8.3. Respect des responsabilités de Meta en matière des droits de l’homme
Le Conseil estime que la restauration du contenu en l’espèce est conforme aux responsabilités de Meta en matière de droits de l’homme.
Liberté d’expression et article 19 du PIDCP
L’article 19 du PIDCP fournit une large protection à la liberté d’expression par n’importe quel moyen et sans considération de frontières. Toutefois, ce droit peut être restreint dans certaines conditions limitées, connues sous le nom de test tripartite de la légalité (clarté), de la légitimité, de la nécessité et de la proportionnalité. Bien qu’au contraire de ce qu’il fait pour les États, le PIDCP n’impose pas les mêmes obligations à Meta, le groupe s’est engagé à respecter les droits de l’homme, comme indiqué dans les PDNU. Cet engagement inclut les droits de l’homme reconnus à l’échelle internationale, tels que définis par le PIDCP et la CIDE, entre autres. La rapporteuse spéciale sur la promotion et la protection du droit à la liberté d’opinion et d’expression des Nations unies a suggéré que l’article 19, paragraphe 3 du PIDCP fournit un cadre utile afin d’orienter les pratiques de modération de contenu des plates-formes ( A/HRC/38/35, paragraphe 6)
I. Légalité (clarté et accessibilité des règles)
Le critère de la légalité de la législation internationale des droits de l’homme prévoit que toute restriction de la liberté d’expression soit : (a) suffisamment accessible pour que les individus aient une indication adéquate de la manière dont la loi limite leurs droits ; et (b) que la loi soit formulée avec suffisamment de précision pour que les individus puissent réguler leur conduite.
Comme indiqué dans la section 8.1 ci-dessus, le Conseil conclut que la publication n’a pas enfreint la politique de Meta sur l’exploitation sexuelle d’enfants et que la suppression n’était donc conforme à aucune règle applicable. Il estime également que la politique gagnerait à inclure une définition claire des termes clés et d’exemples de cas limites. Les termes « représentation » et « sexualisation » ne sont pas définis dans les Standards de la communauté accessibles au public. Si Meta ne définit pas les termes clés ou ne divulgue pas les exceptions pertinentes aux politiques, les utilisateurs sont dans l’incapacité de comprendre comment respecter les règles.
Le Conseil observe que les « questions fréquemment posées » et les Standards de mise en application internes (IIS) de Meta, lesquels font tous deux partie des règles fournies aux examinateurs de contenu pour les aider à évaluer les contenus potentiellement en infraction de l’un des Standards de la communauté Facebook, donnent des critères plus spécifiques afin de déterminer ce qui constitue de la sexualisation d’un mineur sur la plateforme en vertu de la politique sur l’exploitation sexuelle, la maltraitance et la nudité d’enfants.
Dans sa justification en l’espèce, Meta a informé le Conseil qu’elle autorisait la « dénonciation » du viol et de l’exploitation sexuelle, mais elle ne l’indique pas dans les politiques accessibles au public et n’opère pas de distinction entre la « représentation » et le « signalement ». Le Conseil note que ni les politiques publiques, ni les questions fréquemment posées, ni les ISS ne traitent de la différence entre la représentation explicite ou la sexualisation interdite d’un mineur et le signalement du viol et de l’exploitation sexuelle d’un mineur qui n’est pas en infraction.
Il estime qu’il est troublant que le contenu en l’espèce soit resté sur la plateforme pendant deux ans et qu’il ait ensuite été supprimé sans explication adéquate quant à l’élément déclencheur de la suppression. Aucune modification substantielle des politiques au cours de cette période n’explique ladite suppression. Le Conseil a demandé si l’envoi du contenu pour un examen manuel avait été déclencheur par une modification de classificateur. Meta a répondu que la soumission de la publication à un examen manuel avait été déclenchée par une combinaison de scores de classificateurs issus du machine learning/artificial learning (une prédiction émise par un algorithme sur la probabilité qu’un élément de contenu soit en infraction d’une politique spécifique) et du nombre de vues de la publication sur une période de deux semaines. Dans ses réponses aux questions du Conseil, Meta n’a pas précisé si une modification de ses classificateurs aurait pu expliquer le fait que le contenu avait été identifié comme n’étant pas en infraction en 2019, mais signalé comme potentiellement en infraction et méritant de faire l’objet d’un examen manuel en 2021.
II. Objectif légitime
Les restrictions de la liberté d’expression devraient poursuivre un objectif légitime, qui comprend la protection des droits d’autrui. Le Conseil convient que le Standard de la communauté Facebook sur l’exploitation sexuelle, la maltraitance et la nudité d’enfants vise à prévenir les atteintes hors ligne aux droits des mineurs qui peuvent être liées au contenu présent sur Facebook. Par conséquent, les restrictions prévues par cette politique sont destinées à servir l’objectif légitime de protéger les droits des enfants à une bonne santé physique et mentale (article 12 du PIDESC et article 19 de la CIDE), conformément à l’intérêt supérieur des enfants (article 3 de la CIDE).
III. Nécessité et proportionnalité
Le principe de nécessité et de proportionnalité de la législation internationale des droits de l’homme requiert que les restrictions de la liberté d’expression soient « appropriées pour remplir leur fonction de protection, elles doivent constituer le moyen le moins perturbateur parmi ceux qui pourraient permettre d’obtenir le résultat recherché ; [et] elles doivent être proportionnées à l’intérêt à protéger » ( observation générale n° 34, paragraphe 34). Le principe de proportionnalité doit également tenir compte de la forme d’expression en cause (observation générale n° 34, paragraphe 34).
Comme le Conseil l’a indiqué à la section 8.3 de sa décision sur le cas 2020-006-FB-FBR, Meta doit démontrer trois éléments pour prouver qu’elle a opté pour l’instrument le moins intrusif en vue d’atteindre l’objectif légitime :
(1) l’intérêt supérieur de l’enfant ne pouvait pas être atteint à l’aide de mesures qui ne portent pas atteinte aux discours ;
(2) parmi les mesures qui portent atteinte aux discours, Meta a sélectionné la moins intrusive ; et
(3) la mesure sélectionnée contribue véritablement à atteindre l’objectif et n’est pas inefficace ni contre-productive (A/74/486, paragraphe 52).
Pour évaluer si ces objectifs pourraient être atteints par des mesures qui ne portent pas atteinte à la liberté d’expression, il convient de comprendre toute l’étendue des choix de Meta et des options disponibles pour remédier au préjudice. Cette démarche demande une plus grande transparence vis-à-vis du Conseil sur l’amplification et la manière dont la conception de la plateforme Meta peut encourager les contenus à sensation. Le Conseil a demandé à Meta des informations ou des recherches internes sur la manière dont ses choix de conception de la plateforme Facebook, en ce compris ses décisions ou processus concernant les publications à amplifier, encouragent la diffusion de contenu à sensation sur des sujets impliquant des enfants. Meta n’a pas fournir de réponse claire à cette question ni aucune recherche sur le sujet. La transparence est essentielle pour garantir la surveillance publique des actions de Meta. Le manque de détail de la réponse de Meta à la question du Conseil ou la divulgation de la manière dont les choix de conception de la plateforme en matière d’amplification ont une incidence sur les discours empêchent le Conseil d’identifier pleinement l’instrument le moins restrictif pour respecter les droits de l’enfant conformément à son intérêt supérieur.
Le Conseil conclut que la suppression de ce contenu discutant de crimes sexuels contre des mineurs, une question d’intérêt général et un sujet de débat public, ne constitue pas l’instrument le moins intrusif de promotion des droits de l’enfant. L’observation générale n° 34 souligne l’importance de l’expression politique dans l’article 19 du PIDCP, en ce compris le droit à la liberté d’expression dans le « discours politique », le « le commentaire de ses affaires personnelles et des affaires publiques » et le « débat sur les droits de l’homme », ce qui inclut la discussion sur le système de justice pénale d’un pays et les informations sur son fonctionnement dans des cas spécifiques.
Le Conseil est conscient du préjudice causé aux victimes d’exploitation sexuelle d’enfants par la présence de représentations de cette exploitation sur la plateforme. Il opère toutefois une distinction entre le langage de l’auteur qui sexualise l’enfant et la publication de l’utilisateur qui cite l’auteur dans le but de sensibiliser les lecteurs à une question d’intérêt public. Le Conseil partage l’avis des organisations qui œuvrent pour et avec les victimes d’exploitation sexuelle sur l’importance de prendre en considération la nécessité de protéger les témoignages des victimes ou tout autre contenu visant à informer le public et à plaider pour la réforme des barrières juridiques, sociales et culturelles afin de prévenir l’exploitation sexuelle d’enfants.
Le conseil a examiné si l’utilisation d’un écran d’avertissement pouvait être la mesure la moins intrusive pour protéger l’intérêt supérieur de l’enfant. Par exemple, le Standard de la communauté sur l’exploitation sexuelle des adultes indique que les écrans d’avertissement s’appliquent aux contenus comprenant des récits ou des déclarations sur l’exploitation sexuelle des adultes qui sont soit partagés par la victime, soit par un tiers (autre que la victime) et qui 1) soutiennent la victime, 2) condamnent l’acte, ou 3) sensibilisent à l’acte (à déterminer par le contexte ou la légende). Selon une publication de blog sur le Newsroom de Meta concernant la lutte contre la désinformation, l’entreprise a déclaré que lorsqu’un écran d’avertissement est appliqué sur un élément de contenu, 95 % des utilisateurs ne cliquent pas pour l’afficher. Étant donné que le Conseil ne dispose pas d’informations sur le niveau de base de l’engagement, il ne peut pas tirer de conclusion sur l’influence des écrans d’avertissement, en particulier lorsqu’ils sont appliqués à des contenus traitant de l’exploitation sexuelle d’enfants.
Enfin, le Conseil a également pris en compte le risque de violence hors ligne lorsque le signalement comprend suffisamment d’informations pour identifier un enfant. Les contenus susceptibles de conduire à l’identification fonctionnelle ou par « puzzle » d’un mineur victime d’exploitation sexuelle d’enfants impliquent les droits de l’enfant à la liberté d’expression (article 19 du PIDCP), à la confidentialité (article 16 de la CIDE) et à la sécurité (article 19 de la CIDE). L’identification fonctionnelle peut se produire lorsque le contenu fournit ou rassemble suffisamment d’informations discrètes pour identifier un individu sans le nommer. En l’espèce, le Conseil n’est pas en mesure de déterminer si les informations fournies, ainsi que les liens vers les supports des médias, pourraient accroître la possibilité que les victimes soient identifiées.
Certains membres du Conseil ont toutefois souligné qu’en cas de doute sur le fait qu’un élément de contenu spécifique puisse conduire à l’identification fonctionnelle d’un enfant victime, Meta devrait privilégier la protection de la vie privée et de la santé physique et mentale de l’enfant, conformément aux principes internationaux des droits de l’homme. Pour ces membres du Conseil, le pouvoir d’amplification de la plateforme constitue un facteur clé pour déterminer si le mineur peut être identifié et évaluer les protections accordées aux enfants victimes d’abus sexuels.
Le Standard de la communauté actuel sur l’exploitation sexuelle, la maltraitance et la nudité d’enfants interdit les « contenus identifiant ou ridiculisant les victimes présumées d’exploitation sexuelle d’enfants en utilisant leur nom ou leur image ». D’autres politiques qui traitent de la prévention de l’identification d’un mineur ou d’une victime de crime (p. ex. le Standard de la communauté sur la protection supplémentaire des mineurs ou la coordination de préjudice ou la promotion d’actions criminelles) comportent d’importantes lacunes en ce qui concerne l’identification fonctionnelle de mineurs victimes d’exploitation sexuelle.
9. Décision du Conseil de surveillance
Le Conseil de surveillance annule la décision de Meta visant à supprimer le contenu et demande à ce que la publication soit restaurée.
10. Avis consultatif sur la politique
Politique de contenu
- Meta devrait définir la sexualisation et la représentation explicite dans le Standard de la communauté sur l’exploitation sexuelle, la maltraitance et la nudité d’enfants. Meta devrait préciser que le langage exprès ne constitue pas toujours une sexualisation ou une représentation explicite. Elle devrait également expliquer la différence qui sépare les termes juridiques, cliniques ou médicaux du contenu explicite. Meta devrait en outre apporter des éclaircissements sur la distinction entre l’exploitation sexuelle d’enfants et le signalement de cette exploitation. Le Conseil considérera la recommandation comme adoptée lorsqu’une définition des termes clés et de la distinction précitée aura été ajoutée au Standard de la communauté.
- Meta devrait suivre un processus d’élaboration de politiques, en ce compris sous la forme d’une discussion sur le forum de politique, afin de déterminer s’il y a lieu d’intégrer à ses Standards de la communauté une interdiction d’identification fonctionnelle des enfants victimes de violence sexuelle, et comment procéder. Ce processus devrait inclure l’engagement des parties prenantes et des spécialistes sur l’identification fonctionnelle et les droits de l’enfant. Le Conseil considérera cette recommandation comme adoptée lorsque Meta publiera le compte rendu du forum de politique des produits qui a abrité la discussion.
*Note de procédure :
Les décisions du Conseil de surveillance sont préparées par des panels de cinq membres et approuvées par une majorité du Conseil. Elles ne représentent pas nécessairement les opinions personnelles de tous ses membres.
Pour la décision sur ce cas, des recherches indépendantes ont été commandées au nom du Conseil. Un institut de recherche indépendant, dont le siège se trouve à l’université de Göteborg et mobilisant une équipe de plus 50 spécialistes en science sociale sur six continents ainsi que 3200 spécialistes nationaux du monde entier, a fourni son spécialiste sur le contexte socio-politico-culturel. Duco Advisors, une société de conseil qui se concentre sur l’intersection entre la géopolitique, la confiance et la sécurité, et la technologie, a également fourni des recherches.
Retour aux décisions de cas et aux avis consultatifs politiques