Décision sur plusieurs affaires

Vidéos d’enseignants frappant des enfants

Le Conseil de surveillance recommande qu’une exception soit incluse dans le Standard de la communauté relatif à l’exploitation sexuelle, la maltraitance et la nudité d’enfants pour autoriser les vidéos montrant un mauvais traitement des enfants dans des cadres éducatifs, dans certaines circonstances.

2 cas inclus dans ce lot

Renversé

FB-3WTN9CX3

Cas de nudité juvénile et exploitation sexuelle d’enfants sur Facebook

Plate-forme
Facebook
Sujet
Enfants / Droits des enfants,Liberté d’expression,Violence
Standard
Nudité juvénile et exploitation sexuelle d’enfants
Emplacement
Inde
Date
Publié le 31 juillet 2025
Renversé

FB-UR3UXTEA

Cas de nudité juvénile et exploitation sexuelle d’enfants sur Facebook

Plate-forme
Facebook
Sujet
Enfants / Droits des enfants,Liberté d’expression,Violence
Standard
Nudité juvénile et exploitation sexuelle d’enfants
Emplacement
France
Date
Publié le 31 juillet 2025

Pour lire l’intégralité de la décision en punjabi, cliquez ici.

ਇਸ ਫ਼ੈਸਲੇ ਨੂੰ ਪੰਜਾਬੀ ਵਿੱਚ ਪੜ੍ਹਨ ਲਈ, ਇੱਥੇ ਕਲਿੱਕ ਕਰੋ।

Résumé

Après avoir examiné deux vidéos montrant des mauvais traitements des enfants dans des contextes éducatifs, le Conseil de surveillance recommande qu'une exception soit incluse dans le Standard de la communauté de Meta sur l'exploitation sexuelle, la maltraitance et la nudité des enfants afin d'autoriser un tel contenu, lorsqu'il est partagé pour condamner, signaler ou sensibiliser, et lorsque les enfants ne sont pas identifiables. L’interdiction actuelle de Meta de publier des vidéos ou des photos de mauvais traitement des enfants, quelle que soit l’intention et même lorsque l’identité des personnes est masquée, provoque des restrictions disproportionnées de la liberté d’expression. Le partage de tels contenus contribuerait au débat public sur des questions importantes relatives aux droits de l’enfant.

Le Conseil a confirmé la décision de Meta d’autoriser ce contenu dans un cas et a annulé la décision de Meta de le supprimer dans l’autre. Les deux publications devraient rester en ligne avec une marge de tolérance d’intérêt médiatique, assortie d'écrans d'avertissement.

À propos des cas

Dans le premier cas, un média indien a publié une vidéo sur sa page Facebook dans laquelle une enseignante criait sur un jeune élève parce qu'il n'étudiait pas, le frappait à plusieurs reprises à la tête et au dos et semblait tirer sur son turban. Une zone floue superposée recouvrait le visage de l’enfant pendant la plus grande partie de la vidéo. La légende indique qu'un responsable de l'État a appelé à une prise de responsabilité.

Dans le deuxième cas, une vidéo a été publiée sur une page Facebook qui semble partager des actualités locales d'une région de France. La vidéo montre un groupe de très jeunes enfants, dont l’un est en pleurs. Un enseignant frappe l'enfant, qui tombe à terre pendant que les autres enfants regardent. Tous les visages de la vidéo sont floutés. La légende indique l'école, la date et le quartier où l'incident a eu lieu, et fait état d’une enquête.

Après que le contenu a été signalé et fait remonter, les experts en politiques de Meta ont déterminé que le contenu indien enfreignait la politique relative à l'exploitation sexuelle, à la maltraitance et à la nudité des enfants et l’ont supprimé. Vu que le contenu a été publié à des fins de sensibilisation, Meta n'a pas appliqué de pénalité au compte, selon ce qu’a révélé la société au Conseil.

Le contenu français a été supprimé sans examen par un être humain pour violation de la même politique. Après que le créateur du contenu a fait appel, Meta a confirmé que le retrait était correct, mais a supprimé les pénalités qu'elle avait appliquées en raison de l'intérêt public et parce que le contenu avait été partagé à des fins de sensibilisation.

Meta a transmis les deux cas au Conseil. Lors de la préparation de leurs soumissions, les experts en politiques de Meta ont décidé de maintenir le contenu français avec une marge de tolérance d’intérêt médiatique et un écran d’avertissement. Meta a déclaré qu'un avocat représentant les parents de l'enfant avait partagé la vidéo auprès des médias locaux pour sensibiliser le public à l'incident. Pour Meta, cela signifiait que la valeur pour l’intérêt public l’emportait sur le préjudice, car « le consentement des parents atténuait les inquiétudes en matière de confidentialité et de dignité ».

Principales conclusions

Le Conseil estime que l’interdiction de Meta de publier des vidéos ou de mauvais traitement des enfants, quelle que soit l’intention et même lorsque l’identité des personnes est masquée, provoque des restrictions disproportionnées de la liberté d’expression. La politique relative à l’exploitation sexuelle, à la maltraitance et à la nudité des enfants ne fait pas différence entre les enfants identifiables et ceux qui ne le sont pas. Cependant, la possibilité d’identification a une importance critique. Si ce risque est atténué, les préoccupations en matière de confidentialité et de dignité seront plus limitées.

Le Conseil estime que les deux publications enfreignent la politique relative à l’exploitation sexuelle, à la maltraitance et à la nudité des enfants. Cependant, une majorité estime qu'ils devraient rester en ligne avec une marge de tolérance d’intérêt médiatique, des écrans d'avertissement et une visibilité limitée aux utilisateurs de plus de 18 ans. Cela est conforme aux responsabilités de Meta en matière de droits humains et répond mieux au test de proportionnalité et de nécessité, permettant une plus grande liberté d’expression. Ces deux publications ont une grande valeur d’intérêt public, encouragent la responsabilisation et tentent d’empêcher l’identification des enfants. Dans le cas français, le consentement parental, bien qu’il ne soit pas inattaquable, soutient la présomption que la diffusion de la vidéo n’est pas contraire à l’intérêt supérieur de l’enfant. De tels signalements contribuent à d’importants débats publics sur les droits des enfants, dans le contexte des efforts mondiaux croissants visant à interdire les mauvais traitements des enfants dans les milieux éducatifs.

Une minorité des membres du Conseil n’est pas d’accord, estimant que l’intérêt public ne l’emportait pas sur le risque de préjudice à la confidentialité et à la dignité des enfants représentés. Pour ces membres, le retrait serait le plus respectueux des intérêts des enfants.

Décision du Conseil de surveillance

Le Conseil confirme la décision de Meta, dans l'affaire française, de maintenir le contenu sur la plateforme avec une marge de tolérance d’intérêt médiatique et un écran d'avertissement. Le Conseil annule la décision de Meta dans l’affaire indienne et exige que le contenu soit restauré avec une marge de tolérance d’intérêt médiatique et un écran d'avertissement.

Le Conseil recommande à Meta ce qui suit :

  • Inclure une exception dans sa politique publique relative à l’exploitation sexuelle, à la maltraitance et à la nudité des enfants autorisant les images et les vidéos de mauvais traitement des enfants infligé par des adultes, lorsqu’elles sont partagées dans l’intention de condamner, de signaler et de sensibiliser. Cela ne doit s’appliquer que lorsque l’enfant n’est ni directement identifiable par son nom ou son image, ni fonctionnellement identifiable (lorsque des indices de contexte sont susceptibles de conduire à l’identification de l’individu). Le contenu devrait être autorisé avec un écran d'avertissement et une visibilité restreinte aux utilisateurs âgés de 18 ans et plus. Cette exception ne devrait être appliquée qu’en cas de remontée.
  • Aucune pénalité ne devrait être appliquée aux comptes dont le contenu de mauvais traitement des enfants est supprimé lors d’une remontée, lorsqu’il existe des indicateurs clairs de l’intention de l’utilisateur de condamner, de signaler ou de sensibiliser.

Décision complète sur les cas

1. Description du cas et contexte

Cette décision porte sur deux cas de vidéos publiées sur Facebook montrant un mauvais traitement des enfants dans des contextes éducatifs. Les vidéos ont été publiées à des fins de sensibilisation. Meta a déterminé que les deux contenus enfreignaient sa politique relative à l'exploitation sexuelle, à la maltraitance et à la nudité des enfants interdisant « les vidéos ou les photos qui représentent un mauvais traitement des enfants, quelle que soit l'intention de partage ». Meta a renvoyé les deux cas au Conseil afin d’obtenir des conseils sur la manière de sauvegarder la sécurité et la dignité des enfants ainsi que sur la nécessité de sensibiliser le public à des événements et problèmes pertinents.

Dans le premier cas, un média d’Inde a publié une vidéo sur sa page Facebook dans laquelle une enseignante criait à l’intention d’un jeune élève parce qu'il n'étudiait pas. Elle le frappait à plusieurs reprises à la tête et au dos et semblait tirer sur son turban. Une zone floue était superposée sur le visage de l’enfant. Même si la zone floutée ne parvenait pas toujours à couvrir son visage en mouvement, il restait difficile de l'identifier clairement. L’enseignante et les autres élèves étaient visibles. La légende indiquait où l'incident avait eu lieu et notait qu'un responsable de l'État avait appelé à une prise de responsabilité.

La publication avait été vue plusieurs milliers de fois. Dix personnes l’ont signalée. Étant donné que le compte bénéficie de protections de vérification croisée, l'un des rapports a été transmis aux experts en politiques qui ont déterminé que le contenu enfreignait la politique relative à l’exploitation sexuelle, à la maltraitance et à la nudité des enfants et ont supprimé la publication. Meta décrit ce système comme une stratégie de prévention des erreurs qui permet d’examiner plusieurs fois certains types de contenu. Meta a révélé au Conseil ne pas avoir appliqué de pénalité au compte du créateur de contenu parce que le contenu avait été publié dans un but de sensibilisation.

Dans le deuxième cas, une vidéo a été publiée sur une page Facebook qui semble partager des actualités locales d'une région de France. La vidéo montre un groupe de très jeunes enfants, dans un cadre éducatif, dont l’un est en pleurs. L’enseignant frappe l'enfant, qui tombe par terre alors que les autres enfants regardent. L’enseignant semble également vaporiser quelque chose sur l’enfant. Tous les visages sont floutés dans cette vidéo. La légende cite le quartier précis, la date et l'école où l'incident a apparemment été filmé, et fait référence à une enquête.

La publication avait été vue plusieurs milliers de fois. Un utilisateur l’a signalée et un système automatisé l’a identifié comme enfreignant potentiellement la politique relative à l’exploitation sexuelle, à la maltraitance et à la nudité des enfants. Le contenu a alors été supprimé sans examen par un être humain pour violation de la politique. Meta a appliqué une norme et une pénalité sévère au compte du créateur du contenu de l'affaire. L'administrateur de la page a fait remonter le contenu via un « canal d'assistance aux créateurs » pour faire appel de la suppression. Meta met à disposition des ressources pour les créateurs de contenu qui cherchent à développer leur audience et à gagner de l'argent et peut inclure des canaux d'assistance supplémentaires pour les utilisateurs. Les experts en politiques ont ensuite confirmé que la suppression était correcte, mais ont annulé la décision antérieure d'appliquer des pénalités en raison « de l'intérêt public et du contexte de sensibilisation ».

Par la suite, alors que Meta préparait ses soumissions au Conseil, ses experts en politiques ont décidé d'autoriser le contenu sur la plateforme avec une marge de tolérance d’intérêt médiatique et un écran d'avertissement. Selon Meta, un avocat représentant les parents de l'enfant avait partagé la vidéo auprès des médias locaux pour sensibiliser le public à l'incident. Pour la société, cela signifiait que la valeur pour l’intérêt public l’emportait sur le préjudice, car « le consentement des parents atténuait les inquiétudes en matière de confidentialité et de dignité ».

Le Conseil a tenu compte du contexte suivant pour prendre sa décision :

L’Organisation des Nations Unies pour l’éducation, la science et la culture (UNESCO) signale que la violence à l’école est un phénomène répandu, touchant les élèves et le personnel éducatif. On estime qu’un milliard d’enfants âgés de 2 à 17 ans sont confrontés chaque année à des violences de ce type. Selon l’Organisation mondiale de la santé (OMS), « dans certains pays, presque tous les élèves déclarent avoir reçu des punitions corporelles du personnel scolaire », les taux les plus élevés étant observés en Afrique et en Asie du Sud. Une étude de l’UNICEF, le Fonds des Nations Unies pour l’Enfance, a révélé qu’en Asie du Sud, les châtiments corporels et le harcèlement dans les écoles restent courants malgré les interdictions légales.

Selon l’organisation de la société civile End Corporal Punishment, les châtiments corporels sont interdits dans les écoles en Inde. La loi ne s’applique qu’aux enfants âgés de 6 à 14 ans et exclut certains cadres, tels que les écoles religieuses, les garderies et le domicile. En comparaison, la France a interdit les châtiments corporels dans tous les contextes, y compris au domicile, depuis 2019.

2. Soumissions de l’utilisateur

Après que Meta a porté ces cas à l’attention du Conseil et que celui-ci a décidé de les accepter, les auteurs des deux éléments de contenu concernés ont eu la possibilité de soumettre leur déclaration. Aucune réponse n’a été reçue.

3. Politiques de Meta relatives au contenu et soumissions

I. Politiques de Meta relatives au contenu

Exploitation sexuelle, maltraitance et nudité des enfants

La justification de la politique de Meta indique que l’entreprise ne « permet pas le contenu ou l’activité qui exploite sexuellement ou met en danger des enfants. » Le Standard de la Communauté interdit les « vidéos ou photos qui représentent une maltraitance non sexuelle d’enfants réels ou non réels indépendamment du partage de contenu, sauf si les images proviennent de l’art hors-ligne, de dessins animés, de films ou de jeux vidéo. » La politique interdit également « tout contenu qui glorifie, soutient, promeut, prône, encourage ou fournit des instructions pour prendre part à toute agression non sexuelle d’enfants. » Meta a indiqué au Conseil que ses directives internes utilisent une « liste exhaustive d'actes spécifiques de mauvais traitement des enfants commis par un adulte ou un animal envers toute personne de moins de 18 ans » pour définir le mauvais traitement des enfants.

La politique contient un petit nombre de dispositions spécifiques au contexte qui, selon Meta, s’appliquent lors de la remontée aux équipes spécialisées. La politique actuelle autorise le maintien sur la plateforme de « vidéos ou photos de mauvais traitement des enfants » en cas de remontée, quand cela est requis par les forces de l'ordre, les agences de protection de l'enfance ou des partenaires de sécurité de confiance, notamment pour contribuer aux efforts visant à assurer la sécurité d’un enfant. Elle permet également les « vidéos ou des photos montrant des officiers de police ou des militaires maltraitant des enfants. » Dans les deux cas, Meta applique un écran d'avertissement de contenu dérangeant et limite la visibilité aux utilisateurs âgés de 18 ans et plus. La politique de Protection supplémentaire des mineurs affirme également que Meta se conforme aux « demandes gouvernementales concernant la suppression d’images de mauvais traitement des enfants. »

Il n’existe aucune exception dans la politique pour les représentations de mauvais traitement des enfants lorsqu’elles sont partagées à des fins d’information, de sensibilisation ou de condamnation. Toutefois, l'entreprise peut autoriser ce contenu grâce à la marge de tolérance d'intérêt médiatique, après un examen approfondi par les équipes des politiques (voir Images de femmes autochtones partiellement nues).

Tolérance envers le contenu pertinent

Dans certaines circonstances, l’entreprise autorisera les contenus en infraction à rester sur la plateforme s’ils sont « pertinents et qu’ils doivent être visibles dans l’intérêt public ». Meta affirme que pondérer l’intérêt public d’une publication et le risque de préjudice qu’elle présente lors de sa prise de décision. L’entreprise évalue « si le contenu présent[e] une menace imminente pour la santé ou la sécurité publique, ou s’[il] exprim[e] une opinion en débat dans le cadre d’un processus politique ». L’entreprise affirme que son analyse s’appuie sur les circonstances propres à chaque pays, la nature du discours et la structure politique pertinente et le niveau de liberté de la presse. Pour le contenu susceptible d'être sensible ou dérangeant que Meta conserve sur la plateforme via cette marge de tolérance, l’entreprise inclut un écran d'avertissement. Elle peut aussi restreindre l’accès aux utilisateurs âgés de 18 ans et plus. Cette marge de tolérance peut s’appliquer à n'importe quelle politique de contenu, mais comme seuls les modérateurs spécialisés peuvent l'accorder, elle est utilisée très rarement. Meta indique dans son Espace modération avoir appliqué la marge de tolérance 32 fois entre juin 2023 et juin 2024.

II. Soumissions de Meta

Meta « adopte une position ferme contre le partage de contenu de mauvais traitement des enfants, quelle que soit l'intention, afin de donner la priorité à la sécurité, à la dignité et à la confidentialité du mineur », en raison du « risque important de préjudice » que représente un tel contenu. Selon Meta, un grand nombre d’acteurs a souligné que le partage de ce matériel peut infliger un nouveau traumatisme à l’enfant, l’exposer à des phénomènes de harcèlement et à un sentiment de honte sur le long terme, et entraver son rétablissement, en particulier compte tenu de la visibilité durable du contenu sur les réseaux sociaux.

Meta a souligné que les défenseurs des droits de l’enfant soutiennent l’idée de rendre prioritaires la sécurité et à la confidentialité des enfants victimes, tout en reconnaissant que les réseaux sociaux peuvent jouer un rôle positif dans la sensibilisation. Meta a également remarqué que « les risques relevant de la confidentialité sont réduits, mais pas éliminés, lorsque le visage de la victime n'est pas visible ou est flouté ». Pour traiter ces préoccupations, la politique interdit les vidéos et les photos de mauvais traitement des enfants mais autorise les descriptions textuelles, qui sont souvent utilisées dans les reportages d’actualité.

Meta a déterminé que les deux publications enfreignaient sa politique interdisant les représentations de « mauvais traitement des enfants, réels ou non, quelle que soit l'intention du partage ». Cependant, Meta a finalement estimé que le contenu de l'affaire française était éligible pour l’application d’une marge de tolérance d’intérêt médiatique et a restauré le message avec un écran d'avertissement. L’application de la marge de tolérance a été accordée en raison de la valeur d’intérêt public de la publication et de la nature limitée des risques. Les parents de l’enfant ont consenti à la diffusion de la vidéo, ce qui réduit les préoccupations relatives à la confidentialité et la dignité. Meta note également que le visage de l’enfant a été flouté. Meta a déclaré que si l’un de ces facteurs avait été différent, le résultat aurait pu changer. Meta a également reconnu que le fait de flouter le visage d’un enfant réduit mais n’élimine pas le risque, car d’autres indices contextuels peuvent permettre son identification.

En revanche, la publication dans l’affaire indienne a été supprimée et n’a pas bénéficié d’une marge de tolérance d’intérêt médiatique. Meta a déterminé que, même si le contenu avait une valeur d’intérêt public pour sensibiliser à la maltraitance des enfants dans les écoles, le risque de préjudice était important. La publication révélait l’emplacement de l’école et montrait le visage de l’enseignant sans floutage, ce qui réduisait encore davantage l’anonymat. Par conséquent, les habitants locaux auraient potentiellement pu identifier l’enfant. Meta a également noté que, contrairement à l’affaire française, il n’y avait aucune preuve que l’enfant ou sa famille avaient consenti au partage des images. Par conséquent, l’intérêt public ne l’emportait pas sur le risque de préjudice.

Meta a informé le Conseil qu’en fin de compte, elle n’avait pas appliqué de pénalité à l'un ou l'autre des créateurs de contenu, car les deux publications avaient été partagées pour sensibiliser le public. La publication française avait reçu une pénalité standard grave après la première révision, mais cette décision a été annulée peu de temps après lors d'une révision en remontée.

Le Conseil a interrogé Meta au sujet de sa politique en matière de mauvais traitement des enfants, notamment sur la justification de cette politique, sur les parties prenantes consultées et leurs points de vue, sur l’application de la marge de tolérance d’intérêt médiatique et sur les processus de mise en application de la politique. Le Conseil a également interrogé Meta sur la possibilité de fournir aux utilisateurs des outils permettant de rendre les enfants non identifiables. Meta a répondu à toutes les questions.

4. Commentaires publics

Le Conseil a reçu sept  commentaires publics qui répondent aux critères de soumission. Six de ces commentaires ont été soumis par les États-Unis et le Canada, et un par l’Europe. Pour consulter les commentaires publics soumis accompagnés d’un consentement à la publication, cliquez ici.

Les soumissions portaient sur les thèmes suivants : les préjudices potentiels causés aux enfants, à leurs familles et à la société par l’autorisation d’images de mauvais traitement des enfants sur les réseaux sociaux ; les responsabilités des plateformes de réseaux sociaux ; les châtiments corporels en tant que violation des droits humains des enfants ; et le signalement des mauvais traitements sur mineurs en tant que question d’intérêt public, à des fins de responsabilisation.

5. Analyse du Conseil de surveillance

Le Conseil a sélectionné ces cas en raison de l’importance de la liberté d’expression qui permet la responsabilisation autour des questions d’intérêt public et de la nécessité de respecter l’intérêt supérieur de l’enfant. Ces cas mettent en évidence les tensions qui existent entre la valeur de liberté d’expression chez Meta et la nécessité d’assurer la confidentialité, la sécurité et la dignité des enfants.

Le Conseil a analysé les décisions de l’entreprise dans les cas présents et les a comparées à ses politiques relatives au contenu, à ses valeurs et à ses responsabilités en matière de droits humains. Il a également évalué les implications de ce cas-ci sur l’approche plus globale de la gouvernance du contenu par Meta.

5.1 Respect des politiques de Meta relatives au contenu

Règles relatives au contenu

Le Conseil estime que les deux publications enfreignent la politique relative à l’exploitation sexuelle, à la maltraitance et à la nudité des enfants de Meta interdisant des représentation de mauvais traitement des enfants. Les deux vidéos montrent des adultes frappant des enfants.

La majorité des membres du Conseil estime que Meta a eu raison d’appliquer une marge de tolérance d’intérêt médiatique dans l’affaire française et que Meta aurait également dû appliquer cette marge de tolérance à l’affaire indienne. Pour la majorité, selon les politiques de Meta, les deux éléments de contenu doivent rester sur la plateforme avec des écrans d’avertissement, et la visibilité doit être limitée aux utilisateurs de plus de 18 ans.

Conformément au test d’admissibilité pour l’application de la marge de tolérance d’intérêt médiatique de Meta, les deux contenus avaient une grande valeur d’intérêt public. Les vidéos montrent des actes de violence commis par des adultes, en position de pouvoir et de responsabilité éducative, contre des enfants, et elles comportent toutes deux des légendes qui reflètent les efforts déployés pour une responsabilisation face à ces mauvais traitements. La majorité a souligné l’importance particulière que peuvent avoir les représentations visuelles dans le journalisme, la sensibilisation et l’information du public.

Les deux contenus présentent également un risque limité pour les enfants représentés. La majorité a souligné les efforts visant à rendre plus difficile l’identification des enfants en floutant leurs visages. Bien que les informations sur la localisation dans les légendes et les indices contextuels dans le contenu puissent faciliter l’identification des écoles, la majorité estime qu’il restera difficile d’identifier les enfants floutés. Bien que Meta ait mis en avant un risque de préjudice dans le cas indien, la majorité estime que ce préjudice n’est pas clairement établi étant donné que l’identification est peu probable. De plus, dans le cas français, le consentement des parents de l’enfant maltraité, bien qu’il ne soit pas déterminant, permet de présumer que la diffusion de la vidéo n’est pas contraire à l’intérêt supérieur de l’enfant.

Une minorité de membres du Conseil est en désaccord, et estime que la marge de tolérance d’intérêt médiatique n’aurait dû être appliquée dans aucun des deux cas. Ces Membres du Conseil conviennent qu’il existe un intérêt public pour ce contenu, mais estiment que celui-ci ne l’emporte pas sur le risque de porter atteinte à la vie privée et à la dignité des enfants représentés. La minorité insiste sur l’existence permanente du contenu une fois qu’il est diffusé en ligne et sur la possibilité d'identifier les enfants victimes, malgré le floutage, grâce à des indices contextuels dans les deux publications. Pour cette minorité, le consentement parental ne diminue pas ces risques. Ces membres du Conseil estiment que même si certains parents consentent à partager de telles vidéos sur les réseaux sociaux, cela ne sert pas nécessairement l’intérêt supérieur du ou des enfants concernés.

5.2 Respect des responsabilités de Meta en matière de droits humains

La majorité du Conseil estime que le maintien du contenu avec un écran d’avertissement et une visibilité limitée aux personnes de plus de 18 ans est conforme aux responsabilités de Meta en matière de droits de l’homme, dans les deux cas. La suppression du poste de la publication de Meta dans l’affaire indienne n’était ni nécessaire ni proportionnée. Une minorité du Conseil est d’avis contraire et estime que, conformément aux politiques actuelles de Meta, le retrait est nécessaire pour protéger les droits des enfants représentés dans les vidéos.

Liberté d’expression (article 19 du PIDCP)

Le 16 mars 2021, Meta a annoncé sa Politique d’entreprise en matière de droits humains, dans laquelle elle souligne son engagement à respecter les droits conformément aux principes directeurs des Nations Unies relatifs aux entreprises et aux droits humains (PDNU). Selon ces principes, les entreprises « doivent éviter de porter atteinte aux droits humains d’autrui et doivent remédier aux effets négatifs sur les droits humains dans lesquels elles sont impliquées » (principe 11, PDNU).

L’article 19, du Pacte international relatif aux droits civils et politiques (PIDCP) prévoit une protection plus large de la liberté d’expression et le Comité des droits de l’homme des Nations Unies (NU) a remarqué que cela protège les commentaires sur les affaires publiques, les débats sur les droits humains et le journalisme (observation générale 34, paragraphe 11). Le comité a également déclaré que la liberté d’expression est une condition nécessaire pour garantir la responsabilité, laquelle est essentielle à la promotion et à la protection des droits humains (observation générale 34, paragraphe 2).

Tout restriction d’état à la liberté d’expression doit remplir des critères de légalité, d’objectif légitime, ainsi que de nécessité et de proportionnalité (article 19, paragraphe 3, PIDCP). Ces exigences sont souvent reprises sous l’intitulé « test tripartite ». Celui-ci sert au Conseil à interpréter les responsabilités de Meta en matière de droits humains conformément aux PDNU, aussi bien pour certaines publications isolées qu’en ce qui concerne son approche plus globale de la gouvernance de contenu. Comme l’a remarqué le Rapporteur spécial de l’ONU sur la liberté d’expression, même si « les entreprises ne sont pas soumises aux mêmes devoirs que les gouvernements, leur influence est néanmoins telle qu’elle doit les inciter à réfléchir à ces considérations en tenant compte de la liberté d’expression des utilisateurs (A/74/486, paragraphe 41).

L’article 3 de la Convention internationale des droits de l’enfant (CIDE) énonce que l’intérêt supérieur d’un enfant doit être une considération primaire dans la cadre de toutes les actions concernant ces derniers. Le Comité des droits de l’enfant (CDE) décrit l’intérêt supérieur de l’enfant comme un principe flexible qui s’applique aux enfants de tous âges, adapté à leur situation particulière et à leur développement évolutif (observation générale 14, p. 5-6). Dans cette perspective, les principes et lignes directrices de l’UNICEF pour les reportages médiatiques portant sur des enfants soulignent que les droits et la dignité des enfants doivent être respectés dans toutes les situations et que leur intérêt supérieur doit primer sur toute autre considération, y compris la défense et la promotion des droits de l’enfant.

L’Article 19 de la CIDE exige des États qu’ils protègent les enfants contre toute forme de violence physique « lorsqu’ils sont sous la garde de leur(s) parent(s), de leur(s) tuteur(s) légal/aux ou de toute autre personne à qui ils sont confiés ». La CDE a clairement indiqué que toutes les formes de violence contre les enfants sont inacceptables, et a en outre énoncé que « les châtiments corporels sont toujours dégradants » et « incompatibles avec la Convention » (observation générale 8, para graphes 7, 11, 12, et observation générale 13, paragraphes 17, 24). Les châtiments corporels portent atteinte à la dignité de l’enfant et dépassent les limites acceptables de la discipline scolaire (article 28.2, CIDE, observation générale 1, paragraphe 8). Les enfants doivent être protégés contre la violence et les préjudices dans tous les environnements, y compris dans l’environnement numérique (observation générale 25, paragraphe 82).

L’article 16 de la CIDE garantit le droit des enfants à la confidentialité. Le CDE insiste par ailleurs sur le fait que « la protection de la vie privée est essentielle pour le pouvoir d’action, la dignité et la sécurité des enfants et pour l’exercice des droits de l’enfant » et que « ces atteintes peuvent également être dues à … un inconnu qui partage en ligne des informations sur un enfant » (observation générale 25, paragraphe 67).

L’analyse du Conseil se base donc à la fois sur de solides protections de la liberté d’expression et sur les droits de l’enfant, en particulier son droit d’être protégé contre la violence et son droit à la confidentialité.

I. Légalité (clarté et accessibilité des règles)

Le principe de légalité exige que toute restriction de la liberté d’expression suive à une règle établie, qui est accessible et compréhensible pour les utilisateurs (observation générale 34, paragraphe 25). La politique relative à l'exploitation sexuelle, à la maltraitance et à la nudité des enfants interdisant « les vidéos ou les photos qui représentent un mauvais traitement des enfants réels ou non, quelle que soit l'intention de partage ». Le Conseil estime que la règle interdisant les représentations de mauvais traitement des enfants est suffisamment claire pour ces cas.

Bien que le Conseil se félicite que Meta ait apporté plus de clarté sur le processus et les critères d'attribution de la marge de tolérance d’intérêt médiatique dans son Centre de transparence en réponse aux recommandations du Conseil, le Conseil réitère ses inquiétudes quant à son application. L’application de cette marge a une prévisibilité et une accessibilité limitées, en raison du manque de moyens clairs pour identifier le contenu qui pourrait être admissible (voir, entre autres, Assassinat d'un candidat dans le cadre des élections municipales au Mexique et Images de femmes autochtones partiellement nues).

II.Objectif légitime

Par ailleurs, toute restriction de la liberté d’expression doit au minimum répondre à l’un des objectifs légitimes énumérés dans le PIDCP, qui incluent la protection des droits d’autrui. Meta a déclaré que sa règle interdisant le mauvais traitement des enfants « servait l'objectif légitime de protéger les droits d'autrui, y compris le droit à la confidentialité et la protection de la dignité des [enfants] représentés dans les vidéos », conformément à l'intérêt supérieur de l'enfant. Le Conseil, réitérant les décisions antérieures évaluant ce standard, estime que la politique sert l’objectif légitime de protéger les droits des enfants à la santé physique et mentale (article 19 de la CIDE) et leur droit à la confidentialité (Article 17 du PIDCP ; Article 16 de la CIDE), conformément au respect de l’intérêt supérieur de l’enfant (Article 3 de la CIDE) (voir Un journaliste suédois dénonce des violences sexuelles sur mineurs et Documentaire sur des abus sexuels d’enfants au Pakistan).

III.Nécessité et proportionnalité

Conformément à l’article 19(3) du PIDCP, le principe de nécessité et de proportionnalité requiert que les restrictions de la liberté d’expression soient « appropriées pour remplir leur fonction de protection, elles doivent constituer le moyen le moins perturbateur parmi ceux qui pourraient permettre d’obtenir le résultat recherché et elles doivent être proportionnées à l’intérêt à protéger » (observation générale 34, paragraphe 34).

La majorité du Conseil désapprouve les décisions initiales de Meta de supprimer les publications françaises et indiennes, et estime que la limitation de la liberté d’expression n’était ni nécessaire ni proportionnée pour protéger les droits de l’enfant. Dans ces cas, la protection de la liberté d’expression est compatible avec la protection des droits de l’enfant, dans la mesure où elle sert les objectifs de sensibilisation du public et de responsabilisation en matière de violence contre les enfants dans les écoles. La majorité estime également que la décision révisée de Meta d’autoriser la publication française sur la plateforme est plus conforme à ses responsabilités de protection de la liberté d’expression. Maintenir le contenu avec un écran d’avertissement et en autorisant la visibilité uniquement aux utilisateurs de plus de 18 ans répond mieux aux tests de nécessité et de proportionnalité et permet une meilleure liberté d’expression. Enfin, la majorité estime que la marge de tolérance d’intérêt médiatique, assortie de restrictions plus proportionnées, telles qu’un écran d’avertissement et des limites d’âge, aurait également dû être appliquée à la publication indienne.

Les protections des droits de l’homme pour ce type d’expression sont importantes. Les deux contenus ont été partagés par des pages qui sont soit des organisations médiatiques, soit semblent partager des actualités locales. Ces publications visaient à signaler et à sensibiliser le public aux châtiments corporels infligés par les enseignants en milieu scolaire. Il s’agit d’un sujet qui suscite un fort intérêt et un vif débat public, notamment en Inde et en Asie du Sud. Les publications comprenaient des légendes soulignant les efforts officiels en matière de responsabilisation. La majorité considère que ces reportages contribuent au débat public sur les questions relatives aux droits de l’enfant et aident à révéler des maltraitances qui pourraient autrement rester cachées.

La majorité s’accorde à dire que les représentations de mauvais traitement des enfants peuvent soulever des problèmes de confidentialité et de sécurité pour les enfants. Les visages des enfants victimes étaient floutés dans ces deux cas. Ils n’ont pas été identifiés par leur nom ou leur image, et le flou limite la possibilité de ce que Meta appelle l’identification fonctionnelle par des indices contextuels. Dans cette politique, Meta définit actuellement l’identification fonctionnelle comme l’identification « d’une autre manière que par le nom ou l’image, si le contenu contient des informations susceptibles de mener à l’identification de l’individu. » Bien que les publications contiennent des informations sur l’emplacement des écoles, la majorité estime que ces informations ne sont pas « susceptibles de conduire à l’identification » des individus spécifiques. En outre, dans le cas français, la majorité note que le facteur du consentement parental (ainsi que les efforts visant à masquer l’identité de l’enfant) étaye la conclusion selon laquelle autoriser la vidéo sur Facebook n’est pas contraire à l’intérêt supérieur de l’enfant. Les arguments en faveur du retrait fondés sur le risque d’un nouveau traumatisme des enfants par des vidéos comme celles-ci sont considérablement plus faibles lorsque des mesures significatives ont été prises pour masquer l’identité des enfants. Cela est particulièrement pertinent lorsque le contenu vise à sensibiliser le public et à promouvoir une attitude responsable en matière de violence dans les écoles, ce qui contribue à l’objectif plus large de protection des enfants contre les préjudices. L’analyse de la nécessité et de la proportionnalité serait cependant bien différente si les enfants pouvaient être identifiés facilement. La possibilité d’identification est une considération clé ici.

Une minorité du Conseil n’est pas d’accord. Compte tenu du préjudice potentiel causé à la confidentialité, à la dignité et à la sécurité des enfants représentés, ces Membres estiment que le retrait serait le meilleur moyen de respecter l’intérêt supérieur de l’enfant tel que défini dans la CIDE. Ils estiment que le retrait est à la fois nécessaire et proportionné à cet objectif au titre de l’article 19(3). La minorité, ayant pris note de la position de l’UNICEF, souligne que les représentations de mauvais traitement des enfants sur les réseaux sociaux peuvent infliger un nouveau traumatisme aux enfants victimes et conduire à l’humiliation publique, à la stigmatisation, à l’intimidation et à l’exploitation (PC-31244). La minorité souligne que ces risques sont amplifiés par la nature durable du contenu en ligne, en particulier une fois qu’il est devenu viral, et par la possibilité d’une identification fonctionnelle, malgré le floutage. Pour la minorité, le consentement parental ne change pas cette estimation, car les contenus en ligne peuvent rester accessible indéfiniment. Lorsque ces enfants seront en mesure d’exprimer leur opinion, il sera trop tard pour atténuer l’impact.

La minorité a également indiqué que la restriction de la liberté d’expression se limite aux images et que les efforts de responsabilisation et de réforme peuvent être poursuivis par le biais d’autres formes d’expression. Les experts consultés par le Conseil ont souligné que les reportages, les stratégies de plaidoyers narratifs et les pétitions juridiques peuvent provoquer des changements sans qu’il ne soit nécessaire de recourir aux images. Cela fait écho à l’opinion de l’UNICEF selon laquelle les efforts de responsabilisation ne doivent pas se faire au détriment du droit de l’enfant à la dignité et à l’intégrité.

La majorité et la minorité s'accordent toutes deux à dire que Meta a eu raison de ne pas recourir à une pénalité dans ce cas. L’Espace modération de Meta remarque qu’il peut ou appliquer ou non des pénalités aux comptes qui publient des contenus qu’il supprime, en fonction de différents facteurs, dont la gravité et le contexte. Le Conseil convient que l’application de toute pénalité ayant un impact sur la capacité des utilisateurs à partager du contenu supplémentaire ou à utiliser la plateforme aurait un impact disproportionné sur leur liberté d’expression.

En ce qui concerne la politique, le Conseil estime que l’interdiction de Meta de publier des vidéos ou de mauvais traitement des enfants, quelle que soit l’intention et même lorsque l’identité des personnes est masquée, provoque des restrictions disproportionnées de la liberté d’expression. Le Conseil note que la politique actuelle de Meta ne différencie pas les enfants identifiables et ceux non identifiables, et qu’elle porte uniquement sur la question de savoir si le contenu représente un mauvais traitement des enfants. Cependant, la possibilité d’identification est un facteur critique. Si ce risque est atténué, les préoccupations en matière de confidentialité et de dignité seront plus limitées.

Les normes internationales relatives aux droits humains offrent une protection fiable de l’expression sur des questions d’intérêt public, et quand celle-ci soutient l’accomplissement d’autres droits. Cela comprend des efforts visant à signaler les incidents de mauvais traitement des enfants en milieu scolaire, en particulier dans un contexte où la violence envers les enfants dans les écoles reste répandue. Cela est particulièrement pertinent dans le contexte des efforts mondiaux croissants visant à bannir de telles pratiques. Le partage de ce type de contenu peut révéler des abus systémiques, susciter un débat public et conduire à une responsabilisation ou à des réformes institutionnelles, ce qui est conforme à l’intérêt supérieur de l’enfant.

Les images suscitent souvent des réactions plus fortes que les descriptions narratives, car elle fournit des preuves flagrantes et convaincantes et encourage la responsabilité. Dans certaines régions, comme en Asie du Sud, la diffusion de mauvais traitement des enfants a donné lieu à des réponses immédiates, notamment des opérations de sauvetages, des arrestations ou des mesures disciplinaires.

Le Conseil note également que, selon l’analyse d’experts qu’il a commandée, dans la plupart des cas où des contenus de mauvais traitement des enfants sont partagés sur les réseaux sociaux, l’objectif est de sensibiliser, de signaler des incidents, de condamner les abus, de soutenir l’activité journalistique ou d’exiger que des comptes soient rendus. Cette tendance a été confirmée par une étude interne du Conseil qui a examiné d’autres cas dans lesquels les deux vidéos avaient été partagées sur différentes plateformes de réseaux sociaux et restent accessibles au public.

Pour mieux protéger la liberté d’expression tout en veillant à respecter l’intérêt supérieur de l’enfant, le Conseil recommande que Meta inclue une exception à sa politique relative à l’exploitation sexuelle, à la maltraitance et à la nudité des enfants pour permettre le contenu représentant de mauvais traitement des enfants sans caractère sexuel, avec deux critères. Tout d’abord, elle ne devrait s’appliquer que lorsque l’enfant n’est ni directement identifiable par son nom ou son image, ni fonctionnellement identifiable. Deuxièmement, Meta devrait appliquer cette exception lorsque le contenu est publié à des fins d’information, de condamnation ou de sensibilisation.

Les utilisateurs doivent clairement exprimer leur intention de publication et Meta peut continuer à supprimer le contenu ambigu ou peu clair. Cela limiterait davantage le risque de préjudice aux enfants. D'autres Standards de la communauté exigent que les utilisateurs indiquent clairement leur intention lorsqu'ils créent ou partagent du contenu autrement interdit à des fins de condamnation, de signalement ou de sensibilisation (par exemple, dans le cadre des politiques relatives aux organisations et individus dangereux, à la nudité et aux activités sexuelles des adultes, à l'intimidation et au harcèlement et aux comportements haineux).

Le Conseil note que la politique relative à l’exploitation sexuelle, à la maltraitance et à la nudité des enfants de Meta inclut une exception pour les images de mauvais traitements lorsqu’ils sont commis par du personnel militaire ou des agents de police. Cette ligne de la politique ne contient aucune exigence d’identifiabilité limitée. Le Conseil estime que les mauvais traitements du fait d’enseignants soulèvent des préoccupations similaires en matière de responsabilité. Il estime cependant que des limitations à l’identifiabilité sont nécessaires pour respecter la confidentialité et la sécurité des enfants, conformément à l’intérêt supérieur de ceux-ci

Meta ne devrait pas appliquer de pénalités aux utilisateurs qui partagent des images de mauvais traitement des enfants dans le but de sensibiliser, de condamner ou de signaler des actualités, même si l'enfant est identifiable. Cela permettrait de mieux garantir le caractère proportionnel des mesures de mise en application qui restreignent la liberté d’expression. Le Conseil comprend que l’exception de politique recommandée, en particulier la nécessité de prendre en compte la probabilité d’une identification fonctionnelle, sera appliquée en cas de remontée. Bien que le contenu impliquant des enfants identifiables doive toujours être supprimé, Meta ne devrait pas appliquer de pénalités aux comptes des utilisateurs lorsqu'il existe des indicateurs clairs de leur intention de signaler, de sensibiliser ou de condamner.

Le Conseil tient compte des points de vue des experts et des commentaires du public selon lesquels le fait de flouter ou d’obscurcir les visages peut contribuer à réduire le préjudice causé, mais ne l’élimine pas entièrement. Les limitations techniques, telles qu’une intensité de floutage défaillante et la présence d’indices contextuels (par exemple, des uniformes scolaires, des lieux reconnaissables, des références à l’âge ou à d’autres identifiants) peuvent tout de même permettre l’identification, ce qui présente des risques pour l’enfant et sa famille. Les normes relatives aux droits humains exigent l’anonymat des enfants victimes (CIDE, observation générale 25, paragraphe 57).

Flouter ou masquer le visage d’un enfant reste une mesure utile de réduction des risques de préjudice, qui diminue la probabilité d’identification. Dans la décision Documentaire sur des abus sexuels d’enfants au Pakistan, le Conseil avait encouragé Meta à alléger la charge des utilisateurs et à réduire les risques pour les enfants en fournissant aux utilisateurs des instructions plus spécifiques et des outils intégrés au produit tels que le floutage du visage pour les vidéos. Bien que cela soit faisable du point de vue technique, Meta n’offre pas actuellement de tels outils (voir Vidéo d’un prisonnier des Forces de soutien rapide au Soudan) et a noté que le développement nécessiterait des ressources et la prise en compte de facteurs juridiques et opérationnels. Étant donné l’importance d’éviter l’identification des enfants, le Conseil encourage à nouveau Meta à développer des outils permettant aux utilisateurs de flouter plus efficacement les parties du contenu qu’ils souhaitent publier, en particulier si le floutage permet d’éviter une violation de la politique (voir Partage d’informations privées sur le lieu de résidence, recommandation n° 13).

Le contenu autorisé en vertu de l'exception réservée aux policiers ou aux militaires se voit apposer un écran d'avertissement « Marquer comme dérangeant » et l'accès est limité aux personnes de plus de 18 ans. Ces mesures obligent les utilisateurs à cliquer pour afficher le contenu et l'empêchent d'être recommandé à des non-followers, comme cela a été constaté dans les décisions précédentes (voir Hôpital Al-Shifa, Otages enlevés en Israël et Assassinat d'un candidat dans le cadre des élections municipales au Mexique).

Les mêmes mesures devraient être prises pour le contenu de cette nouvelle exception. Conformément à l’objectif légitime de protection de la confidentialité et de la dignité des enfants représentés, lorsque l’enfant n’est pas identifiable, les écrans d’avertissement et les restrictions d’âge sont une mesure plus proportionnée que le retrait. Bien que la majorité ait conclu que le retrait n’était pas proportionné dans ces cas étant donné que le floutage rendait l’identification des enfants spécifiques peu probable, elle accepte l’argument de la minorité sur le fait qu’un certain risque subsiste. Même si le visage d’un enfant a été flouté ou si des efforts sont faits pour masquer son visage, il peut toujours y avoir des risques potentiels pour sa confidentialité ou sa dignité. Une restriction moins intrusive de la liberté d’expression est justifiée dans la mesure où ce risque est minime. L’UNICEF a souligné l’importance de limiter l’exposition involontaire à de tels contenus et a souligné que les enfants représentés peuvent être confrontés à des phénomènes de harcèlement et de stigmatisation (PC-31244). Les écrans d’avertissement et les restrictions d’âge contribuent à répondre à ces préoccupations en limitant l’exposition et l’accès, en particulier ceux des camarades de l’enfant.

6. Décision du Conseil de surveillance

Le Conseil de surveillance confirme la décision de Meta, dans l'affaire française, de maintenir le contenu sur la plateforme avec une marge de tolérance d’intérêt médiatique et un écran d'avertissement « Marquer comme dérangeant ». Le Conseil annule la décision de Meta dans l’affaire indienne et exige que le contenu soit restauré sur la plateforme avec une marge de tolérance d’intérêt médiatique et le même écran d'avertissement.

7. Recommandations

A. Politique de contenu

1. Afin de permettre aux utilisateurs de condamner, signaler ou sensibiliser au sujet du mauvais traitement des enfants, Meta devrait inclure une exception dans son Standard de la communauté relatif à l’exploitation sexuelle, à la maltraitance et à la nudité des enfants autorisant les images et les vidéos de mauvais traitement des enfants perpétrés par des adultes, lorsqu’elles sont partagées avec une telle intention. Le contenu devrait être autorisé avec un écran d'avertissement « Marquer comme dérangeant » et une visibilité restreinte aux utilisateurs âgés de 18 ans et plus. Dans ces cas, les enfants ne doivent être ni directement identifiable par leur nom ou leur image, ni fonctionnellement identifiable (lorsque des indices de contexte sont susceptibles de conduire à l’identification de l’individu). Cette exception ne devrait être appliquée qu’en cas de remontée.

Le Conseil considérera que cette recommandation aura été implémentée lorsque Meta mettra à jour ses Standards de la communauté en matière d’exploitation sexuelle, maltraitance et nudité d’enfants destinés au public en y ajoutant ce qui a été mentionné précédemment.

B. Mise en application

2. Afin d’assurer une mise en application proportionnée et cohérente, aucune pénalité ne devrait être appliquée aux comptes dont le contenu de mauvais traitement des enfants est supprimé lors d’une remontée, lorsqu’il existe des indicateurs clairs de l’intention de l’utilisateur de condamner, de signaler ou de sensibiliser.

Le Conseil estimera que cette recommandation aura été suivie lorsque Meta partagera ses Standards d’application internes comprenant ces indications pour le contenu examiné en cas de remontée.

* Note de procédure :

  • Les décisions du Conseil de surveillance sont prises par des panels de cinq membres et approuvées par une majorité du Conseil dans son ensemble. Les décisions du Conseil ne représentent pas nécessairement les opinions de tous les membres.
  • En vertu de sa Charte, le Conseil de surveillance est habilité à examiner les appels déposés par les utilisateurs dont le contenu a été supprimé par Meta, les appels déposés par les utilisateurs ayant signalé un contenu que Meta n’a finalement pas supprimé, et les décisions que Meta lui transmet (article 2, section 1 de la Charte). Le Conseil dispose d’une autorité contraignante pour confirmer ou annuler les décisions de Meta relatives au contenu (article 3, section 5 de la Charte ; article 4 de la Charte). Le Conseil est habilité à émettre des recommandations non contraignantes auxquelles Meta doit répondre (article 3, section 4 de la Charte ; article 4). Lorsque Meta s’engage à donner suite aux recommandations, le Conseil surveille leur mise en œuvre.
  • Pour la décision sur ce cas, des recherches indépendantes ont été commandées au nom du Conseil. Le Conseil a bénéficié de l’aide de Duco Advisors, une société de conseil spécialisée dans la géopolitique, la confiance et la sécurité, ainsi que la technologie.

Retour aux décisions de cas et aux avis consultatifs politiques