Le Conseil de surveillance confirme la décision initiale de Meta pour le cas de la « vidéo de harcèlement sexuel en Inde »

Le Conseil de surveillance a confirmé la décision de Meta de restaurer une publication sur Instagram contenant une vidéo d’une femme agressée sexuellement par un groupe d’hommes. Le Conseil a estimé que « la marge de tolérance liée à la pertinence » de Meta ne permet pas de résoudre des cas comme celui-ci à grande échelle et que l’entreprise devrait appliquer une exception à sa politique en matière d’exploitation sexuelle des adultes.

À propos du cas

En mars 2022, un compte Instagram se décrivant comme une plate-forme dédiée au point de vue des Dalits a publié une vidéo venant d’Inde montrant une femme agressée par un groupe d’hommes. Les personnes « Dalits » étaient auparavant appelées « intouchables » et ont été victimes d’oppression dans le cadre du système des castes. Le visage de la femme n’est pas visible dans la vidéo et elle ne comporte pas de nudité. Le texte accompagnant la vidéo indique qu’une « tribal woman » (femme tribale) a été agressée sexuellement en public, et que la vidéo est devenue virale. Le terme « tribal » désigne les populations autochtones de l’Inde, également appelées Adivasis.

Après qu’un utilisateur a signalé la publication, Meta l’a supprimée car elle enfreignait la politique relative à l’exploitation sexuelle d’adultes, qui interdit les contenus qui « dépeignent, menacent ou encouragent la violence sexuelle, l’agression sexuelle ou l’exploitation sexuelle ».

Un employé de Meta a marqué la suppression du contenu via un canal de signalement interne après l’avoir vu sur Instagram. Les équipes internes de Meta ont ensuite examiné le contenu et appliqué une « marge de tolérance liée à la pertinence ». Cela permet à des contenus qui seraient par ailleurs en infraction de rester sur les plateformes de Meta s’ils sont pertinents et dans l’intérêt du public. Meta a restauré le contenu, en plaçant un écran d’avertissement sur la vidéo qui empêche toute personne de moins de 18 ans de la regarder, et a ensuite transmis le cas au Conseil.

Principales observations

Le Conseil estime que la restauration du contenu sur la plateforme avec l’apposition d’un écran d’avertissement est conforme aux responsabilités et aux valeurs de Meta en matière de droits de l’homme.

Le Conseil reconnaît que les contenus montrant des attouchements sexuels non consentis peuvent entraîner un risque important de préjudice, à la fois pour les victimes individuelles et pour un public plus large, par exemple en enhardissant les auteurs et en augmentant l’acceptation de la violence.

En Inde, les Dalits et les Adivasis, en particulier les femmes, sont victimes de graves discriminations et les crimes à leur encontre sont en augmentation. Les réseaux sociaux sont un moyen important de documenter ces violences et discriminations et le contenu de ce cas semble avoir été publié pour sensibiliser l’opinion publique. La publication a donc une valeur d’intérêt public significative et bénéficie d’un haut degré de protection en vertu des normes internationales en matière de droits de l’homme.

Étant donné que la vidéo ne comporte pas de contenu explicite ou de nudité, et que la majorité du Conseil estime que la victime ne peut pas être identifiée, une majorité estime que les avantages d’autoriser la vidéo sur la plateforme, derrière un écran d’avertissement, l’emportent sur le risque de préjudice. Lorsqu’une victime n’est pas identifiable, le risque qu’elle subisse un préjudice est considérablement réduit. L’écran d’avertissement, qui empêche les personnes de moins de 18 ans de voir la vidéo, contribue à protéger la dignité de la victime, ainsi que les enfants et les victimes de harcèlement sexuel contre l’exposition à des contenus perturbants ou traumatisants.

Le Conseil convient que le contenu enfreint la politique de Meta en matière d’exploitation sexuelle d’adultes et que la marge de tolérance liée à la pertinence pourrait s’appliquer. Toutefois, reprenant les préoccupations soulevées par le Conseil dans le cas de la « vidéo explicite au Soudan », le Conseil estime que la marge de tolérance liée à la pertinence ne permet pas de traiter des cas tels que celui-ci à grande échelle.

La marge de tolérance liée à la pertinence est rarement utilisée. Au cours de l’année se terminant le 1er juin 2022, Meta ne l’a appliquée que 68 fois dans le monde, un chiffre qui a été rendu public à la suite d’une recommandation du Conseil. Seule une petite partie a été émise en relation avec le Standard de la communauté relatif à l’exploitation sexuelle d’adultes. La marge de tolérance liée à la pertinence ne peut être appliquée que par les équipes internes de Meta. Cependant, ce cas montre que le processus de transmission à un niveau hiérarchique supérieur du contenu pertinent vers ces équipes n’est pas fiable. Un employé de Meta a marqué la suppression du contenu via un canal de signalement interne après l’avoir vu sur Instagram.

Le marge de tolérance liée à la pertinence est vague, laisse une grande marge de manœuvre à la personne qui l’applique et ne peut garantir une application cohérente à l’échelle. Cette marge n’inclut pas non plus de critères clairs pour évaluer le préjudice potentiel causé par un contenu qui enfreint la politique sur l’exploitation sexuelle d’adultes. Le Conseil estime que les responsabilités de Meta en matière de droits de l’homme l’obligent à fournir des standards plus clairs et des processus d’application plus efficaces pour des cas comme celui-ci. Une exception à la politique est nécessaire. Celle-ci pourrait être appliquée à grande échelle et adaptée à la politique relative à l’exploitation sexuelle d’adultes. Cela devrait fournir des règles plus claires pour distinguer les publications partagées pour sensibiliser le public de celles destinées à perpétuer la violence ou la discrimination, et aider Meta à équilibrer les droits concurrents à l’échelle.

La décision du Conseil de surveillance

Le Conseil de surveillance confirme la décision de Meta visant à restaurer la publication avec l’apposition d’un écran d’avertissement.

Le Conseil recommande également à Meta de :

  • Inclure une exception au Standard de la communauté relatif à l’exploitation sexuelle d’adultes pour les représentations d’attouchements sexuels non consentis. Cette mesure ne serait appliquée que par les équipes internes de Meta et permettrait un contenu où la victime n’est pas identifiable, et dont Meta juge qu’il est partagé pour sensibiliser, qu’il n’est pas partagé dans un contexte sensationnaliste et qu’il n’implique pas de nudité.
  • Mettre à jour ses règles internes à l’intention des équipes d’examen de contenu à l’échelle sur les circonstances dans lesquelles il convient de transmettre à un niveau hiérarchique supérieur le contenu examiné dans le cadre du Standard de la communauté relatif à l’exploitation sexuelle d’adultes qui peut bénéficier de l’exception susmentionnée.

Pour en savoir plus

Pour lire l’intégralité de la décision, cliquez ici.

Pour lire un résumé des commentaires publics relatifs à ce cas, cliquez sur la pièce jointe ci-dessous.

Retour Aux Actualités