Le Conseil de surveillance annule les décisions initiales de Meta dans des cas de publications sur l’avortement aux États-Unis

Le Conseil de surveillance a annulé les décisions initiales de Meta de supprimer trois publications sur l’avortement utilisant un langage violent de façon rhétorique. Même si Meta a reconnu que ses décisions initiales étaient incorrectes et qu’aucune de ces publications n’enfreignait sa politique en matière de violence et d’incitation, le Conseil craint que la façon dont l’entreprise évalue la rhétorique violente ait un impact disproportionné sur les débats sur l’avortement et la libre expression des opinions politiques. Afin que le Conseil puisse mener à bien sa propre analyse, Meta devrait régulièrement fournir au Conseil les données sur lesquelles ses équipes se basent pour évaluer la mise en application de sa politique en matière de violence et d’incitation.

À propos des cas

Les trois contenus sur l’avortement concernés par cette décision ont été publiés aux États-Unis en mars 2023.

Dans le premier cas, une personne a publié une image montrant des mains tendues, avec le texte superposé « Pro-Abortion Logic » (La logique pro-avortement), dans un groupe Facebook public. La publication indiquait ensuite : « We don’t want you to be poor, starved or unwanted. So we’ll just kill you instead. » (Nous ne voulons pas que tu sois pauvre, que tu aies faim ou que tu ne sois pas voulu, donc nous préférons te tuer). Le groupe se décrit comme soutenant « the sanctity of human life » (le caractère sacré de la vie humaine).

Dans les deux autres cas, les publications concernaient des articles de presse sur un projet de loi en Caroline du Sud qui appliquerait les lois de l’État sur l’homicide à l’avortement, rendant les personnes qui se font avorter éligibles à la peine de mort. Dans l’une de ces publications, sur Instagram, l’image du titre de l’article était accompagnée d’une légende faisant référence aux législateurs de Caroline du Sud et indiquant que cette mesure était « so pro-life we’ll kill you dead if you get an abortion » (tellement pro-vie que si vous avortez, nous vous tuerons vous aussi). L’autre publication, sur Facebook, contenait une légende s’interrogeant sur la position des législateurs, qui semble être la suivante : « it’s wrong to kill so we are going to kill you » (tuer, ce n’est pas bien, donc nous allons vous tuer en retour).

Après que les systèmes automatisés de Meta, plus précisément un classificateur de discours hostile, ont classé le contenu comme potentiellement nuisible, les trois publications ont été soumises à un examen manuel. Dans les trois cas, six membres de l’équipe d’examen sur sept ont conclu que les publications enfreignaient le Standard de la communauté de Meta en matière de violence et d’incitation parce qu’ils contenaient des menaces de mort. Les trois personnes à l’origine de ces publications ont fait appel de la suppression de leur contenu. Lorsque le Conseil a sélectionné ces cas, Meta a reconnu que ses décisions initiales étaient incorrectes et a remis les publications en ligne.

Principales observations

Le Conseil conclut qu’aucune des trois publications ne peut être raisonnablement interprétée comme une menace ou une incitation à la violence. Bien qu’elles utilisent toutes une variante de la formulation « we will kill you » (nous allons vous tuer) sur un ton malicieux et à la première personne du pluriel pour mettre en avant une divergence d’opinions, aucune ne laisse entrevoir une véritable menace ou une intention réelle de commettre un acte de violence. Dans ces trois cas, six membres de l’équipe de modération sur sept ont commis une erreur lors de la mise en application des politiques de Meta. Le Conseil a cherché des explications à ces erreurs, qui pourraient représenter, comme le suggèrent les réponses de Meta, un petit sous-ensemble potentiellement inévitable de décisions incorrectes sur des publications. Il se peut également que les membres de l’équipe d’examen, qui n’étaient pas originaires de la région dans laquelle le contenu a été publié, n’aient pas entièrement compris le contexte linguistique ou politique, ou encore qu’ils ne se soient pas rendu compte que le langage violent ne constituait pas une infraction. Les directives de Meta peuvent également faire défaut, l’entreprise ayant indiqué au Conseil qu’elle ne fournissait à ses équipes de modération aucune instruction spécifique sur la manière de traiter les contenus liés à l’avortement dans le cadre de sa politique en matière de violence et d’incitation.

Les discussions sur l’avortement sont souvent très intenses et peuvent inclure des menaces interdites par Meta. Il est donc important que Meta veille à ce que ses systèmes sachent faire la distinction entre les menaces et l’utilisation rhétorique d’un langage violent, qui ne constitue pas une infraction à ses règles.

Aucun de ces cas n’étant ambigu, ces erreurs sont la preuve que la façon dont Meta met en application ses politiques peut être améliorée. En plus de limiter la liberté d’expression dans certains cas individuels, ce genre d’erreurs créent des tendances à la censure, car les modèles de machine learning sont entraînés à partir du contenu qui est en infraction sur le moment. Ces cas montrent également que la suppression de contenus qui n’enfreignent pas les règles de Meta peut porter atteinte aux débats politiques sur les problématiques les plus controversées dans un pays, ce qui complique leur résolution.

Meta n’a pas su prouver au Conseil que ces erreurs étaient des exceptions et ne représentaient en aucun cas un problème d’inexactitude systémique.

Le Conseil estime que les technologies de machine learning émergentes peuvent considérablement réduire les erreurs comme celles-ci, qui sont relativement simples. Il soutient également la récente amélioration par Meta de la sensibilité de son processus de mise en application pour ce qui est des discours violents. Cependant, le Conseil aimerait recevoir davantage de données pour évaluer les performances de Meta dans ce domaine au fil du temps.

La décision du Conseil de surveillance

Le Conseil de surveillance annule les décisions initiales de Meta de supprimer trois publications sur l’avortement.

Le Conseil recommande à Meta de :

  • Fournir au Conseil les données sur lesquelles ses équipes se basent pour évaluer la mise en application de sa politique en matière de violence et d’incitation. Ces informations doivent être suffisamment complètes pour que le Conseil puisse valider les arguments de Meta selon lesquels les erreurs commises dans ces cas ne représentent pas un problème systémique dans le processus de mise en application de Meta.

Pour en savoir plus

Pour lire l’intégralité de la décision, cliquez ici.

Pour lire un résumé des commentaires publics relatifs à ce cas, cliquez sur la pièce jointe ci-dessous.

Retour Aux Actualités