Le Conseil de surveillance publie un avis consultatif sur le programme cross-check de Meta

En octobre 2021, à la suite des révélations publiées dans le Wall Street Journal sur le programme cross-check de Meta, le Conseil de surveillance a accepté une demande de Meta le priant d’examiner le système cross-check et d’émettre des recommandations pour l’améliorer. Nous y répondons dans le cadre du présent avis consultatif. Il analyse le système cross-check à la lumière des valeurs de Meta et de ses engagements pour les droits de l’homme, soulevant ainsi d’importantes questions sur la manière dont Meta traite ses utilisateurs les plus puissants.

Pour consulter la version complète de notre avis consultatif sur le programme cross-check de Meta, cliquez ici.

Remarque : le résumé de notre avis consultatif a été traduit, mais le texte intégral n’est actuellement disponible qu’en anglais. En cours de réalisation, les traductions correspondantes seront publiées sur notre site web dès que possible en 2023.

Alors que le Conseil commençait à travailler sur cet avis consultatif, Meta a déclaré réaliser chaque jour environ 100 millions d’interventions sur du contenu dans le cadre de la mise en application des règlements. À ce rythme, même si les décisions en matière de contenu de Meta étaient exactes à 99 %, il y aurait malgré tout un million d’erreurs par jour. En cela, alors que le système d’examen de contenu est tenu de traiter les utilisateurs équitablement, le programme cross-check prétend relever le défi plus large de la modération d’immenses volumes de contenu.

Selon Meta, la prise de décision à cette échelle implique de supprimer parfois par erreur du contenu qui n’enfreint pas ses règlements. Le programme cross-check vise à répondre à ce problème en ajoutant d’autres niveaux d’examen manuel à certaines publications initialement identifiées comme en infraction. Lorsque les utilisateurs figurant sur les listes de cross-check de Meta publient ce type de contenu, celui-ci n’est pas immédiatement supprimé, contrairement à ce qu’exigerait la procédure habituelle. Il est laissé en ligne dans l’attente d’un examen manuel supplémentaire. Meta désigne ce type d’intervention de cross-check sous le nom d’« examen secondaire anticipé ». Fin 2021, Meta a élargi le système cross-check de façon à soumettre certaines publications signalées à un examen supplémentaire sur la base du contenu lui-même, plutôt qu’en raison de l’identité de l’auteur de la publication. Meta désigne ce type de cross-check sous le nom d’« examen secondaire général ».

Lors de notre analyse, nous avons identifié plusieurs lacunes dans le programme cross-check de Meta. Bien que Meta ait indiqué au Conseil que le programme cross-check allait dans le sens de ses engagements pour les droits de l’homme, nous avons constaté que sa structure semblait davantage liée à des considérations d’ordre commercial. Le Conseil a conscience que Meta est une entreprise, mais en fournissant une protection supplémentaire à certains utilisateurs essentiellement sélectionnés en vertu d’intérêts commerciaux, le système cross-check permet que du contenu qui aurait été rapidement supprimé dans d’autres circonstances reste en ligne plus longtemps, avec les préjudices que cela peut causer. Nous avons également relevé que Meta n’a pas réalisé le suivi des données pour déterminer si le système cross-check contribue à améliorer la précision des décisions. Et nous avons exprimé notre inquiétude concernant le manque de transparence qui entoure le programme.

En conséquence, le Conseil a fait plusieurs recommandations à Meta. Les systèmes de prévention des erreurs devraient toujours accorder la priorité aux expressions importantes pour les droits de l’homme, et notamment celles d’intérêt public. En lien avec sa volonté d’améliorer ses processus pour tous, Meta devrait prendre des mesures pour atténuer les préjudices causés par du contenu laissé en ligne dans l’attente d’un examen supplémentaire, et pour augmenter radicalement la transparence en lien avec ses systèmes.

Principales observations

Le Conseil reconnaît que la volume et la complexité du contenu publié sur Facebook et Instagram constituent un défi de taille pour aboutir à des systèmes qui respectent les engagements de Meta en matière de droits de l’homme. Cependant, sous sa forme actuelle, le système cross-check présente des failles dans des domaines essentiels, que l’entreprise doit affronter :

Inégalité de traitement pour les utilisateurs. Le système cross-check accorde davantage de protection à certains utilisateurs. Si la publication d’une personne figurant sur les listes de cross-check de Meta est identifiée comme étant en infraction avec les règles de l’entreprise, elle est maintenue sur la plateforme jusqu’à nouvel examen. Meta applique alors l’intégralité de ses politiques, y compris les dispositions constituant des exceptions ou relevant d’un contexte particulier, ce qui augmente les chances de la publication de rester sur la plateforme. En revanche, il est beaucoup moins probable que le contenu des utilisateurs ordinaires soit traité par des examinateurs en mesure d’appliquer l’intégralité des règles Meta. L’absence de critère transparent dans l’élaboration des listes cross-check de Meta rend cette inégalité de traitement tout particulièrement préoccupante. Bien qu’il existe des critères clairs pour y inclure les partenaires commerciaux et les membres de gouvernement, les utilisateurs dont le contenu pourrait être important du point de vue des droits de l’homme, comme les journalistes et les organisations civiles, disposent de moins de voies d’accès au programme.

Suppression du contenu en infraction retardée. Lorsque le contenu d’utilisateurs figurant sur les listes cross-check de Meta est identifié comme en infraction avec les règles Meta, dans l’attente d’un examen supplémentaire, il reste totalement accessible sur la plateforme. Meta a indiqué au Conseil qu’en moyenne, la prise d’une décision sur le contenu des utilisateurs figurant sur ses listes cross-check peut prendre plus de cinq jours. Autrement dit, à cause du système cross-check, le contenu identifié comme étant en infraction avec les règles Meta reste en ligne sur Facebook et Instagram alors qu’il est extrêmement viral et potentiellement nuisible. Comme le volume de contenu sélectionné dans le cadre du système cross-check peut être supérieur à la capacité d’examen de Meta, le programme fonctionne en surcharge, ce qui retarde les décisions.

Défaut de suivi des indicateurs essentiels. Les indicateurs actuellement utilisés par Meta pour mesurer l’efficacité du système cross-check ne répondent pas à toutes les principales inquiétudes. Par exemple, Meta n’a pas fourni au Conseil d’informations montrant l’existence d’un suivi qui permettrait d’évaluer la précision de ses décisions dans le cadre du système cross-check, par rapport à celle de ses mécanismes de contrôle de qualité standard. Sans ces informations, il est difficile de savoir si le programme atteint ses principaux objectifs d’exactitude dans ses décisions de modération ou d’évaluer si avec le système cross-check, Meta risque de s’écarter de ses propres politiques.

Manque de transparence concernant le fonctionnement du système cross-check. Le Conseil nourrit également des inquiétudes au sujet du peu d’informations sur le système cross-check que Meta fournit au public et aux utilisateurs. À l’heure actuelle, Meta n’informe pas les utilisateurs de leur inclusion sur des listes cross-check et ne rend pas publiques ses procédures de création et vérification de ces listes. Par exemple, il n’est pas clair si les entités qui publient constamment du contenu en infraction restent sur les listes cross-check en vertu de leur profil. Ce manque de transparence empêche le Conseil et le public de comprendre toutes les conséquences du programme.

Les recommandations du Conseil de surveillance

Pour respecter les engagements de Meta en matière de droits de l’homme et affronter ces problèmes, il faudrait structurer de manière sensiblement différente un programme corrigeant les erreurs les plus lourdes de conséquences sur Facebook et Instagram. Le Conseil a fait 32 recommandations à ce niveau, dont la plupart sont résumées ci-dessous.

Dans le cadre de sa volonté d’améliorer la modération de son contenu pour tous, Meta devrait accorder la priorité aux expressions importantes pour les droits de l’homme, et notamment celles d’intérêt public. Les utilisateurs susceptibles de produire ce type d’expression devraient figurer en priorité sur les listes d’entités faisant l’objet d’un examen supplémentaire, plutôt que les partenaires commerciaux de Meta. Les publications provenant de ces utilisateurs devraient faire l’objet d’un examen séparé, afin de ne pas entrer en concurrence avec les partenaires commerciaux de Meta en vue de l’accès à des ressources limitées. Si le nombre de followers peut indiquer l’intérêt public de l’expression d’un utilisateur, ce nombre ou la célébrité ne devraient pas constituer le seul critère pour recevoir une protection supplémentaire. Si des utilisateurs figurant sur la liste au titre de leur importance commerciale publient fréquemment du contenu en infraction, leur protection spéciale devrait leur être retirée.

Augmenter radicalement la transparence concernant le système cross-check et son fonctionnement. Meta devrait mesurer, vérifier et publier les indicateurs clés de son programme cross-check, afin d’être en mesure de dire si le programme fonctionne efficacement. L’entreprise devrait établir des critères publics clairs permettant l’inclusion sur les listes cross-check et les utilisateurs les remplissant devraient pouvoir postuler à cet effet. Les comptes de certaines catégories d’entités protégées par le système cross-check devraient également être signalés au public, et notamment ceux des acteurs étatiques, candidats politiques et partenaires commerciaux. Les utilisateurs privilégiés devront ainsi rendre des comptes au public, qui pourra savoir si les entités protégées sont fidèles à leur engagement de respecter les règles. En outre, comme en mai-juin 2022 environ un tiers du contenu inclus dans le système cross-check de Meta n’avait pas pu être transmis au Conseil, Meta doit s’assurer que ledit contenu de cross-check, et tout autre contenu prévu dans nos documents constitutifs, peut faire l’objet d’un appel auprès du Conseil.

Réduire les préjudices provoqués par le contenu laissé en ligne pendant l’examen supplémentaire. Le contenu identifié comme étant en infraction grave lors de la première évaluation de Meta devrait être supprimé ou masqué le temps d’effectuer l’examen supplémentaire. Il ne devrait pas être autorisé que ce contenu reste en ligne et accumule des vues sur la plateforme au simple motif que la personne l’ayant publié est un partenaire commercial ou une célébrité. Pour garantir que les décisions sont prises le plus vite possible, Meta devrait investir dans les ressources nécessaires à ce que sa capacité d’examen soit à la hauteur du volume de contenu demandant un examen supplémentaire.

Pour en savoir plus

Pour lire la version complète de l’avis consultatif du Conseil, ainsi que la demande transmise par Meta au Conseil et les commentaires publics envoyés dans le cadre de cet avis, veuillez cliquer sur les pièces jointes ci-dessous.

Retour Aux Actualités