Renversé
Dessin représentant la police colombienne
Le Conseil de surveillance a annulé la décision initiale de Meta de supprimer une publication sur Facebook d’un dessin décrivant la violence policière en Colombie.
Résumé du cas
Le Conseil de surveillance a annulé la décision initiale de Meta de supprimer une publication sur Facebook d’un dessin décrivant la violence policière en Colombie. Le Conseil redoute que les banques des Services de mise en correspondance du contenu multimédia, qui peuvent supprimer automatiquement les images enfreignant les règles de Meta, n’amplifient l’impact des décisions inadéquates sur mise en banque de contenu. En réponse, Meta doit améliorer de toute urgence ses procédures pour supprimer rapidement de ces banques le contenu qui n’est pas en infraction.
À propos du cas
Au mois de septembre 2020, en Colombie, une personne utilisant Facebook a publié un dessin ressemblant à l’écusson officiel de la police nationale de Colombie, représentant 3 personnages en uniforme de police tenant des matraques au-dessus de leur tête. Ils semblent donner des coups de pied et de poing à un autre personnage qui gît sur le sol, du sang sous la tête. Le texte de l’écusson indique, en espagnol, « República de Colombia - Policía Nacional - Bolillo y Pata ». Meta a traduit le texte par « Police nationale - République de Colombie - Bâton et coup de pied ».
Selon Meta, en janvier 2022, soit 16 mois après que la personne a publié le contenu, l’entreprise a supprimé le contenu car il correspondait à une image dans une banque des Services de mise en correspondance du contenu multimédia. Ces banques peuvent identifier et supprimer automatiquement les images qui ont été identifiées par un examen manuel comme enfreignant les règles de l’entreprise. Suite à la sélection de ce cas par le Conseil, Meta a jugé que la publication n’était pas en infraction avec ses règles et l’a réintroduite. L’entreprise a également réintroduit d’autres contenus contenant ce dessin, qui avaient été supprimés par erreur par ses banques de des Services de mise en correspondance du contenu multimédia.
Principales observations
Meta a maintenant reconnu que cette publication n’était pas en infraction avec ses politiques. Meta a eu tort d’ajouter ce dessin à sa banque des Services de mise en correspondance du contenu multimédia, ce qui a entraîné une suppression massive et disproportionnée de l’image de la plateforme, y compris du contenu publié dans cette publication par le membre en question. Bien que 215 utilisateur·ices aient fait appel de ces suppressions, et que 98 % de ces appels aient abouti, Meta n’avait toujours pas retiré le dessin de cette banque avant que l’affaire ne soit portée devant le Conseil.
Ce cas montre comment, en utilisant des systèmes automatisés pour supprimer du contenu, les banques des Services de mise en correspondance du contenu multimédia peuvent grossir l’impact de décisions incorrectes émanant d’examens manuels individuels. Les enjeux des ajouts erronés à ces banques sont particulièrement élevés lorsque, comme dans ce cas, le contenu consiste en un discours politique critiquant des responsables de l’État.
En réponse, Meta devrait développer des mécanismes pour supprimer rapidement tout contenu sans infraction qui est ajouté par erreur à ses banques des Services de mise en correspondance du contenu multimédia. Puisque les décisions de supprimer le contenu ajouté à ces banques sont fréquemment annulées en appel, cela devrait immédiatement déclencher des examens susceptibles de supprimer ce type de contenu de la banque.
Le Conseil est particulièrement préoccupé par le fait que Meta ne mesure pas l’exactitude des banques de données des Services de mise en correspondance du contenu multimédia pour des politiques relatives à des contenus spécifiques. Sans ces données, qui sont cruciales pour améliorer le fonctionnement de ces banques, l’entreprise ne peut pas dire si cette technologie fonctionne plus efficacement pour certains Standards de la communauté que pour d’autres.
Décision du Conseil de surveillance
Le Conseil de surveillance a annulé la décision initiale de Meta visant à supprimer le contenu.
Le Conseil recommande à Meta de :
- S’assurer que le contenu présentant des taux d’appel élevés ainsi que des taux d’appel fructueux élevés est réévalué en vue de sa suppression éventuelle de ses banques des Services de mise en correspondance du contenu multimédia.
- Limiter le délai entre le moment où le contenu stocké dans les banques est identifié pour un examen supplémentaire et le moment où, s’il est jugé sans infraction, il est retiré de la banque. Cela permettrait de s’assurer que les contenus qui ne sont pas en infraction sont rapidement retirés des banques des Services de mise en correspondance du contenu multimédia.
- Publier dans son rapport de transparence les taux d’erreur pour les contenus introduits par erreur dans les banques des Services de mise en correspondance du contenu multimédia, ventilés par politique de contenu.
*Les résumés de cas fournissent une présentation du cas et n’ont pas valeur de précédent.
Décision complète sur le cas
1. Résumé de la décision
Le Conseil de surveillance annule la décision initiale de Meta de supprimer une publication sur Facebook d’un dessin décrivant la violence policière en Colombie. Le Conseil estime que ce dessin, qui n’était pas en infraction avec les Standards de la communauté Facebook, a été placé à tort dans l’une des banques des Services de mise en correspondance du contenu multimédia de Meta, ce qui a entraîné la suppression de cette publication. Ces banques peuvent identifier et supprimer automatiquement les images ayant été précédemment identifiées comme enfreignant les règles de l’entreprise. Après que le Conseil a sélectionné le cas, Meta a constaté que ce contenu n’était pas en infraction et a reconnu qu’il avait été supprimé par erreur. Le Conseil est préoccupé par le fait que l’inclusion erronée de contenu sans infraction dans les banques des Services de mise en correspondance du contenu multimédia entraîne une mise en application erronée disproportionnée. De plus, l’incapacité à prévenir ou à remédier rapidement à cette erreur aggrave le problème au fil du temps. Meta doit donc améliorer de toute urgence ses mécanismes d’examen afin de procéder au retrait rapide des contenus sans infraction de ces banques, surveiller la performance de ces mécanismes et rendre publiques les informations dans le cadre de ses efforts de transparence.
2. Description du cas et contexte
En septembre 2020, une personne utilisant Facebook en Colombie a publié un dessin dans un commentaire, sous la publication d’une autre personne. Le dessin ressemble à l’écusson officiel de la police nationale colombienne et représente 3 personnages portant des uniformes de police et tenant des matraques au-dessus de leur tête. Les personnages semblent donner des coups de pied et de poing à un autre personnage qui gît sur le sol, du sang sous la tête. Un livre et un crayon sont représentés à côté du personnage, sur le sol. Le texte de l’écusson indique, en espagnol, « República de Colombia - Policía Nacional - Bolillo y Pata ». L’équipe des marchés régionaux de Meta a traduit le texte par « Police nationale - République de Colombie - Bâton et coup de pied ». Cette publication a été rédigée alors que le pays connaît une vague de protestations à la suite d’un homicide commis par la police.
Selon Meta, en janvier 2022, soit 16 mois après la publication initiale du contenu sur Facebook, l’entreprise a supprimé le contenu car il correspondait à une image de sa banque des Services de mise en correspondance du contenu multimédia enfreignant le Standard de la communauté relatif aux personnes et organisations dangereuses de Facebook. La personne a fait appel, et Meta a maintenu sa décision de supprimer le contenu, fondant sa décision de suppression sur les Standards de la communauté relatifs à la violence et à l’incitation. Au moment de la suppression, le contenu avait été consulté à 3 reprises et n’avait fait l’objet d’aucune réaction ni d’aucun rapport émanant du public.
Suite à la sélection de ce cas par le Conseil, Meta a réexaminé le contenu et a déterminé qu’il n’était pas en infraction avec le Standard de la communauté relatif aux personnes et organisations dangereuses ou avec le Standard de la communauté relatif à la violence et à l’incitation. Le contenu a ensuite été rétabli sur la plateforme environ un mois après avoir été supprimé.
Meta a également informé le Conseil qu’étant donné que l’image se trouvait dans une banque des Services de mise en correspondance du contenu multimédia, des contenus identiques, dont le présent cas, avaient été retirés de la plateforme. 215 de ces suppressions ont fait l’objet d’un appel de la part de membres, et 210 de ces appels ont abouti. Ceci signifie que les équipes d’examen de cette série de cas ont décidé que le contenu n’était pas en infraction. Toutes les suppressions restantes, ainsi que les sanctions et les limitations de fonctionnalités correspondantes, ont également été annulées par Meta après que le Conseil a sélectionné le cas.
3. Champ d’application et autorité du Conseil de surveillance
Le Conseil jouit de l’autorité nécessaire pour examiner la décision de Meta à la suite d’un appel interjeté par l’utilisateur dont le contenu a été supprimé (article 2, section 1 de la Charte ; article 3, section 1 des Statuts). Le Conseil peut confirmer ou annuler la décision de Meta (article 3, section 5 de la Charte), et ce, de manière contraignante pour l’entreprise (article 4 de la Charte). Meta doit également évaluer la possibilité d’appliquer la décision à un contenu identique dans un contexte parallèle (article 4 de la Charte). Les décisions du Conseil peuvent inclure des avis consultatifs sur la politique avec des recommandations non contraignantes auxquelles Meta doit répondre (article 3, section 4 ; article 4 de la Charte).
Lorsque le Conseil sélectionne des cas comme celui-ci, où Meta reconnaît par la suite avoir commis une erreur, il réexamine la décision initiale afin de mieux comprendre le processus de modération du contenu qui a conduit à l’erreur. Ainsi, il peut formuler des recommandations structurelles visant à réduire les erreurs et à traiter les utilisateur·ices de manière plus équitable à l’avenir.
4. Sources d’autorité
Le Conseil de surveillance a pris les sources d’autorité suivantes en considération :
I.Décisions du Conseil de surveillance :
La décision du Conseil la plus pertinente pour cette affaire est la décision « Manifestations en Colombie » (2021-010-FB-UA). Dans cette décision, le Conseil a souligné l’intérêt public à autoriser les contenus critiquant le gouvernement lors de manifestations, en particulier dans des contextes où les États sont accusés d’être en infraction avec les droits de l’homme.
II.Règles de Meta relatives au contenu :
Le Standard de la communauté Facebook relatif aux personnes et organisations dangereuses stipule que Meta « supprim[e] les éloges, les soutiens techniques et la représentation de diverses organisations dangereuses ».
Le Standard de la communauté Facebook relatif à la violence et à l’incitation stipule que Meta « souhait[e] empêcher tout risque de violence hors ligne potentiellement lié à du contenu sur Facebook » et que l’entreprise restreint la liberté d’expression « lorsqu’[elle] pens[e] qu’un contenu représente un réel risque de blessures physiques ou une atteinte directe à la sécurité publique ».
Le Standard de la communauté Facebook relatif au contenu violent et explicite stipule que Meta « supprim[e] tout contenu qui glorifie la violence, ou qui prône la souffrance ou l’humiliation d’autres personnes ».
III.Les valeurs de Meta :
Les valeurs de Meta sont détaillées dans l’introduction des Standards de la communauté Facebook, et la liberté d’expression y est considérée comme « primordiale ». Meta limite la liberté d’expression au service de 4 valeurs, à savoir « Authenticité », « Sécurité », « Confidentialité » et « Dignité ». La « Sécurité » et la « Dignité » sont les plus pertinentes ici.
IV.Normes internationales relatives aux droits de l’homme :
Les Principes directeurs relatifs aux entreprises et aux droits de l’homme des Nations Unies (PDNU), soutenus par le Conseil des droits de l’homme des Nations unies en 2011, établissent un cadre de travail volontaire pour les responsabilités relatives aux droits de l’homme des entreprises privées. En 2021, Meta a annoncé l’entrée en vigueur de sa Politique d’entreprise relative aux droits de l’homme, dans laquelle elle a réaffirmé son engagement à respecter les droits de l’homme conformément aux PDNU.
L’analyse des responsabilités de Meta en matière des droits de l’homme effectuée par le Conseil dans le cas présent s’est appuyée sur les normes des droits de l’homme suivantes, appliquées dans la section 8 de cette décision :
- Les droits à la liberté d’opinion et d’expression : l’article 19 du Pacte international relatif aux droits civils et politiques (PIDCP), l’observation générale n° 34 du Comité des droits de l’homme, 2011.
5. Soumissions de l’utilisateur·ice
Dans sa déclaration au Conseil, le membre a exprimé sa confusion quant à la raison pour laquelle le contenu a été supprimé par Meta. Selon lui, le contenu reflétait la réalité en Colombie, ce qui était un facteur essentiel pour les personnes intéressées ou touchées par la situation.
6. Soumissions de Meta
Meta a expliqué dans sa justification avoir retiré le contenu parce qu’il correspondait à une image qui avait été entrée par erreur par l’examen manuel dans une banque des Services de mise en correspondance du contenu multimédia relative aux personnes et organisations dangereuses. En appel, Meta a confirmé la suppression mais a jugé que le contenu était en infraction avec sa politique sur la violence et l’incitation plutôt qu’avec sa politique sur les personnes et organisations dangereuses. Meta a confirmé par la suite que les deux décisions de supprimer le contenu étaient inadéquates. L’entreprise a déclaré que la politique relative aux contenus violents et explicites pouvait également s’appliquer à ce cas, car elle décrit une attaque violente, mais qu’elle ne s’applique pas aux images telles que les dessins.
Selon Meta, ses banques des Services de mise en correspondance du contenu multimédia repèrent et agissent sur du contenu multimédia publié sur ses plateformes, dans ce cas des images. Une fois que le contenu est identifié pour être mis en banque, il est converti en une chaîne de données, ou « hash ». Le hachage est ensuite associé à une banque de données particulière. Les banques des Services de mise en correspondance du contenu multimédia de Meta s’alignent sur des politiques de contenu particulières telles que les personnes et organisations dangereuses, les discours haineux et l’exploitation sexuelle des enfants, les abus et la nudité, ou sur des sections spécifiques d’une politique. Dans ce cas, Meta a déclaré que le contenu se trouvait dans une banque de Services de mise en correspondance du contenu multimédia spécialement destinée aux organisations criminelles, une catégorie interdite dans le cadre de la politique relative aux personnes et organisations dangereuses.
Selon l’usage que Meta fait de la banque spécifique, le système peut être programmé pour prendre différentes mesures une fois qu’il a identifié le contenu mis en banque. Par exemple, Meta peut supprimer le contenu qui est en infraction, ajouter un écran d’avertissement ou l’ignorer s’il a été mis en banque en tant que contenu sans infraction. Les banques des Services de mise en correspondance du contenu multimédia peuvent également fournir des conseils aux équipes d’examen du contenu lorsqu’elles révisent le contenu mis en banque.
Meta a également déclaré que ses banques des Services de mise en correspondance du contenu multimédia peuvent agir à différents moments dans le temps. Par exemple, Meta peut scanner des images au moment de leur importation pour empêcher qu’un contenu en infraction soit publié. Les banques peuvent également être configurées pour détecter et prendre des mesures uniquement sur le contenu nouvellement importé, ou elles peuvent être utilisées pour analyser le contenu existant sur la plateforme.
Le Conseil a interrogé Meta sur la manière dont l’entreprise identifie et ajoute du contenu aux banques des Services de mise en correspondance du contenu multimédia. Meta a expliqué que l’examen manuel à grande échelle identifie le contenu admissible à la mise en banque. Selon Meta, pour les banques des Services de mise en correspondance du contenu multimédia associées à la politique relative aux personnes et organisations dangereuses, le contenu est ensuite envoyé à un processus appelé « Dynamic Multi-Review », dans lequel « 2 membres de l’équipe d’examen doivent s’entendre sur une décision pour que le contenu multimédia soit envoyé à la banque ». Meta décrit ce processus comme un garde-fou permettant d’éviter les erreurs.
Le Conseil a également interrogé Meta sur les mécanismes à sa disposition permettant d’identifier les contenus mis en banque par erreur. Meta a déclaré avoir différents « systèmes d’alerte en cas d’anomalie ». Ceux-ci comprennent un système qui se déclenche si une banque contient du contenu que Meta considère comme viral. Le système permet également d’identifier les contenus mis en banque dont le taux de réussite des appels après suppression est élevé. Ces systèmes étaient actifs pour ce fichier lorsque le contenu a été supprimé.
Meta a déclaré que le nombre de suppressions et d’appels fructueux pour ce contenu a généré une alerte pour l’équipe d’ingénierie de Meta au moment où le contenu a été supprimé. Cependant, un mois plus tard, lorsque le Conseil a porté ce cas à l’attention de Meta, l’entreprise n’avait toujours pas examiné et supprimé le contenu de la banque des Services de mise en correspondance du contenu multimédia. On ne sait pas si cette équipe d’ingénierie a alerté les autres équipes qui auraient été chargées de réexaminer le contenu et de juger s’il était en infraction. Bien que Meta ait indiqué qu’un certain délai était prévu pour l’examen des rapports, elle n’a donné au Conseil aucune indication quant au moment où elle aurait traité cette alerte. Le Conseil est préoccupé par la longueur de ce délai. Meta devrait surveiller le temps qu’il faut pour supprimer le contenu ajouté par erreur dans les banques, annuler les décisions de mise en application inadéquates après le déclenchement des alertes, et fixer un objectif concret pour réduire ce délai.
Enfin, le Conseil a interrogé Meta sur les paramètres utilisés pour vérifier le rendement des banques des Services de mise en correspondance du contenu multimédia. Meta affirme surveiller généralement les moments où ses banques prennent davantage de décisions inadéquates. L’entreprise tente également de déterminer ce qui pourrait causer cette augmentation des erreurs. Toutefois, actuellement, ces évaluations d’audit portent généralement sur des banques individuelles. Étant donné que ces banques peuvent cibler des lignes de politique spécifiques et être programmées pour prendre une variété de mesures différentes, il est parfois difficile de générer des données significatives sur l’exactitude globale de la mise en application pour un Standard de la communauté spécifique, ou pour les banques des Services de mise en correspondance du contenu multimédia à partir de ces analyses. Meta a déclaré être en train de travailler à la création d’un indicateur uniformisé pour contrôler l’exactitude des banques des Services de mise en correspondance du contenu multimédia.
Au total, le Conseil a posé 26 questions à Meta : l’entreprise a répondu de manière exhaustive à 24 d’entre elles et n’a répondu que partiellement à 2 questions. Les réponses partielles portaient sur la mesure de l’exactitude et des taux d’erreur des banques de données des Services de mise en correspondance du contenu multimédia de l’entreprise et sur des questions techniques liées aux messages que Meta envoie à l’utilisateur·ice. Meta a également fourni une séance d’information virtuelle à un groupe de membres du Conseil sur les banques des Services de mise en correspondance du contenu multimédia.
7. Commentaires publics
Le Conseil a reçu 4 commentaires publics en rapport avec ce cas. 2 commentaires provenaient des États-Unis et du Canada, et 2 autres d’Amérique latine et des Caraïbes. Les soumissions portaient sur l’utilisation de la technologie de mise en correspondance du contenu multimédia dans la modération de contenu, le contexte socio-politique en Colombie, l’importance des médias sociaux quand la violence policière est filmée lors de la gestion des manifestations, et la manière dont les politiques de contenu de Meta devraient protéger la liberté d’expression.
Pour lire les commentaires publics transmis pour ce cas, veuillez cliquer ici.
8. Analyse du Conseil de surveillance
Le Conseil a choisi ce cas car il s’agit d’une expression artistique sur la violence policière dans un contexte de manifestations, un sujet très brûlant en Amérique latine. Ce cas a également donné l’occasion au Conseil d’analyser l’utilisation par Meta de la technologie des Services de mise en correspondance du contenu multimédia dans le cadre de la modération de contenu. Le Conseil a examiné la question de la restauration de ce contenu sous 3 angles : les politiques relatives au contenu de Meta, les valeurs de l’entreprise et ses responsabilités en matière de droits de l’homme.
8.1 Respect des politiques relatives au contenu de Meta
I.Règles relatives au contenu
Le Conseil estime que les actions de Meta n’étaient pas conformes aux politiques de contenu de Facebook. Meta a admis que le contenu n’était en infraction avec aucune de ses politiques. La décision de l’ajouter à une banque des Services de mise en correspondance du contenu multimédia et le fait de ne pas avoir annulé l’action de la suppression automatique en appel étaient erronés.
II.Mesures de mise en application
Ce n’est qu’après la sélection du cas par le Conseil que Meta a rétabli le contenu, ainsi que d’autres éléments de contenu également supprimés en raison d’une mise en banque inappropriée par les Services de mise en correspondance du contenu multimédia. En réponse à une question du Conseil, Meta a déclaré disposer de mécanismes d’avis permettant d’identifier les erreurs et de suspendre le traitement du contenu mis en banque par erreur. Néanmoins, 215 utilisateur·ices ont fait appel des suppressions et 98 % de ces appels ont abouti. Cependant, aucun mécanisme d’avis n’a permis de supprimer le contenu de la banque des Services de mise en correspondance du contenu multimédia avant que le Conseil ne soit saisi de l’affaire.
8.2 Respect des valeurs de Meta
Le Conseil estime que la décision initiale visant à supprimer le contenu était incompatible avec les valeurs de « liberté d’expression » et que sa suppression n’était cautionnée par aucune autre valeur de Meta.
8.3 Respect des responsabilités de Meta en matière des droits de l’homme
Le Conseil conclut que la décision initiale de Meta de supprimer le contenu n’était pas conforme aux responsabilités en matière des droits de l’homme qui lui incombe en tant qu’entreprise. Meta s’est engagée à respecter les droits de l’homme en vertu des Principes directeurs des Nations unies relatifs aux entreprises et aux droits de l’homme (PDNU). La Politique d’entreprise relative aux droits de l’homme de Facebook indique que ceci inclut le Pacte international relatif aux droits civils et politiques (PIDCP).
Liberté d’expression (article 19 du PIDCP)
L’article 19 du PIDCP prévoit une large protection de la liberté d’expression, sachant que l’expression de préoccupations sociales ou politiques bénéficie d’une protection encore plus importante ( Observation générale 34, paragraphes 11 et 20). En vertu de l’article 19, lorsqu’un État impose des limitations à la liberté d’expression, celles-ci doivent remplir des critères de légalité, d’objectif légitime ainsi que de nécessité et de proportionnalité (article 19, paragraphe 3, PIDCP). Le Conseil se sert de ce cadre pour orienter son évaluation de la modération du contenu de Meta.
I.Légalité (clarté et accessibilité des règles)
Le critère de légalité stipule que toute limitation de la liberté d’expression doit être accessible et suffisamment claire pour fournir des indications sur ce qui est autorisé et ce qui ne l’est pas. Dans ce cas, la suppression inappropriée du contenu n’était pas imputable au manque de clarté ou d’accessibilité des politiques pertinentes.
II.Objectif légitime
Toute limitation de la liberté d’expression doit poursuivre l’un des objectifs légitimes énoncés dans le PIDCP, lesquels incluent les « droits d’autrui ». Selon Meta, les politiques relatives aux personnes et organisations dangereuses et à la violence et à l’incitation visent à la prévention de la violence hors ligne. Le Conseil a toujours estimé que ces objectifs étaient conformes aux responsabilités de Meta en matière de droits de l’homme.
III.Proportionnalité et nécessité
Le principe de nécessité et de proportionnalité stipule que les restrictions de la liberté d’expression « doivent être appropriées pour remplir leur fonction de protection ; elles doivent constituer le moyen le moins perturbateur parmi ceux qui pourraient permettre d’obtenir le résultat recherché ; [et] elles doivent être proportionnées à l’intérêt à protéger » ( Observation générale n° 34, paragraphe 34).
Dans ce cas, la suppression du contenu du membre n’était pas nécessaire car il ne visait aucun objectif légitime. De plus, la conception des banques des Services de mise en correspondance du contenu multimédia de Meta a permis aux équipes d’examen de placer par erreur du contenu dans une banque, ce qui a entraîné la suppression automatique d’un contenu identique, même s’il n’y avait pas d’infraction. Le Conseil estime qu’il s’agit d’une mesure tout à fait disproportionnée, compte tenu du nombre important de suppressions dans ce cas, même si l’on tient compte de l’ampleur des activités de Meta. Bien que Meta ait mené à bien un long processus de validation des données pour vérifier le nombre de suppressions de contenu, l’entreprise a empêché le Conseil de divulguer ce nombre, au motif qu’il ne reflétait pas exactement la qualité des systèmes des Services de mise en correspondance du contenu multimédia de Meta.
Le Conseil estime que la suppression du contenu dans ce cas est particulièrement préoccupante, car le contenu n’enfreignait aucune politique de Meta, mais contenait une critique des violations des droits de l’homme, laquelle constitue un droit d’expression garanti. Les violences policières sont une question d’intérêt public majeur et prioritaire. Le Conseil a également noté précédemment l’importance des médias sociaux dans le partage d’informations sur les mouvements de protestation en Colombie dans le cas 2021-010-FB-UA.
Le Conseil estime que des contrôles adéquats sur l’ajout, la vérification et la suppression de contenu dans ces banques, ainsi que des possibilités d’appel, sont primordiaux. Ces banques augmentent considérablement l’ampleur de certaines décisions de mise en application, ce qui entraîne des conséquences disproportionnées en cas d’erreur. En ce qui concerne l’ajout de contenu, étant donné les conséquences des suppressions qui peuvent être amplifiées à une échelle disproportionnée lorsqu’elles sont automatisées, il est nécessaire que Meta renforce les procédures pour s’assurer que du contenu sans infraction n’est pas ajouté. Les enjeux des ajouts erronés à ces banques sont particulièrement élevés lorsque, comme dans ce cas, le contenu consiste en un discours politique critiquant des responsables de l’État ou leurs actions. Les banques des Services de mise en correspondance du contenu multimédia automatisent et amplifient les impacts des décisions individuelles incorrectes. Il est donc crucial que Meta réfléchisse en permanence aux mesures d’atténuation des erreurs qui aideront le mieux l’examen manuel, comme par exemple l’augmentation du personnel, la formation et le temps consacré à l’examen du contenu.
Pour ce qui est de la vérification et des avis, l’utilisation des banques des Services de mise en correspondance du contenu multimédia pour supprimer le contenu avec des mécanismes d’avis limités ou défectueux soulève des inquiétudes quant à une mise en application erronée et disproportionnée, dans laquelle une erreur est amplifiée à une échelle beaucoup plus grande. Bien que l’entreprise Meta ait informé le Conseil qu’elle dispose de mécanismes d’avis lui permettant d’identifier et d’arrêter toute action erronée de mise en banque du contenu, 215 utilisateurs ou utilisatrices ont fait appel de la suppression, réalisant un taux de réussite de 98 %. Cependant, le contenu est resté dans les banques. Meta devrait s’assurer que le contenu ayant fait l’objet d’une action en raison de son inclusion dans une banque des Services de mise en correspondance du contenu multimédia avec des taux élevés d’annulation déclenche immédiatement des examens avec la possibilité de supprimer ce contenu de la banque.
Le Conseil est particulièrement préoccupé par le manque d’indicateurs de performances sur l’exactitude des banques de données des Services de mise en correspondance du contenu multimédia pour des politiques relatives à des contenus spécifiques. En l’absence de paramètres objectifs permettant de surveiller l’exactitude de ces banques, il n’y a pas de gouvernance efficace sur la façon dont cette technologie peut être plus ou moins fonctionnelle pour certaines politiques de contenu. Il n’y a pas non plus d’indices de référence concrets pour l’amélioration.
Le Conseil note que Meta est en train de créer une mesure unifiée pour surveiller l’exactitude des banques des Services de mise en correspondance du contenu multimédia, mais il demande instamment à l’entreprise de terminer ce processus dès que possible. Pour permettre l’établissement d’indicateurs d’amélioration, Meta devrait publier des informations sur la précision pour chaque politique de contenu où l’entreprise utilise la technologie des Services de mise en correspondance du contenu multimédia.
Cela devrait inclure des données sur les taux d’erreur pour le contenu sans infraction ajouté par erreur aux banques de données des Services de mise en correspondance du contenu multimédia du contenu en infraction. Elles devraient également inclure le volume de contenu affecté par une mise en banque incorrecte et des exemples clés d’erreurs. Ces données permettraient à Meta de comprendre les impacts plus larges des erreurs de mise en banque et de fixer des objectifs pour les atténuer. En outre, elles permettront aux utilisateur·ices de mieux comprendre et de mieux réagir aux erreurs dans l’application automatisée.
9. Décision du Conseil de surveillance
Le Conseil de surveillance a annulé la décision initiale de Meta visant à supprimer le contenu.
10. Avis consultatif sur la politique
Mise en application
1. Afin d’améliorer la capacité de Meta à supprimer le contenu sans infraction des banques programmées pour identifier ou supprimer automatiquement le contenu en infraction, Meta devrait s’assurer que le contenu ayant des taux d’appel élevés et des taux d’appels fructueux élevés est réévalué en vue d’une suppression possible de ses banques de données des Services de mise en correspondance du contenu multimédia. Le Conseil considérera que cette recommandation a été implémentée une fois que Meta : (i) aura divulgué au Conseil à la fois les taux d’appel et les taux d’appel fructueux qui déclenchent un examen du contenu mis en banque par les Services de mise en correspondance du contenu multimédia, et (ii) aura confirmé publiquement que ces mécanismes de réévaluation sont actifs pour toutes ses banques qui ciblent le contenu en infraction.
2. Pour s’assurer que le contenu mis en banque de façon inappropriée est rapidement supprimé des banques des Services de mise en correspondance du contenu multimédia de Meta, l’entreprise devrait établir et respecter des normes qui limitent le temps entre le moment où le contenu mis en banque est identifié pour être réexaminé et le moment où, s’il est jugé sans infraction, il est supprimé de la banque. Le Conseil considérera que cette recommandation a été implémentée une fois que Meta : (i) aura établi et communiqué au Conseil son objectif de délai entre le moment où un réexamen est déclenché et celui où le contenu sans infraction est restauré, et (ii) fournira au Conseil des données démontrant ses progrès dans l’atteinte de cet objectif au cours de la prochaine année.
Transparence
3. Afin de permettre la mise en place d’indicateurs d’amélioration, Meta devrait publier dans son rapport de transparence les taux d’erreur pour les contenus introduits par erreur dans les banques de données des Services de mise en correspondance du contenu multimédia, ventilés par politique de contenu. Ce rapport devrait inclure des informations sur la manière dont le contenu entre dans les banques et les efforts de l’entreprise pour réduire les erreurs dans le processus. Le Conseil considérera que cette recommandation a été implémentée lorsque Meta inclura cette information dans son Rapport d’application des Standards de la communauté.
*Note de procédure :
Les décisions du Conseil de surveillance sont préparées par des panels de cinq membres et approuvées par une majorité du Conseil. Elles ne représentent pas nécessairement les opinions personnelles de tous ses membres.
Pour la décision sur ce cas, des recherches indépendantes ont été commandées au nom du Conseil. Le Conseil était assisté d’un institut de recherche indépendant, dont le siège se trouve à l’université de Göteborg. Il avait mobilisé une équipe de plus de 50 experts en sciences sociales sur 6 continents ainsi que 3 200 experts nationaux du monde entier. Duco Advisers, une société de conseil qui se concentre sur les recoupements entre la géopolitique, la confiance, la sécurité et la technologie, a également prêté assistance au Conseil. L’entreprise Lionbridge Technologies, LLC, dont les spécialistes parlent couramment 350 langues et travaillent dans 5 000 villes du monde entier, a fourni son expertise linguistique.
Retour aux décisions de cas et aux avis consultatifs politiques