Rapport de transparence du deuxième semestre de 2023 : en quoi l’influence continue du Conseil fait-elle la différence ?

Le Conseil de surveillance a publié aujourd’hui son rapport de transparence pour le deuxième semestre de 2023. Outre une présentation des activités du Conseil lors de cette période, nous expliquons en quoi les recommandations que nous avons émises depuis 2021 continuent d’encourager Meta à procéder à des modifications et à introduire de nouvelles initiatives, afin d’améliorer la façon dont les personnes et les communautés sont traitées dans le monde entier.

Notifications envoyées à l’utilisateur

Dans deux recommandations distinctes, le Conseil de surveillance a demandé à Meta de donner aux utilisateurs la possibilité de supprimer leur contenu et de le republier sans la partie qui enfreignait les Standards de la communauté. Dès lors, l’entreprise s’est engagée à trouver le moyen d’envoyer des notifications aux utilisateurs avant de prendre des mesures et a à ce jour fourni ces données à l’appui. * En 2023, sur une période de 12 semaines, des notifications préalables à la mise en application des règles, concernant 100 millions d’éléments de contenu, ont été envoyées aux utilisateurs. Ces derniers en ont profité pour supprimer leurs publications dans plus de 20 % des cas. Le Conseil estime que cela démontre que la liberté d’expression est de mieux en mieux protégée, avec des utilisateurs qui ont la possibilité de modifier leurs publications pour exprimer la même idée, tout en respectant les règles de Meta et en évitant de courir le risque de voir leur contenu retiré des plateformes.

* REMARQUE : toutes les informations sont agrégées et anonymisées afin de protéger la confidentialité des utilisateurs. Tous les indicateurs sont des estimations qui se basent sur les meilleures informations disponibles à un moment précis.

Accès équitable aux données

Pour pallier le manque d’accès aux données publiques de Meta, notamment chez les chercheurs dans les pays du Sud, le Conseil de surveillance a demandé à l’entreprise de garantir un accès équitable. Meta a désormais lancé une bibliothèque de contenu afin que les chercheurs du monde entier puissent demander à avoir accès aux archives des données publiques de l’entreprise sur Facebook et Instagram.

Accélérer l’examen des insultes dans les pays où des élections sont prévues

L’année dernière, le Conseil a noté que des erreurs commises lors de la mise en application de la politique relative aux discours haineux de Meta, notamment en ce qui concerne les listes d’insultes dressées par l’entreprise dans les pays où des élections étaient prévues, compromettaient les informations d’actualité sur des questions d’intérêt public. Cette constatation était particulièrement préoccupante, 2024 étant une année électorale record. Selon Meta, un examen accéléré des insultes (mots et expressions offensants qui pourraient enfreindre les règles) figurant dans ses listes pour les pays où des élections sont prévues a désormais été effectué.

Conserver des preuves en cas de violations des droits humains

En 2021, le Conseil a demandé à Meta de mettre en place un protocole de conservation des preuves en cas de violations graves des droits humains et du droit humanitaire international. Depuis lors, l’entreprise a mis au point une approche permettant de conserver, à partir de ses plateformes, les preuves de potentielles atrocités et graves violations des droits humains et du droit humanitaire. À l’avenir, ces preuves pourront ainsi être partagées avec les cours internationales et les autorités compétentes.

Promouvoir la transparence

Deux des décisions du Conseil de surveillance comprenaient des recommandations sur les demandes de retrait de contenu d’utilisateurs formulées par les gouvernements. Nous avons demandé à Meta d’analyser la façon dont elle recueille les informations sur ces demandes pour élaborer des rapports publics. Meta indique à présent que son nouveau système de suivi des demandes de gouvernement stipule l’obligation de répondre à un ensemble de questions standard. Selon l’entreprise, cette étape permettra d’améliorer la transparence et la capacité à établir des rapports publics.

Améliorer la mise en application automatisée

Lors d’une précédente décision, le Conseil s’est inquiété qu’un contenu soit resté dans les banques de correspondance du contenu multimédia de Meta alors qu’il n’aurait pas dû, et a recommandé à l’entreprise de procéder à des modifications en ce qui concerne ce service. Le service de correspondance du contenu multimédia repère et supprime automatiquement les images qui ont été identifiées par les équipes d’examen manuel comment enfreignant les règles de Meta. Toutefois, en cas d’appels d’utilisateurs fructueux qui prouvent que le contenu ne va pas à l’encontre des règles, le Conseil a indiqué que le contenu devait être réévalué en vue d’être supprimé des banques de correspondance. Meta a affiné cette partie de son système de modération automatisé afin d’améliorer sa base de données et de réévaluer ce contenu.

Derniers chiffres concernant les recommandations

Meta a mis en œuvre (totalement ou partiellement) 146 recommandations sur les 251 émises depuis 2021†, tel que vérifié par des données fournies au Conseil qui ont été évaluées selon une méthode indépendante qui lui est propre.

† REMARQUE : nombre de recommandations actualisé le 4 mars 2023.

Faits marquants du deuxième semestre de 2023

De juillet à décembre, nos activités ont compris:

  • Un total de 43 décisions rendues, dont deux décisions accélérées, 15 décisions standard et 26 décisions sommaires.
  • À la fin de l’année 2023, le Conseil a rendu ses deux premières décisions accélérées sur des cas concernant le conflit entre Israël et le Hamas et, pour ce faire, s’est penché sur la protection de la liberté d’expression des personnes, quel que soit leur camp. Afin de répondre à des cas urgents et précis, le Conseil a la possibilité de procéder à des examens accélérés.
  • Le Conseil a également publié plus de 25 décisions sommaires, ce qui lui a permis de mettre en lumière les corrections apportées par Meta en réponse directe à son travail et de mettre l’accent sur les domaines dans lesquels l’entreprise doit redoubler d’efforts, afin d’améliorer la mise en application de ses règles et réduire ce genre d’erreurs avant tout. Les décisions sommaires examinent les cas où Meta est revenue sur sa décision initiale concernant un élément de contenu après que le Conseil a porté l’affaire à l’attention de l’entreprise.
  • Outre le fait de renforcer nos décisions existantes, les décisions sommaires influencent déjà directement les prises de décision internes de Meta. À titre d’exemple, une de nos décisions sommaires de 2023 pour le cas « Déclaration métaphorique contre le président du Pérou » a été prise en considération par Meta avant que l’entreprise revienne sur sa décision initiale pour le cas « Confrontation subie par une femme iranienne dans la rue », que nous avons examiné et pour lequel nous avons rendu une décision il y a peu (mars 2024). Dans ce cas, le Conseil a encouragé Meta à être plus sensible au contexte lorsqu’elle examine une déclaration figurative (non littérale), notamment dans des pays où l’état exerce une répression.
  • Un total de 16 recommandations émises, avec presque autant de recommandations portant sur les politiques de Meta que sur la manière de les mettre en application.

Au cours de cette période, nous avons également:

  • annulé la décision de Meta dans 82 % des cas;
  • reçu 245 commentaires publics du monde entier.

Et après?

Dans le cadre de notre engagement en faveur de la transparence, nous publierons des rapports de transparence chaque semestre. Ils comprendront des données sur la manière dont nos recommandations continuent à modifier l’approche de Meta en matière de modération de contenu.

Retour Aux Actualités