Le Conseil de surveillance exige plus de transparence à Facebook

Au cours des dernières semaines, les médias ont de nouveau attiré l’attention sur la manière apparemment incohérente dont Facebook prend ses décisions, ainsi que sur l’importance d’une plus grande transparence et d’une surveillance indépendante de Facebook pour les utilisateurs et utilisatrices.

Depuis la publication de ses premières décisions en janvier, le Conseil de surveillance a poussé Facebook à révéler plus d’informations sur son fonctionnement et à traiter les personnes qui utilisent ses services équitablement. Nous avons jusqu’ici traité 20 cas importants et pris 17 décisions sur des sujets allant du discours haineux aux fausses informations au sujet du COVID-19. Nous avons reçu environ 10 000 commentaires publics de personnes du monde entier et avons fait plus de 75 recommandations à Facebook.

Dans le cadre de notre engagement en faveur de la transparence, nous publions aujourd’hui nos premiers rapports trimestriels sur la transparence.

Ces rapports couvrent le quatrième trimestre 2020, ainsi que le premier et le deuxième trimestres 2021. Ils comprennent de nouvelles informations sur les cas que les utilisateurs et utilisatrices nous signalent, les décisions que nous avons prises et nos recommandations à Facebook. À l’avenir, nous publierons un rapport sur la transparence le plus tôt possible à la fin de chaque trimestre. Nous publierons également des rapports annuels, qui comprendront une évaluation qualitative plus détaillée de la façon dont Facebook met en œuvre les décisions et les recommandations du Conseil.

Les rapports d’aujourd’hui concluent que Facebook n’a pas été entièrement clair avec le Conseil en ce qui concerne son système « cross-check », que l’entreprise utilise pour prendre des décisions sur le contenu de personnalités publiques. Le Conseil a également annoncé avoir accepté la demande de Facebook d’examiner son système cross-check et de formuler des recommandations sur la façon dont il pourrait être modifié sous forme d’un avis consultatif en matière de politiques. Dans le cadre de cet examen, Facebook a accepté de partager avec le Conseil des documents concernant son système cross-check, tel que rapporté dans le Wall Street Journal.

Les 6 faits marquants des rapports trimestriels du Conseil

1.Plus d’un demi-million d’appels d’utilisateurs et d’utilisatrices ont été soumis au Conseil

Entre octobre 2020 et fin juin 2021, les utilisateurs et utilisatrices de Facebook et Instagram ont signalé environ 524 000 cas au Conseil. Le nombre d’appels a augmenté chaque trimestre, avec environ 114 000 cas au quatrième trimestre 2020, 203 000 cas au premier trimestre 2021 et environ 207 000 cas au deuxième trimestre 2021.

2. Les deux tiers des appels d’utilisateurs et d’utilisatrices concernaient des contenus supprimés pour discours haineux ou harcèlement

Jusqu’à fin juin 2021, nous estimons que plus d’un tiers des cas signalés au Conseil (36 %) concernaient du contenu enfreignant potentiellement les règles de Facebook en matière de discours haineux. Nous estimons que le harcèlement représentait un autre tiers (31 %) des cas signalés, la violence et l’incitation (13 %), la nudité et les actes sexuels (9 %) et les personnes et organisations dangereuses (6 %) constituant la plupart des cas restants. Ces chiffres ne comprennent pas les appels d’utilisateurs et d’utilisatrices pour supprimer du contenu de Facebook, qui ont été déployés mi-avril.

3. Près de la moitié des appels d’utilisateurs et d’utilisatrices provenaient des États-Unis et du Canada

Jusqu’à fin juin, nous estimons que près de la moitié des cas signalés (46 %) provenaient des États-Unis du Canada, tandis que 22 % provenaient d’Europe et 16 % d’Amérique latine et des Caraïbes. Nous estimons que 8 % des cas provenaient d’Océanie, 4 % du Moyen-Orient et d’Afrique du Nord, 2 % d’Asie centrale et du Sud et 2 % d’Afrique subsaharienne.

Mais nous ne pensons pas que cela représente la répartition réelle des problèmes liés au contenu Facebook dans le monde. En effet, nous avons des raisons de croire que les utilisateurs et utilisatrices d’Asie, d’Afrique subsaharienne et du Moyen-Orient rencontrent plus de problèmes sur Facebook que les régions du monde comptabilisant plus d’appels.

Nous tenons à élargir notre portée afin de garantir que la surveillance du Conseil s’étend au monde entier, ce pourquoi nous demandons aux utilisateurs et utilisatrices et aux organisations de la société civile en Asie, en Afrique subsaharienne et au Moyen-Orient de ne pas hésiter à faire appel en cas de mauvaise modération du contenu par Facebook dans ces régions.

4. Les processus du Conseil au sens large ont incité Facebook à restaurer plus de 30 contenus couvrant des cas importants

Dans le cadre du processus de présélection des cas par le Conseil, nous demandons à Facebook de confirmer que les cas sont éligibles pour être examinés en vertu des statuts. À la suite de ce processus, à la fin du mois de juin, Facebook avait identifié 38 cas présélectionnés dans lesquels sa décision initiale sur le contenu était incorrecte.

Dans 35 de ces cas, Facebook a pris des mesures concernant le contenu, et dans les 3 cas restants, cela n’a pas été possible car le contenu avait été supprimé par la personne qui l’avait publié.

Près de la moitié des cas dans lesquels Facebook a jugé sa décision initiale comme étant incorrecte concernaient son standard de la communauté en matière de discours haineux, et près d’un tiers des cas concernaient des personnes et organisations dangereuses.

5. Facebook répond à la plupart des questions du Conseil, mais pas à toutes

Pour soutenir notre prise de décision et pousser Facebook à faire preuve d’un maximum de transparence, nous lui envoyons des questions sur certains cas. Sur les 156 questions envoyées à Facebook concernant les décisions que nous avons publiées jusqu’à fin juin, Facebook a répondu à 130, partiellement répondu à 12 et refusé de répondre à 14.

En posant des questions spécifiques et en incluant ces détails à notre décision finale, nous espérons fournir au utilisateurs et utilisatrices et aux équipes de recherche autant d’informations que possible sur le fonctionnement de l’entreprise.

Dans nos rapports, nous donnons des exemples des types de questions auxquelles Facebook a refusé de répondre et en indiquons les raisons. Par exemple, dans plusieurs cas, Facebook a refusé de répondre aux questions sur le comportement passé de l’utilisateur ou l’utilisatrice sur Facebook car, selon l’entreprise, cela n’était pas pertinent pour la décision du Conseil sur le cas en question.

6. Facebook n’a pas été entièrement clair avec le Conseil en ce qui concerne son système cross-check

À la suite de récentes publications du Wall Street Journal, le Conseil s’est engagé à vérifier si Facebook avait été clair dans ses réponses en ce qui concerne son système cross-check, que l’entreprise utilise pour prendre des décisions sur le contenu de personnalités publiques.

Selon le Conseil, l’équipe Facebook chargée de lui fournir des informations n’a pas été entièrement claire en ce qui concerne le système cross-check. Dans certains cas, Facebook n’a pas fourni d’informations pertinentes au Conseil, et dans d’autres, les informations fournies étaient incomplètes.

Lorsque Facebook a soumis le cas lié à l’ancien président des États-Unis Donald Trump au Conseil, l’entreprise n’a pas mentionné son système cross-check. Cette omission n’est pas acceptable, étant donné que la soumission comprenait une question sur la mise en application d’une politique spécifique pour les comptes de personnalités politiques, dont beaucoup, selon le Conseil, étaient couvertes par le système cross-check. Facebook n’a mentionné son système cross-check au Conseil que lorsque nous avons demandé si la Page ou le compte de Donald Trump avait été soumis aux processus de modération du contenu ordinaires.

Plus tard, dans son briefing au Conseil, Facebook a reconnu que dire que son système cross-check ne s’appliquait qu’à un « petit nombre de décisions » était une erreur. Facebook a expliqué que pour des équipes devant prendre des millions de décisions sur le contenu chaque jour, le nombre de cas traités via le système cross-check était relativement faible, mais a reconnu que cette formulation pouvait prêter à confusion.

Nous avons également constaté que, lorsque nous lui avons recommandé d’« expliquer clairement le fondement, les normes et les processus d’examen [du système cross-check], notamment les critères de sélection des Pages et des comptes », Facebook n’a pas fait preuve de suffisamment de transparence concernant les critères de sélection des Pages et des comptes du système cross-check.

La crédibilité du Conseil de surveillance, notre relation professionnelle avec Facebook et notre capacité à prendre des décisions éclairées sur les cas dépendent de la fiabilité des informations qui nous sont fournies par Facebook, qui doivent décrire le sujet en question de façon complète et exacte. Nous continuerons d’analyser les informations fournies par Facebook afin de nous assurer qu’elles sont aussi complètes que possible.

Aujourd’hui, le Conseil a également annoncé avoir accepté la demande de Facebook d’examiner le système cross-check de l’entreprise et de formuler des recommandations sur la façon dont il pourrait être modifié sous forme d’un avis consultatif en matière de politiques.

Plus précisément, Facebook nous a demandé des conseils sur, entre autres : comment garantir l’impartialité et l’objectivité de son système cross-check en tenant compte du contexte, comment gérer son système cross-check et promouvoir la transparence, les critères à suivre pour déterminer qui est inclus dans son système cross-check et comment s’assurer que cela est équitable.

Maintenant que nous avons accepté la demande de Facebook, le Conseil interagira avec la société civile à l’échelle mondiale, notamment des universitaires et des équipes de recherche, pour analyser cette question critique. Nous lancerons notamment un appel aux commentaires publics dans les prochains jours. Pour éclairer ses décisions, le Conseil continue de rechercher des points de vue variés, y compris ceux d’anciens membres du personnel de Facebook qui se sont manifestés ces derniers mois.

Facebook a désormais accepté de partager avec le Conseil des documents concernant son système cross-check, tel que rapporté dans le Wall Street Journal. Le Conseil les examinera au fur et à mesure que nous produirons notre avis consultatif en matière de politiques.

À partir de maintenant, Facebook s’engage également à fournir plus d’informations sur le contexte au sens large, ce qui pourra être pertinent pour les décisions sur les cas du Conseil. Cela devrait permettre de mieux comprendre le travail que Facebook a déjà accompli sur un sujet donné. Nous inclurons une analyse à nos futurs rapports sur la transparence afin de nous assurer que Facebook respecte cet engagement.

Une fois que le Conseil aura délibéré sur cet avis consultatif en matière de politiques et voté pour l’approuver, nous émettrons nos recommandations à Facebook. Facebook devra alors répondre dans les 30 jours.

Les utilisateurs et utilisatrices doivent parfois deviner les règles de Facebook

En prenant les décisions abordées dans les rapports d’aujourd’hui et celles que nous avons publiées depuis, nous avons remarqué une chose : Facebook n’est pas assez clair avec les personnes qui utilisent ses plateformes. Nous avons constaté que, souvent, les personnes se savent pas pourquoi Facebook a supprimé leur contenu.

Dans l’un de nos premiers cas, Facebook avait supprimé un contenu sans expliquer à la personne qui l’avait publié quel standard de la communauté elle avait enfreint. Dans un autre, Facebook n’avait pas examiné l’appel de la personne avant qu’il ne parvienne au Conseil. Et dans un autre cas, Facebook a confirmé une infraction à sa règle en matière de personnes dangereuses, mais s’est ensuite rendu compte qu’une exception à cette politique, ignorée pendant trois ans, rendait la publication conforme.

Nous savons que les plus d’un demi-million d’appels que nous avons reçus jusqu’à fin juin ne sont que la partie visible de l’iceberg. À l’heure actuelle, il est clair que, par son manque de transparence, Facebook ne traite pas ses utilisateurs et utilisatrices équitablement.

L’entreprise a supprimé de nombreux contenus sans donner suffisamment d’explications. Les implications pour les utilisateurs et utilisatrices et pour la liberté d’expression dans le monde préoccupent vivement le Conseil.

Mener Facebook à faire preuve de plus de transparence

La transparence est clairement un domaine dans lequel Facebook doit s’améliorer de toute urgence, et nous voulons faire partie de la solution. Nous avons recommandé à plusieurs reprises à Facebook de suivre certains principes fondamentaux en matière de transparence : rendre ses règles facilement accessibles dans plusieurs langues, expliquer aussi clairement que possible comment ses décisions sont prises et mises en application et, en cas d’infraction à ses règles, indiquer en quoi le contenu constitue une infraction.

Depuis que Facebook a publié ses premières réponses à nos recommandations plus tôt cette année, nous avons constaté que l’entreprise était prête à s’engager à faire preuve de davantage de transparence.

En mai, Facebook s’est engagé à traduire ses Standards de la communauté en pendjabi, une langue parlée par environ 130 millions de personnes, d’ici la fin de l’année. En juin, Facebook s’est engagé à inclure son exception concernant la satire, qui n’avait pas encore été communiquée au public, à ses Standards de la communauté d’ici la fin de l’année.

En août, à la suite d’un rapport gouvernemental officiel, Facebook a accepté de fournir des informations sur le contenu supprimé pour infraction aux Standards de la communauté dans son Espace modération, notamment le nombre de demandes reçues. Et ce mois-ci, Facebook s’est engagé à « mettre pleinement en œuvre » notre recommandation de demander à un organisme indépendant n’étant associé à aucune des parties du conflit israélo-palestinien d’effectuer un examen minutieux afin de déterminer si ses pratiques en matière de modération du contenu publié en arabe et en hébreu (notamment son utilisation de l’automatisation) étaient appliquées en toute impartialité.

Bien sûr, ce n’est qu’un début. Pour ces recommandations et d’autres, nous surveillerons si et comment Facebook tient ses promesses. À long terme, nous pensons que nos recommandations pousseront Facebook à faire preuve de plus de transparence et que cela profitera aux utilisateurs et utilisatrices.

Et après ?

Pousser Facebook à faire preuve de davantage de transparence, à traiter les utilisateurs et utilisatrices équitablement et à respecter ses engagements en matière de droits humains est une initiative à long terme qui nécessite l’implication de responsables politiques, d’organismes de réglementation, de la société civile, d’équipes de recherche et des médias. Le Conseil de surveillance prend part à cette initiative.

Dans les domaines dans lesquels nous pensons que Facebook n’est pas à la hauteur, comme c’est le cas de la transparence, nous continuerons de pousser l’entreprise à faire mieux. Nous le ferons par le biais de nos décisions, de nos recommandations et de nos rapports sur la transparence réguliers, y compris notre rapport annuel, que nous publierons l’année prochaine.

Catalina Botero-Marino, Jamal Greene, Michael McConnell et Helle Thorning-Schmidt

Co-présidents et co-présidentes du Conseil de surveillance

Retour Aux Actualités