Confirmé

Suspension de l’ancien président américain Trump

Le Conseil a confirmé la décision de Facebook du 7 janvier 2021 visant à limiter l’accès du président Donald Trump à la publication de contenus sur sa Page Facebook et son compte Instagram.

Type de décision

Standard

Politiques et sujets

Sujet
Liberté d’expression, Politique, Sécurité
Norme communautaire
Personnes et organisations dangereuses

Régions/Pays

Emplacement
États-Unis

Plate-forme

Plate-forme
Facebook

Pour consulter cette décision au format PDF, cliquez ici.

Résumé du cas

Le Conseil a confirmé la décision de Facebook du 7 janvier 2021 visant à limiter l’accès du président Donald Trump à la publication de contenus sur sa Page Facebook et son compte Instagram.

Il n’était toutefois pas opportun pour Facebook d’imposer une suspension sine die, une sanction réputée indéterminée et arbitraire. Les sanctions ordinaires de Facebook prévoient notamment la suppression des contenus en infraction, l’imposition d’une période de suspension assortie de délais précis, ou encore la désactivation permanente de la Page ou du compte.

Le Conseil exhorte Facebook à examiner ce cas afin d’élaborer et de justifier une réponse proportionnée et conforme aux règles appliquées aux autres utilisateurs de la plateforme. Facebook est tenue de terminer son examen dans les six mois suivant la date de publication de la présente décision. Le Conseil a également formulé des recommandations à mettre en œuvre par Facebook pour élaborer des politiques claires, nécessaires et proportionnées qui favorisent la sécurité publique et respectent la liberté d’expression.

À propos du cas

Les élections jouent un rôle capital dans toute démocratie. Le 6 janvier 2021, alors que le dépouillement des votes du collège électoral de 2020 était toujours en cours, une foule a pris d’assaut le bâtiment du Capitole de Washington, D.C. Ces émeutes ont menacé la poursuite du processus constitutionnel. Cinq personnes ont perdu la vie et bien d’autres ont été blessées. Lors de ces évènements, le président Donald Trump a publié deux types de contenus.

À 16:21 EST, alors que l’insurrection battait son plein, M. Trump a publié une vidéo sur Facebook et Instagram :

I know your pain. I know you’re hurt. We had an election that was stolen from us. It was a landslide election, and everyone knows it, especially the other side, but you have to go home now. We have to have peace. We have to have law and order. We have to respect our great people in law and order. We don’t want anybody hurt. It’s a very tough period of time. There’s never been a time like this where such a thing happened, where they could take it away from all of us, from me, from you, from our country. This was a fraudulent election, but we can’t play into the hands of these people. We have to have peace. So go home. We love you. You’re very special. You’ve seen what happens. You see the way others are treated that are so bad and so evil. I know how you feel. But go home and go home in peace. (Je comprends votre douleur. Je sais que vous vous sentez blessés. On nous a volé cette élection. C’était une victoire écrasante et tout le monde le sait, surtout nos adversaires. Mais il faut rentrer maintenant. Nous devons retrouver la paix. Il faut que la loi et l’ordre règnent. Nous devons respecter nos forces de l’ordre. Nous ne voulons aucun blessé. C’est une période difficile, inédite, où de tels évènements surviennent, où ils ont pu nous la voler à tous, à moi, à vous, à notre pays. C’était une élection frauduleuse, mais nous ne pouvons pas entrer dans leur jeu. Nous devons retrouver la paix. Alors rentrez chez vous. Nous vous aimons. Vous êtes exceptionnels. Vous avez vu ce qu’il s’est passé. Vous avez vu la manière dont les autres sont traités, à quel point ils sont mauvais et diaboliques. Je sais ce que vous ressentez. Mais rentrez chez vous et rentrez en paix.)

À 17:41 EST, Facebook a supprimé cette publication pour avoir enfreint son Standard de la communauté sur les individus et organismes dangereux.

À 18:07 EST, alors que la police sécurisait le Capitole, M. Trump a publié une déclaration écrite sur Facebook :

These are the things and events that happen when a sacred landslide election victory is so unceremoniously viciously stripped away from great patriots who have been badly unfairly treated for so long. Go home with love in peace. Remember this day forever! (Ce sont des choses et des évènements qui arrivent quand une immense victoire électorale est si peu cérémonieuse et si vicieusement arrachée à de grands patriotes qui ont été mal et injustement traités pendant si longtemps. Rentrez chez vous en paix et avec amour. Souvenez-vous de ce jour pour toujours !)

À 18:15 EST, Facebook a supprimé cette publication pour avoir enfreint son Standard de la communauté sur les individus et organismes dangereux. L’entreprise a également bloqué la fonction de publication de M. Trump sur Facebook et Instagram pendant 24 heures.

Le 7 janvier, après un examen approfondi des publications de M. Trump, de ses récentes communications en dehors de Facebook et des compléments d’information sur la gravité de la violence perpétrée au Capitole, Facebook a étendu la suspension « jusqu’à nouvel ordre et pour au moins les deux prochaines semaines jusqu’à ce que la transition pacifique du pouvoir soit terminée. »

Le 20 janvier, lors de l’investiture du président Joe Biden, M. Trump a cessé d’être le président des États-Unis.

Le 21 janvier, Facebook a annoncé avoir porté ce cas devant le Conseil. Facebook a demandé si sa décision du 7 janvier visant à interdire l’accès de M. Trump à la publication de contenus sur Facebook et Instagram pour une durée indéterminée était opportune. L’entreprise a également sollicité des recommandations sur les suspensions à suivre lorsque l’utilisateur concerné est un dirigeant politique.

Outre les deux publications effectuées le 6 janvier, Facebook avait déjà constaté cinq autres infractions de ses Standards de la communauté dans du contenu organique publié sur la Page Facebook Donald J. Trump, dont trois datant de l’année dernière. Si les cinq publications en infraction avaient été supprimées, aucune sanction n’avait été prise au niveau du compte.

Principales observations

Le Conseil a estimé que les deux publications de M. Trump du 6 janvier enfreignaient gravement les Standards de la communauté Facebook et les Règles de la communauté Instagram. Les propos « We love you. You’re very special » (Nous vous aimons. Vous êtes exceptionnels) de la première publication ainsi que les termes « great patriots » (grands patriotes) et « remember this day forever » (souvenez-vous de ce jour pour toujours) de la seconde publication enfreignent les règles de Facebook interdisant de louer ou de soutenir les personnes engagées dans des actes de violence.

Le Conseil a constaté qu’en entretenant un récit infondé de fraude électorale ainsi que des appels à l’action constants, M. Trump avait créé un environnement dans lequel un risque sérieux de violence était possible. Au moment de la publication des messages de M. Trump, il existait un risque clair et immédiat de préjudice et ses mots de soutien aux personnes impliquées dans les émeutes ont légitimé leurs actes de violence. En tant que président, M. Trump exerçait une forte influence. La portée de ses publications était importante, avec 35 millions d’abonnés sur Facebook et 24 millions sur Instagram.

Compte tenu de la gravité des infractions et du risque continu de violence, la décision de Facebook visant à suspendre le compte de M. Trump le 6 janvier et à étendre cette suspension le 7 janvier était justifiée.

Il n’était toutefois pas opportun pour Facebook d’imposer une suspension « sine die ».

Facebook n’est pas autorisée à suspendre un utilisateur de la plateforme pour une durée indéterminée, sans indiquer si et quand le compte sera restauré.

En infligeant cette sanction, Facebook n’a pas respecté la procédure claire publiée. Les suspensions « sine die » ne sont pas décrites dans les règles de l’entreprise relatives au contenu. Les sanctions ordinaires de Facebook prévoient notamment la suppression des contenus en infraction, l’imposition d’une période de suspension assortie de délais précis, ou encore la désactivation permanente de la Page ou du compte.

Il appartient à Facebook d’établir des sanctions nécessaires et proportionnées pour répondre aux infractions graves de ses règles relatives au contenu. Le rôle du Conseil vise à s’assurer que les règles et les procédés de Facebook sont conformes à ses règles relatives au contenu, à ses valeurs et à ses engagements en faveur des droits de l’homme.

En prenant une sanction vague et arbitraire, puis en renvoyant ce cas pour résolution au Conseil, Facebook cherche à fuir ses responsabilités. Le Conseil rejette la demande de Facebook et l’exhorte à appliquer et justifier une sanction déterminée.

Décision du Conseil de surveillance

Le Conseil de surveillance a confirmé la décision de Facebook du 7 janvier 2021 visant à suspendre l’accès de M. Trump à la publication de contenus sur Facebook et Instagram. L’entreprise est toutefois tenue de réexaminer cette sanction, car elle a suspendu le compte de M. Trump « indéfiniment ».

Facebook doit reconsidérer la décision arbitraire imposée le 7 janvier dernier et décider d’une sanction appropriée dans les six mois suivant la publication de la présente décision. La sanction doit être fondée sur la gravité de l’infraction et l’éventualité d’un préjudice futur. Elle doit également être conforme aux règles de Facebook en matière d’infractions graves, lesquelles doivent à leur tour être claires, nécessaires et proportionnées.

Si Facebook décide de restaurer les comptes de M. Trump, l’entreprise est tenue d’appliquer ces règles à la décision, en ce compris les modifications apportées à la suite des recommandations de politique du Conseil effectuées ci-après. Dans ce contexte, Facebook doit traiter toute autre infraction dans les plus brefs délais et conformément à ses règles établies en matière de contenu.

Une minorité des membres du Conseil a souligné que Facebook devait prendre des mesures pour éviter la répétition de répercussions négatives sur les droits de l’homme et s’assurer que les utilisateurs demandant leur réintégration après une suspension reconnaissent leurs erreurs et s’engagent à respecter les règles à l’avenir.

Lors du renvoi de ce cas devant le Conseil, Facebook a spécifiquement demandé au Conseil des « observations ou des recommandations sur les suspensions à suivre lorsque l’utilisateur concerné est un dirigeant politique ».

Dans un avis consultatif sur les politiques, le Conseil a formulé plusieurs recommandations destinées à guider les politiques de Facebook en matière de risques sérieux de préjudice posés par les dirigeants politiques et d’autres personnalités influentes.

Le Conseil a indiqué qu’il n’était pas toujours utile d’opérer une nette distinction entre les dirigeants politiques et les autres utilisateurs influents, considérant que les autres utilisateurs disposant de vastes audiences peuvent également contribuer à des risques sérieux de préjudice.

Si les mêmes règles doivent être appliquées à tous les utilisateurs, le contexte revêt une grande importance dans l’évaluation de la probabilité et de l’imminence du préjudice. Lorsque les publications de personnalités influentes impliquent une forte probabilité de préjudice imminent, Facebook doit agir rapidement pour faire appliquer ses règles. Bien que Facebook ait expliqué ne pas avoir suivi « d’intérêt médiatique » en l’espèce, le Conseil l’a invitée à dissiper les confusions généralisées sur la manière dont les décisions relatives aux utilisateurs influents sont prises. Le Conseil a souligné que les considérations d’intérêt médiatique ne devaient pas prévaloir lorsqu’une action urgente est requise pour prévenir un préjudice majeur.

Facebook doit détailler publiquement les règles utilisées lors de l’imposition de sanctions aux comptes d’utilisateurs influents. Ces règles visent à garantir que Facebook vérifie que le risque de préjudice a diminué avant la fin de la période définie lorsqu’elle impose une suspension limitée dans le temps du compte d’un utilisateur influent pour réduire le risque de préjudice majeur. Si Facebook établit que l’utilisateur présente un risque sérieux d’incitation à des actes de violence imminents, à la discrimination ou à toute autre action illégale à ce moment-là, une autre suspension, elle aussi limitée dans le temps, devra être infligée si ces mesures sont nécessaires pour favoriser la sécurité publique et proportionnées par rapport au risque.

Le Conseil souligne que les chefs d’État et les hauts représentants de gouvernement sont davantage susceptibles de causer des préjudices que d’autres personnes. Si un chef d’État ou un haut représentant gouvernemental a publié à maintes reprises des messages présentant un risque de préjudice en vertu des normes internationales des droits de l’homme, Facebook doit suspendre le compte concerné durant une période suffisante à la protection contre ce préjudice imminent. Les périodes de suspension doivent être suffisamment longues pour décourager les comportements répréhensibles et peuvent, le cas échéant, inclure la suppression du compte ou de la Page.

Dans le cadre d’autres recommandations, le Conseil propose que Facebook :

  • Signale rapidement les contenus contenant des discours politiques d’utilisateurs extrêmement influents à des membres du personnel spécialisés qui connaissent bien le contexte linguistique et politique. Ce personnel doit être tenu à l’écart de toute interférence politique, économique et indue.
  • Alloue des ressources et une expertise adéquates à l’évaluation des risques de préjudice que présentent les comptes influents à l’échelle mondiale.
  • Informe davantage les utilisateurs afin de les aider à comprendre et évaluer les procédés et critères d’application de l’intérêt médiatique, en ce compris la manière dont il est appliqué aux comptes influents. L’entreprise doit également expliquer clairement les motifs, les standards et les procédés de l’examen par vérification croisée, sans oublier de signaler les taux d’erreur relatifs des décisions effectuées sur la base de la vérification croisée par rapport aux procédures de mise en application ordinaires.
  • Entreprenne un examen approfondi de l’éventuelle contribution de Facebook au récit de fraude électorale et aux tensions exacerbées qui ont débouché sur les scènes de violence aux États-Unis le 6 janvier. Il doit s’agir d’une réflexion ouverte sur les choix de conception et de politique opérés par Facebook qui pourraient permettre l’utilisation abusive de sa plateforme.
  • Précise clairement, dans sa politique d’entreprise sur les droits de l’homme, la manière dont elle recueille, protège et, le cas échant, partage les informations afin de faciliter les enquêtes et les poursuites éventuelles concernant des infractions graves du droit pénal international, des droits de l’homme et du droit humanitaire.
  • Explique sa procédure de sanction et de suspension en matière de limitation de profils, de Pages, de groupes et de comptes dans les Standards de la communauté Facebook et les Règles de la communauté Instagram.
  • Inclue le nombre de limitations de profils, Pages et comptes dans ses rapports de transparence, avec des informations ventilées par région et par pays.
  • Fournisse aux utilisateurs des informations accessibles sur le nombre d’infractions, de suspensions et de sanctions qui leur ont été infligées, ainsi que sur les conséquences qui découleront de futures infractions.
  • Développe et publie une politique régissant la réponse de Facebook face aux crises ou aux situations nouvelles lorsque ses procédures habituelles ne permettent pas de prévenir ou d’empêcher un préjudice imminent. Ces directives visent à définir des paramètres appropriés pour ces actions, en ce compris l’obligation de revoir sa décision dans un délai fixé.

*Les résumés de cas fournissent une présentation du cas et n’ont pas valeur de précédent.

Décision complète sur le cas

En l’espèce, Facebook a demandé au Conseil de répondre à deux questions :

Considérant les valeurs de Facebook, en particulier son engagement envers la liberté d’expression et la sécurité, la décision du 7 janvier 2021 visant à interdire l’accès de Donald J. Trump à la publication de contenus sur Facebook et Instagram pour une durée indéterminée était-elle opportune ?

Outre la décision de confirmer ou d’infirmer la suspension sine die, Facebook souhaite recevoir des observations ou des recommandations du Conseil sur les suspensions qui concernent un dirigeant politique.

1. Résumé de la décision

Le Conseil confirme la décision de Facebook du 7 janvier 2021 visant à limiter l’accès du président Donald Trump à la publication de contenus sur sa Page Facebook et son compte Instagram.

Il n’était toutefois pas opportun pour Facebook d’imposer une suspension sine die, une sanction réputée indéterminée et arbitraire. Les sanctions ordinaires de Facebook prévoient notamment la suppression des contenus en infraction, l’imposition d’une période de suspension assortie de délais précis, ou encore la désactivation permanente de la Page ou du compte.

Le Conseil exhorte Facebook à examiner ce cas afin d’élaborer et de justifier une réponse proportionnée et conforme aux règles appliquées aux autres utilisateurs de la plateforme. Facebook est tenue de terminer son examen dans les six mois suivant la date de publication de la présente décision. Le Conseil formule également des recommandations à mettre en œuvre par Facebook pour élaborer des politiques claires, nécessaires et proportionnées qui favorisent la sécurité publique et respectent la liberté d’expression.

2. Description du cas

Les élections jouent un rôle capital dans toute démocratie. Elles permettent aux peuples du monde entier de se gouverner et de résoudre pacifiquement les conflits sociaux. La Constitution des États-Unis d’Amérique prévoit que le président soit élu par le dépouillement des votes du collège électoral. Le 6 janvier 2021, alors que le dépouillement des votes du collège électoral de 2020 était toujours en cours, une foule a pris d’assaut le bâtiment du Capitole de Washington, D.C., où se déroulait le dépouillement des votes, et a menacé le processus constitutionnel. Cinq personnes ont perdu la vie et bien d’autres ont été blessées.

Avant le 6 janvier, le président Donald Trump avait affirmé sans preuve que l’élection présidentielle de novembre 2020 lui avait été volée. Les recours en justice déposés par M. Trump et d’autres concernant d’éventuelles fraudes électorales ont été rejetés dans plus de 70 cas et après examen, le ministre de la Justice de l’époque a indiqué qu’il n’y avait pas eu de fraude « à une échelle susceptible de changer le résultat de l’élection. » M. Trump a néanmoins poursuivi ces allégations infondées, notamment en utilisant Facebook, et a fait référence à un rassemblement prévu le 6 janvier :

  1. Le 19 décembre 2020, la Page Facebook de M. Trump a publié le message suivant : « Peter Navarro releases 36-page report alleging election fraud ’more than sufficient’ to swing victory to Trump - A great report by Peter. Statistically impossible to have lost the 2020 Election. Big protest in D.C. on January 6th. Be there, will be wild! » (Peter Navarro a publié un rapport de 36 pages alléguant une fraude électorale « plus que suffisante » pour faire basculer la victoire en faveur de Donald Trump. Un excellent rapport de Peter. Il est statistiquement impossible d’avoir perdu l’élection de 2020. Une grande manifestation aura lieu à Washington le 6 janvier. Soyez présents, ce sera fou !)
  2. Le 1er janvier 2021, la Page Facebook de M. Trump affichait ce message : « The BIG Protest Rally in Washington, D.C., will take place at 11.00 A.M. on January 6th. Locational details to follow. StopTheSteal! » (La GRANDE manifestation de protection de Washington, D.C. se déroulera à 11:00 le 6 janvier. Détails sur le lieu à venir. Stop au vol !)

Dans la matinée du 6 janvier 2021, M. Trump a participé à un rassemblement à proximité de la Maison-Blanche et a tenu un discours. Il a poursuivi ses allégations infondées selon lesquelles il avait gagné l’élection et a suggéré que le vice-président Mike Pence annule la victoire du président élu Joe Biden, un pouvoir dont ne disposait pas M. Pence. Il a également déclaré « we will stop the steal » (nous allons mettre fin à ce vol) et « we’re going to the Capitol » (nous allons marcher vers le Capitole).

Bon nombre des personnes présentes à la manifestation ont ensuite pris la direction du bâtiment du Capitole des États-Unis, où elles ont rejoint d’autres manifestants déjà réunis. La plupart des manifestants ont alors attaqué la sécurité, sont entrés par effraction dans le bâtiment et ont saccagé le Capitole. M. Pence et d’autres membres du Congrès ont été exposés à un risque grave de violence dirigée. Cinq personnes ont perdu la vie et bien d’autres ont été blessées.

Durant ces évènements, M. Trump a publié une vidéo ainsi qu’une déclaration sur sa Page Facebook (qui comptait plus de 35 millions d’abonnés). La vidéo a également été partagée sur son compte Instagram (qui comptait plus de 24 millions d’abonnés). Les publications indiquaient que l’élection de 2020 avait été « volée » et « arrachée ». En outre, elles louaient et soutenaient les personnes prenant part aux émeutes du Capitole tout en les appelant à rester pacifiques. Tant la Page Facebook que le compte Instagram présentaient un badge bleu en regard du nom de la Page ou du compte certifiant que Facebook avait confirmé que le compte était la « présence authentique de la personnalité publique » qu’il représentait.

Dans une vidéo d’une minute publiée à 16:21 EST, alors que l’insurrection battait son plein, M. Trump a déclaré :

I know your pain. I know you’re hurt. We had an election that was stolen from us. It was a landslide election, and everyone knows it, especially the other side, but you have to go home now. We have to have peace. We have to have law and order. We have to respect our great people in law and order. We don’t want anybody hurt. It’s a very tough period of time. There’s never been a time like this where such a thing happened, where they could take it away from all of us, from me, from you, from our country. This was a fraudulent election, but we can’t play into the hands of these people. We have to have peace. So go home. We love you. You’re very special. You’ve seen what happens. You see the way others are treated that are so bad and so evil. I know how you feel. But go home and go home in peace. (Je comprends votre douleur. Je sais que vous vous sentez blessés. On nous a volé cette élection. C’était une victoire écrasante et tout le monde le sait, surtout nos adversaires. Mais il faut rentrer maintenant. Nous devons retrouver la paix. Il faut que la loi et l’ordre règnent. Nous devons respecter nos forces de l’ordre. Nous ne voulons aucun blessé. C’est une période difficile, inédite, où de tels évènements surviennent, où ils ont pu nous la voler à tous, à moi, à vous, à notre pays. C’était une élection frauduleuse, mais nous ne pouvons pas entrer dans leur jeu. Nous devons retrouver la paix. Alors rentrez chez vous. Nous vous aimons. Vous êtes exceptionnels. Vous avez vu ce qu’il s’est passé. Vous avez vu la manière dont les autres sont traités, à quel point ils sont mauvais et diaboliques. Je sais ce que vous ressentez. Mais rentrez chez vous et rentrez en paix.)

À 17:41 EST, Facebook a supprimé cette publication pour avoir enfreint son Standard de la communauté sur les individus et organismes dangereux.

À 18:07 EST, M. Trump a publié la déclaration écrite suivante, alors que la police sécurisait le Capitole :

These are the things and events that happen when a sacred landslide election victory is so unceremoniously viciously stripped away from great patriots who have been badly unfairly treated for so long. Go home with love in peace. Remember this day forever! (Ce sont des choses et des évènements qui arrivent quand une immense victoire électorale est si peu cérémonieuse et si vicieusement arrachée à de grands patriotes qui ont été mal et injustement traités pendant si longtemps. Rentrez chez vous en paix et avec amour. Souvenez-vous de ce jour pour toujours !)

À 18:15 EST, Facebook a supprimé cette publication pour avoir enfreint son Standard de la communauté sur les individus et organismes dangereux et a imposé une suspension de 24 heures de la fonction de publication de M. Trump sur Facebook et Instagram.

Le 7 janvier 2021, après un examen approfondi des publications de M. Trump, de ses récentes communications en dehors de Facebook et des compléments d’information sur la gravité de la violence perpétrée au Capitole, Facebook a étendu la suspension « jusqu’à nouvel ordre et pour au moins les deux prochaines semaines jusqu’à ce que la transition pacifique du pouvoir soit terminée », citant « l’utilisation [de M. Trump] de nos plateformes pour déclencher une violente insurrection contre un gouvernement démocratiquement élu ».

Dans les jours qui ont suivi le 6 janvier, certaines personnes ayant pris part à l’émeute ont indiqué qu’elles l’avaient fait à la demande du président. L’un des participants a été cité par le Washington Post (16 janvier 2021) : « I thought I was following my president... He asked us to fly there. He asked us to be there. So I was doing what he asked us to do. » (Je pensais que je suivais mon président... Il nous a demandé de nous rendre là-bas. Il nous a demandé d’être là. Alors j’ai fait ce qu’il nous a demandé de faire.) Sur une vidéo, on peut également apercevoir un manifestant criant à un agent de police sur les marches du Capitole : « We were invited here! We were invited by the president of the United States! » (Nous avons été invités ! Nous avons été invités par le président des États-Unis !)

Le District de Columbia a décrété un état d’urgence le 6 janvier et l’a prolongé le jour même jusqu’au 21 janvier. Le 27 janvier, le département de la Sécurité intérieure a publié un bulletin national d’alerte antiterroriste mettant en garde contre un « climat de menaces accrues aux États-Unis qui, selon le département, persistera dans les semaines qui suivront l’investiture présidentielle. » Il y est indiqué que « les actes de violence perdureront jusqu’au début de l’année 2021 et que certains [extrémistes nationaux violents] pourraient avoir été enhardis par l’assaut du bâtiment du Capitole des États-Unis à Washington, D.C. le 6 janvier 2021 pour cibler des élus et des installations gouvernementales. »

Si les publications jugées contraires aux règles relatives au contenu de Facebook ont été supprimées, la Page Facebook et le compte Instagram de M. Trump sont restés accessibles au public. La Page ou le compte ne présentent aucun avertissement sur les restrictions imposées par Facebook. Le 21 janvier 2021, Facebook a annoncé avoir porté le cas devant le Conseil de surveillance.

Outre les deux publications effectuées le 6 janvier 2021, Facebook avait déjà constaté cinq autres infractions de ses Standards de la communauté dans du contenu organique publié sur la Page Facebook Donald J. Trump, dont trois datant de l’année dernière. Les cinq publications en infraction avaient été supprimées, mais aucune sanction n’avait été prise au niveau du compte. En réponse à la question du Conseil qui souhaitait savoir si des suspensions avaient été imposées, Facebook a déclaré que la Page avait subi une suspension pour une publication datant d’août 2020, car elle enfreignait sa Politique de lutte contre les fausses informations et les préjudices liés au COVID-19. Facebook n’a pas expliqué pourquoi d’autres contenus en infraction supprimés n’ont pas débouché sur une suspension.

L’entreprise dispose d’un « intérêt médiatique », ce qui permet aux contenus enfreignant ses politiques de rester sur la plateforme si Facebook considère qu’ils sont « pertinents et d’intérêt public ». L’entreprise affirme qu’elle n’a « jamais appliqué l’intérêt médiatique aux contenus publiés par la Page Facebook ou le compte Instagram de M. Trump ».

En réponse aux questions du Conseil, Facebook a révélé que « 20 contenus de la Page Facebook et du compte Instagram de M. Trump avaient initialement été identifiés par les réviseurs de contenu ou par automatisation comme enfreignant les Standards de la communauté Facebook, mais n’ont finalement pas été qualifiés d’infractions ».

L’entreprise a indiqué au Conseil qu’elle appliquait un système de « vérification croisée » à certains comptes « à forte notoriété » pour « minimiser le risque d’erreurs de mise en application ». Pour ces comptes, Facebook soumet les contenus réputés enfreindre ses Standards de la communauté à un examen interne supplémentaire. Ce n’est qu’après cette démarche que Facebook décide si le contenu constitue bel et bien une infraction. Facebook a affirmé au Conseil n’avoir « jamais appliqué de règles générales plus permissives à l’égard des contenus publiés par des dirigeants politiques ». Si les mêmes règles s’appliquent à tous, la « vérification croisée » sous-entend que les processus décisionnels diffèrent pour les utilisateurs « à forte notoriété ».

3. Autorité et champ d’application

Le Conseil de surveillance est habilité à examiner un large éventail de questions soumises par Facebook (article 2, section 1 de la Charte ; article 2, section 2.1 des Statuts). Les décisions prises sur ces questions sont contraignantes et peuvent inclure des avis consultatifs sur les politiques assortis de recommandations. Ces recommandations ne sont pas contraignantes, mais Facebook est tenue d’y répondre (article 3, section 4 de la Charte). Le Conseil est un organe de réclamation indépendant qui traite les litiges de manière transparente et sur la base de principes.

4. Standards pertinents

Conformément à la Charte du Conseil de surveillance, l’ensemble des cas doivent être examinés à la lumière des standards suivants :

I. Règles de Facebook relatives au contenu :

Tandis que Facebook dispose de Standards de la communauté qui décrivent ce que les utilisateurs ne sont pas autorisés à publier sur la plate-forme, Instagram possède des Règles de la communauté qui font de même pour ce réseau social.

Le Standard de la communauté Facebook sur les individus et organismes dangereux interdit « le contenu qui glorifie, soutient ou représente des évènements que Facebook désigne comme des attaques terroristes, des évènements incitant à la haine, des (tentatives de) meurtres de masse, des meurtres en série, des crimes de haine et des évènements en infraction ». Il proscrit également « tout contenu prônant l’une des organisations ou l’un des individus ci-dessus ou tout acte commis par eux », en se référant notamment aux organisations criminelles et animées par la haine.

Les Règles de la communauté Instagram indiquent qu’Instagram « n’est pas un espace où soutenir ou faire l’éloge du terrorisme, du crime organisé ou de groupes haineux » et fournissent un lien vers le Standard de la communauté sur les individus et organismes dangereux.

Le Standard de la communauté Facebook sur la violence et la provocation précise que Facebook « supprime le contenu, désactive les comptes concernés et collabore avec les autorités lorsqu’elle pense qu’un contenu représente un réel risque de blessures physiques ou une atteinte directe à la sécurité publique ». Ce standard interdit en particulier : « toute déclaration d’incitation à des actes de violence graves » et « tout contenu comportant des déclarations d’intention, des appels à l’action, des déclarations conditionnelles ou idéalistes, ou un plaidoyer en faveur de la violence liée au vote, à l’inscription sur les listes électorales, à l’administration ou au résultat d’une élection ». Il proscrit également les « fausses informations et rumeurs invérifiables présentant un risque d’actes de violence ou de dommages physiques imminents ».

Les Règles de la communauté Instagram indiquent que Facebook supprime « tout contenu qui comporte des menaces » et que les « menaces sérieuses d’atteinte à la sécurité publique et personnelle sont interdites ». Ces deux sections contiennent des liens vers le Standard de la communauté sur la violence et la provocation.

Les Conditions de service de Facebook soulignent que Facebook peut « suspendre ou désactiver définitivement l’accès » à un compte si elle estime que l’utilisateur a enfreint ses conditions et règlements « clairement, sérieusement ou à plusieurs reprises ». L’introduction des Standards de la communauté indique que « la violation de nos Standards de la communauté engendre diverses conséquences qui varient en fonction de la gravité de l’infraction et des antécédents de la personne sur la plateforme ».

Les Conditions d’utilisation d’Instagram précisent que Facebook « peut immédiatement refuser de vous fournir le service ou arrêter de vous fournir le service en tout ou en partie (et notamment en mettant fin ou en désactivant votre accès aux produits Facebook et aux produits des entités Facebook) afin de protéger notre communauté ou nos services, ou si vous générez un risque ou une responsabilité légale pour nous, enfreignez les Conditions d’utilisation ou nos politiques (notamment nos Règles de la Communauté Instagram) ». Les Règles de la communauté Instagram indiquent que « le non-respect de ces règles peut entraîner la suppression du contenu, la désactivation du compte ou d’autres restrictions ».

II. Valeurs de Facebook :

Dans l’introduction de ses Standards de la communauté, Facebook décrit cinq valeurs qui guident les contenus autorisés sur ses plateformes. Trois de ces valeurs sont la « liberté d’expression », la « sécurité » et la « dignité ».

Facebook décrit la « liberté d’expression » comme le souhait que « les personnes puissent s’exprimer ouvertement sur les sujets qui comptent pour elles, même si d’autres peuvent marquer leur désaccord ou y trouveraient à redire. […] Notre engagement en faveur de la liberté d’expression est primordial, mais nous sommes conscients qu’Internet est une source de formes d’abus nouvelles et croissantes. »

En ce qui concerne la « sécurité », elle désigne l’engagement de Facebook à « faire de Facebook un endroit sûr », étant entendu que « les formes d’expression qui menacent les autres peuvent les intimider, les exclure ou les réduire au silence, et ne sont pas autorisées sur Facebook ».

Quant à la « dignité », il s’agit de la conviction de Facebook que « chacun mérite les mêmes droits et la même dignité ». À cet égard, Facebook attend « de chaque personne qu’elle respecte la dignité d’autrui et qu’elle ne harcèle pas et ne rabaisse pas les autres ».

III. Normes relatives aux droits de l’homme :

Le 16 mars 2021, Facebook a annoncé la publication de sa politique d’entreprise sur les droits de l’homme, témoignant de son engagement à respecter les droits conformément aux Principes directeurs des Nations unies relatifs aux entreprises et aux droits de l’homme (PDNU). Les PDNU, soutenus par le Conseil des droits de l’homme des Nations unies en 2011, établissent un cadre de travail volontaire pour les responsabilités des entreprises privées en matière de droits de l’homme. En tant qu’entreprise mondiale engagée envers les PDNU, Facebook est tenue de respecter les normes internationales des droits de l’homme partout où elle opère. Le Conseil de surveillance est appelé à évaluer la décision de Facebook au regard des normes internationales des droits de l’homme applicables à Facebook.

En l’espèce, il analyse les responsabilités de Facebook en matière de droits de l’homme en prenant notamment en considération les normes de droits de l’homme suivantes :

  • Le droit à la liberté d’expression : les articles 19 et 20 du Pacte international relatif aux droits civils et politiques (PIDCP), tels qu’interprétés dans l’Observation générale n° 34 du Comité des droits de l’homme (2011) (Observation générale n° 34) ; le Plan d’action de Rabat, HCDH (2012) ; le rapport A/HRC/38/35 du Rapporteur spécial des Nations unies sur la liberté d’opinion et d’expression (2018) ; la déclaration conjointe des observateurs internationaux sur la liberté d’expression en temps de COVID-19 (mars 2020).
  • Le droit à la vie : l’article 6 du PIDCP.
  • Le droit à la sécurité de sa personne : l’article 9, paragraphe 1.
  • Le droit à la non-discrimination : les articles 2 et 26 du PIDCP ; les articles 1 et 4 de la Convention internationale sur l’élimination de toutes les formes de discrimination raciale (CIEDR).
  • La participation aux affaires publiques et le droit de vote : l’article 25 du PIDCP.
  • Le droit au recours : l’article 2 du PIDCP ; l’observation générale n° 31, Comité des droits de l’homme (2004) (Observation générale 31) ; le principe 22 des PDNU.

5. Déclaration du créateur du contenu

Lorsque Facebook porte un cas devant le Conseil, ce dernier donne à la personne responsable du contenu la possibilité de présenter une déclaration. En l’espèce, une déclaration a été soumise au nom de M. Trump par le biais du Centre américain pour le droit et la justice et d’un administrateur de Page. Cette déclaration demande au Conseil « d’annuler la suspension sine die imposée par Facebook au compte de l’ancien président des États-Unis, Donald Trump ».

Elle aborde les publications supprimées de Facebook et d’Instagram le 6 janvier 2021 ainsi que le discours que M. Trump a tenu plus tôt dans la journée. Il y est dit que les publications « appelaient les personnes présentes ce jour-là au Capitole et aux alentours à rester pacifiques, à agir en toute légalité et à respecter la police » et qu’il est « inconcevable que l’une ou l’autre de ces publications puisse être considérée comme une menace pour la sécurité publique ou une incitation à la violence ». L’on peut également y lire qu’il est « extrêmement clair que le discours de M. Trump ne contenait aucun appel à l’insurrection, aucune incitation à la violence, ni aucune menace pour la sécurité publique de quelque manière » et qu’il n’existe « absolument aucun lien sérieux entre le discours de M. Trump et l’invasion du Capitole ».

La déclaration traite également des motifs invoqués par Facebook pour imposer les restrictions. Elle indique que Facebook ne peut fonder ses restrictions sur des questions de sécurité étant donné « qu’aucun propos tenu par M. Trump aux manifestants ne peut être raisonnablement interprété comme une menace pour la sécurité publique ». Elle précise en outre que « tout contenu soupçonné de porter atteinte à la sécurité doit avoir un lien direct et clair à un véritable risque de violence ». La déclaration affirme également que les termes « fight » (combat) ou « fighting » (combattre) employés lors du discours tenu à l’occasion de la manifestation « étaient liés à un appel à un engagement civique et politique légal » et conclut que « ces propos n’étaient pas destinés à appeler à une insurrection violente ou à l’anarchie, et ne seraient pas interprétés comme tels par un observateur ou un auditeur raisonnable ».

La déclaration aborde également « l’assaut du Capitole ». Elle indique que « tous les véritables partisans politiques de Donald Trump ont respecté la loi » et que cet assaut « a certainement été influencé et a probablement été exacerbé par des forces extérieures ». Elle fait également référence à une plainte fédérale contre les membres des Oath Keepers et affirme que ce groupe n’était « en aucun cas associé à M. Trump ou à sa formation politique », tout en précisant que les Oath Keepers « utilisaient la manifestation de M. Trump de manière parasite et détournaient le débat sur le collège électoral à leurs propres fins ».

Elle souligne aussi que le Standard de la communauté sur la violence et la provocation « ne peut justifier la suspension du compte Facebook de M. Trump », car les deux publications « appelaient simplement à la paix et à la sécurité » et « aucun des termes employés dans le discours de M. Trump, pris dans leur contexte, ne peut raisonnablement être interprété comme une incitation à la violence et à l’anarchie ». Elle cite également le renvoi du cas de Facebook au Conseil en mentionnant « la transmission pacifique du pouvoir » et indique que cette « nouvelle règle ad hoc sur la garantie [sic] de transitions gouvernementales pacifiques est indûment vague et n’existait pas avant les évènements invoqués par Facebook pour la justifier ».

La déclaration précise en outre que le Conseil devrait « s’en remettre à la législation américaine dans le cadre de cette réclamation » et aborde différentes normes du droit international en matière de limitation du droit à la liberté d’expression, de légalité, de but légitime, de nécessité et de proportionnalité, chaque élément était interprété conformément au droit constitutionnel des États-Unis. En ce qui concerne la légalité, la déclaration cite la protection des hyperboles et des fausses déclarations de fait, ainsi que l’importance que revêt Facebook dans le discours public. Elle indique que « prendre des décisions sur les contenus selon ce qui semble “raisonnable” ou la manière dont une “personne raisonnable” réagirait à ces contenus ne suffit pas » et que Facebook devrait « envisager de placer la barre beaucoup plus haut ». Elle affirme que la Cour suprême exige un contrôle rigoureux des lois qui grèvent le discours politique et que Facebook occupe une position dominante sur le marché. La déclaration porte également sur les normes constitutionnelles relatives à l’incitation à la violence. En ce qui concerne le but légitime, elle indique que la préservation de la sécurité publique constitue bien un objectif légitime, mais que le discours de M. Trump ne présentait aucun problème pour la sécurité. Quant à la nécessité et la proportionnalité, la déclaration rejette la validité des restrictions et affirme que la sanction était disproportionnée.

Elle conclut en formulant quelques suggestions pour les recommandations de politique du Conseil sur les suspensions qui concernent un dirigeant politique. Elle estime que le Conseil devrait « s’en remettre aux principes juridiques de l’État dans lequel le dirigeant est ou était au pouvoir ». Enfin, la déclaration détaille plusieurs exceptions à ce renvoi en se fondant sur les examens des règles de droit, les garanties des droits, les procédés législatifs, les procédures d’examen judiciaires et l’existence de principes légaux pertinents dans certains pays.

6. Explication de Facebook sur sa décision

Pour chaque cas, Facebook fournit une explication de ses actions au Conseil, qui lui demande ensuite de clarifier certaines informations dont il a besoin pour rendre sa décision. En l’espèce, Facebook explique qu’elle a supprimé les deux contenus publiés le 6 janvier 2021, car ils enfreignaient le Standard de la communauté sur les individus et les organismes dangereux. Plus particulièrement, le contenu a été supprimé pour avoir enfreint sa « politique interdisant tout soutien, éloge ou représentation d’évènements violents désignés ». Par ailleurs, Facebook a indiqué qu’il y avait eu une « infraction à sa politique sur les individus et organismes dangereux interdisant l’éloge d’individus engagés dans des actes de violence organisée ». L’entreprise souligne que ses Standards de la communauté interdisent clairement « tout contenu soutenant ou faisant l’éloge de groupes, dirigeants ou individus impliqués dans » des activités telles que le terrorisme, la violence ou les activités criminelles organisées, et que ceci inclut les assauts organisés ainsi que les actes de violence planifiés visant à porter préjudice à une personne dans le but d’intimider un gouvernement afin d’atteindre un objectif politique.

Facebook fait observer que son examen reflète à la fois la lettre de sa politique et le contexte dans lequel la déclaration a été effectuée, en ce compris les actes de violence continue perpétrés au Capitole. Elle affirme que bien que M. Trump ait appelé les personnes présentes à « rentrer chez elles en paix », il a également réitéré ses allégations de fraude électorale et suggéré un objectif commun par les mots « I know how you feel » (je sais ce que vous ressentez). Compte tenu de l’instabilité permanente au moment de ses commentaires et de la teneur générale de ses propos, Facebook conclut que les termes « We love you. You’re very special » (Nous vous aimons. Vous êtes exceptionnels), étaient destinés à faire l’éloge des personnes ayant enfreint la loi en prenant d’assaut le Capitole. L’entreprise estime également que la seconde publication loue les actes perpétrés, car M. Trump a qualifié les personnes qui ont envahi le Capitole de « great patriots » (grands patriotes) et a invité le monde à se souvenir de ce jour pour toujours (« remember this day forever »).

Facebook souligne qu’elle limite régulièrement les fonctionnalités des Pages et des profils Facebook ainsi que des comptes Instagram qui enfreignent gravement ou à plusieurs reprises ses politiques. En concluant qu’il existe un « risque urgent et sérieux pour la sécurité publique », Facebook « passe outre ses protocoles de mise en application de ses standards pour prendre des mesures plus sévères à l’encontre des utilisateurs et des Pages en infraction ». Dans de tels cas, Facebook affirme que ses mesures de mise en application restent fondées sur ses Standards de la communauté et sur les Règles de la communauté Instagram. Elle indique qu’elle « évalue tous les outils de mise en application disponibles, en ce compris les exclusions permanentes, avant de décider de la mesure la plus adéquate à appliquer au cas par cas. Dans les cas où Facebook doit prendre une décision d’urgence suscitant un intérêt général, elle s’attache à partager sa décision et son raisonnement avec le public, le plus souvent par le biais de Newsroom. »

Facebook précise qu’elle n’a pas coutume de bloquer les fonctionnalités de publication ou d’interaction des Pages, mais qu’elle supprime celles qui enfreignent gravement ou à plusieurs reprises les politiques Facebook. L’entreprise fait toutefois observer que ses protocoles de mise en application relatifs aux profils, dont le blocage de fonctionnalités fait partie intégrante, peuvent également être appliqués aux Pages Facebook utilisées au nom d’une personne, comme la Page de Donald J. Trump. En l’espèce, Facebook indique que, conformément aux protocoles de mise en application de ses standards, elle a initialement bloqué la fonctionnalité de publication de la Page Facebook et du compte Instagram durant 24 heures. Après avoir examiné plus en profondeur l’évolution de la situation et les détails entourant les actes de violence commis au Capitole, Facebook a conclu que l’exclusion de 24 heures n’était pas suffisante pour lutter contre « le risque que M. Trump utilise sa présence sur Facebook et Instagram pour contribuer à d’éventuelles nouvelles formes de violence ».

Facebook souligne avoir maintenu la suspension sine die après l’investiture de M. Biden notamment en raison de l’analyse démontrant que les violences liées à M. Trump ne s’étaient pas dissipées. Elle cite le bulletin national d’alerte antiterroriste publié le 27 janvier par le département de la Sécurité intérieure décrivant un « climat de menaces accrues aux États-Unis qui, selon le département, persistera dans les semaines qui suivront l’investiture présidentielle » et précisant que « les actes de violence perdureront jusqu’au début de l’année 2021 et que certains [extrémistes nationaux violents] pourraient avoir été enhardis par l’assaut du bâtiment du Capitole des États-Unis à Washington, D.C. le 6 janvier 2021 pour cibler des élus et des installations gouvernementales. » L’entreprise fait observer que, bien que le risque de violence a diminué, il peut être approprié de bloquer définitivement la fonctionnalité de publication de M. Trump en raison de la gravité de ses infractions en date du 6 janvier, de son insistance continue à alléguer que l’élection de M. Biden était frauduleuse, de son partage d’autres fausses informations et du fait qu’il n’est plus président.

Facebook indique que sa décision a été prise « sur la base de l’article 19 du PIDCP et de l’Observation générale n° 34 des Nations unies sur la liberté d’expression, lesquels autorisent des restrictions nécessaires et proportionnées de la liberté d’expression dans des situations d’urgence publique qui menacent la vie de la nation. En l’espèce, le District de Columbia était soumis à un état d’urgence décrété pour protéger le site du Capitole des États-Unis. Facebook souligne qu’elle a également pris en considération les six facteurs contextuels du Plan d’action de Rabat sur l’interdiction de l’appel à la haine nationale, raciale ou religieuse. Le Plan d’action de Rabat a été élaboré par des experts avec le soutien des Nations unies dans le but de guider les États lorsque l’appel à la haine nationale, raciale ou religieuse qui constitue une incitation à la discrimination, à l’hostilité ou à la violence est si sérieux que le recours à des sanctions pénales imposées par les États s’avère approprié, tout en protégeant la liberté d’expression, conformément aux obligations des États en vertu des articles 19 et 20, paragraphe 2 du PIDCP.

Facebook soutient que les évènements du 6 janvier représentaient une menace sans précédent pour les processus démocratique et constitutionnel des États-Unis. Bien que Facebook affirme qu’elle s’efforce d’agir de manière proportionnée et responsable lorsqu’il s’agit de restreindre le discours public, elle estime devoir conserver une certaine flexibilité opérationnelle pour prendre d’autres mesures, en ce compris une exclusion permanente, compte tenu des circonstances sans précédent et de l’instabilité de la situation.

En l’espèce, le Conseil a posé 46 questions à Facebook, qui a refusé de répondre à sept d’entre elles totalement et à deux partiellement. Les questions auxquelles Facebook n’a pas répondu concernaient entre autres la manière dont le fil d’actualité et d’autres fonctionnalités de Facebook ont pu avoir une incidence sur la visibilité du contenu de M. Trump, les recherches éventuellement menées par Facebook ou sa disposition à en effectuer sur ces décisions de conception par rapport aux évènements du 6 janvier 2021 et les informations relatives aux contenus en infraction des abonnés des comptes de M. Trump. Le Conseil a également posé quelques questions sur la suspension d’autres personnalités politiques et la suppression d’autres contenus, a demandé si Facebook avait été contacté par des mandataires politiques ou leurs équipes sur la suspension des comptes de M. Trump et si la suspension ou la suppression des comptes affectent la capacité des annonceurs à cibler les comptes des abonnés. Facebook a déclaré que ces informations n’étaient pas raisonnablement requises dans le cadre de la prise de décision conformément à l’esprit de la Charte ; ne pouvaient techniquement pas être fournies ; étaient protégées par le secret professionnel liant l’avocat à son client ; ou ne pouvaient ou ne devaient pas être fournies en raison de préoccupations d’ordre juridique, de confidentialité, de sécurité ou de protection des données.

7. Soumissions de tierces parties

Le Conseil de surveillance a reçu 9 666 commentaires publics en rapport avec ce cas. 80 commentaires sont issus d’Asie-Pacifique et d’Océanie, 7 d’Asie centrale et du Sud, 136 d’Europe, 23 d’Amérique latine et des Caraïbes, 13 du Moyen-Orient et d’Afrique du Nord, 19 d’Afrique subsaharienne et 9 388 des États-Unis et du Canada.

Les soumissions portent sur les thèmes suivants, dont des questions que le Conseil a spécifiquement posées dans son appel aux commentaires publics :

  • La suspension sine die des comptes de M. Trump par Facebook, son éventuel respect des responsabilités de l’entreprise en matière de liberté d’expression et des droits de l’homme et l’opportunité de mesures alternatives.
  • Les politiques et les pratiques de Facebook concernant l’examen du contexte hors Facebook dans le cadre de la mise en application de ses Standards de la communauté, en particulier si le contenu concerné peut inciter à la violence.
  • Des questions relatives à la clarté des règles de Facebook sur la désactivation des comptes.
  • Les politiques générales relatives au contenu de Facebook appliquées aux candidats politiques, aux (anciens) titulaires de mandat, en ce compris la pertinence de « l’intérêt médiatique » de Facebook et le droit du public à l’information.
  • Des inquiétudes quant à la cohérence de la mise en application des Standards de la communauté Facebook sur la base des partis pris politiques.
  • Des préoccupations relatives à la mise en application des Standards de la communauté Facebook sur les précédentes publications de M. Trump, en ce compris celles qui ont pu contribuer à porter préjudice à certains groupes de personnes et à la diffusion de fausses informations.
  • La possibilité selon laquelle les propos qu’a tenus M. Trump avant le 6 janvier constituaient une incitation à la violence.
  • Le résultat de l’élection présidentielle américaine et la présidence de M. Trump.

Pour lire les commentaires publics soumis pour ce cas, veuillez cliquer ici.

8. Analyse du Conseil de surveillance

8.1 Respect des règles relatives au contenu

Le Conseil approuve la décision de Facebook selon laquelle les deux publications de M. Trump du 6 janvier enfreignaient les Standards de la communauté Facebook et les Règles de la communauté Instagram. Le Standard de la communauté Facebook sur les individus et organismes dangereux précise que les utilisateurs ne doivent pas publier de contenu « soutenant ou faisant l’éloge de groupes, dirigeants ou individus impliqués dans » des évènements en infraction. Facebook a qualifié la prise d’assaut du Capitole « d’évènement en infraction » et a souligné qu’elle considérait que les évènements « violents » désignés faisaient partie intégrante desdits évènements en infraction.

Au moment de la publication des contenus, les violences se poursuivaient au Capitole. Les deux publications soutenaient ou faisaient l’éloge des personnes prenant part aux violences. Les propos « We love you. You’re very special » (Nous vous aimons. Vous êtes exceptionnels) de la première publication ainsi que les termes « great patriots » (grands patriotes) et « remember this day forever » (souvenez-vous de ce jour pour toujours) de la seconde publication équivalaient à soutenir ou louer les personnes impliquées dans les actes de violence et les évènements survenus au Capitole ce jour-là.

Le Conseil note que d’autres Standards de la communauté sont susceptibles d’avoir été enfreints en l’espèce, en ce compris le Standard sur la violence et la provocation. Étant donné que la décision de Facebook n’était pas fondée sur ce Standard et qu’une infraction supplémentaire n’aurait pas modifié le résultat de la procédure, la majorité des membres du Conseil s’abstiennent de prendre de décision sur ce motif alternatif. La décision qui confirme l’imposition par Facebook de restrictions sur les comptes de M. Trump se fonde en effet sur l’infraction du Standard de la communauté sur les individus et organismes dangereux.

Une minorité de membres du Conseil est toutefois disposée à tenir compte de ce motif supplémentaire et estime que le Standard sur la violence et la provocation a été enfreint. Cette minorité est d’avis que, pris dans leur contexte, les publications affirmant que l’élection « nous a été volée » et a été « si vicieusement arrachée », conjuguées à l’éloge des émeutiers, représentent des « appels à l’action », une « incitation à la violence » et des « fausses informations et rumeurs invérifiables présentant un risque d’actes de violence ou de dommages physiques imminents » interdits par le Standard de la communauté sur la violence et la provocation.

Le Conseil estime que les deux publications enfreignaient gravement les politiques de Facebook et conclut que la décision de Facebook visant à restreindre le compte et la Page concernés les 6 et 7 janvier était justifiée. L’utilisateur a soutenu et loué les personnes ayant pris part à des émeutes qui ont coûté la vie à plusieurs personnes, ont exposé des législateurs à un sérieux risque de préjudice et ont perturbé un processus démocratique majeur. Par ailleurs, au moment où les restrictions ont été étendues le 7 janvier, la situation évoluait et de graves problèmes de sécurité subsistaient. Compte tenu des circonstances, limiter l’accès de M. Trump à Facebook et Instagram les 6 et 7 janvier dernier assurait un bon équilibre à la lumière du risque contenu de violence et de perturbation. Toutefois, comme expliqué plus en détail ci-dessous, la décision de Facebook d’imposer ces restrictions pour une période « indéterminée » ne se fonde sur aucune base présente dans les Standards de la communauté et enfreint les principes de la liberté d’expression.

Le Conseil souligne qu’il existe peu d’informations accessibles au public sur le système de vérification croisée et l’intérêt médiatique. Bien que Facebook indique que les mêmes règles s’appliquent aux comptes à forte notoriété et aux comptes ordinaires, différents procédés peuvent conduire à des résultats concrets différents. Facebook a affirmé au Conseil qu’elle n’avait pas appliqué l’intérêt médiatique aux publications en l’espèce. Malheureusement, le manque de transparence des processus décisionnels laisse à penser que l’entreprise pourrait indûment avoir été influencée par des considérations politiques ou commerciales.

8.2 Respect des valeurs de Facebook

L’analyse précitée correspond aux valeurs « liberté d’expression » et « sécurité » de Facebook. Pour les raisons exposées dans le présent avis, la protection de l’ordre public justifiait en l’espèce la limitation de la liberté d’expression.

Une minorité des membres du Conseil estime qu’il convient également de souligner que la valeur de « dignité » était également pertinente. Facebook associe la « dignité » à l’égalité et au fait que l’on ne doit pas « harceler ni rabaisser » les autres. La minorité considère ci-dessous que les précédentes publications de M. Trump sur la plateforme ont contribué à l’exclusion et aux tensions raciales, et que ce contexte était déterminant pour comprendre l’influence du contenu de M. Trump. Ayant traité ce cas en se fondant sur d’autres bases, la majorité ne fait pas de commentaires.

8.3 Respect des responsabilités de Facebook en matière des droits de l’homme

Les décisions du Conseil ne concernent pas les obligations en matière de droits de l’homme des États ni l’application des lois nationales, mais se concentrent sur les règles de Facebook relatives au contenu, sur ses valeurs et sur ses responsabilités en matière des droits de l’homme en tant qu’entreprise. Les Principes directeurs des Nations unies relatifs aux entreprises et aux droits de l’homme, auxquels Facebook a souscrit (cf. section 4), définissent ce que les entreprises doivent mettre en place sur une base volontaire pour assumer ces responsabilités. Il s’agit notamment d’éviter de causer ou de contribuer à des atteintes aux droits de l’homme, en partie en identifiant les préjudices possibles et réels et en s’efforçant de les prévenir ou d’y remédier (principes 11, 13, 15 et 18 des PDNU). Ces responsabilités s’étendent aux préjudices causés par des tierces parties (principe 19 des PDNU).

Facebook est devenu un média pratiquement indispensable au discours politique, en particulier en période électorale. Il lui incombe à la fois de permettre l’expression politique et d’éviter les potentielles répercussions négatives sur d’autres droits de l’homme. Tout comme d’autres plateformes numériques et entreprises médiatiques, Facebook a été vivement critiquée pour avoir diffusé de fausses informations et amplifié des contenus controversés et incendiaires. Les responsabilités de Facebook en matière de droits de l’homme doivent être interprétées à la lumière de ces considérations parfois opposées.

Le Conseil analyse les responsabilités de Facebook en matière de droits de l’homme par le biais des normes internationales de la liberté d’expression et des droits à la vie, à la sécurité et à la participation politique. L’article 19 du PIDCP consacre le droit à la liberté d’expression. Il dispose que « toute personne a droit à la liberté d’expression ; ce droit comprend la liberté de rechercher, de recevoir et de répandre des informations et des idées de toute espèce, sans considération de frontières, sous une forme orale, écrite, imprimée ou 
artistique, ou par tout autre moyen de son choix. » Le Conseil n’applique pas le premier amendement de la Constitution des États-Unis, lequel ne régit pas la conduite des entreprises privées. Il fait toutefois observer que les principes de liberté d’expression qui figurent dans le premier amendement sont à bien des égards similaires ou analogues à ceux de l’article 19 du PIDCP.

Le discours politique bénéficie d’une plus grande protection par la législation sur les droits de l’homme en raison de son importance dans le débat démocratique. Le Comité des droits de l’homme des Nations unies a fourni des indications faisant autorité sur l’article 19 du PIDCP dans l’Observation générale n° 34, laquelle précise que « la communication libre des informations et des idées concernant des questions publiques et politiques entre les citoyens, les candidats et les représentants élus est essentielle » (paragraphe 20).

La décision de Facebook de suspendre la Page Facebook et le compte Instagram de M. Trump a des répercussions non seulement sur la liberté d’expression de M. Trump, mais aussi sur le droit des personnes à écouter les discours des dirigeants politiques, qu’elles les soutiennent ou non. Bien que les personnalités politiques ne jouissent pas d’un droit à la liberté d’expression supérieur à celui des autres, limiter leurs discours peut porter préjudice aux droits d’information et de participation à la vie politique des autres personnes. Il n’en demeure pas moins que les normes internationales liées aux droits humains attendent des acteurs étatiques qu’ils condamnent la violence (Plan d’action de Rabat) et fournissent des informations exactes au public sur des questions d’intérêt public, tout en corrigeant les fausses informations (Déclaration conjointe des observateurs internationaux sur la liberté d’expression en temps de COVID-19, 2020).

Le droit international permet de limiter la liberté d’expression lorsque certaines conditions sont réunies. Toute restriction doit répondre à trois exigences : les règles doivent être claires et accessibles, elles doivent viser un objectif légitime et doivent être nécessaires et proportionnées au risque de préjudice. Le Conseil utilise ces trois critères pour analyser les actions entreprises par Facebook en cas de restriction de contenus ou de comptes. Les principes du premier amendement de la Constitution américaine soulignent que les limitations de la liberté d’expression imposées par l’État ne peuvent être vagues, doivent être motivées par des raisons gouvernementales importantes et doivent être étroitement adaptées au risque de préjudice.

I. Légalité (clarté et accessibilité des règles)

Le principe de légalité du droit international sur la liberté d’expression exige que toute règle employée pour limiter la liberté d’expression soit claire et accessible. Les personnes doivent être en mesure de comprendre ce qui est autorisé et ce qui ne l’est pas. Il est tout aussi important que les règles soient suffisamment claires pour guider ceux qui prennent des décisions en matière de limitation de la liberté d’expression, afin que ces règles ne confèrent pas un pouvoir discrétionnaire illimité, lequel pourrait entraîner une application sélective des règles. En l’espèce, ces règles sont les Standards de la communauté Facebook et les Règles de la communauté Instagram. Ces règles visent à définir les contenus qu’il est interdit de publier ainsi que les politiques de Facebook sur les cas dans lesquels l’accès aux comptes Facebook et Instagram peut être restreint.

La clarté du Standard sur le soutien et l’éloge des individus et organismes dangereux laisse trop à désirer, comme le Conseil l’a déjà indiqué dans une décision précédente (cas 2020-005-FB-UA). Le Rapporteur spécial des Nations unies sur la liberté d’expression s’est également dit préoccupé par les règles vagues du Standard sur les individus et organismes dangereux (A/HRC/38/35, paragraphe 26, note de bas de page 67). Comme l’a déclaré le Conseil dans le cas 2020-003-FB-UA, il peut arriver que certaines formulations soulèvent des problèmes de légalité, qui se révèlent injustifiés en cas d’application à un cas particulier. Le caractère vague des règles du Standard ne rend pas son application aux circonstances de ce cas douteuse. L’émeute du 6 janvier au Capitole s’inscrivait parfaitement dans les types d’évènements préjudiciables décrits dans la politique de Facebook et les publications de M. Trump ont soutenu et fait l’éloge des personnes impliquées, au moment même où les actes de violence étaient perpétrés et où les membres du Congrès l’appelaient à l’aide. Concernant ces faits, les politiques de Facebook ont dûment averti l’utilisateur et fourni un cadre aux personnes chargées d’appliquer la règle.

Quant aux sanctions en cas d’infraction, les Standards de la communauté et les informations connexes relatives aux restrictions de compte sont publiés dans diverses sources, en ce compris les Conditions de service, l’introduction des Standards de la communauté, le Standard de la communauté sur l’intégrité du compte et l’identité authentique, Newsroom et les pages d’aide de Facebook. Comme indiqué dans le cas 2020-006-FB-FBR, le Conseil rappelle que la diversité des règles applicables soulève des problèmes de légalité et ne permet pas aux utilisateurs de comprendre clairement pourquoi et quand Facebook restreint l’accès à certains comptes.

Bien que le Conseil soit convaincu du fait que le Standard sur les individus et organismes dangereux soit suffisamment clair dans les circonstances de ce cas pour satisfaire aux normes de clarté et de précision de la liberté d’expression, l’imposition par Facebook d’une restriction pour une durée « indéterminée » est vague et incertaine. Les restrictions pour une durée « indéterminée » ne sont pas décrites dans les Standards de la communauté et l’on ignore encore quels standards déclencheraient cette sanction ou seraient employés pour la maintenir ou la lever. Facebook n’a communiqué aucune information sur l’imposition préalable de suspensions sine die dans d’autres cas. Le Conseil reconnaît la nécessité d’un certain pouvoir discrétionnaire de la part de Facebook pour suspendre des comptes dans des situations urgentes comme celle du mois de janvier, mais les utilisateurs ne peuvent pas être laissés dans un état d’incertitude pendant une durée indéterminée.

Le Conseil rejette la demande de Facebook d’approuver des restrictions sine die imposées et levées sans critères explicites. Des limites adéquates aux pouvoirs discrétionnaires sont essentielles pour en distinguer l’usage légitime dans de possibles scénarios internationaux où Facebook pourrait indûment taire des discours non liés à un préjudice quelconque ou retarder des actions essentielles à la protection des personnes.

II. Objectif légitime

Le critère de l’objectif légitime implique que toute mesure visant à limiter la liberté d’expression doit avoir un objectif repris dans la liste exhaustive dressée à l’article 19, paragraphe 3 du PIDCP. Les objectifs légitimes comprennent la sauvegarde de l’ordre public, ainsi que le respect des droits d’autrui, en ce compris les droits à la vie, à la sécurité, à la participation aux élections et d’en voir le résultat respecté et appliqué. Un objectif ne serait pas considéré comme légitime s’il était utilisé comme prétexte pour supprimer toute forme d’expression, par exemple en invoquant les objectifs de protection de la sécurité ou des droits d’autrui pour censurer un discours simplement parce qu’il est désagréable ou offensant (Observation générale n° 34, paragraphes 11, 30, 46 et 48). La règle de Facebook sur le soutien et l’éloge des individus impliqués dans des « évènements en infraction », des actes de violence ou des activités criminelles était conforme aux objectifs précités.

III. Nécessité et proportionnalité

Le critère de nécessité et de proportionnalité signifie que toute limitation de la liberté d’expression doit notamment constituer le moyen le moins perturbateur afin d’atteindre l’objectif légitime (Observation générale n° 34, paragraphe 24).

Le Conseil estime que, dans la mesure du possible, Facebook doit prendre des mesures moins restrictives pour lutter contre les discours potentiellement dangereux et protéger les droits d’autrui avant de recourir à la suppression du contenu et à la limitation du compte. Il s’agirait à tout le moins de développer des mécanismes efficaces pour éviter d’amplifier les discours qui présentent des risques de violence imminente, de discrimination ou d’autres actions illégales, lorsque cela est possible et proportionné, plutôt que d’interdire purement et simplement ces discours.

Facebook a déclaré au Conseil qu’elle considérait que « l’utilisation répétée de Facebook et d’autres plateformes par M. Trump afin de saper la confiance de la population envers l’intégrité de l’élection (requérant l’apposition répétée d’étiquettes officielles par Facebook pour rectifier les fausses informations) constituait une utilisation abusive considérable de la plateforme ». Le Conseil a demandé à Facebook des précisions sur la mesure dans laquelle les décisions de conception de la plateforme, en ce compris les algorithmes, les règles, les procédures et les fonctionnalités techniques, ont amplifié les publications de M. Trump après l’élection et si Facebook avait effectué une analyse interne pour déterminer si ces décisions de conception pouvaient avoir contribué aux évènements du 6 janvier. Facebook a refusé de répondre à ces questions. Il est donc difficile pour le Conseil d’évaluer si des mesures moins sévères, prises plus tôt, auraient pu être suffisantes pour protéger les droits d’autrui.

Il convient principalement de déterminer si la décision de Facebook de limiter l’accès aux comptes de M. Trump les 6 et 7 janvier était nécessaire et proportionnée pour protéger les droits d’autrui. Pour comprendre le risque posé par les publications du 6 janvier, le Conseil a examiné les publications Facebook et Instagram ainsi que les propos tenus par M. Trump en dehors de la plateforme depuis l’élection de novembre. En entretenant un récit infondé de fraude électorale ainsi que des appels à l’action constants, M. Trump a créé un environnement dans lequel un risque sérieux de violence était possible. Le 6 janvier, les mots de soutien de M. Trump aux personnes impliquées dans les émeutes ont légitimé leurs actes de violence. Bien que les messages contenaient un appel visiblement superficiel à agir pacifiquement, ces paroles n’ont pas suffi à désamorcer les tensions et éliminer le risque de préjudice auquel ses déclarations de soutien ont contribué. Il était opportun pour Facebook d’interpréter les publications de M. Trump du 6 janvier à la lumière du contexte de l’escalade des tensions aux États-Unis, des déclarations de M. Trump sur d’autres médias et lors d’évènements publics.

Dans le cadre de son analyse, le Conseil s’est inspiré sur les six facteurs du Plan d’action de Rabat pour évaluer la capacité d’un discours à créer un risque sérieux d’incitation à la discrimination, à la violence ou à toute autre action illégale :

  • Contexte : Les messages ont été publiés pendant une période de forte tension politique axée sur la revendication non fondée que l’élection présidentielle de novembre 2020 avait été volée. La campagne de M. Trump a porté ces revendications devant les tribunaux, mais a systématiquement été déboutée faute de preuves. M. Trump a néanmoins continué à diffuser ces allégations sur les médias sociaux, notamment sur Facebook et Instagram, en utilisant son statut officiel de chef d’État pour leur donner de la crédibilité. Il a encouragé ses partisans à se rendre dans la capitale le 6 janvier pour « mettre fin au vol », suggérant que les évènements seraient « fous ». Le 6 janvier, M. Trump a exhorté ses partisans à marcher jusqu’au Capitole pour contester le décompte des votes du collège électoral. Au moment des publications, des actes de violence grave se poursuivaient. Lorsque les restrictions ont été étendues le 7 janvier, la situation était toujours instable. Entre autres indicateurs du contexte, le District de Columbia a pris des mesures pour avertir d’un risque accru de violence entourant les évènements survenant au Capitole.
  • Statut de l’intervenant : L’identité de M. Trump, à savoir président des États-Unis et dirigeant politique, a conféré un plus haut degré d’influence à ses publications Facebook et Instagram. Le Conseil note qu’en tant que président, M. Trump entretenait une relation de crédibilité et d’autorité avec le public, ce qui a contribué aux évènements du 6 janvier. Son statut de chef d’État occupant un poste de confiance élevé a non seulement insufflé davantage de force et de crédibilité à ses propos, mais a également fait courir le risque que ses partisans croient qu’ils pouvaient agir en toute impunité.
  • Intention : Le Conseil n’est pas en mesure de déterminer avec certitude les intentions de M. Trump. La possibilité de violence associée aux déclarations de M. Trump était manifeste et le Conseil a considéré qu’il savait sans doute ou aurait dû savoir que ce type de communications risquaient de légitimer ou d’encourager des actes de violence.
  • Contenu et forme : Les deux publications du 6 janvier soutenaient et faisaient l’éloge des émeutiers, même si elles les appelaient à rentrer chez eux en paix. Elles réitéraient également les allégations infondées selon lesquelles l’élection avait été volée. Des rapports suggèrent que certains émeutiers ont considéré que ces revendications légitimaient leurs actions. Les preuves révèlent que M. Trump a utilisé l’autorité communicative de sa présidence pour soutenir les assaillants du Capitole et tenter d’empêcher le décompte légal des votes du collège électoral.
  • Ampleur et portée : M. Trump est suivi par une vaste audience, avec au moins 35 millions de comptes sur Facebook et au moins 24 millions de comptes sur Instagram. Il est important de souligner que ces publications sur les médias sociaux sont fréquemment reprises et partagées plus largement sur les médias de masse ainsi que les partisans de M. Trump à forte notoriété disposant de vastes audiences, ce qui augmente considérablement leur portée.
  • Imminence de préjudice : Les contenus ont été publiés durant une situation de violence continue évoluant rapidement. Il existait un risque clair et immédiat de préjudice aux droits à la vie, à l’intégrité électorale et à la participation politique. Les violences au Capitole ont commencé moins d’une heure après la manifestation organisée en utilisant Facebook et d’autres médias sociaux. En effet, au moment même des publications de M. Trump, les émeutiers saccageaient les couloirs du Capitole et les membres du Congrès exprimaient leurs craintes en appelant la Maison-Blanche et en implorant le président de calmer la situation. Les émeutes ont directement interféré avec la capacité du Congrès à s’acquitter de sa responsabilité constitutionnelle de compter les votes du collège électoral, retardant ainsi le processus de plusieurs heures.

Après examen de ces éléments, le Conseil conclut qu’il y a eu infraction grave en matière d’atteinte aux droits de l’homme en l’espèce. L’imposition par Facebook de restrictions au niveau du compte le 6 janvier et la prolongation de ces mesures le 7 janvier étaient nécessaires et proportionnées.

Pour une minorité des membres du Conseil, si la suspension pour une durée prolongée ou la désactivation permanente pouvaient être justifiées sur la base des seuls évènements du 6 janvier, l’analyse de proportionnalité devrait également être étayée par l’utilisation que M. Trump a faite des plateformes Facebook avant l’élection présidentielle de novembre 2020. Plus particulièrement, cette minorité a relevé la publication du 28 mai 2020 affirmant « When the looting starts, the shooting starts » (quand le pillage commence, la fusillade démarre), effectuée dans le contexte des manifestations en faveur de la justice raciale, ainsi que plusieurs autres publications faisant référence au « China Virus » (virus chinois). Facebook a pris des engagements pour respecter le droit à la non-discrimination (article 2, paragraphe 1 du PIDCP et article 2 de la CIEDR), et, conformément aux exigences relatives aux restrictions du droit à la liberté d’expression (article 19, paragraphe 3 du PIDCP), pour empêcher l’utilisation de ses plateformes à des fins d’apologie de la haine raciale ou nationale sous la forme d’incitation à l’hostilité, à la discrimination ou à la violence (article 20 du PIDCP et article 4 de la CIEDR). La fréquence, la quantité et l’étendue des communications préjudiciables doivent alimenter l’évaluation de Rabat sur la gravité de l’incitation (paragraphe 29 du Plan d’action de Rabat), en particulier les facteurs relatifs au contexte et à l’intention. Pour une minorité de membres, cette analyse plus large serait indispensable pour éclairer l’appréciation de Facebook d’une sanction proportionnée le 7 janvier, qui devrait à la fois avoir un effet dissuasif sur les autres dirigeants politiques et permettre, le cas échéant, une réhabilitation. En outre, si Facebook avait choisi d’imposer une suspension limitée dans le temps, l’analyse des risques requise avant la réintégration aurait également dû tenir compte de ces facteurs. Ayant traité ce cas en se fondant sur d’autres bases, la majorité ne fait pas de commentaires.

9. Décision du Conseil de surveillance

La décision de Facebook du 6 janvier visant à imposer des restrictions aux comptes de M. Trump était justifiée. Les publications concernées enfreignaient les règles de Facebook et d’Instagram interdisant le soutien ou l’éloge d’évènements en infraction, en ce compris les émeutes qui se déroulaient au Capitole des États-Unis. Compte tenu de la gravité des infractions et du risque continu de violence, la décision de Facebook visant à imposer des restrictions au niveau du compte et à étendre ces restrictions le 7 janvier était justifiée.

Il n’était toutefois pas opportun pour Facebook d’imposer une suspension sine die.

En l’espèce, Facebook n’a pas respecté la procédure claire publiée. Les sanctions ordinaires de Facebook au niveau des comptes en cas d’infraction de ses règles consistent à imposer une suspension limitée dans le temps ou à désactiver définitivement le compte de l’utilisateur. Le Conseil estime que Facebook n’est pas autorisée à suspendre un utilisateur de la plateforme pour une durée indéterminée, sans indiquer si et quand le compte sera restauré.

Il appartient à Facebook d’établir et de communiquer des sanctions nécessaires et proportionnées à appliquer pour répondre aux infractions graves de ses règles relatives au contenu. Le rôle du Conseil vise à s’assurer que les règles et les procédés de Facebook sont conformes à ses règles relatives au contenu, à ses valeurs et à ses engagements en faveur du respect des droits de l’homme. En prenant une sanction indéterminée et arbitraire, puis en renvoyant ce cas pour résolution au Conseil, Facebook cherche à fuir ses responsabilités. Le Conseil rejette la demande de Facebook et l’exhorte à appliquer et justifier une sanction déterminée.

Facebook doit reconsidérer la décision arbitraire imposée le 7 janvier dernier et décider d’une sanction appropriée dans les six mois suivant la publication de la présente décision. La sanction doit être fondée sur la gravité de l’infraction et l’éventualité d’un préjudice futur. Elle doit également être conforme aux règles de Facebook en matière d’infractions graves, lesquelles doivent à leur tour être claires, nécessaires et proportionnées.

Si Facebook estime que les comptes de M. Trump doivent être restaurés, l’entreprise est tenue d’appliquer ces règles à la décision, en ce compris les modifications apportées conformément aux recommandations de politique effectuées ci-après. En outre, si Facebook décide de le réintégrer sur la plateforme, elle devra traiter toute autre infraction dans les plus brefs délais et conformément à ses règles établies en matière de contenu.

Une minorité des membres du Conseil estime qu’il est important de définir des critères minimaux qui reflètent l’appréciation du Conseil des responsabilités de Facebook en matière de droits de l’homme. La majorité préfère plutôt fournir ce cadre sous la forme de recommandation de politique. La minorité souligne expressément que les responsabilités de Facebook en matière de respect des droits de l’homme incluent la facilitation de la réparation des répercussions négatives sur les droits de l’homme auxquelles elle a contribué (principe 22 des PDNU). La réparation constitue un élément fondamental du cadre « protéger, respecter et réparer » des PDNU, lequel reflète plus largement le droit international relatif aux droits de l’homme (article 2, paragraphe 3 du PIDCP, tel qu’interprété par le Comité des droits de l’homme dans l’Observation générale n° 31, paragraphes 15 à 18). Pour s’acquitter de sa responsabilité visant à garantir que les répercussions négatives ne se répètent pas, Facebook doit déterminer si le rétablissement des comptes de M. Trump présenterait un risque sérieux d’incitation à la discrimination, à la violence ou à toute autre action illégale imminente. Cette évaluation du risque doit se fonder sur les considérations du Conseil détaillées dans l’analyse de nécessité et de proportionnalité visée à la section 8.3.III ci-dessus, en ce compris le contexte et les conditions sur Facebook et Instagram ainsi qu’en dehors. Par exemple, Facebook doit s’assurer que M. Trump a cessé d’émettre des allégations infondées sur d’éventuelles fraudes électorales de la manière qui a justifié sa suspension le 6 janvier. Les procédures de mise en application de Facebook visent à permettre une réhabilitation et une minorité de membres estime que cet objectif correspond bien au principe de satisfaction de la législation sur les droits de l’homme. Cette minorité souligne que les règles Facebook devraient s’assurer que les utilisateurs demandant leur réintégration après une suspension reconnaissent leurs erreurs et s’engagent à respecter les règles à l’avenir. En l’espèce, elle suggère que préalablement à la restauration du compte de M. Trump, Facebook assure également le retrait du soutien et de l’éloge des personnes impliquées dans les émeutes.

10. Avis consultatif sur la politique

Le Conseil reconnaît les questions difficiles soulevées par ce cas et apprécie les nombreux commentaires publics réfléchis et engagés qu’il a reçus.

Lors du renvoi de ce cas devant le Conseil de surveillance, Facebook a spécifiquement demandé au Conseil des « observations ou des recommandations sur les suspensions à suivre lorsque l’utilisateur concerné est un dirigeant politique ». Lorsque le Conseil lui a demandé de clarifier la signification du terme « dirigeant politique », Facebook a expliqué qu’il entendait couvrir « tout responsable du gouvernement élu ou nommé ainsi que toute personne qui se présente activement à une élection à venir, en ce compris durant une courte période suivant l’élection si le candidat n’est pas élu », mais pas tous les acteurs étatiques. Sur la base de son analyse de ce cas, le Conseil limite ses recommandations aux questions de sécurité publique.

Il estime qu’il n’est pas toujours utile d’opérer une nette distinction entre les dirigeants politiques et les autres utilisateurs influents. Il est important de reconnaître que les autres utilisateurs disposant de vastes audiences peuvent également contribuer à des risques sérieux de préjudice. Les mêmes règles doivent être appliquées à tous les utilisateurs sur la plateforme, mais le contexte revêt une grande importance dans l’évaluation des questions de causalité ainsi que de la probabilité et de l’imminence du préjudice. C’est le degré d’influence qu’un utilisateur exerce sur les autres qui importe.

Lorsque les publications d’utilisateurs influents présentent une forte probabilité de préjudice imminent tel qu’évalué selon les normes internationales des droits de l’homme, Facebook doit prendre des mesures pour faire appliquer ses règles dans les plus brefs délais. Facebook doit évaluer les publications des utilisateurs influents dans leur contexte, en fonction de la manière dont elles sont susceptibles d’être interprétées, même si le message incendiaire qu’elles contiennent est formulé dans un langage destiné à éviter toute responsabilité, tel qu’un encouragement superficiel à agir pacifiquement et légalement. En l’espèce, Facebook a utilisé les six facteurs contextuels du Plan d’action de Rabat. Le Conseil estime qu’il s’agit d’un moyen utile d’évaluer les risques contextuels d’un discours potentiellement préjudiciable. Le Conseil souligne que le temps est un facteur essentiel dans de telles situations. Agir avant que les utilisateurs influents ne puissent causer un préjudice majeur doit prévaloir sur l’intérêt médiatique et d’autres valeurs de la communication politique.

Bien que tous les utilisateurs soient tenus de respecter les mêmes règles relatives au contenu, des facteurs uniques doivent être pris en considération dans l’évaluation des discours des dirigeants politiques. Les chefs d’État et les hauts représentants de gouvernement sont davantage susceptibles de causer des préjudices que d’autres personnes. Facebook doit reconnaître que les publications des chefs d’États et d’autres hauts représentants de gouvernement sont susceptibles de présenter un risque accru d’encouragement, de légitimation ou d’incitation à la violence, soit parce que leur poste de confiance élevé insuffle davantage de force et de crédibilité à leurs propos, soit parce que leurs partisans peuvent en déduire qu’ils sont autorisés à agir en toute impunité. Dans le même temps, il demeure primordial de protéger le droit des personnes à écouter des discours politiques. Toutefois, si un chef d’État ou un haut représentant de gouvernement a publié à maintes reprises des messages présentant un risque de préjudice en vertu des normes internationales des droits de l’homme, Facebook doit suspendre le compte concerné durant une période fixe suffisante à la protection contre ce préjudice imminent. Les périodes de suspension doivent être suffisamment longues pour décourager les comportements répréhensibles et peuvent, le cas échéant, inclure la suppression du compte ou de la Page.

Les limitations de la liberté d’expression sont souvent imposées par ou sur ordre d’acteurs étatiques puissants à l’encontre de voix dissidentes et des membres de l’opposition politique. Facebook doit résister aux pressions exercées par les gouvernements pour faire taire leur opposition politique. Lors de l’évaluation des risques potentiels, Facebook doit être particulièrement attentive au contexte politique. Dans le cadre de l’évaluation du discours politique des utilisateurs extrêmement influents, Facebook doit signaler rapidement la procédure de modération du contenu à des membres du personnel spécialisés qui connaissent bien le contexte linguistique et politique et qui sont tenus à l’écart de toute interférence politique, économique et indue. Cette analyse vise à examiner le comportement des utilisateurs extrêmement influents en dehors des plateformes Facebook et Instagram pour évaluer dûment l’ensemble du contexte pertinent des discours potentiellement préjudiciables. Par ailleurs, Facebook doit s’assurer d’allouer des ressources et une expertise adéquates à l’évaluation des risques de préjudice que présentent les comptes influents à l’échelle mondiale.

Facebook doit détailler publiquement les règles utilisées lors de l’imposition de sanctions aux comptes d’utilisateurs influents. Ces règles visent à garantir que Facebook vérifie que le risque de préjudice a diminué avant l’expiration du délai lorsqu’elle impose une suspension limitée dans le temps du compte d’un utilisateur influent pour réduire le risque de préjudice majeur. Si Facebook établit que l’utilisateur présente un risque sérieux d’incitation à des actes de violence imminents, à la discrimination ou à toute autre action illégale à ce moment-là, une autre suspension, elle aussi limitée dans le temps, devra être infligée si ces mesures sont nécessaires pour favoriser la sécurité publique et proportionnées par rapport au risque.

Lorsque Facebook met en place des procédures spéciales applicables aux utilisateurs influents, ces dernières doivent être bien documentées. Il n’apparaissait pas clairement si Facebook avait appliqué des standards différents en l’espèce et le Conseil a entendu de nombreuses préoccupations quant à l’application éventuelle de l’intérêt médiatique. Il est essentiel que Facebook remédie à ce manque de transparence et à la confusion provoquée. L’entreprise doit informer davantage les utilisateurs afin de les aider à comprendre et évaluer les procédés et critères d’application de l’intérêt médiatique. Elle doit expliquer clairement comment l’intérêt médiatique est appliqué aux comptes influents, en ce compris les dirigeants politiques et autres personnalités publiques. En ce qui concerne la vérification croisée, Facebook doit préciser expressément les motifs, les standards et les procédés d’examen, en ce compris les critères permettant de déterminer les Pages et les comptes qui peuvent être sélectionnés. Elle doit également signaler les taux d’erreur relatifs et la cohérence thématique des décisions effectuées sur la base de la vérification croisée par rapport aux procédures de mise en application ordinaires.

Lorsque la plateforme Facebook a fait l’objet d’une utilisation abusive de la part d’utilisateurs influents de manière à entraîner de graves répercussions négatives sur les droits de l’homme, l’entreprise doit mener une enquête approfondie sur l’incident. Elle doit déterminer l’influence qu’elle a exercée ainsi que les changements qu’elle pourrait apporter pour identifier, prévenir, atténuer et justifier des répercussions négatives à l’avenir. En l’espèce, Facebook doit entreprendre un examen approfondi de son éventuelle contribution au récit de fraude électorale et aux tensions exacerbées qui ont débouché sur les scènes de violence aux États-Unis le 6 janvier 2021. Il doit s’agir d’une réflexion ouverte sur les choix de conception et de politique opérés par Facebook qui pourraient permettre l’utilisation abusive de sa plateforme. Facebook doit exercer cette diligence raisonnable, mettre en œuvre un plan d’action pour agir conformément à ses conclusions et communiquer ouvertement sur la manière dont elle traite les répercussions négatives sur les droits de l’homme auxquelles elle a été associée.

Si des utilisateurs de Facebook ou d’Instagram sont impliqués dans des crimes atroces, de graves infractions des droits de l’homme ou des incitations au sens de l’article 20 du PIDCP, la suppression du contenu et la désactivation des comptes peuvent, outre réduire potentiellement le risque de préjudice, saper les efforts de responsabilisation, notamment en supprimant les preuves. Facebook a la responsabilité de recueillir, de protéger et, le cas échéant, de partager les informations afin de faciliter les enquêtes et les poursuites éventuelles effectuées par les autorités compétences et des mécanismes de responsabilisation concernant des infractions graves du droit pénal international, des droits de l’homme et du droit humanitaire. La politique d’entreprise de Facebook sur les droits de l’homme doit préciser les protocoles mis en place par l’entreprise à cet égard. Elle doit également indiquer clairement la manière dont des informations autrefois publiques sur la plateforme peuvent être mises à la disposition d’enquêteurs menant des investigations conformes aux normes internationales et aux lois applicables en matière de protection des données.

Ce cas met en lumière d’autres lacunes des règles Facebook qu’il convient de combler. En particulier, le Conseil estime que le système de sanction de Facebook n’est pas suffisamment clair pour les utilisateurs et ne fournit pas assez d’indications pour réglementer l’exercice du pouvoir discrétionnaire de Facebook. Facebook doit expliquer sa procédure de sanction et de suspension en matière de restriction de profils, de Pages, de groupes et de comptes sur Facebook et Instagram de manière claire, exhaustive et accessible dans ses Standards et ses Règles de la communauté. Ces règles doivent fournir aux utilisateurs des informations suffisantes pour comprendre à quel moment les suspensions sont imposées (en ce compris les exceptions ou autorisations applicables) et comment les sanctions sont définies. Facebook doit également fournir aux utilisateurs des informations accessibles sur le nombre d’infractions, de suspensions et de sanctions qui leur ont été infligés, ainsi que sur les conséquences qui découleront de futures infractions. L’entreprise doit inclure dans ses rapports de transparence le nombre de limitations de profils, Pages et comptes imposées, en ce compris pourquoi et comment les mesures de mise en application ont été prises, avec des informations ventilées par région et par pays.

Enfin, le Conseil exhorte Facebook à développer et à publier une politique régissant sa réponse face aux crises ou aux situations nouvelles lorsque ses procédures habituelles ne permettent pas de prévenir ou d’empêcher un préjudice imminent. Bien que ces situations ne puissent pas toujours être anticipées, les directives de Facebook doivent définir des paramètres appropriés pour ces actions, en ce compris l’obligation de revoir sa décision dans un délai fixé.

*Note de procédure :

Les décisions du Conseil de surveillance sont préparées par des panels de cinq membres et approuvées par une majorité du Conseil. Elles ne représentent pas nécessairement les opinions personnelles de tous ses membres.

Retour aux décisions de cas et aux avis consultatifs politiques