Renversé

Publication partagée d’Al Jazeera

Le Conseil de surveillance estime que Facebook a eu raison de revenir sur sa décision initiale de supprimer la publication partagée sur Facebook, qui reprenait un article de presse au sujet d’une menace de violence proférée par les Brigades Izz al-Din al-Qassam, la branche armée de l’organisation palestinienne Hamas.

Type de décision

Standard

Politiques et sujets

Sujet
Évènements d’actualité, Guerre et conflits, Journalisme
Norme communautaire
Personnes et organisations dangereuses

Régions/Pays

Emplacement
Égypte, Israël, Territoires palestiniens

Plate-forme

Plate-forme
Facebook

Veuillez noter que cette décision est disponible à la fois en arabe (via l’onglet « Langue », auquel vous pouvez accéder dans le menu situé en haut de l’écran) et en hébreu (via ce lien).

לקריאת ההחלטה במלואה יש ללחוץ כאן.

Résumé du cas

Le Conseil de surveillance estime que Facebook a eu raison de revenir sur sa décision initiale de supprimer la publication partagée sur Facebook, qui reprenait un article de presse au sujet d’une menace de violence proférée par les Brigades Izz al-Din al-Qassam, la branche armée de l’organisation palestinienne Hamas. Facebook avait initialement supprimé le contenu en vertu du standard de la communauté relatif aux individus et aux organismes dangereux, puis l’a restauré après que le Conseil a décidé d’examiner ce cas. Le Conseil en conclut que la suppression du contenu n’a pas permis de réduire la violence hors ligne alors qu’elle a restreint la liberté d’expression sur un sujet d’intérêt public.

À propos du cas

Le 10 mai 2021, un utilisateur de Facebook situé en Égypte et suivi par plus de 15 000 abonné(e)s a partagé une publication originaire de la page vérifiée d’Al Jazeera Arabic. Cette publication comportait une photo et un texte écrit en arabe.

La photo représente deux hommes en uniforme militaire, à la figure masquée et portant un bandeau avec l’insigne des Brigades al-Qassam. Le texte était le suivant : « The resistance leadership in the common room gives the occupation a respite until 18:00 to withdraw its soldiers from Al-Aqsa Mosque and Sheikh Jarrah neighborhood otherwise he who warns is excused. Abu Ubaida – Al-Qassam Brigades military spokesman. » (Les chefs de la résistance de la Salle commune accordent à l’occupant jusqu’à 18 h pour retirer ses soldats de la mosquée Al-Aqsa et du quartier Sheikh Jarrah à Jérusalem. Sinon, l’auteur de cet avertissement est excusé. Abu Ubaida, porte-parole militaire des Brigades al-Qassam.). L’utilisateur a partagé la publication d’Al Jazeera et a ajouté une légende en arabe d’un seul mot : « Ooh ». Aussi bien les Brigades al-Qassam que leur porte-parole Abu Ubaida sont considérés comme dangereux en vertu du standard de la communauté Facebook relatif aux individus et aux organismes dangereux.

Facebook a supprimé le contenu parce qu’il enfreignait cette politique, et l’utilisateur a fait appel de cette décision auprès du Conseil. Une fois que le Conseil a sélectionné ce cas, Facebook en a conclu qu’elle avait eu tort de supprimer le contenu et l’a restauré.

Principales observations

Une fois le cas sélectionné par le Conseil, Facebook a estimé que le contenu n’enfreignait pas ses règles relatives aux individus et aux organismes dangereux, puisqu’il ne formulait pas d’éloges, ni de soutien, ni de représentation des Brigades al-Qassam ou du Hamas. Facebook n’a pas été en mesure d’expliquer pourquoi deux modérateurs avaient initialement jugé que le contenu enfreignait cette politique, ceux-ci n’étant pas tenus d’enregistrer leur raisonnement pour les décisions relatives aux contenus individuels.

Le Conseil prend note du fait que le contenu consiste en la republication d’un article de presse issu d’un organe légitime au sujet d’un sujet brûlant d’intérêt public. Facebook n’a jamais supprimé la publication originale d’Al Jazeera ainsi partagée, et la menace de violence proférée par les Brigades al-Qassam a par ailleurs été largement diffusée et signalée. De manière générale, les individus ont autant le droit de republier des articles de presse que les organes médiatiques ont le droit de les publier.

Dans le cas présent, l’utilisateur a expliqué que son objectif était d’informer ses abonné(e)s sur un sujet d’actualité important et que l’ajout de l’expression « Ooh » lui semblait être neutre. Par conséquent, le Conseil estime que la suppression du contenu de l’utilisateur n’a pas permis de réduire significativement la violence hors ligne.

En réponse aux allégations selon lesquelles Facebook a censuré le contenu palestinien sur demande du gouvernement israélien, le Conseil a posé quelques questions à Facebook, notamment pour savoir si l’entreprise avait reçu des demandes officielles et non officielles de la part de l’État d’Israël de supprimer le contenu relatif au conflit d’avril-mai. Facebook a répondu qu’elle n’avait pas reçu de demande légale valide d’une autorité gouvernementale au sujet du contenu de l’utilisateur dans ce cas-ci, mais l’entreprise a refusé de fournir les autres informations requises par le Conseil.

Les commentaires publics soumis dans ce cas-ci contenaient des allégations selon lesquelles Facebook a supprimé ou rétrogradé de manière disproportionnée les contenus publiés par des utilisateurs palestiniens ou écrits en arabe, notamment par rapport au traitement que l’entreprise réserve aux publications menaçant les Arabes ou les Palestiniens de violence sur le territoire israélien. Parallèlement, Facebook a été la cible des critiques, qui l’accusent de ne pas prendre suffisamment de mesures pour supprimer le contenu incitant à la violence contre les civils israéliens. Le Conseil recommande un examen indépendant de ces problématiques importantes ainsi qu’une plus grande transparence concernant la manière dont l’entreprise traite les demandes gouvernementales.

Décision du Conseil de surveillance

Le Conseil de surveillance approuve la décision de Facebook de restaurer le contenu, sa suppression initiale n’étant pas fondée.

Dans un avis consultatif sur la politique, le Conseil recommande à Facebook de :

  • Ajouter des critères et des exemples concrets à sa politique relative aux individus et aux organismes dangereux afin de permettre aux utilisateurs de mieux comprendre les exceptions accordées en cas de discussions neutres, de condamnation et de reportages ;
  • Faire réaliser sous peu la traduction des mises à jour apportées aux Standards de la communauté dans toutes les langues disponibles ;
  • Charger un organisme indépendant, qui n’est associé à aucune des parties au conflit israélo-palestinien, d’effectuer un examen minutieux pour déterminer si les pratiques de Facebook en matière de modération des contenus publiés en arabe et en hébreu (notamment son utilisation de l’automatisation) sont appliquées en toute impartialité. Cet examen ne doit pas seulement se concentrer sur le traitement des contenus palestiniens ou pro-palestiniens, mais également sur les publications qui incitent à la violence, quelles que soient les cibles, leur nationalité, leur ethnicité, leur religion ou leurs croyances, ou leurs opinions politiques. Il doit également passer en revue les contenus publiés par les utilisateurs de Facebook situés en territoire israélien, dans les territoires palestiniens occupés et en dehors. Le rapport et ses conclusions doivent être rendus publics.
  • Mettre en place une procédure formelle et transparente pour recevoir toutes les demandes gouvernementales de suppression de contenus et pour y répondre, et assurer que lesdites demandes soient reprises dans les rapports de transparence. Les rapports de transparence doivent distinguer les demandes gouvernementales qui ont engendré la suppression de contenus pour infraction aux Standards de la communauté et les demandes gouvernementales qui ont engendré la suppression ou le blocage géographique de contenus pour infraction aux lois locales, en plus des demandes qui n’ont engendré aucune action.

*Les résumés de cas fournissent une présentation du cas et n’ont pas valeur de précédent.

Décision complète sur le cas

1. Résumé de la décision

Le Conseil de surveillance estime que Facebook a eu raison de revenir sur sa décision initiale de supprimer la publication partagée sur Facebook, qui reprenait un article de presse au sujet d’une menace de violence proférée le 10 mai 2021 par les Brigades Izz al-Din al-Qassam, la branche armée de l’organisation palestinienne Hamas. Les Brigades al-Qassam sont considérées comme une organisation terroriste par de nombreux États, soit en tant que partie du Hamas, soit de manière indépendante. Après que l’utilisateur a fait appel de la décision de Facebook et que le Conseil a sélectionné son cas, Facebook a conclu qu’elle avait eu tort de supprimer le contenu et l’a restauré sur sa plateforme.

La politique relative aux individus et aux organismes dangereux stipule que le partage de communications officielles émises par un organisme dangereux est considéré par Facebook comme une forme significative de soutien. Toutefois, cette politique prévoit des exceptions pour les reportages et les discussions à caractère neutre. L’entreprise a appliqué l’exception à la publication d’Al Jazeera puisqu’il s’agissait d’un article de presse, mais a manqué de l’appliquer au contenu publié par l’utilisateur alors qu’il s’agissait d’une discussion neutre ; cette erreur a par la suite été corrigée. Le Conseil conclut que la suppression du contenu n’était pas nécessaire dans le cas présent puisqu’elle n’a pas permis de réduire la violence hors ligne et qu’elle a plutôt engendré une restriction injustifiée de la liberté d’expression sur un sujet d’intérêt public.

2. Description du cas

Le 10 mai, un utilisateur de Facebook situé en Égypte (l’utilisateur) et suivi par plus de 15 000 abonné(e)s a partagé une publication originaire de la page vérifiée d’Al Jazeera Arabic. Cette publication comportait une photo et un texte écrit en arabe. La photo représente deux hommes en uniforme militaire, à la figure masquée et portant un bandeau avec l’insigne des Brigades al-Qassam, un groupe armé palestinien et la branche militant du Hamas. Le Conseil prend note du fait que les Brigades al-Qassam ont été accusées de crimes de guerre (Rapport de la Commission d’enquête des Nations Unies relative à la guerre de Gaza en 2014, A/HRC/29/CRP.4, et Rapport de l’organisation Human Rights Watch, Gaza : Crimes de guerre présumés lors des affrontements de mai [2021]).

Le texte qui accompagnait la photo était le suivant : « The resistance leadership in the common room gives the occupation a respite until 18:00 to withdraw its soldiers from Al-Aqsa Mosque and Sheikh Jarrah neighborhood in Jerusalem, otherwise he who warns is excused. Abu Ubaida – Al-Qassam Brigades military spokesman. » (Les chefs de la résistance de la Salle commune accordent à l’occupant jusqu’à 18 h pour retirer ses soldats de la mosquée Al-Aqsa et du quartier Sheikh Jarrah à Jérusalem. Sinon, l’auteur de cet avertissement est excusé. Abu Ubaida, porte-parole militaire des Brigades al-Qassam.). La légende publiée par Al Jazeera était la suivante : « “He Who Warns is Excused”. Al-Qassam Brigades military spokesman threatens the occupation forces if they do not withdraw from Al-Aqsa Mosque. » (“L’auteur de cet avertissement est excusé”. Le porte-parole militaire des brigades al-Qassam menace les troupes d’occupation si elles ne se retirent pas de la mosquée al-Aqsa.) L’utilisateur a partagé la publication d’Al Jazeera et a ajouté une légende en arabe d’un seul mot : « Ooh ». Aussi bien les Brigades al-Qassam que leur porte-parole Abu Ubaida sont considérés comme dangereux en vertu du standard de la communauté Facebook relatif aux individus et aux organismes dangereux.

Le jour même, un autre utilisateur en Égypte a signalé la publication, sélectionnant « terrorisme » dans la liste des motifs définis par Facebook pour permettre aux utilisateurs de signaler des contenus. Le contenu en question a été évalué par un modérateur arabophone d’Afrique du Nord, qui l’a supprimé pour infraction à la politique relative aux individus et aux organismes dangereux. L’utilisateur a fait appel de cette décision, et sa publication a été examinée par un autre modérateur d’Asie du Sud-Est qui ne parle pas arabe, mais qui avait accès à la traduction automatique du contenu. Facebook a expliqué qu’il s’agissait là d’une erreur d’acheminement et qu’elle travaillait à la résoudre. Le second modérateur a lui aussi estimé que la publication enfreignait la politique relative aux individus et aux organismes dangereux, et l’utilisateur a reçu une notification lui expliquant que la décision initiale avait été maintenue lors du deuxième examen. En guise de sanction pour avoir enfreint ladite politique, l’utilisateur n’a eu accès à son compte qu’en lecture seule pendant trois jours. Facebook a également restreint la capacité de l’utilisateur à diffuser du contenu en direct et à utiliser les contenus publicitaires sur la plateforme pendant 30 jours.

L’utilisateur a alors introduit un appel auprès du Conseil de surveillance. Faisant suite à la sélection du cas par le Conseil, Facebook a déterminé que la publication avait été supprimée par erreur et l’a restaurée. L’entreprise a confirmé plus tard au Conseil que la publication originale d’Al Jazeera était restée sur la plateforme et n’avait jamais été supprimée.

Le contenu concerné par le cas présent fait référence au conflit armé qui s’est déroulé en mai 2021 entre les forces israéliennes et des groupes de militants palestiniens en Israël et à Gaza, un territoire palestinien gouverné par le Hamas. Le conflit a éclaté après plusieurs semaines de protestations et de tensions grandissantes à Jérusalem, qui sont liées à un litige relatif à la propriété de maisons situées dans le quartier Sheikh Jarrah (Jérusalem-Est) et à la décision rendue par la Cour suprême israélienne au sujet de l’expulsion planifiée de quatre familles palestiniennes hors des propriétés disputées. Ces tensions se sont exacerbées jusqu’à donner lieu à une série d’agressions sectaires commises aussi bien par des groupes arabes que par des groupes juifs. Le 10 mai, les forces israéliennes ont envahi la mosquée Al-Aqsa, blessant des centaines de fidèles en prière à l’occasion du Ramadan (Communication des Experts indépendants des Nations Unies au gouvernement israélien, UA ISR 3.2021). À la suite de cette intervention armée, les Brigades al-Qassam ont lancé un ultimatum et exigé que les soldats israéliens se retirent de la mosquée et du quartier Sheikh Jarrah avant 18 h. Une fois l’échéance passée, al-Qassam et d’autres groupes de militants palestiniens à Gaza ont envoyé des missiles vers le centre civil de Jérusalem, marquant ainsi le début d’un conflit armé qui allait durer 11 jours.

3. Autorité et champ d’application

Le Conseil jouit de l’autorité nécessaire pour examiner la décision de Facebook à la suite d’un appel interjeté par l’utilisateur dont la publication a été supprimée (article 2, section 1 de la Charte ; article 2, section 2.1 des Statuts). Le Conseil peut maintenir ou annuler cette décision (article 3, section 5 de la Charte). Conformément à la décision sur le cas 2020-004-IG-UA, le fait que Facebook revienne sur une décision contre laquelle un utilisateur a fait appel n’empêche pas le Conseil d’examiner le cas.

Les décisions du Conseil sont contraignantes et peuvent inclure des avis consultatifs sur la politique ainsi que des recommandations. Ces recommandations ne sont pas contraignantes, mais Facebook est tenue d’y répondre (article 3, section 4 de la Charte).

4. Standards pertinents

Le Conseil de surveillance a pris les éléments suivants en considération dans sa décision :

I. Standards de la communauté Facebook :

Le standard de la communauté relatif aux individus et aux organismes dangereux stipule que « les organisations ou individus qui revendiquent des objectifs violents ou qui sont impliqués dans des activités violentes ne sont pas les bienvenus sur Facebook ». Les entités qualifiées de dangereuses dans le cadre de cette politique le sont au cours d’un processus propre à Facebook, qui s’appuie souvent sur des listes de terroristes américaines.

Le 22 juin, l’entreprise a mis à jour sa politique pour répartir lesdites entités sur trois niveaux. Conformément à la mise à jour, les trois niveaux « indiquent le niveau de mise en application du contenu, le niveau 1 entraînant la mise en application la plus étendue, car nous estimons que ces entités possèdent les liens les plus directs avec la violence hors ligne ». Le niveau 1 se concentre sur « les entités engagées dans des actes de violence hors ligne graves », comme les groupes terroristes, et entraîne les sanctions les plus sévères lors de la modération des contenus. Facebook supprime les éloges, les soutiens techniques et les représentations des entités de niveau 1 ainsi que de leurs dirigeants, de leurs fondateurs ou de leurs membres éminents.

II. Valeurs de Facebook :

La « liberté d’expression » y est décrite comme « primordiale » :

L’objectif de nos Standards de la communauté a toujours été de créer un espace d’expression et de donner une voix aux personnes. […] Nous souhaitons que les personnes puissent s’exprimer ouvertement sur les sujets qui comptent pour elles, même si d’autres peuvent marquer leur désaccord ou y trouveraient à redire.

Facebook limite la « liberté d’expression » au profit de quatre valeurs. La « sécurité » est la valeur la plus pertinente dans le cas présent :

Nous nous engageons à faire de Facebook un endroit sûr. Les formes d’expression qui menacent les autres peuvent les intimider, les exclure ou les réduire au silence, et ne sont pas autorisées sur Facebook.

III. Normes relatives aux droits de l’homme :

Les Principes directeurs relatifs aux entreprises et aux droits de l’homme des Nations Unies (PDNU), soutenus par le Conseil des droits de l’homme des Nations Unies en 2011, établissent un cadre de travail volontaire pour les responsabilités relatives aux droits de l’homme des entreprises privées. En mars 2021, Facebook a annoncé l’entrée en vigueur de sa Politique en matière des droits de l’homme, dans laquelle elle réaffirme son engagement à respecter les droits de l’homme conformément aux PNDU. L’analyse du Conseil sur ce cas s’est appuyée sur les normes de droits de l’homme suivantes :

  • Le droit à la liberté d’opinion et d’expression : l’article 19 du Pacte international relatif aux droits civils et politiques (PIDCP) ; l’Observation générale n° 34 du Comité des droits de l’homme (2011) ; le rapport du Rapporteur spécial des Nations Unies sur la liberté d’opinion et d’expression, A/74/486 (2019) ; la Résolution du Conseil des droits de l’homme relative à la sécurité des journalistes, A/HRC/RES/45/18 (2020) ; le rapport du Rapporteur spécial des Nations Unies sur la situation des droits de l’homme dans les territoires palestiniens occupés depuis 1967, A/75/532 (2020) ;
  • Le droit à la non-discrimination : les articles 2 et 26 du PIDCP ;
  • Le droit à la vie : l’article 6 du PIDCP ; l’Observation générale n° 36 du Comité des droits de l’homme (2018) ;
  • Le droit à la sécurité de sa personne : l’article 9 du PIDCP, tel qu’interprété par l’Observation générale n° 35, paragraphe 9, Comité des droits de l’homme (2014).

5. Déclaration de l’utilisateur

Lors de son recours auprès du Conseil, l’utilisateur a expliqué avoir partagé la publication d’Al Jazeera pour informer ses abonné(e)s de la crise en cours, estimant qu’il s’agissait d’une problématique importante dont les gens devraient avoir davantage conscience. L’utilisateur a insisté sur le fait que sa publication ne faisait que partager le contenu de la page Al Jazeera et que sa légende se limitait à un « Ooh ».

6. Explication de la décision de Facebook

En réponse aux questions du Conseil, Facebook a déclaré qu’elle n’était pas en mesure d’expliquer pourquoi les deux modérateurs avaient jugé que le contenu enfreignait la politique relative aux individus et aux organismes dangereux, les modérateurs n’étant pas tenus d’enregistrer leur raisonnement pour les décisions relatives aux contenus individuels. L’entreprise a précisé que, « dans ce cas-ci, les modérateurs avaient accès à l’intégralité du contenu, qui comprend la légende et l’image de la publication originale, ainsi que la légende ajoutée par le créateur de contenu à la version qu’il a partagée ». Elle a ajouté que « de manière générale, les modérateurs de contenus doivent examiner l’ensemble du contenu concerné et qu’ils sont formés en conséquence ».

Suite à la sélection du cas par le Conseil, Facebook a réexaminé sa décision et a estimé que le contenu ne contenait ni éloges, ni soutien technique, ni représentation des Brigades al-Qassam ou du Hamas, de leurs activités ou de leurs membres. Facebook a expliqué qu’elle était revenue sur sa décision puisque la publication d’Al Jazeera n’était pas en infraction et que l’utilisateur l’avait partagée avec une légende à caractère neutre. La diffusion d’informations ou de ressources, notamment de communications officielles, au nom d’une entité désignée ou d’un événement constitue une forme de soutien technique pour une entité ou une organisation dangereuse, ce qui est interdit en vertu de la politique relative aux individus et aux organismes dangereux. Toutefois, cette politique prévoit spécifiquement une exception pour les contenus publiés dans le cadre de « reportages », bien qu’elle ne définisse pas ce terme. La politique prévoit également une exception en cas de discussion neutre. L’article original d’Al Jazeera a été publié, et est toujours présent, sur la page Facebook Al Jazeera Arabic. Il n’a jamais été supprimé par Facebook.

Facebook a expliqué que la page d’Al Jazeera était soumise au système de vérification croisée, un niveau d’examen supplémentaire que l’entreprise applique à certains comptes de notoriété publique pour minimiser le risque d’erreurs de modération. Cela étant, la vérification croisée n’est pas réalisée sur les contenus partagés par une tierce partie, sauf si cette dernière possède elle aussi un compte de notoriété publique soumis à la vérification croisée. Ainsi, bien que la publication originale d’Al Jazeera ait été soumise à la vérification croisée, la publication de l’utilisateur en Égypte ne l’a pas été.

L’entreprise a déclaré que la restauration de la publication était cohérente avec la responsabilité qui lui incombait de respecter le droit de chercher à s’informer, de recevoir des informations et d’en diffuser. Facebook a conclu que la légende de l’utilisateur était neutre et qu’elle ne répondait pas aux définitions d’éloges, de soutien technique, ni de représentation.

En réponse aux allégations selon lesquelles Facebook a censuré les contenus palestiniens sur demande du gouvernement israélien, le Conseil a posé à Facebook les questions suivantes :

Facebook a-t-elle reçu des demandes officielles et non officielles de la part de l’État d’Israël de supprimer le contenu relatif au conflit d’avril-mai ? Combien de demandes l’entreprise a-t-elle reçues ? À combien de demandes l’entreprise a-t-elle accédé ? Certaines demandes concernaient-elles des informations publiées par Al Jazeera Arabic ou par ses journalistes ?

Facebook a répondu en ces termes : « Facebook n’a pas reçu de demande légale valide de la part d’une autorité gouvernementale au sujet du contenu publié par l’utilisateur dans le cas présent. Facebook refuse de fournir les autres informations demandées. Voir les Statuts du Conseil de surveillance, Section 2.2.2. »

En vertu des Statuts du Conseil de surveillance, Section 2.2.2, l’entreprise est en droit de « refuser de telles demandes lorsque Facebook détermine que les informations ne sont pas raisonnablement requises dans le cadre de la prise de décision conformément à l’esprit de la Charte ; ne peuvent techniquement pas être fournies ; sont protégées par le secret professionnel liant l’avocat à son client ; et/ou ne peuvent ou ne doivent pas être fournies en raison de préoccupations d’ordre juridique, de confidentialité, de sécurité ou de protection des données. » L’entreprise n’a pas précisé les motifs spécifiques de son refus en vertu des Status.

7. Soumissions de tierces parties

Le Conseil de surveillance a reçu 26 commentaires publics en rapport avec ce cas. Parmi ceux-ci, 15 ont été publiés aux États-Unis et au Canada, sept en Europe, trois au Moyen-Orient et en Afrique du Nord, et un en Amérique latine et dans les Caraïbes.

Les soumissions abordaient divers sujets, notamment l’importance des médias sociaux pour les Palestiniens, des inquiétudes liées au potentiel parti-pris de Facebook à l’encontre des contenus palestiniens ou pro-palestiniens ainsi que la surmodération qui pouvait en découler, des inquiétudes relatives aux prétendues relations opaques entre Israël et Facebook, ainsi que des inquiétudes concernant le fait que des messages d’une organisation terroriste reconnue étaient autorisés sur la plateforme.

En outre, le Conseil a reçu plusieurs commentaires publics selon lesquels la diffusion de telles menaces pouvait également servir de mise en garde contre les attaques de groupes armés, ce qui permettait aux personnes ciblées de se protéger en conséquence.

Pour lire les commentaires publics soumis pour ce cas, veuillez cliquer ici.

8. Analyse du Conseil de surveillance

8.1 Respect des Standards de la communauté

Le Conseil a conclu que la décision initiale de Facebook de supprimer le contenu n’était pas conforme à ses Standards de la communauté. Il était donc approprié de revenir sur cette décision après que le Conseil a sélectionné le cas.

Selon Facebook, la publication originale d’Al Jazeera, qui n’est pas l’objet de cet appel, n’enfreignait pas les Standards de la communauté et n’a jamais été supprimée de la plateforme. Bien que le partage de communications officielles d’une entité qualifiée de dangereuse est considéré comme une forme de soutien technique et est donc interdit, la politique relative aux individus et aux organismes dangereux autorisent la publication de tels contenus à des fins de condamnation, de discussion neutre ou de reportages. Facebook a mis à jour cette politique le 22 juin 2021 pour rendre public les définitions auparavant confidentielles des termes « soutien technique », « éloges » et « représentation ».

L’utilisateur a partagé la publication d’Al Jazeera avec une légende d’un seul mot : « Ooh ». Facebook en a conclu que le terme est une forme d’expression neutre. Consultés par le Conseil, des experts arabophones ont expliqué que la signification de « Ooh » variait en fonction de l’usage, l’exclamation neutre étant l’une des interprétations possibles.

Dans sa politique mise à jour relative aux individus et aux organismes dangereux, Facebook demandent aux « utilisateurs d’indiquer clairement leur intention » de discuter d’individus et d’organismes dangereux en toute neutralité et que « nous nous réservons le droit de supprimer le contenu concerné si l’intention n’est pas claire » (ajout d’emphase). Ces précisions constituent un changement par rapport à la politique précédente mentionnée dans les réponses de Facebook à la question du Conseil dans la décision sur le cas 2020-005-FB-UA. Facebook y expliquait qu’elle « traitait les contenus qui citent ou attribuent des citations (peu importe leur exactitude) à une personne dite dangereuse comme une expression de soutien envers cette personne, à moins que l’utilisateur ne fournisse plus de contexte pour rendre son intention explicite » (ajout d’emphase). Par conséquent, avant la mise à jour de la partie publique des Standards de la communauté le 22 juin dernier, les modérateurs disposaient d’une plus faible marge de manœuvre pour conserver les contenus dont l’intention n’était pas claire lorsque les utilisateurs n’étaient pas conscients de l’importance de clarifier celle-ci.

Il est facile de comprendre pourquoi les modérateurs, travaillant sous pression, risquent de considérer que la publication enfreint les Standards de la communauté, en particulier selon la version qui était en vigueur à ce moment-là. La publication diffuse une menace directe proférée par le porte-parole d’une organisation qualifiée de dangereuse, et la légende « Ooh » ajoutée par l’utilisateur n’expliquait pas « explicitement » l’intention de celui-ci d’engager une discussion neutre. Néanmoins, il ne faut pas négliger le fait qu’il s’agissait de la republication d’un article de presse issu d’un organe légitime au sujet d’un sujet brûlant d’intérêt public. L’article original d’Al Jazeera n’a jamais été considéré comme étant en infraction et est toujours resté sur la page depuis sa publication. De manière générale, les individus ont autant le droit de republier des articles de presse que les organes médiatiques ont le droit de les publier. Bien que, dans certaines circonstances, la republication de contenu provenant d’une organisation médiatique puisse constituer une infraction, l’utilisateur a expliqué dans le cas présent que son objectif était d’informer ses abonné(e)s sur un sujet d’actualité important, et la conclusion de Facebook (lors du réexamen) selon laquelle l’ajout de l’expression « Ooh » par l’utilisateur était très probablement neutre est confirmée par les experts linguistiques interrogés par le Conseil.

En vertu de la nouvelle version du standard de la communauté en question annoncée le 22 juin, il est clair que la publication ne constitue pas une infraction et que Facebook a eu raison de la restaurer.

8.2 Respect des valeurs de Facebook

Le Conseil conclut que la décision de restaurer le contenu est conforme à la valeur de « liberté d’expression » de Facebook et qu’elle n’est pas incohérente avec sa valeur de « sécurité ». Le Conseil est conscient du fait que les valeurs de Facebook jouent un rôle dans l’élaboration des politiques de l’entreprise et qu’elles ne sont pas utilisées par les modérateurs pour décider si certains types de contenus sont autorisés ou pas.

Facebook déclare que la valeur de « liberté d’expression » est « primordiale ». Selon le Conseil, cela est particulièrement vrai dans un contexte de conflit où la capacité de nombreuses personnes, y compris des Palestiniens et de leurs sympathisants, à s’exprimer est fortement restreinte. Comme le soulignent plusieurs commentaires publics soumis au Conseil, Facebook et d’autres médias sociaux sont les principaux moyens dont disposent les Palestiniens pour communiquer des informations et faire part de leurs opinions, ainsi que pour s’exprimer librement. De sévères restrictions de la liberté d’expression sont imposées dans les territoires gouvernés par l’Autorité palestinienne et le Hamas ((A/75/532, paragraphe 25). En outre, le gouvernement israélien a été accusé de trop restreindre la liberté d’expression au nom de la sécurité nationale (Groupe de travail sur l’Examen périodique universel, A/HRC/WG.6/29/ISR/2, paragraphe 36 et 37 ; Oxford Handbook on the Israeli Constitution [Manuel d’Oxford sur la constitution israélienne], Freedom of Expression in Israel: Origins, Evolution, Revolution and Regression [Liberté d’expression en Israël : origines, évolution, révolution et régression], [2021]). Par ailleurs, pour les habitants de la région au sens plus large, la possibilité de recevoir et de partager des informations au sujet de ces événements est un aspect crucial de la valeur de « liberté d’expression ».

Le Conseil ne sélectionne et n’examine qu’un nombre limité d’appels, mais prend note du fait que la suppression dont il est question dans le cas présent faisait partie d’une série de plusieurs réclamations relatives à des contenus liés au conflit.

D’autre part, la valeur de « sécurité » est elle aussi d’une importance capitale en Israël et dans les territoires palestiniens occupés, ainsi que dans d’autres pays de la région. L’utilisateur a partagé une publication d’une organisation médiatique qui contenait une menace de violence explicite proférée par les Brigades al-Qassam, ce qui implique la valeur de « sécurité ». Toutefois, le contenu partagé par l’utilisateur était facilement accessible partout dans le monde, sur Facebook et en dehors. La publication originale, un article de presse faisant état de la menace, n’a pas été supprimé par Facebook et est toujours visible sur la page d’Al Jazeera. De plus, cette information a été largement diffusée ailleurs. Le Conseil estime que le partage de la publication ne représentait aucune menace supplémentaire à la valeur de « sécurité ».

8.3 Respect des responsabilités de Facebook en matière des droits de l’homme

Liberté d’expression (article 19 du PIDCP)

L’article 19 du PIDCP prévoit que toute personne a droit à la liberté d’expression, ce qui implique la liberté de rechercher, de recevoir et de diffuser des informations. La jouissance de ce droit est intrinsèquement liée à l’accès à une presse (ou à tout autre média) libre, sans entrave ni censure (Observation générale n° 34, paragraphe 13). Le Conseil reconnaît que les médias « jouent un rôle crucial en informant le public sur les actes de terrorisme, et leur capacité d’action ne devrait pas être indûment limitée » (Observation générale n° 34, paragraphe 46). Le Conseil est également conscient du fait que les groupes terroristes sont susceptibles d’exploiter le devoir et l’intérêt des médias à faire état de leurs activités.

Toutefois, le contre-terrorisme et les efforts de lutte contre le terrorisme ne doivent pas être invoqués pour limiter la liberté de la presse (A/HRC/RES/45/18). En effet, les médias doivent jouer un rôle essentiel lors des premiers moments suivant un acte terroriste, car ils « sont souvent la première source d’information pour les citoyens, bien avant que les autorités publiques soient à même de communiquer elles-mêmes » (UNESCO, Handbook on Terrorism and the Media [Manuel sur le terrorisme et les médias], p. 27, 2017). Les médias sociaux contribuent à cette mission journalistique en facilitant la diffusion des informations relatives aux menaces d’actes terroristes ou aux actes terrorismes eux-mêmes qui sont publiées dans les sources médiatiques et non médiatiques traditionnelles.

Si le droit à la liberté d’expression est fondamental, il n’est pas absolu. Il peut être restreint, mais les restrictions doivent remplir des critères de légalité, d’objectif légitime ainsi que de nécessité et de proportionnalité (article 19, paragraphe 3 du PIDCP).

I. Légalité (clarté et accessibilité des règles)

Pour passer le test de la légalité, une règle doit (a) être formulée avec suffisamment de précision pour que les individus puissent adapter leur comportement en conséquence et (b) être accessible par le public. Un manque de précision peut générer une interprétation subjective des règles et leur application arbitraire (Observation générale n° 34, paragraphe 25).

Le Conseil a critiqué l’absence de précision dans le standard de la communauté relatif aux personnes et aux organisations dangereuses lors de plusieurs cas et a appelé Facebook a définir les termes « éloges », « soutien » et « représentation ». L’entreprise a depuis lors révisé sa politique et publié une mise à jour le 22 juin. Celle-ci a défini certains termes clés de sa politique ou en a donné des exemples, a organisé ses règles autour de trois niveaux d’application sur base des liens existant entre une entité désignée et la violence hors ligne qu’elle pouvait engendrer, et a souligné davantage l’importance pour les utilisateurs d’exprimer leur intention clairement lorsqu’ils publient du contenu lié à des individus ou à des organismes dangereux. Toutefois, la politique n’explique pas encore avec précision comment les utilisateurs peuvent faire part de leur intention clairement et ne fournit pas d’exemples pour les exceptions accordées en cas de « reportage », de « discussion neutre » et de « condamnation ».

Par ailleurs, la politique mise à jour augmente la marge de manœuvre dont dispose Facebook dans les cas où l’intention des utilisateurs n’est pas claire, stipulant désormais que Facebook « se réserve le droit » de supprimer le contenu sans informer les utilisateurs des critères d’utilisation de cette marge de manœuvre. Le Conseil estime que des critères d’évaluation de ces exceptions, y compris des exemples concrets, permettraient aux utilisateurs de comprendre quels contenus ils sont autorisés à publier. Des exemples supplémentaires donneraient également des indications plus claires aux modérateurs.

En outre, le Conseil s’inquiète du fait que la révision des Standards de la communauté n’était disponible qu’en anglais des États-Unis et qu’elle n’a pas été traduite pendant près de deux mois ; les utilisateurs en dehors du marché anglophone américain ne disposaient donc que d’un accès limité aux règles. Facebook a expliqué que les changements apportés à ces politiques étaient appliqués dans le monde entier, même lorsque les traductions n’étaient pas disponibles. Le Conseil fait part de son inquiétude quant au fait que ces retards de traduction empêchent de trop nombreux utilisateurs d’avoir accès aux nouvelles règles pendant trop longtemps. Compte tenu des ressources dont dispose Facebook, ceci n’est pas acceptable.

II. Objectif légitime

Les restrictions de la liberté d’expression doivent poursuivre un objectif légitime, qui comprend la protection de la sécurité nationale et de l’ordre public ainsi que des droits d’autrui, entre autres objectifs. La politique relative aux individus et aux organismes dangereux cherche à prévenir et à interrompre toute violence hors ligne avec l’objectif légitime de protéger les droits d’autrui, ce qui inclut dans le cas présent le droit à la vie et à la sécurité des personnes.

III. Nécessité et proportionnalité

Les restrictions doivent être nécessaires et proportionnelles à l’objectif légitime recherché, dans le cas présent à la protection des droits d’autrui. Toutes les restrictions de la liberté d’expression « doivent être appropriées pour remplir leur fonction de protection, elles doivent constituer le moyen le moins perturbateur parmi ceux qui pourraient permettre d’obtenir le résultat recherché et elles doivent être proportionnées à l’intérêt à protéger » (observation générale 34, paragraphe 34). Pour répondre aux questions de nécessité et de proportionnalité, le contexte joue un rôle clé.

Le Conseil souligne en outre que Facebook a la responsabilité d’identifier, de prévenir et de limiter les répercussions sur les droits de l’homme, et d’en rendre compte (PDNU, Principe 17). Cette responsabilité de diligence raisonnable est exacerbée dans les régions touchées par des conflits (A/75/212, paragraphe 13). Le Conseil prend note du fait que Facebook a pris quelques mesures pour assurer que les contenus n’étaient pas supprimés de manière disproportionnée et lorsque cela n’était pas nécessaire, comme illustré par l’exception accordée aux reportages et par son engagement à autoriser les discussions sur les préoccupations en matière de droits de l’homme dans la décision sur le cas 2021-006-IG-UA.

Le Conseil conclut que la suppression du contenu dans le cas présent n’était pas nécessaire. Il reconnaît que les journalistes font face au défi d’informer le public des situations dangereuses en pleine évolution tout en tenant compte des éventuels préjudices que peut engendrer la diffusion des communiqués d’une organisation terroriste. Certains membres du Conseil ont fait part de leurs inquiétudes quant au fait que la republication, dans ce cas précis, ne fournissait que peu, voire pas de contexte éditorial pour les déclarations d’al-Qassam ; elle pouvait dès lors être considérée comme une tentative de diffusion de la menace de violence proférée par al-Qassam. Toutefois, le contenu publié par Al Jazeera a été largement diffusé par d’autres médias dans le monde entier et était accompagné de plus en plus d’éléments de contexte supplémentaires au fur et à mesure de leur disponibilité. Par conséquent, le Conseil conclut que la suppression de la republication par l’utilisateur de l’article d’Al Jazeera ne permettait pas de réduire significativement l’impact terroriste que le groupe souhaitait sans doute avoir, mais qu’elle a plutôt affecté la capacité de l’utilisateur (situé dans un pays proche) à communiquer avec ses lecteurs et abonnés au sujet de l’importance de ces événements.

Comme il l’a déjà fait remarquer à propos de la valeur de « liberté d’expression », le Conseil considère qu’il est important de tenir compte de l’environnement médiatique et informatif de la région dans son ensemble lors de l’examen de la nécessité d’une telle suppression. Le gouvernement israélien, l’Autorité palestinienne et le Hamas restreignent trop la liberté d’expression, ce qui affecte négativement les Palestiniens et les autres personnes qui cherchent à s’exprimer.

Les restrictions de la liberté d’expression ne doivent pas se faire sur une base discriminatoire, notamment sur la base de la nationalité, de l’ethnicité, de la religion ou des croyances, ou des opinions politiques ou autres (Article 2, paragraphe 1 et article 26 du PDCP). L’application discriminatoire des Standards de la communauté enfreint cet aspect fondamental de la liberté d’expression. Le Conseil a reçu des commentaires publics et a examiné des informations publiques affirmant que Facebook a supprimé ou rétrogradé de manière disproportionnée les contenus publiés par des utilisateurs palestiniens ou écrits en arabe, notamment par rapport au traitement que l’entreprise réserve aux publications menaçant les Arabes ou les Palestiniens de violence sur le territoire israélien ou incitant à une telle violence. Parallèlement, Facebook a été la cible des critiques, qui l’accusent de ne pas prendre suffisamment de mesures pour supprimer le contenu incitant à la violence contre les civils israéliens. Ci-dessous, le Conseil recommande un examen indépendant de ces problématiques importantes.

9. Décision du Conseil de surveillance

Le Conseil de surveillance approuve la décision de Facebook de restaurer le contenu, reconnaissant que sa suppression initiale n’était pas fondée.

10. Avis consultatif sur la politique

Politique de contenu

Pour clarifier ses règles à l’attention des utilisateurs, Facebook doit :

1. Ajouter des critères et des exemples concrets à sa politique relative aux individus et aux organismes dangereux afin de permettre aux utilisateurs de mieux comprendre les exceptions accordées en cas de discussions neutres, de condamnation et de reportages ;

2. Faire réaliser sous peu la traduction des mises à jour apportées aux Standards de la communauté dans toutes les langues disponibles ;

Transparence

Pour apaiser les inquiétudes du public à propos d’un potentiel parti-pris en matière de modération de contenu, y compris par rapport à l’implication gouvernementale réelle ou perçue, Facebook doit :

3. Charger un organisme indépendant, qui n’est associé à aucune des parties au conflit israélo-palestinien, d’effectuer un examen minutieux pour déterminer si les pratiques de Facebook en matière de modération des contenus publiés en arabe et en hébreu (notamment son utilisation de l’automatisation) sont appliquées en toute impartialité. Cet examen ne doit pas seulement se concentrer sur le traitement des contenus palestiniens ou pro-palestiniens, mais également sur les publications qui incitent à la violence, quelles que soient les cibles, leur nationalité, leur ethnicité, leur religion ou leurs croyances, ou leurs opinions politiques. Il doit également passer en revue les contenus publiés par les utilisateurs de Facebook situés en territoire israélien, dans les territoires palestiniens occupés et en dehors. Le rapport et ses conclusions doivent être rendus publics.

4. Mettre en place une procédure formelle et transparente pour recevoir toutes les demandes gouvernementales de suppression de contenus et pour y répondre, et assurer que lesdites demandes soient reprises dans les rapports de transparence. Les rapports de transparence doivent distinguer les demandes gouvernementales qui ont engendré la suppression de contenus pour infraction aux Standards de la communauté et les demandes gouvernementales qui ont engendré la suppression ou le blocage géographique de contenus pour infraction aux lois locales, en plus des demandes qui n’ont engendré aucune action.

*Note de procédure :

Les décisions du Conseil de surveillance sont préparées par des panels de cinq membres et approuvées par une majorité du Conseil. Elles ne représentent pas nécessairement les opinions personnelles de tous ses membres.

Pour la décision sur ce cas, des recherches indépendantes ont été commandées au nom du Conseil. Un institut de recherche indépendant, dont le siège se trouve à l’université de Göteborg et mobilisant une équipe de plus 50 experts en science sociale sur six continents ainsi que 3200 experts nationaux du monde entier, a fourni son expertise sur le contexte socio-politico-culturel. L’entreprise Lionbridge Technologies, LLC, dont les spécialistes parlent couramment plus de 350 langues et travaillent dans 5000 villes du monde entier, a fourni son expertise linguistique.

Retour aux décisions de cas et aux avis consultatifs politiques