Décision sur plusieurs affaires
Règles de vote de la Commission électorale australienne
9 mai 2024
Le Conseil de surveillance a confirmé les décisions de Meta de supprimer deux publications Facebook différentes contenant la même capture d’écran d’informations publiées sur X par la Commission électorale australienne, avant le référendum australien sur la voix des indigènes au Parlement.
2 cas inclus dans ce lot
FB-0TGD816L
Cas d’attaques coordonnées et de promotion d’actes criminels sur Facebook
FB-8ZQ78FZG
Cas d’attaques coordonnées et de promotion d’actes criminels sur Facebook
Résumé
Le Conseil de surveillance a confirmé les décisions de Meta de supprimer deux publications Facebook différentes contenant la même capture d’écran d’informations publiées sur X par la Commission électorale australienne (AEC), avant le référendum australien sur la voix des indigènes au Parlement. Les deux publications ont enfreint la règle du Standard de la communauté relatif aux attaques coordonnées et à la promotion d’actions criminelles qui interdit les contenus appelant à une participation illégale à un processus électoral. Ces cas montrent comment des informations sorties de leur contexte peuvent avoir un impact sur le droit de vote des citoyens. Le Conseil recommande à Meta d’expliquer plus clairement ses règles en matière de fraude électorale et/ou de fraude au recensement en publiant sa définition du « vote illégal ».
À propos des cas
Le 14 octobre 2023, l’Australie a organisé son référendum sur la voix des indigènes au Parlement. Quelques jours auparavant, un utilisateur de Facebook avait publié dans un groupe une capture d’écran d’une publication X provenant du compte officiel de l’AEC. Les informations présentées sont les suivantes : « If someone votes at two different polling places within their electorate, and places their formal vote in the ballot box at each polling place, their vote is counted » (Si une personne vote dans deux bureaux de vote différents au sein de son électorat et dépose son vote formel dans l’urne de chaque bureau de vote, son vote est comptabilisé). En outre, un autre commentaire repris par l’utilisateur du même fil de discussion X, explique que le secret du vote empêche la Commission électorale indépendante de « knowing which ballot paper belongs to which person » (savoir quel vote appartient à telle personne), tout en précisant que « the number of double votes received is incredibly low » (le nombre de votes doubles reçus est incroyablement faible). Cependant, la capture d’écran ne montre pas toutes les informations communiquées par l’AEC, notamment le fait que le vote multiple constitue un délit. La légende de la publication indiquait : « vote early, vote often, and vote NO. » (votez tôt, votez souvent et votez NON)
Une seconde publication partagée par un autre utilisateur de Facebook contenait la même capture d’écran, mais avec une superposition de texte contenant la déclaration suivante : « so you can vote Multiple times. They are setting us up for a ‘Rigging’ … smash the voting centres … it’s a NO, NO, NO, NO, NO. » (pour que vous puissiez voter plusieurs fois ... ils nous préparent à un « trucage » ... détruisez les bureaux de vote ... c’est NON, NON, NON, NON, NON).
Le référendum sur la voix a demandé aux Australiens si la Constitution devait être amendée pour donner une plus grande représentation au Parlement aux Aborigènes et aux insulaires du détroit de Torres.
Le vote est obligatoire en Australie, et l’AEC fait état d’un taux de participation d’environ 90 % pour toutes les élections et tous les référendums depuis 1924. Le vote multiple est illégal et constitue une forme de fraude électorale.
Après que les systèmes automatisés de Meta ont détecté les deux publications, les équipes d’examen manuel les ont supprimées pour infraction à la politique de Meta en matière d’attaques coordonnées et de promotion d’actions criminelles. Les deux utilisateurs ont fait appel.
Principales observations
Le Conseil estime que les deux publications ont enfreint la règle relative aux attaques coordonnées et à la promotion d’actions criminelles qui interdit les contenus « préconisant, fournissant des instructions ou démontrant l’intention explicite de participer illégalement à un processus de vote ou de recensement ». Dans le premier cas, la déclaration « vote often » (votez souvent) combinée aux informations de l’AEC sur le dépouillement des votes multiples, est un appel clair à s’engager dans un vote illégal. Le fait de voter deux fois est une forme de « vote illégal », selon les règles internes de Meta. Dans le second cas, l’utilisation de l’expression « smash the voting centres » (détruisez les bureaux de vote) ainsi que le reste du texte superposé, peuvent être interprétés comme une incitation à inonder les bureaux de vote de votes multiples. Aucune de ces publications ne bénéficie des exceptions prévues par la politique dans des contextes de condamnation, de sensibilisation, de reportage, ou dans des contextes humoristiques ou satiriques. En ce qui concerne plus particulièrement la sensibilisation, les publications ne relèvent pas de cette exception puisqu’ils vont au-delà de la discussion de la publication X de l’AEC et qu’elles décontextualisent l’information pour laisser entendre que l’AEC affirme qu’il est autorisé de voter plus d’une fois.
Empêcher les utilisateurs d’appeler d’autres personnes à commettre des fraudes électorales est un objectif légitime de la protection du droit de vote. Le Conseil considère le discours politique comme une composante essentielle des processus démocratiques. Dans ces cas, les deux utilisateurs participaient directement au débat public suscité par le référendum, mais leurs appels à des comportements illégaux avaient une incidence sur les droits politiques des personnes vivant en Australie, en particulier le droit de vote. Ainsi, si les appels à « vote No » (votez Non) sont des discours politiques protégés, les expressions « vote often » (votez souvent) et « smash the voting centres » (détruisez les bureaux de vote) relèvent d’une autre problématique. Le Conseil estime que Meta a eu raison de protéger les processus démocratiques en empêchant les tentatives de fraude électorale de circuler sur ses plateformes, étant donné les fréquentes allégations selon lesquelles le référendum sur la voix était truqué.
Le Conseil reconnaît les efforts de Meta sur le référendum sur la voix. L’entreprise a identifié de manière proactive les contenus susceptibles d’enfreindre les règles d’ingérence dans les votes des Standards de la communauté relatifs aux attaques coordonnées et à la promotion d’actions criminelles. Les expressions « double vote » (double vote) et « vote multiple times » (vote multiple) sont les mots-clés qui ont activé le système de détection par mots-clés de l’entreprise dans ce cas. Selon Meta, le système est adapté aux contextes locaux. Sur la base des informations partagées, le Conseil note que des initiatives de ce type devraient être appliquées de manière cohérente dans le monde entier, dans les pays où se déroulent des élections, bien que Meta soit encouragée à développer des indicateurs de réussite pour évaluer l’efficacité de la détection basée sur les mots-clés.
Enfin, le Conseil estime que les règles du Standard relatif aux attaques coordonnées et à la promotion d’actions criminelles à l’intention du public ne sont pas suffisamment claires. Elles n’incluent pas ce qui est mis à la disposition des équipes d’examen dans les règles internes de Meta, à savoir les définitions de « vote illégal » de l’entreprise. Puisqu’il est essentiel que les utilisateurs puissent s’engager sur les réseaux sociaux pour discuter de questions d’intérêt public concernant les évènements démocratiques, Meta doit clairement informer les utilisateurs des règles.
Décision du Conseil de surveillance
Le Conseil de surveillance confirme la décision de Meta de supprimer le contenu dans les deux cas.
Le Conseil recommande à Meta ce qui suit :
- Incorporer sa définition de l’expression « vote illégal » dans le langage public de la politique relative aux attaques coordonnées et à la promotion d’actions criminelles, qui interdit les contenus « préconisant, fournissant des instructions ou démontrant une intention explicite de participer illégalement à un processus de vote ou de recensement, sauf s’ils sont partagés dans des contextes de condamnation, de sensibilisation, de reportage, ou dans des contextes humoristiques ou satiriques ».
* Les résumés de cas donnent un aperçu du cas et n’ont pas valeur de précédent.
Décision complète sur le cas
1. Résumé de la décision
Le Conseil de surveillance confirme les décisions de Meta de supprimer deux publications différentes sur Facebook contenant une capture d’écran d’une publication de la Commission électorale australienne (AEC) sur X, anciennement connu sous le nom de Twitter. Les captures d’écran de l’AEC publiées par les utilisateurs de Facebook comprenaient les termes suivants : « If someone votes at two different polling places within their electorate, and places their formal vote in the ballot box at each polling place, their vote is counted » (Si une personne vote dans deux bureaux de vote différents au sein de son électorat et dépose son vote formel dans l’urne de chaque bureau de vote, son vote est comptabilisé). Dans la première publication Facebook, la capture d’écran était accompagnée d’une légende indiquant « vote early, vote often, and vote NO. » (votez tôt, votez souvent et votez NON.). Dans la seconde publication sur Facebook, la capture d’écran était accompagnée d’une superposition de texte, qui incluait : « so you can vote Multiple times … they are setting us up for a ‘Rigging’ … smash the voting centres… it’s a NO, NO, NO, NO, NO. » (pour que vous puissiez voter plusieurs fois ... ils nous préparent à un « trucage » ... détruisez les bureaux de vote ... c’est NON, NON, NON, NON, NON). La légende comprenait également un emoji « stop » suivi des mots « Australian Electoral Commission » (Commission électorale australienne).
Le Conseil estime que les deux publications ont enfreint le Standard de la communauté relatif aux attaques coordonnées et à la promotion d’actions criminelles, qui interdit de « préconiser, fournir des instructions ou démontrer l’intention explicite de participer illégalement à un processus de vote ou de recensement, sauf s’ils sont partagés dans des contextes de condamnation, de sensibilisation, de reportage, ou dans des contextes humoristiques ou satiriques ». Le Conseil estime qu’aucune des exceptions ne s’applique.
Ces cas soulèvent des préoccupations plus larges concernant le partage d’informations décontextualisées dans le cadre de processus démocratiques, tels que les élections et les référendums, ce qui pourrait avoir un impact sur le droit de vote des citoyens. Le Conseil recommande à Meta d’expliquer plus clairement les lignes d’action relatives à la fraude électorale et/ou au recensement dans le cadre du Standard de la communauté relatif aux attaques coordonnées et à la promotion d’actions criminelles afin de préciser ce qui constitue une « participation illégale à un processus de vote ou de recensement ».
2. Description du cas et contexte
Le 14 octobre 2023, l’Australie a organisé son référendum sur la voix des indigènes au Parlement (ci-après « Référendum sur la voix »). Quelques jours avant le vote, un utilisateur de Facebook dans un groupe qu’il administre a partagé une publication accompagnée d’une capture d’écran d’une publication X provenant du compte officiel de la Commission électorale australienne (AEC). La publication de l’AEC sur X comprenait les termes suivants : « If someone votes at two different polling places within their electorate, and places their formal vote in the ballot box at each polling place, their vote is counted » (Si une personne vote dans deux bureaux de vote différents au sein de son électorat et dépose son vote formel dans l’urne de chaque bureau de vote, son vote est comptabilisé). La capture d’écran montre également un autre commentaire du même fil de discussion sur X, qui explique que le secret du vote empêche la Commission électorale indépendante de « knowing which ballot paper belongs to which person » (savoir quel vote appartient à telle personne), tout en rassurant les personnes sur le fait que « the number of double votes received is incredibly low » (le nombre de votes doubles reçus est incroyablement faible). Cependant, la capture d’écran ne montre pas toutes les informations communiquées par l’AEC, notamment le fait que le vote multiple constitue un délit en Australie. Une légende accompagnait la première publication Facebook indiquant : « vote early, vote often, and vote NO ». (votez tôt, votez souvent et votez NON ».).
Une autre publication contenant la même capture d’écran de la publication de l’AEC sur X a été partagée un jour plus tard par un autre utilisateur de Facebook sur son profil. Elle était accompagnée d’un texte superposé, qui comprenait la déclaration suivante : « so you can vote Multiple times. They are setting us up for a ‘Rigging’ … smash the voting centres … it’s a NO, NO, NO, NO, NO. » (pour que vous puissiez voter plusieurs fois ... ils nous préparent à un « trucage » ... détruisez les bureaux de vote ... c’est NON, NON, NON, NON, NON). La légende comprenait également un emoji « stop » suivi des mots « Australian Electoral Commission » (Commission électorale australienne).
Les deux publications ont été détectées de manière proactive par Meta. Les expressions « double vote » (double vote) et « vote multiple times » (vote multiple) sont les mots-clés qui ont activé « l’initiative de pipeline basée sur des mots-clés » de l’entreprise dans ce cas. Cette approche de détection basée sur des mots-clés est une procédure systématique déployée par Meta pour identifier de manière proactive « les contenus potentiellement en infraction, y compris, mais sans s’y limiter, les contenus liés à l’ingérence dans les élections et les recensements ». Les deux publications ont ensuite été automatiquement soumises à un examen manuel. À la suite d’un examen humain, les deux publications ont été supprimées pour infraction à la politique relative aux attaques coordonnées et à la promotion d’actions criminelles. Meta a également appliqué une pénalité standard et une limite de fonctionnalités de 30 jours aux deux profils d’utilisateurs, ce qui a empêché ces derniers de publier ou de commenter dans des groupes Facebook, de créer des groupes d’actualités ou de rejoindre des salons Messenger.
Le Conseil a pris en considération le contexte ci-dessous pour parvenir à sa décision dans ces deux cas :
Le Référendum sur la voix demandait si la Constitution australienne devait être modifiée pour reconnaître les premiers peuples d’Australie « en créant un organisme appelé Aboriginal and Torres Strait Islander Voice », qui aurait été en mesure de « présenter des observations au Parlement et au gouvernement exécutif du Commonwealth sur les questions relatives aux peuples aborigènes et insulaires du détroit de Torres ». Les informations contextuelles pertinentes concernant le Référendum sur la voix comprennent le fait que les Aborigènes et les insulaires du détroit de Torres en Australie font partie des groupes les plus défavorisés socialement et économiquement du pays, connaissant des taux de chômage élevés, une participation plus faible à l’enseignement supérieur, de mauvais résultats en matière de santé ( tant physique que mentale), une espérance de vie beaucoup plus courte que celle des autres Australiens et des taux d’incarcération élevés. Les aborigènes et les insulaires du détroit de Torres sont également victimes de discrimination, de violences liées au genre et de violences policières de manière disproportionnée.
Le Premier ministre Anthony Albanese a fait campagne en faveur de l’amendement constitutionnel (en faveur du « oui »), tandis que la principale coalition d’opposition australienne a fait campagne contre (en faveur du « non »). La proposition a été rejetée au niveau national et par une majorité dans les six États, ne parvenant donc pas à obtenir la double majorité nécessaire pour modifier la Constitution australienne.
Le vote est obligatoire en Australie et l’AEC indique que le taux de participation a été d’environ 90 % lors de chaque élection générale et référendum depuis 1924. Le vote multiple est un type de fraude électorale tant au niveau étatique qu’au niveau fédéral, en vertu de la loi du Commonwealth Electoral Act 1918 et celle du Referendum (Machinery Provisions) Act 1984. En réponse aux allégations de vote multiple lors du Référendum sur la voix, l’AEC a publié un long fil de discussion sur X, qui indique que le vote multiple est « très rare » et souligne les mesures que l’AEC a mises en place pour empêcher cette pratique. L’AEC explique sur son site Web que pour lutter contre le double vote, des listes certifiées identiques de tous les électeurs d’une circonscription sont délivrées à chaque bureau de vote. Lorsque les électeurs reçoivent un ensemble de bulletins de vote, leur nom est rayé de la liste certifiée détenue par le point de délivrance. Si un électeur se rend à un autre point de délivrance pour effectuer un autre vote ordinaire, il en résultera qu’un autre exemplaire de la liste certifiée pour cette circonscription sera marqué pour indiquer que la personne a reçu des bulletins de vote. Immédiatement après le jour du scrutin, chaque liste certifiée identique pour chaque circonscription est scannée afin de vérifier si des marques multiples ont été apposées sur des noms. L’AEC mène alors une enquête et écrit à chaque électeur soupçonné de vote multiple. Le résultat de l’enquête permet de résoudre le problème lorsqu’il est occasionné en raison d’une « erreur du personnel de vote » ou qu’il concerne des « difficultés linguistiques ou d’alphabétisation » ou le fait que la personne est « âgée et confuse et qu’elle a voté plus d’une fois parce qu’elle avait oublié qu’elle avait déjà exprimé son vote ». Lorsqu’ils ne peuvent être résolus, les cas restants font l’objet d’une enquête plus approfondie de la part de l’AEC et peuvent être transmis à la police fédérale australienne pour examen.
En 2019, l’AEC a déclaré que le vote multiple était un « très petit problème », que seuls 0,03 % des 91,9 % de participation étaient des votes multiples et que la majorité des cas de vote multiple étaient des erreurs commises par des électeurs âgés, peu alphabétisés ou ayant une faible compréhension du processus électoral. L’AEC a réitéré le taux « négligeable » d’occurrence du vote multiple en Australie dans ses commentaires publics au Conseil. Selon l’AEC, seuls 13 cas de votes multiples apparents sur un total de 15,5 millions de votes ont été transmis à la police fédérale australienne pour complément d’enquête dans le cadre des élections fédérales de 2022 (PC-25006 ; voir également PC-25007).
Selon les experts consultés par le Conseil, les affirmations selon lesquelles le Référendum sur la voix serait truqué étaient fréquentes, certaines publications étant accompagnées des hashtags #StopTheSteal (Arrêtez le vol) et #RiggedReferendum (Référendum truqué). Des reportages journalistiques ont également souligné que les allégations de fraude électorale dans le contexte du Référendum sur la voix étaient courantes. D’après les outils de surveillance des réseaux sociaux déployés par les experts consultés par le Conseil, en février 2024, des captures d’écran des publications de l’AEC sur X avaient été partagées sur les plateformes de Meta plus de 475 fois, suscitant des milliers de réactions et au moins 30 000 vues.
3. Champ d’application et autorité du Conseil de surveillance
Le Conseil jouit de l’autorité nécessaire pour examiner la décision de Meta à la suite d’un appel interjeté par la personne dont le contenu a été supprimé (article 2, section 1 de la Charte ; article 3, section 1 des Statuts).
Le Conseil peut confirmer ou annuler la décision de Meta (article 3, section 5 de la Charte), et ce, de manière contraignante pour l’entreprise (article 4 de la Charte). Meta doit également évaluer la possibilité d’appliquer la décision à un contenu identique dans un contexte parallèle (article 4 de la Charte). Les décisions du Conseil peuvent inclure des recommandations non contraignantes auxquelles Meta doit répondre (article 3, section 4 de la Charte ; article 4 de la Charte). Lorsque Meta s’engage à donner suite aux recommandations, le Conseil surveille leur mise en œuvre. Lorsque le Conseil identifie des affaires qui soulèvent des questions similaires, elles peuvent être assignées à un groupe de travail en vue d’une délibération conjointe. Une décision contraignante sera prise à l’égard de chaque contenu.
4. Sources d’autorité et conseils
Les précédents et les standards suivants ont éclairé l’analyse du Conseil dans ces cas :
I. Décisions du Conseil de surveillance
II. Règles de Meta relatives au contenu
La justification de la politique de Meta en matière d’attaques coordonnées et de promotion d’actions criminelles indique qu’elle vise à « prévenir et perturber le préjudice hors ligne et les comportements d’imitation » en interdisant les contenus qui « facilitent, organisent, promeuvent ou admettent certaines activités criminelles ou préjudiciables visant des personnes, des entreprises, des biens ou des animaux ». La politique interdit aux utilisateurs de publier des contenus « préconisant, fournissant des instructions ou démontrant une intention explicite de participer illégalement à un processus de vote ou de recensement, sauf s’ils sont partagés dans des contextes de condamnation, de sensibilisation, de reportage, ou dans des contextes humoristiques ou satiriques ».
Il existe également des types de contenu d’ingérence dans le vote ou le recensement qui peuvent être supprimés en vertu de la politique, à condition qu’un contexte supplémentaire le justifie. Il s’agit notamment des « appels à une ingérence coordonnée qui affecterait la capacité d’un individu à participer à une élection ou à un recensement officiel », ainsi que des « menaces de se rendre sur un site électoral pour surveiller ou observer les activités des électeurs ou du personnel électoral, si elles sont associées à une forme d’intimidation ».
La politique de Meta relative à la violence et l’incitation vise à prévenir les « préjudices potentiels hors ligne » qui peuvent être liés au contenu publié sur les plateformes de Meta. Elle interdit les « menaces susceptibles d’entraîner la mort (et d’autres formes de violence de haute gravité) » ainsi que les « menaces de prendre des armes, d’apporter des armes dans un lieu ou d’entrer de force dans un lieu », tels que « les bureaux de vote ou les lieux utilisés pour compter les voix ou administrer une élection ». Elle interdit également les menaces de violence « liées au vote, à l’inscription sur les listes électorales, à l’administration ou au résultat d’une élection, même si personne n’est pris pour cible ».
La politique de Meta relative aux fausses informations explique comment l’entreprise traite les différentes catégories de fausses informations. Dans l’une de ces catégories, Meta supprime, « dans le but de promouvoir l’intégrité des élections et des recensements », « les fausses informations susceptibles de contribuer directement à un risque d’ingérence avec la capacité des personnes à participer à ces processus [politiques] ». Il s’agit notamment de « fausses informations sur les personnes habilitées à voter, sur les conditions requises pour voter, sur la question de savoir si un vote sera comptabilisé et sur les informations ou le matériel à fournir pour pouvoir voter ».
III. Responsabilités de Meta en matière de droits humains
Les Principes directeurs relatifs aux entreprises et aux droits de l’homme des Nations Unies (PDNU), soutenus par le Conseil des droits de l’homme des Nations Unies en 2011, établissent un cadre de travail volontaire pour les responsabilités en matière de droits humains des entreprises privées. En 2021, Meta a annoncé l’entrée en vigueur de sa Politique relative aux droits humains au sein de l’entreprise, dans laquelle elle a réaffirmé son engagement à respecter les droits humains conformément aux PDNU. En l’espèce, l’analyse du Conseil sur les responsabilités de Meta en matière de droits humains s’est appuyée sur les standards internationaux suivants :
- Le droit à la liberté d’expression : l’article 19 du Pacte international relatif aux droits civils et politiques ( PIDCP) ; l’observation générale n° 34, Comité des droits de l’homme, 2011 ; les rapports du Rapporteur spécial des Nations Unies sur la liberté d’opinion et d’expression : A/HRC/38/35 (2018) et A/74/486 (2019).
- Les droits de vote et de participation aux affaires publiques : article 25 du PIDCP ; l’observation générale n° 25, Comité des droits de l’homme, 1996.
5. Soumissions de l’utilisateur
Dans leurs déclarations au Conseil, les deux utilisateurs ont affirmé qu’ils ne faisaient que partager des informations publiées par l’AEC. L’utilisateur à l’origine de la seconde publication a en outre affirmé que sa publication servait « d’avertissement aux autres » que « l’élection pourrait être frauduleuse » en raison de l’autorisation du vote multiple, puisque les personnes « n’ont pas besoin de présenter une pièce d’identité » pour que leur nom soit rayé de la liste.
6. Soumissions de Meta
Meta a déterminé que les deux publications enfreignaient la ligne politique sur « l’encouragement, la fourniture d’instructions ou la démonstration d’une intention explicite de participer illégalement à un processus de vote ou de recensement » du Standard de la communauté relatif aux attaques coordonnées et à la promotion d’actions criminelles. D’après les règles internes de Meta à l’intention des équipes d’examen de contenu, les politiques de Meta en matière d’ingérence dans les votes s’appliquent à la fois aux élections et aux « référendums officiels organisés par une autorité désignée au niveau national ». Le terme « vote illégal » comprend, « mais n’est pas limité à » ce qui suit : « (a) voter deux fois ; (b) fabriquer des informations de vote pour voter dans un lieu où vous n’êtes pas éligible ; (c) fabriquer votre éligibilité électorale ; et (d) voler des bulletins de vote ».
En ce qui concerne la première publication, Meta a souligné que l’expression « votez souvent » est « généralement comprise comme signifiant voter illégalement plus d’une fois lors d’une élection ». L’entreprise a également constaté que la phrase n’était pas destinée à l’humour ou à la satire, puisque l’utilisateur appelait les personnes à voter « NON », ce qui, de l’avis de Meta, constituait une tentative sérieuse de promouvoir les préférences politiques de l’utilisateur. L’entreprise a également fait savoir au Conseil que lorsqu’elle examine le contenu relatif aux élections à grande échelle, elle n’est pas toujours en mesure d’évaluer l’intention des utilisateurs qui publient des satires potentielles.
En ce qui concerne la seconde publication, Meta a trouvé que l’expression « smash the voting centres » (détruisez les bureaux de vote) était une infraction. L’entreprise a expliqué que l’appel de l’utilisateur « pouvait être interprété comme une incitation à inonder l’élection de votes en double », ce qui est interdit par la ligne politique relative aux attaques coordonnées et à la promotion d’actions criminelles qui interdit « l’incitation ... à participer illégalement à un processus de vote ou de recensement ».
Selon Meta, si elle était interprétée littéralement comme un appel à détruire les bâtiments des bureaux de vote, cette phrase enfreindrait la politique sur la violence et l’incitation, étant donné que cette politique interdit : (i) les menaces de violence de haute gravité contre un bâtiment qui pourraient entraîner la mort ou des blessures graves pour toute personne présente dans le lieu ciblé ; et (ii) les menaces de violence « liées au vote, à l’inscription des électeurs ou à l’administration ou au résultat d’une élection, même si personne n’est pris pour cible ». Selon les règles internes de Meta à l’intention des équipes d’examen de contenu, les menaces contre des lieux doivent être formulées en « termes explicites », tels que « exploser », « brûler », « tirer », ainsi qu’en termes génériques tels que « attaque », « embuscade » et « détruire », pour qu’un élément de contenu soit considéré comme une infraction à cette politique.
Meta a publié les efforts d’intégrité de l’entreprise pour le Référendum sur la voix dans une publication de blog en juillet 2023. Meta a également indiqué au Conseil qu’elle avait constitué une équipe interfonctionnelle pour commencer à préparer le référendum d’avril 2023. L’équipe était composée d’équipes basées dans la région Asie-Pacifique, conformément à la pratique habituelle pour les élections nationales. Meta a également créé un Centre virtuel d’opérations sur les produits d’intégrité (IPOC) au cours de la dernière semaine de campagne avant le vote, afin de se concentrer sur le référendum au cours d’une période où les tensions risquent d’être plus vives. L’IPOC comprenait des équipes opérationnelles supplémentaires pour répondre rapidement aux escalations et aux risques critiques survenus avant le jour du scrutin. Meta n’a pas appliqué le protocole de politique de crise ni aucun autre levier politique pour le Référendum sur la voix.
Meta a également expliqué son « initiative de pipeline basé sur des mots-clés », qui identifie et met automatiquement en file d’attente les contenus potentiellement en infraction contenant des mots-clés, qu’il s’agisse de textes ou d’images telles que des captures d’écran, en vue d’un examen manuel par le biais d’un « pipeline numérique spécialisé qui recherche des mots-clés spécifiques ». Meta a indiqué au Conseil que la liste comprenait de nombreux mots et expressions élaborés par les équipes régionales et de désinformation de Meta. La fonction première de ce système de détection basé sur des mots-clés est de « garantir l’intégrité » des élections et des référendums en « identifiant systématiquement et en examinant manuellement le contenu pertinent ». Le système de détection par mots-clés a été activé, dans ce cas, en raison de l’IPOC virtuel mis en place pour le Référendum sur la voix. Meta met en œuvre l’initiative au niveau mondial. Il ne se limite pas à des pays ou régions spécifiques, mais s’adapte aux contextes locaux. Selon Meta, la liste des mots-clés est « dynamique », susceptible d’être modifiée et « spécifique à la nature de chaque évènement ».
L’initiative vise à faire appliquer activement les Standards de la communauté de Meta dans les domaines suivants : (i) la politique sur les attaques coordonnées et la promotion d’actions criminelles, qui concerne « la fraude électorale et/ou la fraude liée au recensement, y compris les offres d’achat ou de vente de votes avec des cadeaux en espèces, et les déclarations préconisant ou donnant des instructions sur une participation illégale aux processus de vote ou de recensement » ; et (ii) la politique relative aux fausses informations, qui porte sur l’ingérence dans le processus de vote ou de recensement, y compris « les fausses informations concernant les dates, lieux, heures et méthodes de vote ou de recensement, les qualifications des électeurs, le dépouillement des votes et le matériel de vote requis ». Le système de détection par mots-clés pour le Référendum sur la voix n’a pas été conçu pour appliquer activement d’autres politiques de contenu concernant les élections ou le vote, telles que celles prévues par le Standard de la communauté relatif à la violence et à l’incitation. Toutefois, si le contenu signalé par l’initiative enfreint d’autres Standards de la communauté, il est également soumis à l’application de la politique après examen manuel.
En ce qui concerne le contenu de ce cas, les expressions « double vote » et « vote multiple » sont les mots-clés qui ont activé le système de détection de Meta. Le terme « double vote » n’a pas été directement utilisé dans les publications Facebook, mais apparaît dans la capture d’écran de la publication de l’AEC sur X. Tout contenu contenant ces mots-clés, qu’il s’agisse de texte ou d’images telles que des captures d’écran, est « automatiquement signalé et mis en file d’attente pour un examen manuel afin de surveiller de manière proactive les discours liés à l’entrave au vote ».
Le Conseil a posé à Meta 12 questions par écrit. Les questions portaient sur les politiques de Meta en matière de contenu créant une ingérence avec le vote, le système de détection basé sur des mots-clés et les protocoles adoptés par Meta pour modérer le contenu relatif au Référendum sur la voix. Meta a répondu à toutes les questions.
7. Commentaires publics
Le Conseil de surveillance a reçu 5 commentaires publics répondant aux critères de soumission. Trois ont été soumis par la région Asie-Pacifique et Océanie (tous par l’Australie), un par les États-Unis et le Canada, et un par l’Europe. Pour consulter les commentaires publics soumis accompagnés d’un consentement à la publication, veuillez cliquer ici.
Les soumissions portaient sur les thèmes suivants : le contexte socio-historique qui a conduit au Référendum sur la voix, l’histoire de la fraude électorale en Australie, la diffusion d’informations trompeuses et décontextualisées pendant le Référendum sur la voix et, plus généralement, les politiques de contenu et les pratiques de mise en application de Meta en matière de désinformation.
8. Analyse du Conseil de surveillance
Le Conseil a examiné si ces publications devaient être supprimées en analysant les politiques de contenu de Meta, ses responsabilités en matière de droits humains et ses valeurs. Le Conseil a également évalué les implications de ce cas-ci sur l’approche plus globale de la gouvernance du contenu par Meta.
Le Conseil a sélectionné ces cas pour examiner les politiques de modération de contenu et les pratiques de mise en application de Meta concernant les informations de vote trompeuses ou décontextualisées et la fraude électorale, compte tenu du nombre historique d’élections en 2024. Ces cas relèvent de la priorité stratégique du Conseil pour les élections et l’espace civique.
8.1 Respect des politiques relatives au contenu de Meta
I. Règles relatives au contenu
Le Conseil estime que les deux publications ont enfreint la politique relative aux attaques coordonnées et à la promotion d’actions criminelles, qui interdit la promotion de la participation illégale à un processus de vote ou de recensement. L’expression « vote often » (votez souvent) dans la première publication, associée à la publication de l’AEC sur X concernant le dépouillement des votes multiples, est un appel clair à s’engager dans une telle pratique. Conformément aux règles internes de Meta à l’intention des équipes d’examen de contenu, « voting twice » (votez deux fois) est une forme de « vote illégal ».
La seconde publication enfreint également la politique relative aux attaques coordonnées et à la promotion d’actions criminelles. Elle contenait une capture d’écran de la publication X et était accompagnée d’un texte superposé disant « so you can vote multiple times » (pour que vous puissiez voter plusieurs fois). Elle exhorte également les personnes à « smash the voting centres » (détruisez les bureaux de vote). L’utilisateur pourrait simplement tenter d’exprimer sa frustration à l’égard de l’AEC, car elle permettrait aux personnes de « vote multiple times. » (votez plusieurs fois.) Toutefois, cette phrase, lue conjointement avec le reste du texte superposé à la capture d’écran, qui affirme que l’AEC tolère le vote multiple et l’accuse de préparer les personnes à un « rigging »(truquage), peut être plus raisonnablement comprise comme préconisant que les personnes inondent les bureaux de vote de votes multiples. Dans le contexte des élections australiennes, où le vote est obligatoire et où le taux de participation est supérieur à 90 %, un appel à ne voter qu’une seule fois est une interprétation peu probable de l’expression « smash the voting centres » (détruisez les bureaux de vote), surtout lorsque cet appel fait suite à une affirmation selon laquelle les personnes « can vote multiple times » (peuvent voter plusieurs fois). Ceci est d’autant plus vrai que l’utilisateur demande aux personnes de voter « non » de manière répétée (« NON, NON, NON, NON, NON »). Lorsqu’elle est lue dans son ensemble et dans le contexte des élections australiennes, la publication constitue donc un appel à voter deux fois, ce qui équivaut à un « vote illégal », interdit par la politique relative aux attaques coordonnées et à la promotion d’actions criminelles.
Le Conseil reconnaît que, bien qu’il soit possible que les publications aient été rédigées de manière satirique, leur intention satirique n’est pas explicite. Le Conseil ne pense pas que les publications étaient implicitement satiriques sur la base du langage des légendes et du texte superposé aux images. Bien que le degré de certitude de l’appel à l’action soit différent pour les deux publications, chacune d’entre elles contient un appel à participer à des votes multiples, donc « illégaux ». Compte tenu des risques associés aux tentatives de fraude électorale dans les contextes électoraux, le Conseil estime que l’exception de Meta relative à l’humour ou à la satire ne devrait s’appliquer, dans de telles circonstances, qu’au contenu explicitement humoristique. Par conséquent, aucune des deux publications ne peut bénéficier de cette exception.
Les publications ne remplissent pas non plus les conditions requises pour bénéficier de l’exception relative à la sensibilisation prévue par la politique relative aux attaques coordonnées et à la promotion d’actions criminelles. Les captures d’écran et une grande partie du contenu créé par les utilisateurs ont été conçus pour attirer l’attention sur la possibilité de fraude électorale sur la base de la déclaration de l’AEC. Cependant, ils sont allés plus loin et ont activement encouragé d’autres personnes à participer illégalement au Référendum sur la voix en votant à plusieurs reprises, au lieu de se contenter de discuter des publications de l’AEC sur X. Les publications ne contenaient pas le contexte supplémentaire fourni par l’AEC, dans le même fil de discussion sur X, selon lequel le fait de voter plusieurs fois est une infraction en Australie. Par conséquent, au lieu de sensibiliser à la possibilité du vote multiple, les deux publications ont décontextualisé la communication de l’AEC pour laisser entendre que l’AEC affirme qu’il est permis de voter plus d’une fois.
Contrairement à Meta, le Conseil ne pense pas qu’une lecture plus littérale du mot « smash » (signifiant la destruction de bâtiments) soit applicable en l’espèce, étant donné l’absence de signaux allant dans ce sens (par exemple, un contexte de conflit ou de tensions accrues avec une large diffusion de contenus incitant directement à la violence). Par conséquent, le Conseil conclut que la seconde publication n’enfreint pas la politique de Meta en matière de violence et d’incitation.
Le Conseil a également évalué les deux contenus au regard de la politique de désinformation de Meta, étant donné qu’ils décontextualisent la communication de l’AEC. Il a toutefois conclu que le Standard de la communauté relatif aux attaques coordonnées et à la promotion d’actions criminelles était la politique applicable en l’espèce, car les deux utilisateurs encouragent d’autres personnes à commettre des fraudes électorales.
II. Mesures de mise en application
Le Conseil reconnaît les efforts d’intégrité de Meta pour le Référendum sur la voix, y compris le système de détection basé sur des mots-clés adopté par Meta. L’entreprise a expliqué que le système a été déployé pour identifier de manière proactive les contenus susceptibles d’enfreindre les lignes politiques relatives à l’ingérence dans le vote des Standards de la communauté relatifs aux attaques coordonnées et à la promotion d’actions criminelles. Selon Meta, le système de détection basé sur des mots-clés est adapté aux contextes locaux et contient des termes spécifiques au marché. Sur la base des informations que Meta lui a communiquées concernant le fonctionnement de l’initiative, le Conseil apprécie le fait que le système de détection par mots-clés ait été déployé et semble avoir fonctionné dans ce cas. Des initiatives comme celle-ci doivent être appliquées de manière cohérente dans le monde entier, dans tous les pays où se déroulent des élections et d’autres processus démocratiques. Le Conseil estime également que cette initiative devrait englober l’ingérence dans le vote et les politiques connexes dans le cadre du Standard de la communauté relatif à la violence et à l’incitation.
Étant donné les limites des approches basées sur les mots-clés pour la détection des contenus nuisibles, le Conseil continuera à évaluer l’efficacité du système Meta dans d’autres cas liés aux élections. À cet égard, le Conseil encourage Meta à développer des indicateurs de réussite pour évaluer l’efficacité du système de détection par mots-clés, ainsi que d’autres efforts en matière d’intégrité des élections, pour identifier les contenus potentiellement contraires aux politiques électorales. Cela serait conforme à la recommandation du Conseil dans la décision Discours d’un général brésilien pour que Meta « développe un cadre pour évaluer les efforts de l’entreprise en matière d’intégrité des élections ».
8.2 Respect des responsabilités de Meta en matière de droits humains
Liberté d’expression (article 19 du PIDCP)
L’article 19 du Pacte international relatif aux droits civils et politiques (PIDCP) prévoit une large protection pour l’expression de « toutes sortes ». Ce droit inclut la « liberté de rechercher, de recevoir et de répandre des informations et des idées de toute espèce ». Le Comité des droits de l’homme des Nations Unies a souligné que la valeur de l’expression est particulièrement élevée lorsqu’elle traite de questions politiques, de candidats et de représentants élus (observation générale n° 34, paragraphe 13). Cela inclut l’expression « profondément offensante », la critique des institutions publiques et les opinions qui peuvent être erronées (observation générale n° 34, paragraphes 11, 38 et 49).
Le Comité des droits de l’homme des Nations Unies a souligné que la liberté d’expression est essentielle à la conduite des affaires publiques et à l’exercice effectif du droit de vote (observation générale n° 34, paragraphe 20). Le Comité déclare en outre que la libre communication d’informations et d’idées sur les questions publiques et politiques entre les citoyens est essentielle à la jouissance du droit de prendre part à la direction des affaires publiques et du droit de vote, article 25 du PIDCP (observation générale n° 25, paragraphe 25). Dans ce cas, les deux utilisateurs ont interagi sur le référendum, une question d’intérêt public, pour partager leurs opinions sur le résultat qu’ils espèrent, participant ainsi directement au débat public déclenché par le processus de référendum.
Lorsque des limitations de la liberté d’expression sont imposées par un État, elles doivent remplir des critères de légalité, d’objectif légitime, et de nécessité et de proportionnalité (article 19, paragraphe 3 du PIDCP). Ces exigences sont souvent reprises sous intitulé « test tripartite ». Le Conseil utilise ce cadre pour interpréter les engagements volontaires de Meta en matière de droits humains, à la fois pour la décision relative au contenu individuel en cours d’examen et pour ce que cela dit de l’approche plus large de Meta en matière de gouvernance du contenu. À l’instar de cas précédents (par exemple, Arméniens d’Azerbaïdjan, Vidéo de prisonniers de guerre arméniens), le Conseil partage l’avis du Rapporteur spécial des Nations Unies sur la liberté d’expression disant que même si « les entreprises ne sont pas soumises aux mêmes devoirs que les gouvernements, leur influence est néanmoins telle qu’elle doit les initier à se poser les mêmes questions qu’eux quant à la protection de la liberté d’expression de leurs utilisateurs » (A/74/486, paragraphe 41). En faisant cela, le Conseil tente de tenir compte des cas où les responsabilités d’une entreprise de réseaux sociaux privée en matière de droits humains peuvent différer de la façon dont un gouvernement applique ses obligations dans ce domaine.
I. Légalité (clarté et accessibilité des règles)
Les règles restreignant l’expression doivent être clairement définies et communiquées, à la fois à ceux qui les appliquent et à ceux qui en subissent les conséquences (observation générale n° 34, paragraphe 25). Les utilisateurs doivent être en capacité de prévoir les conséquences de la publication de contenu sur Facebook et Instagram. Le Rapporteur spécial des Nations Unies sur la liberté d’expression a souligné la nécessité d’assurer la « clarté et la spécificité » dans les politiques de modération du contenu ( A/HRC/38/35, paragraphe 46).
Le langage public du Standard de la communauté relatif aux attaques coordonnées et à la promotion d’actions criminelles n’est pas suffisamment clair pour l’utilisateur. Étant donné l’importance pour les utilisateurs de pouvoir s’engager sur les réseaux sociaux pour discuter de questions d’intérêt public dans le contexte d’évènements démocratiques, Meta doit s’assurer que les utilisateurs sont clairement informés des règles applicables. Cela permettra aux utilisateurs de savoir si le contenu qu’ils publient est susceptible de constituer une infraction. À cet égard, le Conseil estime que la clarification, dans les règles internes, de ce qui constitue un « vote illégal » devrait être incorporée dans le Standard de la communauté relatif aux attaques coordonnées et à la promotion d’actions criminelles, destiné au public.
II. Objectif légitime
Les restrictions en matière de liberté d’expression doivent poursuivre un but légitime (article 19, paragraphe 3, du PIDCP), notamment pour protéger « l’ordre public » et « les droits d’autrui ».
La politique relative aux attaques coordonnées et à la promotion d’actions criminelles vise à « prévenir et perturber les préjudices hors ligne et les comportements d’imitation » en supprimant les contenus « facilitant, organisant, promouvant ou admettant certaines activités criminelles ou préjudiciables ».
La protection du droit de vote et du droit de prendre part à la direction des affaires publiques est un objectif que la politique relative aux attaques coordonnées et à la promotion d’actions criminelles de Meta peut légitimement poursuivre, en particulier dans le contexte des élections (article 25 du PIDCP). Le Conseil estime que le fait d’empêcher les utilisateurs d’appeler d’autres personnes à commettre des fraudes électorales constitue un objectif légitime de protection du droit de vote. L’observation générale n° 25 sur le droit de vote stipule que « le processus de vote et de dépouillement doit faire l’objet d’un contrôle indépendant » afin que « les électeurs aient confiance dans la sécurité du scrutin et le dépouillement des votes » (paragraphe 20). En outre, « le principe d’une personne, une voix doit s’appliquer », ce qui signifie que « le vote d’un électeur doit être égal à celui d’un autre » (paragraphe 21). Le Conseil note également que cette politique contribue à préserver « l’ordre public » en protégeant les bureaux de vote et les processus démocratiques contre l’ingérence des électeurs, d’une manière plus générale.
III. Nécessité et proportionnalité
En vertu de l’article 19, paragraphe 3, du PIDCP, la nécessité et la proportionnalité exigent que les restrictions à l’expression « soient appropriées pour remplir leur fonction protectrice ; elles doivent être proportionnées à l’intérêt à protéger » ( observation générale n° 34, paragraphe 34). Conformément à leurs responsabilités en matière de droits humains, les entreprises de réseaux sociaux doivent envisager une série de réponses possibles au contenu problématique au-delà de la suppression afin de s’assurer que les restrictions sont étroitement adaptées (A/74/486, paragraphe 51).
Le Conseil estime que la suppression par Meta des deux publications sur Facebook était conforme aux exigences de nécessité et de proportionnalité. Le Conseil note que le contenu a été publié quelques jours avant un référendum qui marquait un moment constitutionnel important en Australie, en particulier pour les Aborigènes et les insulaires du détroit de Torres. D’une part, le discours politique est une composante essentielle des processus démocratiques et les deux utilisateurs participaient directement au débat public suscité par le référendum. D’autre part, les appels lancés par les utilisateurs à d’autres personnes pour qu’elles adoptent un comportement illégal dans le cadre du référendum ont porté atteinte aux droits politiques des personnes vivant en Australie, en particulier au droit de vote et au droit de prendre part à la conduite des affaires publiques.
En appliquant ces standards au contenu du cas, les appels à « vote No » (voter non) dans les deux publications sont clairement des discours politiques protégés. Cependant, l’expression « vote often » (votez souvent) dans la première publication et l’expression « smash the voting centres » (détruisez les bureaux de vote) dans la seconde publication sont une autre affaire, étant donné qu’elles ont activement encouragé d’autres personnes à participer illégalement au Référendum sur la voix en votant plusieurs fois, comme expliqué plus en détail à la section 8.1 ci-dessus. Les experts consultés par le Conseil ont noté que les allégations de truquage du Référendum étaient fréquentes, tandis que les reportages journalistiques ont souligné que les allégations de fraude électorale étaient courantes. Par conséquent, le Conseil estime que Meta a eu raison de choisir de protéger les processus démocratiques en empêchant les tentatives de fraude électorale de circuler sur les plateformes de Meta ( observation générale n° 25). La diffusion de contenus liés à la fraude électorale peut créer un environnement où l’intégrité des processus électoraux est menacée. Cependant, une minorité des membres du Conseil estime que la suppression de la publication incitant les personnes à « smash the voting centres » (détruisez les bureaux de vote) ne satisfait pas au test de nécessité et de proportionnalité, étant donné que Meta n’a pas réussi à établir un « lien direct et immédiat entre l’expression et la menace » (observation générale n° 34, paragraphe 35). Pour cette minorité des membres, étant donné que l’appel de l’utilisateur à « smash the voting centres » (détruisez les bureaux de vote) est un appel ambigu à voter plusieurs fois, le lien avec la menace de fraude électorale n’était pas direct et immédiat.
Le Conseil estime que l’approche de Meta, qui consiste à attendre des utilisateurs qu’ils fassent preuve de clarté dans l’application des exceptions, est judicieuse pour déterminer si le contenu a été partagé dans des contextes de condamnation, de sensibilisation, de reportage, ou dans des contextes humoristiques ou satiriques. Les publications analysées par le Conseil n’indiquaient pas clairement que les expressions « vote often » (votez souvent) et « smash the voting centres » (détruisez les bureaux de vote) avaient une signification rhétorique, au lieu de préconiser clairement le vote multiple, une action qui mettait en péril l’intégrité du Référendum sur la voix. Par conséquent, les deux suppressions étaient nécessaires et constituaient des réponses proportionnées de Meta.
En outre, une minorité des membres du Conseil n’est pas convaincue que la suppression de contenu soit le moyen le moins intrusif dont dispose Meta pour lutter contre les discours liés à la fraude électorale, et estime que le fait que Meta n’ait pas démontré le contraire ne satisfait pas à l’exigence de nécessité et de proportionnalité. Le rapporteur spécial a déclaré que « tout comme les États devraient évaluer si une limitation de la liberté d’expression constitue l’approche la moins restrictive, les entreprises devraient également procéder à ce type d’évaluation. Et, en procédant à cette évaluation, les entreprises devraient avoir la charge de démontrer publiquement la nécessité et la proportionnalité », ( A/74/486, paragraphe 51). Pour cette minorité, Meta aurait dû démontrer publiquement pourquoi la suppression de ces publications est le moyen le moins intrusif parmi les nombreux outils dont elle dispose pour éviter les préjudices probables à court terme, tels que la fraude électorale. Si elle n’est pas en mesure de fournir une telle justification, Meta devrait alors reconnaître de manière transparente que ses règles d’expression s’écartent des normes des Nations Unies en matière de droits humains et fournir une justification publique à cet égard. La minorité des membres estime que le Conseil serait alors en mesure d’examiner la justification publique de Meta et qu’un dialogue public s’ensuivrait sans risquer de déformer les normes existantes des Nations Unies en matière de droits humains.
9. Décision du Conseil de surveillance
Le Conseil de surveillance confirme les décisions de Meta de retirer les deux contenus.
10. Recommandations
Politique de contenu
1. Pour s’assurer que les utilisateurs sont pleinement informés des types de contenus interdits en vertu de la section « Fraude électorale et/ou au recensement » du Standard de la communauté relatif aux attaques coordonnées et à la promotion d’actions criminelles, Meta devrait définir l’expression « vote illégal » dans le langage public de la politique d’interdiction : « préconiser, fournir des instructions ou démontrer une intention explicite de participer illégalement à un processus de vote ou de recensement, sauf s’il est partagé dans des contextes de condamnation, de sensibilisation, de reportage, ou dans des contextes humoristiques ou satiriques ».
Le Conseil considérera que cette recommandation a été suivie lorsque Meta mettra à jour son Standard de la communauté relatif aux attaques coordonnées et à la promotion d’actions criminelles à destination du public afin de refléter cette modification.
* Note de procédure :
Les décisions du Conseil de surveillance sont préparées par des panels de cinq membres et approuvées par la majorité du Conseil. Les décisions du Conseil ne représentent pas nécessairement les opinions personnelles de tous les membres.
Pour la décision sur ce cas, des recherches indépendantes ont été commandées au nom du Conseil. Le Conseil a bénéficié de l’aide de Duco Advisors, une société de conseil spécialisée dans la géopolitique, la confiance et la sécurité, ainsi que la technologie. Memetica, une organisation qui effectue des recherches open source sur les tendances des réseaux sociaux, a également fourni une analyse.
Retour aux décisions de cas et aux avis consultatifs politiques