Décision sur plusieurs affaires
Campagne électorale 2023 en Grèce
28 mars 2024
Le Conseil de surveillance a examiné conjointement deux publications Facebook, toutes deux partagées à l’époque des élections générales de juin 2023 en Grèce. Le Conseil a confirmé les décisions de Meta de supprimer le contenu dans les deux cas pour infraction à la politique de l’entreprise relative aux personnes et organisations dangereuses.
2 cas inclus dans ce lot
FB-368KE54E
Cas relatif à des personnes et organisations dangereuses sur Facebook
FB-3SNBY3Q2
Cas relatif à des personnes et organisations dangereuses sur Facebook
Pour lire cette décision en grec, cliquez ici.
Για να διαβάσετε αυτήν την απόφαση στα ελληνικά, κάντε κλικ εδώ.
Résumé
Dans le cadre de l’examen de deux cas concernant des contenus Facebook publiés à l’occasion des élections générales de juin 2023 en Grèce, le Conseil a confirmé la suppression des deux publications par Meta. Ces deux publications ont été supprimées pour infraction à la politique sur les personnes et les organisations dangereuses de l’entreprise. Dans le premier cas, il s’agissait d’un tract électoral contenant une déclaration dans laquelle un candidat légitime s’alignait sur une personne désignée et incitant à la haine, tandis que dans le second cas, une image du logo d’une entité incitant à la haine désignée était partagée. La majorité des membres du Conseil estime que ces suppressions sont conformes aux responsabilités de Meta en matière de droits humains. Toutefois, le Conseil recommande à Meta de clarifier le champ d’application de l’exception de la politique autorisant le partage de contenu dans le contexte d’un « discours social et politique » pendant les élections.
À propos des cas
Ces deux cas concernent des contenus publiés sur Facebook par différents utilisateurs à l’occasion des élections générales de juin 2023 en Grèce.
Dans le premier cas, un candidat du parti grec Spartiates a publié une image de son tract électoral. On peut y lire que M. Ilias Kasidiaris, un homme politique grec condamné à 13 ans de prison pour avoir dirigé les activités criminelles et les crimes de haine de l’Aube dorée, soutient les Spartiates.
M. Kasidiaris et d’autres membres du parti d’extrême droite Aube dorée avaient persécuté des migrants, des réfugiés et d’autres groupes minoritaires en Grèce avant que le parti ne soit déclaré organisation criminelle en 2020. Avant sa condamnation en 2020, M. Kasidiaris a fondé un nouveau parti politique appelé Grecs pour la patrie. Plus tard, en mai 2023, la Cour suprême grecque a interdit au parti Grecs pour la patrie de se présenter aux élections de 2023 car, selon la loi grecque, les partis dont les dirigeants ont été condamnés sont interdits de participation. Bien que M. Kasidiaris soit interdit de Facebook depuis 2013 pour incitation à la haine, il utilise d’autres plateformes de réseaux sociaux en prison. C’est ainsi qu’il a déclaré son soutien aux Spartiates quelques semaines avant les élections de juin. Les Spartiates, qui ont remporté 12 sièges, ont reconnu le rôle joué par M. Kasidiaris dans le succès de leur parti.
Dans le second cas, un autre utilisateur de Facebook a publié une image du logo du parti Grecs pour la patrie, qui comprend également le mot grec pour « Spartiates ».
Les partis Aube dorée et Grecs pour la patrie ainsi que M. Kasidiaris sont respectivement désignés comme organisations incitant à la haine de niveau 1 et personne incitant à la haine de niveau 1 en vertu de la politique de Meta relative aux personnes et organisations dangereuses.
Les deux publications ont été signalées à Meta. L’entreprise a déterminé séparément que les deux publications enfreignaient son Standard de la communauté relatif aux personnes et organisations dangereuses, a supprimé le contenu et a appliqué une pénalité sévère et une restriction de 30 jours aux deux comptes. Les deux utilisateurs de Facebook qui ont publié le contenu ont déposé un appel auprès de Meta, mais l’entreprise a de nouveau estimé qu’il s’agissait d’une infraction. Les deux utilisateurs ont alors fait appel séparément auprès du Conseil.
Principales observations
Premier cas
La majorité des membres du Conseil estime que la publication a enfreint la politique relative aux personnes et organisations dangereuses (telle que rédigée en juin 2023), car l’utilisateur a enfreint la règle interdisant de « faire l’éloge » d’une entité désignée. Il l’a fait en « s’alignant idéologiquement » sur M. Kasidiaris, qui est désigné par Meta comme une personne incitant à la haine. Cette règle comportant un exemple explicite d’alignement idéologique, elle aurait été suffisamment claire pour les utilisateurs et les équipes de modération de contenu. Même après la dernière mise à jour de la politique, cette publication tomberait toujours sous le coup de l’interdiction des « références positives » à M. Kasidiaris.
En outre, la majorité des membres du Conseil note que la suppression de cette publication n’a pas porté atteinte au droit du public d’être informé de ce soutien. Le public a eu de nombreuses autres occasions, y compris dans les médias locaux et régionaux, d’être informé du soutien de M. Kasidiaris au parti Spartiates.
Une minorité du Conseil estime toutefois que l’infraction à la règle de l’alignement idéologique n’était pas explicite, car M. Kasidiaris soutenait le candidat légitime, et non l’inverse. Ces membres du Conseil estiment également que l’exception relative à l’« intérêt médiatique » aurait dû être appliquée pour maintenir ce contenu sur Facebook afin que les électeurs puissent avoir accès à l’information la plus complète possible pour prendre leurs décisions.
Second cas
La majorité du Conseil a estimé que l’image était contraire à la politique relative aux personnes et organisations dangereuses parce qu’elle représentait un symbole du parti Grecs pour la patrie, une organisation désignée, et qu’elle aurait dû être supprimée. Aucun contexte n’a été fourni par l’utilisateur pour permettre l’application des exceptions relatives au « reportage, à la discussion neutre ou à la condamnation ».
Toutefois, certains membres du Conseil, en minorité, estiment que le simple partage de logos associés à une entité désignée, en l’absence d’autres infractions ou d’un contexte de contenu nuisible, devrait être autorisé.
Inquiétudes générales
Le Conseil est d’avis que l’exception de la politique concernant le « discours social et politique » sur les entités désignées pendant les élections doit être clarifiée pour une meilleure compréhension du public. Le Conseil reste également préoccupé par le manque de transparence dans la désignation des entités incitant à la haine par Meta, ce qui rend difficile pour les utilisateurs de comprendre avec quelles organisations ou personnes ils sont autorisés à s’aligner idéologiquement ou dont ils peuvent partager les symboles.
Décision du Conseil de surveillance
Le Conseil de surveillance a confirmé les décisions de Meta visant à supprimer les deux publications.
Le Conseil recommande à Meta ce qui suit :
- Clarifier le champ d’application de l’exception prévue par le Standard de la communauté relatif aux personnes et organisations dangereuses, qui autorise le partage de contenus « faisant état, discutant de manière neutre ou condamnant des personnes et organisations dangereuses ou leurs activités » dans le cadre d’un « discours social et politique ». En particulier, Meta devrait préciser comment cette exception s’applique aux contenus liés aux élections.
* Les résumés de cas donnent un aperçu du cas et n’ont pas valeur de précédent.
Décision complète sur le cas
1. Résumé de la décision
Le Conseil de surveillance a examiné ensemble deux publications Facebook concernant les élections générales de juin 2023 en Grèce. Le premier cas concerne la publication d’un candidat aux élections grecques, dans laquelle il partageait des détails sur sa campagne électorale et une image de son tract électoral qui comportait un soutien de la part d’une personnalité politique désignée comme une personne incitant à la haine en vertu du Standard de la communauté de Meta relatif aux personnes et organisations dangereuses. Le second cas concerne une publication partageant le logo d’un parti grec, Grecs pour la patrie, qui est également une entité désignée, avec le mot « Spartiates » en grec dans l’image. Meta a supprimé ces deux publications pour avoir enfreint son Standard de la communauté relatif aux personnes et organisations dangereuses.
La majorité du Conseil confirme les décisions de Meta de supprimer le contenu dans les deux cas, estimant que ces suppressions étaient conformes aux politiques de Meta et à ses responsabilités en matière de droits humains. Le Conseil recommande à Meta de clarifier le champ d’application de sa nouvelle exception sur le « discours social et politique » à son Standard de la communauté sur les personnes et organisations dangereuses dans le cadre des élections.
2. Description du cas et contexte
Ces deux cas ont été publiés sur Facebook par deux utilisateurs différents en Grèce, lors des élections législatives de juin 2023. Il s’agit des deuxièmes élections législatives organisées dans le pays cette année, aucun parti n’ayant obtenu la majorité absolue lors des premières élections en mai.
Dans le premier cas, un utilisateur de Facebook, candidat du parti des Spartiates en Grèce, a publié une image de son tract électoral, contenant sa photo et son nom, ainsi qu’une légende en grec décrivant le déroulement de sa campagne avant les élections, y compris ses préparatifs et son engagement auprès du public. Le tract contenait une déclaration selon laquelle M. Ilias Kasidiaris soutient les Spartiates.
M. Kasidiaris, un homme politique grec, a été condamné à 13 ans de prison pour avoir dirigé les activités de l’Aube dorée. L’Aube dorée a été déclarée organisation criminelle en 2020 en raison de sa responsabilité dans des crimes haineux, notamment le meurtre d’un chanteur de rap grec. En 2013, deux membres de l’Aube dorée ont été reconnus coupables du meurtre d’un travailleur migrant pakistanais. M. Kasidiaris et d’autres membres de l’Aube dorée se sont activement engagés dans la persécution des migrants, des réfugiés et d’autres groupes minoritaires et vulnérables. Lors d’un rassemblement de l’Aube dorée en 2012, M. Kasidiaris a qualifié la communauté rom de « déchets humains » et a demandé à ses partisans de « se battre [...] s’ils voulaient que leur quartier devienne propre » (voir les commentaires publics, par exemple PC-20008 d’ACTROM - Action pour et par les Roms).
Avant d’être condamné en 2020, M. Kasidiaris a fondé un nouveau parti politique appelé Grecs pour la patrie. Le 2 mai 2023, la Cour suprême grecque adisqualifié le parti politique Grecs pour la patrie, qui n’a donc pas pu se présenter aux élections générales de 2023 à la lumière des amendements récemment adoptés dans la constitution grecque qui interdit aux partis dont les dirigeants ont été condamnés de participer aux élections. Plusieurs médiasinternationaux et régionaux ont rapporté qu’avant les élections de juin 2023, M. Kasidiaris avait déclaré son soutien aux Spartiates depuis sa prison en utilisant ses comptes sur les réseaux sociaux. M. Kasidiaris, qui a été banni de Facebook en 2013 pour discours haineux, utilise désormais principalement d’autres plateformes sociales.
Dans le second cas, un autre utilisateur de Facebook a publié une image du logo du parti politique Grecs pour la patrie, qui comprend également le mot grec qui se traduit par « Spartiates ».
Le parti Spartiates a été fondé en 2017 par Vasilis Stigkas et, selon l’European Center for Populism Studies, promeut une idéologie d’extrême droite et succède au parti Aube dorée. Les Spartiates ne se sont pas présentés aux élections de mai 2023, mais le parti a demandé à participer à la deuxième série d’élections en juin de la même année. La loi grecque exige que les partis politiques soumettent des demandes de participation aux élections parlementaires nationales, qui doivent ensuite être certifiées par un tribunal. Le 8 juin 2023, la Cour suprême grecque a rendu une décision autorisant 26 partis, quatre alliances et deux candidats indépendants à participer aux élections de juin 2023, y compris les Spartiates. M. Stigkas, qui a remporté l’un des 12 sièges pour le parti Spartiates (4,65 %), a déclaré que le soutien de M. Kasidiaris « a été le moteur de leur succès ».
L’espace civique en Grèce a été marqué par une augmentation des menaces et des attaques perpétrées par des groupes extrémistes et des particuliers, qui ciblent les droits humains des réfugiés, des migrants, des communautés LGBTQIA+ et des minorités religieuses. Les chercheurs en politique grecque, les défenseurs des droits humains et les ONG locales sont préoccupés par le fait que les groupes d’extrême droite, y compris ceux affiliés à l’Aube dorée, utilisent les principales plateformes de réseaux sociaux pour diffuser des informations erronées et des discours haineux, opérant activement en ligne et hors ligne, leur impact s’étendant au-delà de ce qui est visible sur des plateformes telles que Facebook (voir les commentaires publics, par exemple, PC-20017 du Réseau d’analyse de l’extrême droite).
Le rapport annuel Freedom in the World (2023) de Freedom House a classé la Grèce dans la catégorie Libre avec un score de 86/100, notant que l’environnement médiatique reste très libre et que les organisations non gouvernementales opèrent généralement sans interférence des autorités. Pourtant, des études récentes publiées par Reuters Institute for the Study of Journalism, International Press Institute et Incubator for Media Education and Development mettent en évidence une baisse significative de la confiance dans les médias grecs, en particulier dans les journalistes et les médias audiovisuels. Cela s’explique en grande partie par les inquiétudes concernant l’influence de la politique et des entreprises sur le journalisme, ainsi que par la diffusion en constante progression des médias en ligne. Ces études révèlent également des préoccupations concernant la manipulation de l’information, la censure et la diminution de l’indépendance des médias.
Les deux publications ont été signalées à Meta, qui, après examen manuel, a déterminé que le contenu dans les deux cas enfreignait le Standard de la communauté Facebook relatif auxpersonnes et organisations dangereuses. L’entreprise a appliqué une sanction sévère et une restriction de 30 jours aux deux comptes, les empêchant d’utiliser la vidéo en direct et les produits publicitaires, sans pour autant les suspendre. Les deux utilisateurs de Facebook qui avaient publié le contenu ont fait appel, mais Meta a de nouveau estimé que le contenu était en infraction. Les deux utilisateurs ont alors introduit séparément un recours auprès du Conseil.
3. Champ d’application et autorité du Conseil de surveillance
Le Conseil jouit de l’autorité nécessaire pour examiner la décision de Meta à la suite d’un appel interjeté par la personne dont le contenu a été supprimé (article 2, section 1 de la Charte ; article 3, section 1 des Statuts). Lorsque le Conseil identifie des affaires qui soulèvent des questions similaires, elles peuvent être assignées à un groupe de travail en vue d’une délibération conjointe. Une décision contraignante sera prise pour chaque contenu.
Le Conseil peut confirmer ou annuler la décision de Meta (article 3, section 5 de la Charte), et ce, de manière contraignante pour l’entreprise (article 4 de la Charte). Meta doit également évaluer la possibilité d’appliquer la décision à un contenu identique dans un contexte parallèle (article 4 de la Charte). Les décisions du Conseil peuvent inclure des recommandations non contraignantes auxquelles Meta doit répondre (article 3, section 4 de la Charte ; article 4 de la Charte). Lorsque Meta s’engage à donner suite aux recommandations, le Conseil surveille leur mise en œuvre.
4. Sources d’autorité et conseils
Les standards suivants et les précédents ont éclairé l’analyse du Conseil dans ce cas :
I. Décisions du Conseil de surveillance
- Discours d’un général brésilien
- Mention des talibans dans les informations d’actualité
- Publication partagée d’Al Jazeera
- Inquiétude pendjabie concernant le RSS en Inde
- Citation nazie
II. Règles de Meta relatives au contenu
La justification de la Politique pour le Standard de la communauté relatif aux personnes et organisations dangereuses explique ce qui suit : « afin d’éviter et d’empêcher tout danger réel » Meta n’« autorise pas les personnes et organisations qui revendiquent des objectifs violents ou qui sont impliqués dans des activités violentes » sur ses plateformes. Meta évalue « ces entités selon leur comportement en ligne et hors ligne, et plus particulièrement selon les liens qu’elles entretiennent avec la violence. »
Selon la justification de la Politique, les personnes et organisations désignées de niveau 1 du Standard de la communauté relatif aux personnes et organisations dangereuses se répartissent en trois catégories : les organisations terroristes, les organisations criminelles et les entités incitant à la haine. Le niveau 1 se concentre sur les entités engagées dans des actes de violence hors ligne graves, notamment « en organisant ou en prônant des actes de violence envers des civils, en déshumanisant ou en prônant à maintes reprises des actes de violence envers des personnes sur la base de caractéristiques protégées, ou en se livrant à des actes criminels systématiques. » La justification de la Politique indique que les désignations de niveau 1 donnent lieu à l’application la plus étendue, car Meta estime que ces entités ont « les liens les plus directs avec les préjudices hors ligne ».
Meta définit une « entité incitant à la haine » comme une « organisation ou personne qui propage et encourage la haine contre d’autres personnes sur la base de leurs caractéristiques protégées. » Meta indique que les activités de l’entité sont caractérisées « par au moins certains des comportements suivants : violence, rhétorique menaçante ou formes dangereuses de harcèlement visant des personnes sur la base de leurs caractéristiques protégées ; utilisation répétée de discours haineux ; représentation d’idéologies haineuses ou d’autres entités incitant à la haine désignées ; et/ou glorification ou soutien d’autres entités incitant à la haine ou idéologies haineuses désignées ».
En vertu du niveau 1 de la politique relative aux personnes et organisations dangereuses en vigueur en juin 2023, Meta n’autorisait pas « les dirigeants ou les membres éminents de ces organisations à avoir une présence sur la plateforme, les symboles qui les représentent à être utilisés sur la plateforme ou le contenu qui fait l’éloge de ces organisations ou de leurs actes ». À l’époque, le terme « éloge » était défini comme l’un des éléments suivants : « parler positivement d’une entité ou d’un évènement désigné » ou « s’aligner idéologiquement sur une entité ou un évènement désigné ». Suite aux mises à jour de décembre 2023 de la politique relative aux personnes et organisations dangereuses, l’entreprise supprime désormais « la glorification, le soutien et la représentation d’entités de niveau 1, de leurs dirigeants, fondateurs ou membres éminents, ainsi que les références ambiguës à ces entités. » Cela inclut « l’humour équivoque et les références positives ou sans légende qui ne glorifient pas les actes de violence ou de haine perpétrés par l’entité désignée. »
Meta exige des utilisateurs qu’ils précisent clairement leur intention lorsqu’ils partagent du contenu qui traite d’entités désignées ou de leurs activités. La politique relative aux personnes et organisations dangereuses permet aux utilisateurs de rendre compte, de discuter de manière neutre ou de condamner des organisations ou des personnes désignées ou leurs activités. Meta a mis à jour cette exception en août 2023 pour préciser que les utilisateurs peuvent partager du contenu faisant référence à des personnes et des organisations dangereuses ou à leurs activités dans le contexte d’un « discours social et politique ». Comme Meta l’a annoncé publiquement dans une publication de blog de la Salle de presse, l’exception actualisée du « discours social et politique » inclut le contenu partagé dans le contexte des élections.
L’analyse des politiques de contenu par le Conseil a été également éclairée par la valeur de Meta qu’est la « Liberté d’expression », que l’entreprise décrit comme « primordiale », ainsi que par sa valeur de « Sécurité ».
Tolérance d’intérêt médiatique
Meta définit la tolérance d’intérêt médiatique comme une exception à la politique générale qui peut être appliquée à tous les domaines des Standards de la communauté, y compris à la politique relative aux personnes et organisations dangereuses. Elle permet de maintenir sur la plateforme des contenus qui enfreignent la loi si l’intérêt public l’emporte sur le risque de préjudice. Selon Meta, de telles évaluations ne sont effectuées que dans de « rares cas », après que l’équipe chargée de la politique de contenu a été saisie. Cette équipe évalue si le contenu en question représente une menace imminente pour la santé ou la sécurité publique, ou s’il exprime une opinion actuellement débattue dans le cadre d’un processus politique. Cette évaluation tient compte des circonstances propres à chaque pays, et notamment du fait que des élections sont en cours. Bien que l’identité de l’orateur soit une considération pertinente, l’autorisation n’est pas limitée au contenu publié par les organes d’information.
III. Responsabilités de Meta en matière de droits humains
Les Principes directeurs relatifs aux entreprises et aux droits de l’homme des Nations Unies (PDNU), soutenus par le Conseil des droits de l’homme des Nations Unies en 2011, établissent un cadre de travail volontaire pour les responsabilités en matière de droits humains des entreprises privées. En 2021, Meta a annoncé l’entrée en vigueur de sa Politique relative aux droits humains au sein de l’entreprise, dans laquelle elle a réaffirmé son engagement à respecter les droits de l’homme conformément aux PDNU. En l’espèce, l’analyse du Conseil sur les responsabilités de Meta en matière de droits humains s’est appuyée sur les standards internationaux suivants :
- Les droits à la liberté d’opinion et d’expression : articles 19 et 20 du Pacte international relatif aux droits civils et politiques ( PIDCP), observation générale n° 34 du Comité des droits de l’homme, 2011 ; Déclaration commune sur la liberté d’expression et les élections à l’ère numérique, rapporteur spécial des Nations Unies sur la liberté d’opinion et d’expression, représentant de l’OSCE pour la liberté des médias et rapporteur spécial de l’OEA sur la liberté d’expression (2022) ; rapport du rapporteur spécial des Nations Unies sur la liberté d’opinion et d’expression, A/HRC/28/25 (2018).
- Le droit à la liberté d’association : article 22 du PIDCP ; rapports du rapporteur spécial des Nations Unies sur la liberté de réunion pacifique et d’association, A/68/299 (2013), A/HRC/26/30 (2014) ;
- Le droit à la vie : article 6 du PIDCP ;
- Le droit de participer aux affaires publiques et le droit de vote : article 25 du PIDCP ;
- Le droit à la non-discrimination : articles 2 et 26 du PIDCP ;
- Le droit de ne pas être soumis à la torture ou à des traitements inhumains ou dégradants : article 7 du PIDCP ;
- L’interdiction de la destruction des droits : article 5 du PIDCP ; article 30 de la DUDH.
5. Soumissions de l’utilisateur
L’auteur de chaque publication dans ces deux cas a fait appel de la décision de Meta de supprimer son contenu auprès du Conseil.
Dans ses observations au Conseil, l’utilisateur du premier cas a déclaré être un candidat d’un parti politique grec légitime participant aux élections législatives grecques et a noté qu’en raison de la pénalité appliquée à son compte, il ne pouvait pas gérer sa page Facebook.
L’utilisateur du second cas a affirmé qu’il avait partagé le logo du parti Spartiates, et a exprimé sa surprise quant à la suppression de sa publication.
6. Soumissions de Meta
Meta a expliqué au Conseil que les décisions de supprimer le contenu dans les deux cas étaient fondées sur son Standard de la communauté relatif aux personnes et organisations dangereuses.
Meta a informé le Conseil que l’Aube dorée, le parti Grecs pour la patrie et M. Kasidiaris sont désignés comme des organisations incitant à la haine de niveau 1 et comme une personne incitant à la haine de niveau 1 respectivement. La désignation du parti Grecs pour la patrie a eu lieu le 5 mai 2023. En réponse aux questions du Conseil, Meta a indiqué que l’entreprise désignait les entités dans le cadre d’un processus indépendant basé sur un ensemble de signaux de désignation.
Meta a déclaré que l’utilisateur de Facebook dans le premier cas a fait l’éloge d’une entité désignée en parlant positivement de M. Kasidiaris. L’expression d’un « alignement idéologique » a été citée comme un exemple d’éloges interdits. Meta a expliqué que la légende de la publication indiquait que l’utilisateur distribuait des tracts pour soutenir sa propre campagne parlementaire et son propre parti, les Spartiates. Toutefois, le tract indiquait également que M. Kasidiaris « soutient le parti Spartiates », soulignant explicitement que M. Kasidiaris, une personne désignée, avait soutenu le parti politique de l’utilisateur. Pour Meta, cet utilisateur s’est publiquement aligné sur l’idéologie de M. Kasidiaris en lui apportant son soutien. Meta a informé le Conseil qu’à la suite de la mise à jour de décembre 2023 de la politique relative aux personnes et organisations dangereuses, la publication dans le premier cas enfreindrait la règle interdisant les « références positives qui ne glorifient pas la violence ou la haine de l’entité désignée ». La publication ne contenait aucune glorification explicite de M. Kasidiaris ou de ses activités violentes ou haineuses.
Dans le second cas, Meta a considéré que le partage du logo du parti Grecs pour la patrie était un éloge du parti, qui est une entité désignée, sans aucune légende explicative, et a donc supprimé le contenu. Meta a informé le Conseil que, suite à la mise à jour de décembre 2023 de la politique relative aux personnes et organisations dangereuses, la publication dans le second cas serait supprimée car l’utilisateur a partagé une référence (un symbole) du parti Grecs pour la patrie sans légende explicative, bien que cette publication ne contienne aucune glorification explicite de M. Kasidiaris ou de ses activités violentes ou haineuses.
Meta a constaté qu’aucune des deux publications n’aurait bénéficié de l’exception relative aux personnes et organisations dangereuses alors en vigueur en juin 2023, car aucun des deux utilisateurs n’a clairement indiqué son intention de « faire état, discuter de manière neutre ou condamner » une entité désignée ou ses actions.
Selon Meta, cela est resté le cas après les modifications apportées à cette exception en août 2023, qui ont reformulé l’exception comme autorisant le « discours social et politique ». En réponse aux questions du Conseil, Meta a déclaré que l’exception relative au « discours social et politique » a été introduite pour autoriser certains types de « contenu comportant un contexte explicite relatif à un ensemble de catégories définies telles que les élections », qu’elle aurait auparavant supprimés en vertu de la politique. Lorsqu’une entité désignée est officiellement enregistrée et inscrite dans un processus électoral formel, Meta craint que la suppression de tout éloge ou toute référence à l’entité ne restreigne indûment la capacité des personnes à discuter de l’élection et des candidats. Toutefois, l’exception n’a jamais été destinée à englober un soutien substantiel tel que la fourniture d’un avantage opérationnel ou stratégique tangible à une entité désignée en distribuant du matériel de campagne officiel, de la propagande officielle ou en autorisant des canaux de communication officiels en leur nom.
En réponse à une question du Conseil, Meta a expliqué que l’exception relative au discours social et politique tente de trouver un équilibre entre l’autorisation de discuter des entités désignées participant à une élection et la préservation de la sécurité en supprimant le soutien substantiel ou la glorification de ces entités. Meta a noté qu’elle a intentionnellement concentré la tolérance sur les entités qui sont enregistrées et formellement inscrites dans le processus électoral. En effet, la tolérance vise à permettre la discussion sur les candidats en lice, tout en supprimant la glorification de la haine ou de la violence d’une entité désignée ou en apportant un soutien substantiel à une entité désignée. Meta a ajouté que « l’objectif de la création de cette tolérance était de permettre aux utilisateurs d’exprimer leur opinion sur leurs préférences électorales si l’entité désignée se présentait aux élections, et non de permettre aux entités désignées de contourner les processus électoraux existants et l’application de la politique par l’entreprise pour partager leurs agendas ».
Dans le second cas, Meta a conclu que l’exception relative au discours social et politique prévue par sa politique actualisée ne s’appliquait pas, car le partage d’un symbole ou d’un logo du parti Grecs pour la patrie accompagné d’un texte identifiant les Spartiates, sans commentaire supplémentaire (par exemple, une légende condamnant ou discutant de manière neutre du parti Grecs pour la patrie), n’indique pas clairement l’intention de l’utilisateur. En outre, l’exception ne s’appliquait pas non plus dans le second cas, car le parti Grecs pour la patrie, une entité désignée, n’a pas été autorisé à participer aux élections grecques.
Le Conseil a posé cinq questions par écrit à Meta. Les questions portaient sur l’application de la tolérance de Meta pour le « discours social et politique » dans le cadre de la politique relative aux personnes et organisations dangereuses, la transparence du processus de désignation et la liste des entités désignées dans le cadre de cette politique. Meta a répondu aux cinq questions.
7. Commentaires publics
Le Conseil de surveillance a reçu 15 commentaires publics répondant aux critères de soumission. Treize ont été soumis par l’Europe et deux par les États-Unis et le Canada. Pour consulter les commentaires publics soumis accompagnés d’un consentement à la publication, cliquez ici.
Les soumissions ont porté sur les thèmes suivants : le contexte politique en Grèce, y compris la discussion sur les partis politiques grecs ; les élections de 2023 en Grèce et l’impact des réseaux sociaux sur les résultats électoraux ; les groupes d’extrême droite et extrémistes en Grèce et dans d’autres pays européens, et leur utilisation des plateformes de réseaux sociaux ; les amendements législatifs récents en Grèce et leur impact sur les élections de 2023 ; et l’importance de la transparence des listes d’entités dans le cadre de la politique de Meta sur les personnes et organisations dangereuses.
8. Analyse du Conseil de surveillance
Le Conseil a sélectionné ces cas pour évaluer l’impact du Standard de la communauté relatif aux personnes et organisations dangereuses de Meta sur la liberté d’expression et la participation politique, notamment en période d’élections lorsque des entités désignées et des personnes qui y sont associées peuvent prendre part au discours politique. Ces cas s’inscrivent dans le cadre des priorités stratégiques du Conseil, à savoir les élections et l’espace civique, ainsi que le discours haineux à l’encontre des groupes marginalisés. Le Conseil a examiné si ce contenu devait être restauré en analysant les politiques de contenu de Meta, ses responsabilités en matière de droits humains et ses valeurs.
8.1 Respect des politiques relatives au contenu de Meta
Le Conseil confirme les décisions de Meta de supprimer le contenu dans les deux cas.
Premier cas : Tract de campagne d’un candidat aux élections
Le Conseil note que l’engagement de Meta envers la liberté d’expression est primordial et revêt une importance accrue dans les contextes électoraux. Le Conseil souligne que pour permettre aux électeurs d’avoir accès à des informations aussi complètes que possible pour exercer leur droit de vote, Meta doit permettre un débat public entre les électeurs, les candidats et les partis sur les activités des entités désignées.
Le Conseil estime que cette publication tombait sous le coup de l’interdiction de Meta de « faire l’éloge » d’une entité désignée qui était en vigueur en juin 2023 parce que l’utilisateur s’alignait idéologiquement sur M. Kasidiaris, une personne incitant à la haine désignée de niveau 1 de la politique relative aux personnes et organisations dangereuses. Cela a été clairement décrit dans le Standard de la communauté concerné comme un comportement que Meta considère comme un exemple d’« éloge » interdit. À la suite des modifications apportées à la politique le 30 décembre 2023, le contenu tomberait sous le coup de l’interdiction des références positives à une entité désignée qui ne glorifient pas la violence ou la haine de l’entité désignée.
Pour une minorité de membres du Conseil, l’application de la règle sur l’alignement idéologique n’était pas explicite, car M. Kasidiaris soutenait (c’est-à-dire « faisait l’éloge » ou « faisait référence ») l’utilisateur, plutôt que l’inverse. Il faut en déduire que l’utilisateur le soutenait à son tour et qu’il était donc en contradiction avec la politique de Meta en matière d’alignement idéologique.
Une minorité du Conseil considère que, bien que cette publication ait enfreint la politique relative aux personnes et organisations dangereuses et ne relève d’aucune exception en vigueur en juin 2023, Meta aurait dû appliquer sa tolérance d’intérêt médiatique pour conserver ce contenu sur la plateforme, étant donné que l’intérêt public de cette publication l’emportait sur le risque de préjudice. La publication informait directement les électeurs du soutien apporté par un criminel condamné à un candidat, ce qui est une information pertinente et précieuse dans le contexte électoral, en particulier lors de la deuxième série d’élections, compte tenu de la participation d’un nouveau parti. Ces membres du Conseil notent qu’à la suite des mises à jour d’août 2023 de la politique relative aux personnes et organisations dangereuses, dans le cadre de l’exception relative au « discours social et politique », Meta devrait permettre aux candidats légitimes aux élections d’exprimer en termes neutres leur alignement idéologique sur des entités désignées, sous réserve qu’aucun discours haineux ni qu’aucune incitation à des dommages spécifiques ne soit proférés. Cela permettra aux électeurs de disposer d’informations aussi complètes que possible pour prendre leur décision.
Second cas : Le logo du parti Grecs pour la patrie et slogan « Spartiates »
La majorité des membres du Conseil a estimé que le contenu enfreignait le Standard de la communauté relatif aux personnes et organisations dangereuses, car il partageait un symbole du parti Grecs pour la patrie, qui est une entité incitant à la haine désignée.
Cette publication ne relève pas de l’exception de la politique, en vigueur en juin 2023, car rien n’indique que l’utilisateur avait l’intention de faire figurer le logo du parti Grecs pour la patrie à côté du nom d’un parti légal, les Spartiates, pour « rendre compte, discuter de manière neutre ou condamner » le parti Grecs pour la patrie ou ses activités. La majorité du Conseil distingue ces publications du contenu du cas Citation nazie, dans lequel des indices contextuels ont permis au Conseil de conclure que la publication de l’utilisateur discutait de manière neutre d’une entité incitant à la haine désignée. Dans ce cas, l’utilisateur faisait référence à une citation d’un personnage historique connu qui ne montrait pas d’alignement idéologique avec la personne, mais tentait d’établir des « comparaisons entre la présidence de Donald Trump et le régime nazi ». Un tel contexte n’existe pas en l’espèce. Suite aux changements de politique du 30 décembre 2023, le contenu de ce cas serait supprimé pour avoir partagé une référence (symbole) d’une entité désignée sans légende explicative.
Une minorité du Conseil considère que cette publication ne devrait pas être considéré comme une infraction à la politique relative aux personnes et organisations dangereuses. Cette minorité note que le simple partage de logos associés à une entité désignée, en l’absence d’autres infractions ou d’un contexte d’intention préjudiciable, devrait être autorisé sur la plateforme.
8.2 Respect des responsabilités de Meta en matière des droits humains
Le Conseil estime que les décisions de Meta de supprimer le contenu dans les deux cas étaient conformes à ses responsabilités en matière de droits humains.
Liberté d’expression (article 19 du PIDCP)
L’article 19 (2) du PIDCP prévoit une large protection de l’expression, y compris la « liberté de rechercher, de recevoir et de répandre des informations et des idées de toute espèce ». L’expression protégée comprend le « discours politique », le « commentaire sur les affaires publiques » et l’expression qui peut être considérée comme « profondément offensante » ( observation générale n° 34 (2011), paragraphe 11). Dans un contexte électoral, le droit à la liberté d’expression couvre également l’accès aux sources de commentaires politiques, y compris les médias locaux et internationaux, et « l’accès des partis et des personnalités politiques de l’opposition aux médias » ( observation générale n° 34 (2011), paragraphe 37).
Lorsque des limitations de la liberté d’expression sont imposées par un État, elles doivent remplir des critères de légalité, d’objectif légitime, et de nécessité et de proportionnalité (article 19, paragraphe 3 du PIDCP). Ces exigences sont souvent reprises sous intitulé « test tripartite ». Le Conseil utilise ce cadre pour interpréter les engagements volontaires de Meta en matière de droits humains, à la fois pour la décision relative au contenu individuel en cours d’examen et pour ce que cela dit de l’approche plus large de Meta en matière de gouvernance du contenu. Comme l’a déclaré le rapporteur spécial des Nations Unies sur la liberté d’expression disant que même si « les entreprises ne sont pas soumises aux mêmes devoirs que les gouvernements, leur influence est néanmoins telle qu’elle doit les inciter à se poser les mêmes questions qu’eux quant à la protection de la liberté d’expression de leurs utilisateurs » (rapport A/74/486, paragraphe 41).
I. Légalité (clarté et accessibilité des règles)
Le principe de légalité consacré par la législation internationale des droits de l’homme exige que les règles utilisées pour limiter la liberté d’expression soient claires et accessibles (observation générale n° 34, paragraphe 25). Les restrictions à l’expression doivent être formulées avec suffisamment de précision pour permettre aux individus d’adapter leur conduite en conséquence (Ibid). En ce qui concerne Meta, l’entreprise doit fournir des indications aux utilisateurs sur les contenus autorisés ou non sur la plateforme. En outre, les règles limitant la liberté d’expression « ne peuvent pas conférer un pouvoir discrétionnaire illimité aux personnes qui sont chargées de [leur] application » et doivent « énoncer des règles suffisamment précises pour permettre aux personnes chargées de leur application de déterminer quelles formes d’expression sont légitimement restreintes et quelles formes ne le sont pas » ( A/HRC/38/35, paragraphe 46).
Pour le premier cas, le Conseil note que les exemples d’« éloges » ont été ajoutés au langage public de la politique relative aux personnes et organisations dangereuses en réponse à la recommandation n° 2 du Conseil dans le cas de la citation nazie. L’exemple explicite de l’interdiction de « s’aligner idéologiquement sur une entité ou un évènement désigné » a rendu la règle de Meta suffisamment claire et accessible pour l’utilisateur dans le premier cas et pour les équipes d’examen de contenu appliquant la règle. Le Conseil note que cet exemple a été supprimé dans la mise à jour de décembre 2023.
En ce qui concerne le second cas, le Conseil convient que la politique de Meta interdisant le partage des symboles des entités désignées, à moins que l’utilisateur n’indique clairement son intention de faire état des entités désignées, d’en discuter de manière neutre ou de les condamner, est suffisamment claire et répond au critère de légalité. Le Conseil estime en outre que, appliquée au second cas, l’exception de la politique concernant les personnes et organisations dangereuses, avant et après les révisions d’août 2023, satisfait au critère de légalité.
Le Conseil est néanmoins préoccupé par le manque de transparence concernant la désignation des entités incitant à la haine et des entités de niveau 1 de la politique relative aux personnes et organisations dangereuses. Il est donc difficile pour les utilisateurs de comprendre quelles sont les entités avec lesquelles ils sont autorisés ou non à exprimer un alignement idéologique ou celles dont ils peuvent partager les symboles.
Les organisations terroristes de niveau 1 comprennent les entités et les personnes désignées que les États-Unis nomment Foreign Terrorist Organizations (FTO) (organisations terroristes étrangères) ou Specially Designated Global Terrorists (SDGT) (terroristes internationaux spécialement désignés), et les organisations criminelles, celles que les États-Unis nomment Specially Designated Narcotics Trafficking Kingpins (SDNTK) (c’est-à-dire les plaques tournantes du trafic de drogues). Les États-Unis publient des listes de FTO, SDGT et SDNTK, qui correspondent au moins à certaines des désignations de personnes et d’organisations dangereuses de Meta. Toutefois, la liste complète des « entités incitant à la haine » de niveau 1 de Meta n’est pas basée sur une liste publique équivalente aux États-Unis. Le Conseil a demandé la transparence de la liste des entités de niveau 1 dans le cas de la citation nazie, ce que Meta a refusé de faire pour des « raisons de sécurité ».
En réponse à la recommandation n° 1 dans le cas de la Publication partagée d’Al Jazeera, suite à la mise à jour d’août 2023, la formulation publique de la politique de Meta relative aux personnes et organisations dangereuses a été complétée par plusieurs exemples d’application de l’exception. Le Conseil estime que le champ d’application de l’exception actualisée n’est pas clair pour les utilisateurs, car aucun des exemples n’illustre l’application de l’exception de la politique dans le contexte des élections. Dans un contexte de rétrécissement de l’espace civique et de menaces sur la liberté des médias au niveau mondial, les plateformes de réseaux sociaux constituent une source d’information inestimable. Compte tenu de l’incertitude quant au champ d’application de l’exception de la politique mise à jour en période électorale, les utilisateurs dans ces contextes pourraient ne pas savoir quels types de discussions ils peuvent engager sur les candidats aux élections et leurs partisans, qui peuvent également être des entités désignées de niveau 1.
Le Conseil estime que l’interdiction émise par Meta des « éloges » sous forme d’alignement idéologique ainsi que l’interdiction de partager les symboles d’entités désignées, en vigueur en juin 2023, satisfont au critère de légalité. Toutefois, l’étendue du « discours social et politique » sur les entités désignées autorisé dans le contexte électoral doit être clarifiée.
II. Objectif légitime
Les restrictions à la liberté d’expression doivent poursuivre un objectif légitime, notamment la protection des droits d’autrui et la protection de l’ordre public et de la sécurité nationale.
Selon la justification de la politique, la politique de Meta relative aux personnes et organisations dangereuses vise à « prévenir et arrêter les dommages dans le monde réel ». Dans plusieurs décisions, le Conseil a estimé que la politique de Meta relative aux personnes et organisations dangereuses poursuivait l’objectif légitime de protéger les droits d’autrui (voir Citation nazie ; Mention des talibans dans les informations d’actualité ;Inquiétude pendjabie concernant le RSS en Inde Le Conseil estime que dans ces deux cas, la politique de Meta poursuit un objectif légitime de protection des droits d’autrui, tels que le droit à la non-discrimination et à l’égalité (PIDCP, articles 2 et 26), le droit à la vie (PIDCP, article 6), l’interdiction de la torture et des traitements inhumains et dégradants (PIDCP, article 7), et le droit de participer aux affaires publiques et le droit de vote (PIDCP, article 25).
III. Nécessité et proportionnalité
Le principe de nécessité et de proportionnalité stipule que les restrictions de la liberté d’expression « doivent être appropriées pour remplir leur fonction de protection ; elles doivent constituer le moyen le moins perturbateur parmi ceux qui pourraient permettre d’obtenir le résultat recherché » [et] « elles doivent être proportionnées à l’intérêt à protéger » (observation générale n° 34, paragraphes 33 et 34).
Les élections sont cruciales pour la démocratie, et le Conseil reconnaît que les plateformes de Meta sont devenues un support pratiquement indispensable dans la plupart des régions du monde pour le discours politique, en particulier en période électorale. Étant donné sa relation étroite avec la démocratie, le discours politique « bénéficie d’un niveau de protection accru » (observation générale n° 37, paragraphes 19 et 32). Les mandats internationaux en matière de liberté d’expression ont noté que « les médias et les plateformes numériques devraient faire un effort raisonnable pour adopter des mesures permettant aux utilisateurs d’accéder à une diversité d’opinions et de perspectives politiques » ( Déclaration commune 2022). Le rapporteur spécial des Nations Unies sur la liberté de réunion pacifique et d’association a déclaré que « la liberté d’expression et d’opinion des partis politiques, en particulier dans le cadre des campagnes électorales, y compris le droit de rechercher, de recevoir et de diffuser des informations, est, en tant que telle, essentielle à l’intégrité des élections » ( A/68/299, au paragraphe 38 [2013]).
Toutefois, pour atténuer les effets négatifs sur les droits humains, il est essentiel de faire la distinction entre le discours politique protégé et l’expression politique qui peut être restreinte parce qu’elle est susceptible de causer un préjudice supplémentaire. À cet égard, comme l’a noté le Conseil, Meta a la responsabilité d’identifier, de prévenir, d’atténuer et de rendre compte des incidences négatives sur les droits humains de l’utilisation de ses plateformes (PDNU, principe 17).
Le rapporteur spécial des Nations Unies sur la liberté de réunion pacifique et d’association a souligné qu’un parti politique ou l’un de ses candidats peuvent être légalement interdits s’ils « utilisent la violence ou prônent la violence ou la haine nationale, raciale ou religieuse constituant une incitation à la discrimination, à l’hostilité ou à la violence » (PIDCP, article 20, Convention internationale sur l’élimination de toutes les formes de discrimination raciale, article 5). Toute restriction en vertu de l’article 20 du PIDCP et de l’article 5 de la Convention internationale sur l’élimination de toutes les formes de discrimination raciale doit satisfaire aux normes de nécessité et de proportionnalité prévues à l’article 19, paragraphe 3 du PIDCP (observation générale n° 34, paragraphes 50 à 52 ; CERD/C/GC/35, paragraphes 24-25).
Premier cas : Tract de campagne d’un candidat aux élections
La majorité des membres du Conseil considère que la décision de Meta de supprimer la première publication dans le cadre de sa politique relative aux personnes et organisations dangereuses satisfait aux principes de nécessité et de proportionnalité. La majorité des membres reconnaît l’importance de la liberté d’expression pendant les élections, y compris le droit des utilisateurs à partager et à recevoir des informations. Cependant, ces membres du Conseil estiment que Meta a eu raison de supprimer la publication d’un candidat électoral exprimant un alignement idéologique avec une personne désignée comme incitant à la haine. Cette interdiction, associée à la possibilité pour les utilisateurs de « faire état, discuter de manière neutre ou condamner » les entités désignées ou leurs activités, y compris les soutiens de ce type pendant les élections, est conforme aux engagements de Meta en matière de droits humains.
Dans le cas présent, ces membres du Conseil comprennent que la suppression de la publication de la plateforme Meta n’a pas restreint de manière disproportionnée le droit du public à connaître les informations qu’il contient. Étant donné que de nombreux médias locaux et régionaux ont fait état du soutien de l’entité désignée, condamnée pour avoir dirigé une organisation criminelle liée à des crimes de haine, le public a eu d’autres occasions d’être informé de cette expression de soutien au parti du candidat. Ces reportages auraient pu bénéficier de l’exception de la politique, qui permet des discussions licites dans des contextes électoraux, sans causer de préjudice réel.
La responsabilité de Meta en matière de prévention, d’atténuation et de traitement des incidences négatives sur les droits humains est accrue dans les contextes électoraux et autres contextes à haut risque, et exige de l’entreprise qu’elle établisse des garde-fous efficaces pour s’en prémunir. Meta a la responsabilité de permettre l’expression politique et d’éviter les risques sérieux pour les autres droits humains. Compte tenu du risque potentiel d’utilisation de ses plateformes pour inciter à la violence lors d’élections, Meta devrait veiller en permanence à l’efficacité de ses efforts en matière d’intégrité des élections (voir Discours d’un général brésilien). Au vu des nombreuses élections qui se déroulent dans le monde, il est impératif que Meta applique scrupuleusement la politique relative aux personnes et organisations dangereuses, et en particulier son exception actualisée dans les contextes électoraux.
Pour certains membres du Conseil, l’affichage par un candidat légitime du soutien offert par une entité désignée de niveau 1 n’est pas une information sur le programme du candidat, mais un acte d’association avec un parti interdit. Ces publications peuvent être utilisées pour contourner l’interdiction émise par Meta aux entités désignées de niveau 1 d’utiliser ses services et pour nuire au processus démocratique (PIDCP, article 5). En outre, dans le cas présent, le public a eu suffisamment d’occasions de s’informer sur les alliances existantes, la suppression de la publication du candidat n’était donc pas disproportionnée.
Pour une minorité des membres du Conseil, la suppression du contenu dans le premier cas a porté atteinte de manière disproportionnée aux droits des utilisateurs de partager et de recevoir des informations pendant une élection. Ces membres du Conseil soulignent que « l’engagement de Meta en faveur de la liberté d’expression est primordial » et que, dans ce cas, l’entreprise a commis une erreur en donnant la priorité à la sécurité plutôt qu’à la liberté d’expression. L’électorat doit avoir accès à des informations sur les candidats et leurs activités, et un parti qui a été autorisé par la Cour suprême grecque à participer à une élection doit également avoir la plus grande latitude quant aux informations que ses candidats peuvent publier. Dans ce cas, les Spartiates étant un parti plus récent, il se peut que les électeurs ne le connaissent pas encore très bien.
En même temps, étant donné les rapports sur la baisse de confiance envers les médias en Grèce (voir section 2 ci-dessus), les électeurs devraient avoir la possibilité d’entendre directement les candidats légaux. Cela est particulièrement nécessaire lorsque les candidats ou leurs partis reçoivent le soutien ou l’allégeance d’entités disqualifiées aux élections ou de celles qui peuvent être désignées dans le cadre de la politique relative aux personnes et organisations dangereuses.
Ces membres du Conseil notent qu’une plateforme de réseaux sociaux ne doit pas devenir l’arbitre de ce que les électeurs sont ou ne sont pas autorisés à savoir au sujet d’un candidat ou d’un parti. Ils considèrent qu’étant donné l’importance du contexte électoral, la suppression du contenu dans le premier cas n’était pas le moyen le moins intrusif et constituait une restriction disproportionnée du discours du candidat et du droit d’accès à l’information de l’électorat. Au contraire, conformément aux valeurs de Meta et à ses engagements en matière de droits humains, l’entreprise aurait dû conserver la publication dans le cadre de sa tolérance d’intérêt médiatique. Étant donné que le contenu était une publication électorale d’un candidat légitime informant directement l’électorat de sa campagne et du soutien de M. Kasidiaris, publié pendant les élections en Grèce, l’intérêt du public à en savoir plus sur les partis et les candidats l’a emporté sur le risque de préjudice.
Second cas : Le logo du parti Grecs pour la patrie et slogan « Spartiates »
Dans le second cas, la majorité des membres du Conseil a estimé que la suppression du contenu par Meta était nécessaire et proportionnée car la publication partageait un symbole d’une entité incitant à la haine désignée. En l’absence d’indices contextuels indiquant que le contenu a été partagé pour rendre compte, discuter de manière neutre ou condamner une entité désignée, la suppression était justifiée.
Une minorité du Conseil considère que Meta a commis une erreur en supprimant ce contenu. Cette minorité note qu’une analyse contextuelle est nécessaire pour déterminer si le contenu est préjudiciable. La suppression d’une publication partageant simplement le symbole d’une entité désignée, sans aucune indication d’incitation à la violence ou d’action illégale, est disproportionnée et ne peut constituer le moyen le moins intrusif de se protéger contre les préjudices.
9. Décision du Conseil de surveillance
Le Conseil de surveillance confirme la décision de Meta de retirer les publications dans les deux cas.
10. Recommandations
Politique de contenu
1. Pour plus de clarté pour les utilisateurs, Meta devrait préciser le champ d’application de l’exception prévue par le Standard de la communauté relatif aux personnes et organisations dangereuses, qui autorise le partage de contenu « faisant état, discutant de manière neutre ou condamnant des personnes et organisations dangereuses ou leurs activités » dans le cadre d’un « discours social et politique ». En particulier, Meta devrait clarifier la manière dont cette exception de la politique s’applique aux contenus liés aux élections.
Le Conseil considérera que cette recommandation a été mise en œuvre lorsque Meta aura clarifié son Standard de la communauté.
* Note de procédure :
Les décisions du Conseil de surveillance sont préparées par des panels de 5 membres et approuvées par une majorité du Conseil. Les décisions du Conseil ne représentent pas nécessairement les opinions personnelles de tous les membres.
Pour cette décision, des recherches indépendantes ont été commandées au nom du Conseil. Le Conseil était assisté d’un institut de recherche indépendant, dont le siège se trouve à l’université de Göteborg. Il avait mobilisé une équipe de plus de 50 experts en sciences sociales sur 6 continents ainsi que 3 200 experts nationaux du monde entier. Le Conseil a également bénéficié de l’aide de Duco Advisors, une société de conseil spécialisée dans la géopolitique, la confiance et la sécurité, ainsi que la technologie. Memetica, une organisation qui effectue des recherches open source sur les tendances des réseaux sociaux, a également fourni une analyse.
Retour aux décisions de cas et aux avis consultatifs politiques