Confirmé

Commentaires d’une personnalité politique sur des changements démographiques

Le Conseil de surveillance a confirmé la décision de Meta de conserver un vidéo-clip dans lequel Éric Zemmour, un homme politique français, discute des changements démographiques en Europe et en Afrique.

Type de décision

Standard

Politiques et sujets

Sujet
Liberté d’expression

Régions/Pays

Emplacement
Allemagne, Belgique, France

Plate-forme

Plate-forme
Facebook

Résumé

Le Conseil de surveillance a confirmé la décision de Meta de conserver un vidéo-clip dans lequel Éric Zemmour, un homme politique français, discute des changements démographiques en Europe et en Afrique. Le contenu n’enfreint pas le standard de l’entreprise sur les discours haineux puisqu’il n’attaque pas directement les personnes sur la base d’une caractéristique protégée comme l’origine ethnique ou nationale. La majorité du Conseil estime qu’en conservant le contenu, Meta fait preuve de cohérence avec les responsabilités en matière des droits humains qui lui incombent. Le Conseil recommande néanmoins à Meta de clarifier publiquement comment elle distingue les discussions sur le thème de l’immigration des discours dangereux, y compris des théories du complot haineuses qui ciblent certaines personnes sur la base de leur statut d’immigrées.

À propos du cas

En juillet 2023, un vidéo-clip dans lequel Éric Zemmour, un homme politique français, discute des changements démographiques en Europe et en Afrique a été publié sur sa page Facebook officielle par l’admin de la page. Le clip est extrait d’une vidéo d’une interview avec Zemmour. Dans cette vidéo, il déclare : « Since the start of the 20th century, there has been a population explosion in Africa. » (Depuis le début du 20e siècle, l’Afrique connaît une explosion démographique.) Il poursuit en disant que, à l’inverse de la population européenne qui s’est stabilisée autour des 400 millions d’individus, la population africaine a augmenté pour atteindre 1,5 milliard de personnes « so the power balance has shifted » (de sorte que le rapport de forces s’est inversé). La légende de la publication, en français, indique que dans les années 1900, « when there were four Europeans for one African, [Europe] colonized Africa » (quand il y avait quatre Européens pour chaque Africain, [l’Europe] a colonisé l’Afrique) et que, désormais, « there are four Africans for one European and Africa colonizes Europe » (il y a quatre Africains pour chaque Européen, et l’Afrique colonise l’Europe). La page Facebook de Zemmour est suivie par 300 000 followers, et cette publication a été vue quelque 40 000 fois en six mois.

Zemmour a fait l’objet de plusieurs poursuites judiciaires et a été reconnu coupable à plusieurs reprises en France pour incitation à la haine raciale et ses commentaires racistes sur les personnes musulmanes, africaines et noires. Il était candidat à l’élection présidentielle de 2022, mais n’a pas été au-delà du premier tour. Sa campagne électorale était axée sur la théorie du grand remplacement, selon laquelle les populations européennes blanches sont délibérément remplacées ethniquement et culturellement en raison des flux migratoires et de l’élargissement des communautés minoritaires. Les linguistes soulignent que cette théorie et les termes qui y sont associés « incitent au racisme, à la haine et à la violence envers les personnes immigrantes et européennes non blanches, et qu’ils visent tout particulièrement les personnes musulmanes ». L’extrait vidéo repris dans la publication ne mentionne pas spécifiquement la théorie.

Deux personnes ont signalé le contenu pour infraction à la politique de Meta sur les discours haineux, mais comme l’examen de ces signalements n’a pas été considéré comme une priorité pendant 48 heures, ils ont tous les deux été automatiquement classés sans suite. Les systèmes automatisés de Meta accordent la priorité à certains signalements en fonction de la gravité de l’infraction présumée, de la viralité du contenu (nombre de vues) et de la probabilité qu’une infraction ait été effectivement commise. L’une des deux personnes a ensuite fait appel auprès de Meta, à la suite de quoi un membre des équipes d’examen manuel de l’entreprise a décidé que le contenu n’enfreignait pas les règles de Meta. Cette personne a alors fait appel auprès du Conseil.

Principales observations

La majorité du Conseil a conclu que le contenu n’enfreignait pas le standard de la communauté de Meta sur les discours haineux. Le vidéo-clip contient un exemple d’opinion protégée (bien que controversée) sur l’immigration ; il ne contient aucun appel à la violation et n’a pas directement recours à des termes déshumanisants ou haineux pour qualifier des groupes vulnérables. Bien que Zemmour ait été poursuivi pour son utilisation de termes haineux par le passé et que les thèmes de cette vidéo fassent penser à la théorie du grand remplacement, ces faits ne justifient pas la suppression d’une publication qui n’enfreint pas les standards de Meta.

Pour qu’il y ait une infraction, la publication aurait dû inclure une « attaque directe », un appel spécifique « à l’exclusion ou à la ségrégation » d’un groupe « à caractéristique protégée ». Puisque les commentaires de Zemmour n’attaquaient personne directement, qu’ils n’appelaient pas explicitement à exclure un quelconque groupe d’Europe et qu’ils ne comportaient aucune déclaration sur les personnes africaines assimilable à un stéréotype nuisible, à une insulte ou à un autre type d’attaque directe, ils n’enfreignaient pas la politique de Meta sur les discours haineux. En outre, la justification de la politique indique clairement que Meta autorise « les commentaires et les critiques sur les politiques d’immigration », bien que l’entreprise n’ait pas défini publiquement ce qu’elle considérait comme des appels à l’exclusion lors de discussions sur les politiques d’immigration.

Toutefois, le Conseil s’inquiète de constater que Meta ne considère pas les personnes africaines comme un groupe à caractéristiques protégées, compte tenu du fait que l’origine ethnique et la religion sont toutes deux protégées au titre des politiques de Meta et des lois internationales sur les droits humains. Les personnes africaines sont mentionnées tout au long de la vidéo, où ce terme sert surtout à désigner les personnes africaines non blanches.

Le Conseil a également évalué la pertinence de la politique sur les organismes et les individus dangereux dans ce cas-ci. Toutefois, la majorité des membres ont estimé que la publication n’enfreignait pas ce standard-là parce qu’elle ne comportait pas suffisamment d’éléments pointant vers un réseau conspirationniste incitant à la violence. Meta définit ces réseaux comme des acteurs non étatiques qui partagent les mêmes objectifs avoués, qui avancent des théories sans fondement selon lesquelles des théories du complot fomenté par de puissants acteurs sont la cause de problèmes sociaux et politiques, et qui sont directement liés à une série de préjudices hors ligne.

Une minorité du Conseil pense qu’en ce qui concerne les contenus qui propagent des théories du complot préjudiciables, l’approche de Meta n’est pas cohérente avec les objectifs poursuivis par les politiques qu’elle a élaborées pour prévenir la création d’un climat d’exclusion qui touche les minorités protégées, aussi bien en ligne qu’en dehors. En vertu de ces politiques, les contenus qui impliquent d’autres théories du complot sont modérés afin de protéger les groupes minoritaires menacés. Bien que les membres du Conseil estiment que les problématiques comme l’immigration doivent pouvoir être critiquées, c’est justement l’importance des discussions argumentées de manière objective sur le sujet qui rend dangereuse la propagation des théories du complot telles que la théorie du grand remplacement. Ce ne sont pas les contenus isolés, mais bien les effets combinés de ces contenus partagés à grande échelle et à grande vitesse qui représentent le plus gros défi lancé aux plateformes de réseaux sociaux. En conséquence, Meta doit reformuler ces politiques pour que ses services ne soient pas utilisés de manière détournée par celles et ceux qui promeuvent des théories du complot qui causent des préjudices en ligne et hors ligne.

Meta a fait des recherches sur une ligne politique qui pourrait permettre de lutter contre les théories du complot haineuses, mais l’entreprise a décidé que cela finirait par entraîner la suppression d’un trop grand nombre de discours politiques. Le Conseil s’inquiète du peu d’informations fournies par Meta à ce sujet.

Décision du Conseil de surveillance

Le Conseil de surveillance a confirmé la décision de Meta de laisser la publication en ligne.

Le Conseil recommande à Meta ce qui suit :

  • Fournir plus de détails dans le texte de son standard de la communauté sur les discours haineux afin d’expliquer comment elle distingue les discussions sur le thème de l’immigration des discours dangereux qui ciblent les personnes sur la base de leur statut d’immigrées. Il s’agira notamment d’expliquer comment l’entreprise traite les contenus qui propagent des théories du complot haineuses de sorte que les utilisateurs et les utilisatrices puissent comprendre comment Meta protège les discours politiques sur l’immigration tout en luttant contre les risques de préjudices hors ligne que posent ces théories.

* Les résumés de cas donnent un aperçu du cas et n’ont pas valeur de précédent.

Décision complète sur le cas

1.Résumé de la décision

Le Conseil de surveillance a confirmé la décision de Meta de conserver une publication de la page Facebook officielle de l’homme politique français Éric Zemmour qui contient une vidéo d’une interview de M. Zemmour au cours de laquelle il discute des changements démographiques en Europe et en Afrique. Le Conseil estime que le contenu n’enfreint pas le standard de la communauté de Meta sur les discours haineux parce qu’il n’attaque pas directement des personnes sur la base de caractéristiques protégées, notamment l’origine ethnique et nationale. La majorité du Conseil trouve que la décision de Meta de conserver le contenu sur Facebook est cohérente avec ses responsabilités en matière de droits humains. Une minorité des membres du Conseil pense que les politiques de Meta ne suffisent pas pour lui permettre d’assumer ses responsabilités en matière de droits humains pour lutter contre la sérieuse menace que représentent les théories du complot dangereuses et discriminatoires comme la théorie du grand remplacement. Le Conseil recommande à Meta de clarifier publiquement la manière dont elle traite les contenus qui propagent des théories du complot haineuses compte tenu de la nécessité de protéger les discours sur l’immigration tout en luttant contre les préjudices hors ligne causés par ces théories du complot.

2. Description du cas et contexte

Le 7 juillet 2023, un utilisateur a publié une vidéo sur la page Facebook officielle vérifiée de l’homme politique français Éric Zemmour. Dans la vidéo, un extrait de 50 secondes d’une interview plus longue réalisée en français, Zemmour discute des changements démographiques en Europe et en Afrique. L’utilisateur qui a publié la vidéo était un administrateur de la page, suivie par quelque 300 000 followers. Zemmour était candidat aux élections présidentielles de 2022 en France et a remporté 7 % des voix environ lors du premier tour, ce qui ne lui a pas suffi pour passer au second tour. Avant de se porter candidat, Zemmour rédigeait régulièrement des colonnes pour Le Figaro et d’autres journaux ; il était également un commentateur TV aux idées bien tranchées, connu pour ses provocations sur l’Islam, l’immigration et les femmes. Comme expliqué plus en détail ci-dessous, il a été impliqué dans plusieurs poursuites judiciaires et a été reconnu coupable à plusieurs reprises en raison de ces commentaires. Bien que Meta ne considère pas l’utilisateur qui a publié la vidéo comme une personnalité publique, l’entreprise estime que Zemmour en est une, lui.

Dans la vidéo, Zemmour déclare : « Since the start of the 20th century, there has been a population explosion in Africa. » (Depuis le début du 20e siècle, l’Afrique connaît une explosion démographique.) Il dit que, à l’inverse de la population européenne, qui s’est stabilisée autour des 400 millions d’individus, la population africaine a augmenté pour atteindre 1,5 milliard de personnes « so the power balance has shifted » (de sorte que le rapport de forces s’est inversé). La légende en français reprend les affirmations de la vidéo, indiquant que dans les années 1900, « when there were four Europeans for one African, [Europe] colonized Africa » (quand il y avait quatre Européens pour chaque Africain, [l’Europe] a colonisé l’Afrique) et que, désormais, « there are four Africans for one European and Africa colonizes Europe » (il y a quatre Africains pour chaque Européen, et l’Afrique colonise l’Europe). Ces chiffres-là sont comparés aux chiffres fournis par des organismes des Nations Unies ci-dessous. En outre, l’avis de la majorité du Conseil sur ces chiffres est décrit plus en détail dans la section 8.2 ci-dessous.

Lorsque le Conseil a annoncé le 28 novembre 2023 qu’il examinerait ce cas, le contenu avait été vu quelque 20 000 fois. En janvier 2024, le contenu avait été visionné 40 000 fois environ et comptait moins de 1000 réactions (principalement des mentions « J’aime », ainsi que des « J’adore » et « Haha » en plus petit nombre).

Le 9 juillet 2023, deux personnes distinctes ont signalé le contenu pour infraction à la politique de Meta sur les discours haineux. L’entreprise a automatiquement classé sans suite ces deux signalements parce que leur examen n’a pas été considéré comme une priorité pendant 48 heures. Meta a expliqué que les signalements étaient classés en vue de leur examen par ordre de priorité sur la base de facteurs tels que la gravité de l’infraction présumée, la viralité du contenu (nombre de fois que le contenu a été vu) et la probabilité que le contenu enfreigne les politiques de l’entreprise. Le contenu n’a pas été supprimé et est resté visible sur la plateforme.

Le 11 juillet 2023, la première personne à avoir signalé le contenu a fait appel de la décision de Meta. L’appel a été évalué par un membre des équipes d’examen manuel qui a confirmé la décision initiale de Meta de laisser le contenu en ligne. Cette personne a alors fait appel auprès du Conseil de surveillance.

Dix jours avant la publication du contenu, Nahel Merzouk, un Français de 17 ans d’origine marocaine et algérienne, est mort après que deux policiers lui ont tiré dessus à bout portant dans une banlieue de Paris le 27 juin 2023 ; son décès a déclenché de graves émeutes et de violentes protestations en France. Les protestations, qui n’avaient pas encore cessé lors de la publication du contenu, s’élevaient contre les violences policières et les discriminations raciales systémiques que pratiquerait la police en France. Ces émeutes étaient les dernières en date d’une longue série de protestations contre les violences policières, qui cibleraient souvent les personnes immigrantes d’origine africaine et d’autres communautés marginalisées en France.

Selon la Commission européenne contre le racisme et l’intolérance (ECRI), les principales victimes du racisme en France sont les personnes immigrantes, en particulier celles d’origine africaine et leur descendance. En 2022, le Comité pour l’élimination de la discrimination raciale (CERD) a appelé la France à redoubler d’efforts pour prévenir et combattre efficacement les discours haineux à caractère raciste et a dit que « Malgré les efforts déployés par l’État partie [...], le Comité demeure préoccupé par la persistance et l’ampleur des discours à caractère raciste et discriminatoire, notamment dans les médias et sur Internet ». Il est également « préoccupé par le discours politique raciste tenu par des responsables politiques à l’égard de certaines minorités ethniques, en particulier les Roms, les gens du voyage, les personnes africaines ou d’ascendance africaine, les personnes d’origine arabe et les non-ressortissants » (CERD/C/FRA/CO/22-23, paragraphe 11).

Selon un rapport publié en 1999, le Département des affaires économiques et sociales des Nations Unies estime que la population d’Afrique s’élevait à 133 millions en 1900. Des données des Nations Unies datant de 2022 estiment que la population africaine était d’environ 1,4 milliard en 2021. Elles prévoient également qu’elle pourrait s’approcher des 2,5 milliards d’ici 2050. Selon ce rapport de 1999, la population d’Europe était d’environ 408 millions en 1900. Le Département des affaires économiques et sociales des Nations Unies estime que la population européenne en 2021 s’élevait à quelque 745 millions et qu’elle devrait diminuer pour atteindre environ 716 millions d’ici 2050.

En France comme dans de nombreuses parties du monde, l’arrivée de migrants et de migrantes en masse est devenue l’un des sujets les plus importants des débats politiques. En septembre 2023, quelque 700 000 personnes réfugiées et demandeuses d’asile se trouvaient en France, ce qui la classe au troisième rang des pays de l’Union européenne qui accueillent le plus grand nombre de migrants et de migrantes. Au moment où le Conseil examinait ce cas, la France était le théâtre de protestations à grande échelle et de débats publics animés en raison de l’adoption d’une nouvelle loi sur l’immigration par le parlement. Entre autres choses, celle-ci définit des quotas de migration et resserre les règles relatives à la réunification familiale et à l’accès aux aides sociales. Zemmour et son parti ont participé activement à ces discussions, au cours desquelles ils se disaient en faveur d’une restriction de l’immigration.

Ces dernières années, Zemmour a fait l’objet de nombreuses poursuites judiciaires et a été condamné à plusieurs reprises par les tribunaux français pour incitation au racisme et commentaires racistes à la suite de ces déclarations au sujet des personnes musulmanes, africaines, noires et membres de la communauté LGBTQIA+. Zemmour a été condamné pour incitation au racisme à la suite d’une intervention télévisée en 2011, au cours de laquelle il a dit : « Most dealers are blacks and Arabs. That's a fact. » (La plupart des trafiquants sont noirs et arabes. C’est un fait.) Plus récemment, en 2020, un tribunal a jugé Zemmour coupable d’incitation au racisme et l’a condamné à une amende de 10 000 euros pour avoir déclaré que les enfants migrants étaient « thieves, killers, they’re rapists. That’s all they are. We should send them back. » (des voleurs, des meurtiers, ce sont des violeurs. Ils ne sont que ça. Nous devrions les renvoyer chez eux.) Il a épuisé son droit à faire appel dans une autre affaire pour laquelle il a été reconnu coupable et condamné à une amende par un tribunal correctionnel pour incitation à la discrimination et à la haine religieuse contre la communauté musulmane française. La condamnation était basée sur des déclarations qu’il a faites lors d’une émission télévisée en 2016, selon lesquelles les personnes musulmanes devraient « the choice between Islam and France » (choisir entre l’Islam et la France) et « for thirty years we have been experiencing an invasion, a colonization [...] it is also the fight to Islamize a territory which is not, which is normally a non-Islamized land. » (depuis trente ans, nous sommes victimes d’une invasion, d’une colonisation [...] c’est également la lutte pour islamiser un territoire qui n’est pas, qui n’est normalement pas un pays islamisé.) En décembre 2022, la Cour européenne des droits de l’homme a jugé que la condamnation n’enfreignait pas le droit de Zemmour à la liberté d’expression.

Bien que le contenu dans ce cas-ci ne mentionne pas explicitement la théorie du grand remplacement, le concept est au cœur de l’idéologie politique de Zemmour et était un argument clé de sa campagne électorale, pendant laquelle il a promis de créer un « Ministry of Remigration » (ministère de la Remigration) s’il était élu. Il a également annoncé qu’il « send back a million » (renverrait un million) de personnes étrangères en cinq ans. Selon une étude indépendante commandée par le Conseil, réalisée par des spécialistes des théories du complot, de la politique en France, des tendances sur les réseaux sociaux et de la linguistique, les personnes en faveur de la théorie du grand remplacement affirment que les populations blanches d’Europe sont ethniquement et culturellement remplacées, et ce à dessein, par le biais de la migration et de l’élargissement des communautés minoritaires. La théorie insiste sur le fait que les vagues de migration contemporaines de populations non blanches (et principalement musulmanes), de pays non européens (avant tout d’Afrique et d’Asie) vers l’Europe, sont une forme de guerre démographique. Les spécialistes du Conseil n’hésitent pas à reconnaître l’existence des phénomènes de migration et leur intensification. En revanche, ces spécialistes qualifient de conspirationniste l’insistance avec laquelle la théorie du grand remplacement affirme l’existence d’un véritable complot qui vise à amener des personnes non blanches en Europe afin de remplacer les populations blanches ou à réduire leur proportion. Les linguistes consulté(e)s par le Conseil ont expliqué que la théorie du grand remplacement et les termes connexes « incitent au racisme, à la haine et à la violence à l’encontre des personnes immigrantes et des personnes européennes non blanches et ciblent tout particulièrement les personnes musulmanes ». Un rapport du Réseau de sensibilisation à la radicalisation de l’Union européenne fait remarquer que plusieurs attaquants solitaires notoires se sont appuyés sur le sentiment antisémitique, antimusulman et, plus généralement, anti-immigration propagé par les personnes qui promeuvent la théorie du grand remplacement pour sélectionner leurs cibles ces dernières années en Europe. L’étude commandée par le Conseil indiquait également que cette théorie a également inspiré une multitude d’incidents violents aux quatre coins du monde dernièrement, y compris les attentats de Christchurch en Nouvelle-Zélande, au cours desquels 51 personnes musulmanes ont été tuées.

Une minorité du Conseil considère également que la multiplication des protestations violentes de l’extrême droite en France l’année dernière est un contexte important à prendre en compte. À la suite du meurtre au couteau d’un adolescent lors d’un rassemblement festif le 18 novembre à Crépol, une communauté rurale de France, des activistes et des partis de droite sur l’échiquier politique ont organisé des protestations violentes au cours desquelles des manifestants et des manifestantes en sont venu(e)s aux mains avec la police. Les organisateurs ont prétendu que ces heurts violents avec la police avaient été causés par des minorités et des personnes immigrantes malgré le fait que, sur les neuf personnes arrêtées dans le cadre de l’attaque fatale au couteau, huit étaient françaises et une italienne. Le ministre français de l’Intérieur, Gérald Darmanin, a déclaré que les membres de la milice « seek to attack Arabs, people with different skin colors, speak of their nostalgia for the Third Reich » (vont taper des Arabes, vont attaquer des personnes qui ont une couleur de peau différente et crient leur nostalgie du IIIe Reich). Sandrine Rousseau, représentante politique du parti français Les Verts, a comparé ces protestations à des ratonnades, des exactions perpétrées sur une minorité ethnique ou un groupe social, tout particulièrement les personnes d’origine maghrébine. La ratonnade la plus tristement célèbre, souvent associée à la popularisation du terme, a eu lieu le 17 octobre 1961 lors d’une manifestation pacifique en Algérie au cours de laquelle 200 personnes algériennes ont été tuées en raison d’une répression policière brutale. Depuis lors, le mot a refait surface à maintes reprises dans différents contextes en France. Par exemple, en décembre 2022, des personnalités politiques françaises se sont associées à des utilisateurs et à des utilisatrices des réseaux sociaux pour dénoncer la violence dans les rues, la comparantà des ratonnades après le match de coupe du monde entre la France et le Maroc.

3. Champ d’application et autorité du Conseil de surveillance

Le Conseil a le pouvoir d’examiner la décision de Meta à la suite d’un appel interjeté par la personne qui a précédemment signalé un contenu laissé sur la plateforme (article 2, section 1 de la Charte) ; article 3, section 1 des Statuts).

Le Conseil peut confirmer ou annuler la décision de Meta (article 3, section 5 de la Charte), et ce, de manière contraignante pour l’entreprise (article 4 de la Charte). Meta doit également évaluer la possibilité d’appliquer la décision du Conseil à un contenu identique dans un contexte parallèle (article 4 de la Charte). Les décisions du Conseil peuvent inclure des recommandations non contraignantes auxquelles Meta doit répondre (article 3, section 4 de la Charte ; article 4 de la Charte). Lorsque Meta s’engage à donner suite aux recommandations, le Conseil surveille leur mise en œuvre.

4.Sources d’autorité et conseils

Les précédents et les standards suivants ont éclairé l’analyse du Conseil dans ce cas :

I.Décisions du Conseil de surveillance

II.Règles de Meta relatives au contenu

Discours haineux

La justification du standard de la communauté sur les discours haineux explique que les discours haineux, définis comme une attaque directe contre des personnes fondée sur des caractéristiques protégées, ne sont pas autorisés sur la plateforme « parce qu’ils créent un environnement intimidant et excluant et peuvent, dans certains cas, faire l’apologie de la violence hors ligne ». La politique établit la liste des caractéristiques protégées, notamment l’origine ethnique, l’origine nationale et la religion. Elle explique également que les attaques sont réparties en deux niveaux de gravité, celles de niveau 1 étant plus graves. La justification du standard de la communauté sur les discours haineux explique également que la politique « prot[ège] également les réfugiés, les migrants, les immigrants et les demandeurs d’asile contre les attaques les plus graves », bien que Meta autorise « les commentaires et les critiques sur les politiques d’immigration ». Les instructions internes que Meta fournit aux équipes de modération de contenu précisent que l’entreprise considère les personnes migrantes, immigrantes, réfugiées et demandeuses d’asile comme quasi-protégées. Cela signifie que Meta les protège contre les attaques de niveau 1, mais pas contre les attaques de niveau 2 en vertu de sa politique contre les discours haineux.

La politique, qui distinguait auparavant trois niveaux d’attaques, mais qui n’en distingue désormais plus que deux, interdit aujourd’hui, entre autres attaques de niveau 2, l’« exclusion ou ségrégation sous forme d’appels à l’action, de déclarations d’intention, de déclarations d’aspiration ou conditionnelles ou de déclarations prônant ou soutenant les types d’exclusion suivants : [...] l’exclusion explicite, c’est-à-dire le fait d’expulser certains groupes ou de dire qu’ils ne sont pas admis ». Meta n’a pas accédé à la demande du Conseil de publier davantage d’informations sur les instructions internes fournies à ses équipes de modération de contenu à ce sujet.

Dans une publication Newsroom de 2017 intitulée « Questions sensibles : Qui doit décider en quoi consistent les discours haineux dans une communauté mondiale en ligne ? », vers laquelle renvoie un lien au bas de la justification du standard de la communauté sur les discours haineux, accompagné de la mention : « En savoir plus sur notre approche en matière de discours haineux », Meta reconnaît que les débats sur les politiques d’immigration se transforment souvent en « débats sur les discours haineux, étant donné que les deux parties adoptent un langage provocateur ». L’entreprise a expliqué qu’après avoir examiné des publications Facebook relatives au débat sur l’immigration dans le monde, elle « avait décidé d’élaborer de nouvelles règles pour supprimer les appels à la violence à l’encontre des personnes migrantes ou les références déshumanisantes à ces personnes (notamment, les comparaisons à des animaux, à de la crasse ou à des ordures) ». Toutefois, l’entreprise n’a pas touché à « la possibilité qu’ont les gens d’exprimer leurs opinions sur l’immigration en elle-même », étant donné qu’elle « s’est engagée à faire en sorte que Facebook reste un lieu de débats légitimes ».

Organismes et individus dangereux

La justification du standard de la communauté sur les organismes et individus dangereux stipule que Meta n’autorise pas les organismes ni les individus qui revendiquent des objectifs violents ou qui sont impliqués dans des activités violentes à être présents sur les plateformes de Meta. Elle explique également que Meta évalue ces entités « selon leur comportement en ligne et hors ligne, et plus particulièrement selon les liens qu’elles entretiennent avec la violence ».

Le standard de la communauté sur les organismes et individus dangereux explique que Meta interdit la présence d’un quelconque réseau conspirationniste incitant à la violence, qu’il définit actuellement comme un acteur non étatique qui : (i) « est identifié par un nom, des objectifs avoués, un symbole et un lexique partagé » ; (ii) « avance des théories sans fondement qui visent à expliquer les causes ultimes de problèmes, circonstances et évènements politiques et sociaux significatifs par le biais de théories du complot impliquant au moins deux personnalités influentes »; et (iii) « a explicitement contribué ou été lié à une série de blessures physiques hors ligne par des membres motivés par le désir d’attirer l’attention sur les préjudices supposément identifiés par les théories sans fondement promues par le réseau ou par le désir de corriger lesdits préjudices ».

L’analyse des politiques de contenu par le Conseil a également été éclairée par l’engagement de Meta envers la liberté d’expression, que l’entreprise décrit comme « primordiale », ainsi que par ses valeurs de sécurité et de dignité.

III. Responsabilités de Meta en matière de droits humains

Les Principes directeurs relatifs aux entreprises et aux droits de l’homme des Nations Unies (PDNU), soutenus par le Conseil des droits de l’homme des Nations Unies en 2011, établissent un cadre de travail volontaire pour les responsabilités en matière de droits de l’homme des entreprises privées. En 2021, Meta a annoncé l’entrée en vigueur de sa Politique relative aux droits humains au sein de l’entreprise, dans laquelle elle a réaffirmé son engagement à respecter les droits humains conformément aux PDNU. En l’espèce, l’analyse du Conseil sur les responsabilités de Meta en matière de droits humains s’est appuyée sur les standards internationaux suivants :

  • Le droit à la liberté d’expression : l’article 19 du Pacte international relatif aux droits civils et politiques (PIDCP) ; l’article 20, paragraphe 2 du PIDCP ; l’observation générale n° 34 du Comité des droits de l’homme, 2011 ; les rapports du Rapporteur spécial des Nations Unies sur la liberté d’opinion et d’expression : A/HRC/38/35 (2018) et A/74/486 (2019).
  • Égalité et non-discrimination : l’article 2, paragraphe 1 et l’article 26 du PIDCP ; l’article 2 de la Convention internationale sur l’élimination de toutes les formes de discrimination raciale (CIEDR) ; la résolution A/RES/73/195 de l’Assemblée générale des Nations Unies.
  • Le droit à la vie : l’article 6 du PIDCP.

5. Soumissions de l’utilisateur

Le Conseil a reçu une demande de l’utilisateur qui a signalé le contenu et qui a fait appel auprès du Conseil de la décision de Meta de le laisser en ligne. Dans le cadre de son appel, l’utilisateur dit que Zemmour n’explique la colonisation et la migration que du point de vue de la surpopulation, ce que l’utilisateur qualifie de « fake news » (fausses informations).

6. Soumissions de Meta

Après que le Conseil a sélectionné ce cas, Meta a demandé à des spécialistes de vérifier si la publication enfreignait sa politique sur les discours haineux et a déterminé que sa décision initiale de conserver le contenu était la bonne. Meta n’a pas fourni d’informations sur le domaine de compétences ou le mandat des spécialistes qui ont effectué l’examen supplémentaire. Meta a souligné le fait que, pour qu’un contenu soit considéré comme en infraction, la politique nécessite à la fois une attaque directe et un groupe à caractéristique protégée, et que les affirmations relatives aux changements démographiques et à la colonisation ne répondaient pas à ces deux exigences. Meta a expliqué ne pas considérer l’allégation selon laquelle un groupe est en train de « coloniser » un lieu comme une attaque en soit pour autant qu’il ne s’agisse pas d’un appel à l’exclusion et a insisté sur le fait qu’elle « voulait autoriser les populations à discuter des lois et des politiques de leur nation dans la mesure où cette discussion ne constituait pas une attaque envers des groupes vulnérables qui ne font peut-être pas l’objet de ces lois ». Enfin, Meta a expliqué que le contenu n’identifiait pas de groupe à caractéristique protégée parce que Zemmour faisait référence à « l’Afrique », un continent et ses pays, et que la politique sur les discours haineux ne protégeait pas les pays ni les institutions contre les attaques ».

Meta a refusé de briser la confidentialité relative au processus d’élaboration de ses politiques d’entreprise liées aux théories du complot préjudiciables. Meta a préféré déclarer : « Nous avons envisagé plusieurs options de modération de contenu pour les publications qui discutent de théories du complot sans enfreindre nos politiques existantes. Toutefois, nous sommes arrivés à la conclusion que la mise en œuvre d’une quelconque de ces options à l’heure actuelle risquerait de limiter de nombreux discours politiques ».

Le Conseil a posé à Meta huit questions par écrit. Ces questions concernaient l’élaboration des politiques de Meta à l’égard de la théorie du grand remplacement ; l’applicabilité de diverses dispositions des standards sur les discours haineux et sur les organismes et individus dangereux ; et l’historique d’infractions de la Page Facebook et de l’utilisateur à l’origine de la publication. Meta a répondu à six questions du Conseil, mais n’a pas fourni de réponse satisfaisante aux deux autres. Après que Meta n’a pas donné suffisamment de détails en réponse à la première question du Conseil sur l’élaboration de ses politiques à l’égard de la théorie du grand remplacement, le Conseil a posé une question de suivi ; Meta a fourni plus d’informations, sans que celles-ci soient complètes pour autant.

7.Commentaires publics

Le Conseil de surveillance a reçu 15 commentaires publics. Sept de ces commentaires ont été envoyés des États-Unis et du Canada, trois d’Europe, deux d’Asie centrale et du Sud, un du Proche-Orient et de l’Afrique du Nord, un d’Asie-Pacifique et d’Océanie, et un d’Afrique subsaharienne. Ce total comprend des commentaires publics qui étaient soit des doublons, soit des commentaires soumis avec autorisation de publication, mais qui ne remplissaient pas les conditions de publication du Conseil. Les commentaires publics peuvent être soumis au Conseil avec ou sans autorisation de publication, et avec ou sans autorisation d’attribution (c’est-à-dire de manière anonyme).

Ils concernaient principalement deux sujets. Premièrement, plusieurs commentaires mettaient en évidence le fait que la suppression du contenu en cours d’examen dans ce cas-ci reviendrait à de la censure et que cela pourrait même « alimenter la colère des citoyens et des citoyennes qui ont le sentiment de ne pas être écouté(e)s » (PC-22009). Deuxièmement, deux organisations ont envoyé des commentaires qui soulignent les répercussions négatives de ce type de contenu, en particulier de la théorie du grand remplacement, hors ligne. Ces deux commentaires avancent qu’il existe un lien entre le massacre de Christchurch et la théorie (PC-22013, Digital Rights Foundation ; PC-22014, Global Project Against Hate and Extremism).

Pour lire les commentaires publics envoyés dans ce cas-ci, veuillez cliquer ici.

8.Analyse du Conseil de surveillance

Le Conseil a analysé les politiques de contenu, les responsabilités en matière de droits humains et les valeurs de Meta afin de déterminer si ce contenu devait être supprimé dans ce cas-ci. Le Conseil a également évalué les implications de ce cas-ci pour l’approche plus globale de la gouvernance du contenu par Meta.

Le Conseil a sélectionné ce cas-ci parce qu’il y a vu l’occasion d’examiner l’approche de Meta en matière de contenus ciblant les personnes migrantes à l’heure où les discours contre l’immigration se font de plus en plus nombreux et où les débats publics sur les politiques d’immigration sont de plus en plus animés, en particulier compte tenu des défis qui sont associés à la nécessité de faire une distinction, sur toutes les plateformes de Meta, entre les contenus répréhensibles et les discours politiques sur les lois relatives à l’immigration.

8.1 Respect des politiques relatives au contenu de Meta

Le Conseil est parvenu à la conclusion que le contenu n’enfreint pas les politiques de Meta. Aussi la décision de Meta de laisser le contenu sur Facebook était-elle la bonne. Une minorité du Conseil estime toutefois que les politiques de Meta pourraient faire une nette distinction entre les critiques les plus virulentes des politiques d’immigration, d’une part, et les discours liés aux théories du complot qui sont préjudiciables pour les groupes à caractéristiques protégées, d’autre part.

I.Règles relatives au contenu

Discours haineux

La majorité du Conseil en conclut que le contenu dans ce cas-ci n’enfreint pas le standard de la communauté de Meta sur les discours haineux et qu’il s’agit en fait d’un exemple d’opinion, controversée, certes, mais protégée, sur le thème de l’immigration. Le clip vidéo de 50 secondes de l’interview de Zemmour qui a été publié par l’utilisateur ne contient ni appel à la violence, ni remarques déshumanisantes ou haineuses à l’encontre de groupes vulnérables. Le fait que Zemmour a déjà été poursuivi et condamné pour utilisation de termes haineux ou le fait que les thèmes abordés dans la publication ressemblent à ceux de la théorie du grand remplacement (qui pourrait avoir engendré de la violence à l’encontre de personnes migrantes et de membres de groupes minoritaires) ne suffit pas à justifier la suppression d’une publication qui n’enfreint pas les standards de Meta. La politique stipule qu’un contenu doit répondre à deux critères pour être considéré comme en infraction : (i) « une attaque directe » et (ii) un groupe à « caractéristique protégée » ciblé par ladite attaque directe. Meta définit comme « attaques directes », entre autres, les actes d’« exclusion ou ségrégation sous forme d’appels à l’action », comme expliqué plus en détail dans la section 4 ci-dessus. En outre, la justification de la politique indique clairement que Meta autorise « les commentaires et les critiques sur les politiques d’immigration ».

Pour la majorité du Conseil, les commentaires de Zemmour dans la vidéo sont principalement axés sur de présumées informations démographiques qu’il donne au sujet de l’Afrique et de l’Europe, ainsi que sur la « colonization » (colonisation). Entre autres affirmations, la vidéo contient les déclarations : « So the balance of power has reversed » (Ainsi, le rapport de forces s’est inversé) et « When there are now four Africans for one European, what happens? Africa colonizes Europe, and in particular, France. » (Quand il y a désormais quatre Africains pour chaque Européen, que se passe-t-il ? L’Afrique colonise l’Europe et, en particulier, la France.) Les commentaires de Zemmour ne contenaient aucune attaque directe ; il n’utilise pas l’expression « théorie du grand remplacement » et n’y fait pas directement référence. Il n’appelle pas explicitement à exclure un quelconque groupe d’Europe et ne fait aucune déclaration sur les personnes africaines assimilable à un stéréotype nuisible, à une insulte ou à un autre type d’attaque directe Toutefois, le Conseil s’inquiète de constater que Meta ne considère pas les personnes africaines comme un groupe à caractéristique protégée, compte tenu du fait que l’origine ethnique et la religion sont toutes deux des caractéristiques protégées au titre des politiques de Meta et des lois internationales sur les droits humains. Les personnes africaines sont mentionnées tout au long de la vidéo. L’Afrique étant un ensemble de nations, le terme « Africans » (personnes africaines) désigne les personnes ressortissant de pays africains. Cela étant, dans ses précédents commentaires et ses discussions sur la migration en France, Zemmour se sert de ce terme pour faire référence aux personnes africaines non blanches, en particulier aux personnes noires et musulmanes d’origine africaine.

Organismes et individus dangereux

La majorité du Conseil conclut également que le contenu n’enfreint pas la politique de Meta sur les organismes et individus dangereux étant donné qu’il ne comporte pas suffisamment d’éléments pointant vers un réseau conspirationniste incitant à la violence.

Comme expliqué à la section 6 ci-dessus, Meta a envisagé plusieurs options de modération de contenu pour les publications qui discutent de théories du complot sans enfreindre nos politiques existantes, mais a déterminé que la mise en œuvre d’une quelconque de ces options à l’heure actuelle risquerait de limiter de nombreux discours politiques. Le Conseil est également préoccupé par le peu d’informations fournies par Meta en réponse aux questions du Conseil sur le processus d’élaboration de ses politiques. Le Conseil note également que l’entreprise n’a pas fourni de détails sur les recherches effectuées ni sur leur portée, sur les informations recueillies, sur les types de spécialistes consultés, ni sur les différentes options de modération analysées. Le Conseil s’inquiète de constater que Meta a préféré ne pas partager d’informations sur le processus d’élaboration de ses politiques et ses résultats auprès du public.

Une minorité du Conseil comprend qu’en dépit du fait que le contenu cible implicitement plusieurs groupes à caractéristiques protégées qui se recoupent (personnes noires, arabes et musulmanes), les règles prévues actuellement dans les politiques de Meta sur les discours haineux et sur les organismes et individus dangereux n’interdisent pas ce type de contenu. Bien que la publication ne fasse que répéter les arguments les plus « acceptables » de la théorie du grand remplacement, cela n’est toutefois pas déterminant. Dans sa décision sur le cas Suspension de l’ancien président américain Trump, le Conseil a mis en évidence le fait que Meta devait « évaluer les publications des utilisateurs influents dans leur contexte, en fonction de la manière dont elles sont susceptibles d’être interprétées, même si le message incendiaire qu’elles contiennent est formulé dans un langage destiné à éviter toute responsabilité ».

Néanmoins, comme cela sera expliqué plus en détail à la section 8.3, une minorité du Conseil estime que l’approche de Meta à l’égard des contenus qui propagent des théories du complot préjudiciables, comme la théorie du grand remplacement, n’est pas cohérente avec les objectifs de différentes politiques élaborées pour lutter contre la création d’un climat d’intimidation et d’exclusion qui engendre des préjudices en ligne et hors ligne pour les minorités protégées. Bien qu’une minorité du Conseil soit tout à fait d’accord avec le fait que les politiques de Meta doivent autoriser les criticismes et les discussions de n’importe quelle problématique (telle que l’immigration) pertinente dans les sociétés démocratiques, ces règles doivent également définir des mécanismes de protection univoques afin de prévenir la propagation d’attaques implicites ou explicites contre les groupes vulnérables, compte tenu des préjudices hors ligne que causent les narratifs conspirationnistes tels que la théorie du grand remplacement.

II. Transparence

Dans son Espace modération, dans la section consacrée au standard de la communauté sur les discours haineux, Meta fournit quelques informations sur la manière dont elle traite les contenus relatifs à l’immigration. L’entreprise y explique que les personnes réfugiées, migrantes, immigrantes et demandeuses d’asile sont protégées des types d’attaques les plus graves. Elle fournit des détails supplémentaires dans une publication Newsroom de 2017 vers laquelle un lien sous la justification de la politique sur les discours haineux renvoie. Cela étant, l’entreprise n’explique pas clairement comment elle traite les contenus liés à la théorie du grand remplacement. La publication de 2017 fournit des informations pertinentes sur le sujet, mais n’a pas été mise à jour à la suite du processus d’élaboration des politiques de 2021 dont il est question à la section 6 ci-dessus. Les politiques destinées au public de Meta n’expliquent pas non plus clairement que les appels à l’exclusion sont autorisés dans le cadre de discussions sur l’immigration. Elles ne stipulent pas non plus précisément comme les attaques voilées ou implicites sont traitées dans ce contexte-là.

8.2 Respect des responsabilités de Meta en matière des droits humains

La majorité du Conseil estime qu’en conservant le contenu, Meta fait preuve de cohérence avec les responsabilités en matière des droits humains qui lui incombent. Une minorité des membres pense que pour assumer pleinement ses responsabilités en matière des droits humains, Meta doit reformuler ses politiques pour que ses services ne soient pas utilisés de manière détournée par celles et ceux qui promeuvent des théories du complot qui causent des préjudices en ligne et hors ligne.

Liberté d’expression (article 19 du PIDCP)

L’article 19 du PIDCP protège considérablement le droit à la liberté d’expression, y compris le « droit de rechercher, de recevoir et de répandre des informations et des idées de toute espèce », notamment le « discours politique » et le commentaire sur les « affaires publiques » (observation générale n° 34, paragraphe 11). Selon le Comité des droits de l’homme, le champ d’application de ce droit « s’étend même à l’expression qui peut être considérée comme profondément offensante, encore que cette expression puisse être restreinte conformément aux dispositions du paragraphe 3 de l’article 19 et de l’article 20 » afin de protéger les droits ou la réputation d’autrui ou d’interdire les incitations à la discrimination, aux hostilités ou à la violence (observation générale n° 34, paragraphe 11).

Dans le contexte des débats publics sur la migration, l’Assemblée générale des Nations Unies souligne son engagement à « protéger la liberté d’expression dans le respect du droit international, conscient[e] qu’un débat ouvert et libre contribue à une compréhension globale des migrations sous tous leurs aspects ». Elle s’engage également à « encourager un débat public ouvert, fondé sur l’analyse des faits et associant l’ensemble de la société, le but étant que la question […] soit abordée de façon plus réaliste, humaine et constructive » (A/RES/73/195, paragraphe 33). L’immigration et les politiques associées, vivement débattues et pertinentes dans les processus politiques, non seulement en France mais aussi au niveau international, sont des sujets de discussion légitimes sur les plateformes de Meta. Pour la majorité du Conseil, étant donné les implications potentielles pour le débat public, le bannissement de ce type de discours des plateformes de Meta constituerait une violation flagrante du droit à la liberté d’expression et créerait un dangereux précédent. Pour une minorité de membres, c’est justement parce que les débats sur l’immigration – ouverts et fondés sur l’analyse des faits – sont si pertinents dans une société démocratique que la propagation des théories du complet telles que la théorie du grand remplacement sur les plateformes de réseaux sociaux peut être si préjudiciable. Comme signalé par l’Institute for Strategic Dialogue, les méthodes utilisées pour diffuser la théorie « incluent des memes racistes et déshumanisants qui faussent et manipulent les données démographiques et s’appuient sur des informations démenties ».

Lorsque des limitations de la liberté d’expression sont imposées par un État, elles doivent remplir des critères de légalité, d’objectif légitime, et de nécessité et de proportionnalité (article 19, paragraphe 3 du PIDCP). Ces exigences sont souvent reprises sous intitulé « test tripartite ». Le Conseil utilise ce cadre pour interpréter les engagements volontaires de Meta en matière de droits humains, à la fois pour la décision relative au contenu individuel en cours d’examen et pour ce que cela dit de l’approche plus large de Meta en matière de gouvernance du contenu. Comme l’a déclaré le Rapporteur spécial des Nations Unies sur la liberté d’expression, même si « les entreprises ne sont pas soumises aux mêmes devoirs que les gouvernements, leur influence est néanmoins telle qu’elle doit les inciter à se poser les mêmes questions qu’eux quant à la protection de la liberté d’expression de leurs utilisateurs » (A/74/486, paragraphe 41).

I. Légalité (clarté et accessibilité des règles)

Le principe de légalité prévoit que les règles qui limitent la liberté d’expression soient accessibles, claires et suffisamment précises pour permettre à un individu d’adapter son comportement en conséquence (observation générale n° 34, paragraphe 25). En outre, ces règles « ne peu[ven]t pas conférer aux personnes chargées de [leur] application un pouvoir illimité de décider de la restriction de la liberté d’expression » et doivent « énoncer des règles suffisamment précises pour permettre aux personnes chargées de leur application d’établir quelles formes d’expression sont légitimement restreintes et quelles formes d’expression le sont indûment » (Ibid). Le Rapporteur spécial des Nations Unies sur la liberté d’expression a déclaré que les règles régissant le discours en ligne devaient être claires et précises (A/HRC/38/35, paragraphe 46). Les personnes utilisant les plateformes de Meta doivent pouvoir accéder aux règles et les comprendre, et les équipes d’examen de contenu doivent disposer de conseils clairs sur leur application.

Aucune des politiques actuelles de Meta n’interdit « de manière précise et claire » le contenu concerné dans ce cas-ci. Selon la majorité du Conseil, une personne lambda qui lirait le standard de la communauté sur les discours haineux ou la publication de 2017 sur le blog « Questions sensibles » de Meta (vers lequel le standard de la communauté redirige) aurait sans doute l’impression que seules les attaques les plus graves à l’encontre des personnes migrantes et immigrantes seraient supprimées, puisque Meta indique clairement qu’elle souhaite autoriser les commentaires et les critiques des politiques d’immigration sur ses plateformes. La majorité du Conseil estime que cet engagement est conforme aux responsabilités de Meta en matière de droits humains. Une minorité des membres pense que la politique sur les discours haineux vise à prévenir la création d’un climat d’exclusion ou de ségrégation auquel les théories du complot telles que la théorie du grand remplacement contribuent. Comme le contenu qui avance de telles théories cible généralement les groupes vulnérables et minoritaires, ce qui constitue une atteinte à leur dignité, une personne lambda pourrait s’attendre à ce que la politique de Meta sur les discours haineux prévoie une protection contre ce type de contenu.

Le standard actuel de Meta sur les organismes et individus dangereux n’interdit aucunement le contenu concerné dans ce cas-ci. Pour la majorité, même si Meta interdisait de manière précise et claire les contenus qui avancent la théorie du grand remplacement sur ses plateformes, le contenu dans ce cas-ci ne nomme même pas cette théorie et ne développe pas certains de ses éléments d’une manière ou d’une autre qui puisse être considérée comme conspirationniste ou préjudiciable. La publication n’affirme pas que la migration vers l’Europe de groupes de personnes spécifiques fait partie d’un complot qui implique des personnalités ayant des agendas cachés.

II.Objectif légitime

Par ailleurs, toute restriction de la liberté d’expression doit au minimum répondre à l’un des objectifs légitimes énumérés dans le PIDCP, qui incluent la protection des « droits d’autrui ». « Le terme “droits” vise les droits fondamentaux tels qu’ils sont reconnus dans le Pacte et plus généralement dans le droit international des droits de l’homme » (observation générale n° 34, paragraphe 28).

Dans plusieurs de ses décisions, le Conseil a trouvé que la politique de Meta sur les discours haineux, qui vise à protéger les personnes des préjudices engendrés par les discours haineux, poursuit un objectif légitime reconnu par les normes internationales en matière des droits humains (cf. décision Dessin animé de Knin). Elle protège le droit à la vie (article 6, paragraphe 1 du PIDCP) ainsi que les droits à l’égalité et à la non-discrimination, y compris sur la base de l’origine ethnique et de l’origine nationale (article 2, paragraphe 1 du PIDCP ; article 2 du CIEDR). Le Conseil a également estimé par le passé que la politique de Meta sur les organismes et individus dangereux visait à prévenir et à perturber les préjudices hors ligne et qu’elle poursuivait l’objectif légitime de protéger les droits d’autrui (cf. décision Publication partagée d’Al Jazeera). À l’inverse, le Conseil a fait remarquer à plusieurs reprises qu’il n’est pas légitime de chercher à restreindre la liberté d’expression aux seules fins de protéger les individus contre les offenses (cf. paragraphe 24 du rapport A/74/486 du Rapporteur spécial des Nations Unies sur la liberté d’expression dans la décision Représentation de Zwarte Piet, et décision Suspension de l’ancien président américain Trump), étant donné l’importance particulière qui est accordée à l’expression sans entraves par les lois internationales en matière des droits humains (observation générale n° 34, paragraphe 38).

III. Nécessité et proportionnalité

Le principe de nécessité et de proportionnalité stipule que les restrictions de la liberté d’expression « doivent être appropriées pour remplir leur fonction de protection ; elles doivent constituer le moyen le moins perturbateur parmi ceux qui pourraient permettre d’obtenir le résultat recherché » [et] « elles doivent être proportionnées à l’intérêt à protéger » (observation générale n° 34, paragraphe 34). La nature et la portée des réponses à la disposition d’une entreprise comme Meta diffèrent de celles dont dispose un État et constituent souvent une restriction moindre des droits que, par exemple, les sanctions pénales. Conformément à leurs responsabilités en matière de droits humains, les entreprises de réseaux sociaux doivent envisager une série de réponses possibles au contenu problématique au-delà de la suppression afin de s’assurer que les restrictions sont étroitement adaptées (A/74/486, paragraphe 51).

Lorsqu’il analyse les risques posés par un contenu potentiellement violent, le Conseil s’appuie sur un test en six étapes décrit dans le Plan d’action de Rabat, qui traite de l’incitation à la discrimination, aux hostilités ou à la violence (OHCHR, A/HRC/22/17/Add 4, 2013). Le test prend en compte le contexte, la personne intervenante, l’intention, le contenu et la forme, la portée du contenu et la probabilité de préjudices imminents.

La majorité du Conseil estime que la suppression du contenu dans ce cas-ci ne serait ni nécessaire ni proportionnée. Le test de Rabat souligne que le contenu et la forme du discours sont « un élément essentiel d’incitation ». En ce qui concerne le contenu examiné dans ce cas-ci, les commentaires de Zemmour, tels qu’ils sont reproduits dans le vidéo-clip de 50 secondes publié par l’utilisateur, ne traitent pas directement des éléments conspirationnistes de la théorie du grand remplacement, et la vidéo ne contient pas d’éléments provocateurs, tels que des images violentes ou incitatives. Les commentaires et la légende ne contiennent pas non plus d’appels directs à la violence ou à l’exclusion. La majorité du Conseil pense que l’exclusion des contenus politiquement controversés sur la base de déclarations effectuées ailleurs par l’intervenant constituerait une atteindre à la liberté d’expression. Elle considère que les chiffres cités en exemple par Zemmour ne sont que légèrement exagérés. La majorité fait également remarquer que le sujet principal des déclarations de Zemmour dans la vidéo est l’immigration, sans doute l’une des problématiques politiques les plus importantes à l’heure actuelle.

Pour une minorité des membres du Conseil, le contenu dans ce cas-ci n’enfreint pas les politiques actuelles de Meta (cf. section 8.1). Toutefois, l’entreprise a mis en place un ensemble de politiques qui visent à prévenir la création d’un climat d’exclusion et d’intimidation qui toucherait les minorités protégées aussi bien en ligne (ce qui aurait des répercussions sur la liberté d’expression des groupes exclus) qu’en hors ligne. En vertu de ces politiques, les discours qui prônent la suprématie blanche et l’antisémitisme ainsi que les contenus publiés par les réseaux conspirationnistes incitant à la violence sont soumis à modération. La suppression de ce type de contenu est cohérente avec les responsabilités de Meta en matière de droits humains. Comme expliqué à la section 2 ci-dessus, la théorie du grand remplacement considère qu’il existe un complot délibéré pour remplacer les populations blanches d’Europe par les populations migrantes, principalement venues d’Afrique et d’Asie. La propagation de cette théorie a contribué aux vagues d’incitation au racisme, à la haine et à la violence envers les communautés immigrantes, européennes non blanches et musulmanes. Une minorité du Conseil insiste sur le fait qu’il ne s’agit pas simplement d’une idée abstraite ou d’une opinion controversée, mais bien d’une théorie du complot typique qui engendre des préjudices en ligne comme en dehors. Elle contribue sans aucun doute à la création d’un climat d’exclusion et d’intimidation de certaines minorités. Les preuves des préjudices causés par l’ensemble des contenus antisémites dont la diffusion s’est faite rapidement et à grande échelle sur les plateformes de Meta, comme indiqué dans le cas Négationnisme, sont semblables aux preuves des préjudices provoqués par la théorie du grand remplacement, comme indiqué à la section 2. Aussi une minorité du Conseil trouve-t-elle que la décision de Meta de protéger certaines minorités menacées contre l’exclusion et les discriminations causées par les théories du complot tout en refusant de protéger d’autres communautés faisant face à des risques similaires n’est pas cohérente avec le principe de non-discrimination et avec les valeurs de sécurité et de dignité mises en avant par Meta. Une minorité estime que rien ne justifie la différence entre l’approche de Meta envers la théorie du grand remplacement et son approche des autres conspirations susmentionnées, que l’entreprise modère conformément à ses responsabilités en matière de droits humains.

Par ailleurs, pour une minorité des membres, ce ne sont pas les contenus considérés séparément qui posent le plus gros défi aux entreprises de réseaux sociaux, mais bien l’accumulation de contenus préjudiciables qui sont partagés rapidement et à grande échelle. Le Conseil a expliqué que « le fait de modérer les contenus pour faire face aux préjudices cumulés des discours haineux, même lorsque les déclarations n’incitent pas directement à la violence ou à la discrimination, peut, dans certaines circonstances, être cohérent avec les responsabilités de Meta en matière des droits humains (cf. décisions Représentation de Zwarte Piet et Violences communautaires dans l’État indien de l’Odisha). En 2022, le CERD s’est inquiété « de la persistance et de l’ampleur des discours racistes et discriminatoires [en France], en particulier dans les médias et sur Internet ». Pour une minorité du Conseil, l’accumulation des contenus liés à la théorie du grand remplacement « crée un environnement dans lequel les actes de violence sont plus susceptibles d’être tolérés et de produire de la discrimination dans une société » (cf. décision Représentation de Zwarte Piet et Violences communautaires dans l’État indien de l’Odisha). Une minorité souligne qu’en vertu des PDNU, « les entreprises devraient accorder une attention particulière aux incidences spécifiques sur les droits de l’homme des individus appartenant à des groupes ou des populations qui peuvent être plus exposés que d’autres à la vulnérabilité ou à la marginalisation » (PDNU, principes 18 et 20). Comme indiqué à la section 2 ci-dessus, les principales victimes du racisme en France sont les personnes immigrantes, en particulier celles d’origine africaine et leur descendance. Dans une interview accordée en 2023, le Directeur général de la sécurité intérieure a partagé son opinion selon laquelle les groupes extrémistes, y compris ceux qui pensent devoir agir pour mettre un terme au grand remplacement, représentent une sérieuse menace pour le pays.

Même si Meta a déclaré qu’en modérant les contenus liés aux théories du complot, elle risquait de supprimer « une quantité inacceptable de discours politiques », une minorité du Conseil fait remarquer que l’entreprise n’a fourni aucune preuve ni aucune donnée pour étayer cet argument. En outre, Meta n’a pas expliqué pourquoi c’était le cas avec les contenus sur la théorie du grand remplacement, mais pas, par exemple, avec les contenus prônant la suprématie blanche ou l’antisémitisme puisque ces derniers peuvent aussi être considérés comme des contenus propageant des théories du complot. Pour les raisons susmentionnées, une minorité du Conseil estime que Meta doit réviser ses politiques pour y indiquer comment elle traite les contenus relatifs à la théorie du grand remplacement, sauf si l’entreprise a suffisamment de preuves pour : (i) juger qu’aucun préjudice ne résulte de la propagation de ce type de contenus, comme indiqué dans cette décision ; ou (ii) démontrer que les répercussions de la modération de ce type de contenus sur les discours politiques protégés seraient disproportionnées. Pour apporter une réponse proportionnée, Meta pourrait, par exemple, envisager de créer une politique qui permettrait de supprimer, uniquement après escalation, des contenus qui promeuvent ouvertement la théorie du grand remplacement, sans que cette suppression ait de répercussions sur les discours politiques protégés, ou envisager de mentionner, parmi les réseaux conspirationnistes incitant à la violence de la politique de Meta sur les organismes et individus dangereux, les personnes qui avancent explicitement la théorie du grand rassemblement.

L’idée que Meta puisse élaborer une politique en vertu de laquelle ce contenu-ci soit considéré comme en infraction et qui satisferait aux critères de légalité, de nécessité et de proportionnalité laisse la majorité du Conseil sceptique, en particulier parce que le contenu ne mentionne même pas l’expression « grand remplacement » ni d’autres termes similaires. Toute tentative de supprimer ce type de contenu, même en cas de référence codée, entraînerait la suppression d’une quantité significative de discours politiques protégés. Un contenu en apparence protégé ne devrait pas être « condamné par association », que ce soit à cause de l’identité de la personne intervenante ou à cause de la ressemblance avec des idéologies haineuses.

9. Décision du Conseil de surveillance

Le Conseil de surveillance confirme la décision de Meta de conserver le contenu.

10. Recommandations

Transparence

1. Meta devrait fournir plus de détails dans le texte de son standard de la communauté sur les discours haineux afin d’expliquer comment elle distingue les discussions sur le thème de l’immigration des discours dangereux qui ciblent les personnes sur la base de leur statut d’immigrées. Cela inclut la nécessité d’expliquer comment l’entreprise traite les contenus qui propagent des théories du complot haineuses. Ces détails sont nécessaires pour que les utilisateurs et les utilisatrices comprennent comment Meta protège les discours politiques sur l’immigration tout en prenant des mesures contre les potentiels préjudices engendrés hors ligne par les théories du complot haineuses.

Le Conseil considérera que cette recommandation a été appliquée lorsque Meta publiera de nouvelles informations pour expliquer son approche des débats sur l’immigration dans le contexte de la théorie du grand remplacement et que des liens redirigeant vers ces nouvelles informations seront placés en évidence dans son Espace modération.

* Note de procédure :

Les décisions du Conseil de surveillance sont préparées par des panels de cinq membres et approuvées par la majorité du Conseil. Les décisions du Conseil ne représentent pas nécessairement les opinions personnelles de tous les membres.

Pour la décision sur ce cas, des recherches indépendantes ont été commandées au nom du Conseil. Le Conseil a également bénéficié de l’aide de Duco Advisors, une société de conseil spécialisée dans la géopolitique, la confiance et la sécurité, ainsi que la technologie. Memetica, une organisation qui effectue des recherches open-source sur les tendances des réseaux sociaux, a également fourni une analyse. L’entreprise Lionbridge Technologies, LLC, dont les spécialistes parlent couramment 350 langues et travaillent dans 5000 villes du monde entier, a fourni son expertise linguistique.

Retour aux décisions de cas et aux avis consultatifs politiques