Des décisions d’une grande portée protègent la parole et traitent les préjudices 

Aujourd’hui, le Conseil de surveillance a publié des décisions concernant 11 cas basés sur des appels d’utilisateurs provenant de trois continents. Ces décisions sont les premières à refléter les changements de politique et d’application annoncés par Meta le 7 janvier 2025. Comme pour toutes nos décisions, nous sommes guidés par notre engagement en faveur de la liberté d’expression en ligne et par la conviction que Meta a la responsabilité de traiter hors ligne les préjudices résultant de l’utilisation de ses plateformes. Nous mettons également l’accent sur une plus grande transparence, une plus grande cohérence et une plus grande équité dans l’approche de Meta en matière de modération du contenu.

Les décisions d’aujourd’hui concernent la liberté d’expression en relation avec l’identité de genre, l’imagerie de l’apartheid, le discours hostile à l’égard des migrants, la haine contre les personnes handicapées, la suppression des voix LGBTQIA+ et les émeutes de 2024 au Royaume-Uni. Dans ces décisions, le Conseil a délibéré sur des questions complexes, dont beaucoup concernent la politique de Meta en matière de comportements haineux (anciennement appelée discours incitant à la haine). Dans ces décisions, nous confirmons que les discours controversés peuvent et doivent rester sur la plateforme, tout en concluant que Meta doit supprimer le contenu lorsqu’il y a un lien substantiel avec un préjudice tangible.

Plus d’un millier de personnes ou d’organisations des cinq continents ont apporté leur contribution aux cas traités aujourd’hui par le biais de commentaires publics, complétant ainsi les perspectives des 21 membres du Conseil qui proviennent de régions et d’horizons différents. Cette diversité est le reflet de la base d’utilisateurs de Meta, 95 % de personnes utilisant les services de Meta étant basées en dehors des États-Unis.

Les décisions prises aujourd’hui, qui reflètent l’évolution des défis pour la liberté d’expression en ligne, montrent pourquoi la protection de la parole reste essentielle. Cet engagement dépasse les clivages politiques. Compte tenu de l’importance des enjeux, nous espérons que nos décisions et nos recommandations contribueront à un échange plus solide et plus ouvert qui permettra à Meta de rendre des comptes à ses utilisateurs.

Les résultats des cas d’aujourd’hui

Portés devant le Conseil par des utilisateurs des plateformes de Meta, les 11 cas ont été sélectionnés parce qu’ils concernent des questions importantes liées à la liberté d’expression et qu’elles sondent les limites des politiques et des pratiques d’application de Meta. Le Conseil applique un seuil élevé de restriction de la parole dans le cadre international des droits humains. Les opinions majoritaires et minoritaires exprimées dans plusieurs décisions rendues aujourd’hui illustrent la complexité de concilier un engagement fort en faveur de la liberté d’expression avec une préoccupation réelle pour les autres droits humains. Elles mettent également en évidence les différences légitimes que peuvent engendrer une délibération et un débat approfondis sur ces questions.

  • Dans nos cas de vidéos autour du débat sur l’identité de genre, la majorité du Conseil a validé la décision de Meta d’autoriser deux publications abordant l’accès des personnes transgenres aux toilettes et leur participation à des événements sportifs aux États-Unis. Malgré la nature intentionnellement provocatrice des publications, qui mégenrent des personnes transgenres identifiables d’une manière que beaucoup jugeraient offensante, la majorité du Conseil a estimé qu’elles portaient sur des questions d’intérêt public et qu’elles n’incitaient pas à une violence ou à une discrimination probable et imminente.
  • Dans une autre paire de cas, où le Conseil a examiné deux publications affichant des images liées à l’apartheid, y compris l’ancien drapeau national de l’Afrique du Sud, la majorité a confirmé les décisions de Meta de les laisser sur Facebook. Bien que tous les membres du Conseil aient reconnu le drapeau comme un symbole de l’apartheid en Afrique du Sud, évoquant des souvenirs douloureux, la majorité a estimé que ce retrait n’aurait pas été le moyen le moins intrusif de traiter les préjudices. En effet, bien qu’il ait constaté une violation d’une règle particulière sur les « idéologies haineuses », le Conseil a noté que ces publications devraient néanmoins être maintenues, en vertu des normes internationales de liberté d’expression, recommandant également une plus grande clarté concernant les Standards de la communauté.
  • Dans deux cas de discours hostile à l’égard des migrants provenant de Pologne et d’Allemagne, la majorité du Conseil a renversé la décision de Meta en exigeant de retirer le contenu comprenant une insulte raciste et des généralisations présentant les migrants comme des prédateurs sexuels. Ces membres du Conseil ont estimé que le contenu contribuait à accroître les risques de discrimination et de violence à l’encontre des migrants, en particulier dans l’atmosphère déjà enflammée entourant une élection dans laquelle les politiques d’immigration constituaient un enjeu politique majeur.

Pour les trois séries de cas susmentionnées, couvrant six contenus, les nombreuses opinions minoritaires sont révélatrices de la diversité des membres du Conseil et des points de vue sur la meilleure façon de protéger les droits humains en ligne. Ces divergences d’opinions sur les bonnes réponses à apporter aux questions les plus difficiles en matière de liberté d’expression sont au cœur de la conception du Conseil, qui fournit des explications dans chacun de ses textes de décision afin d’exposer ouvertement les raisons de ses résultats.

  • L’annonce d’aujourd’hui comprend également les décisions unanimes prises par le Conseil concernant trois publications relatives aux émeutes de l’été 2024 au Royaume-Uni. Chacune d’entre elles prônant la violence contre les migrants et les musulmans au cours de cette semaine d’émeutes généralisées au Royaume-Uni, le Conseil a renversé la décision de Meta, en exigeant que les publications soient retirées de Facebook, car la probabilité qu’elles incitent à des troubles et à des violences supplémentaires et imminentes était importante. Dans ces cas, un examen approfondi de la manière dont Meta a appliqué ses politiques de contenu en cas de crise a révélé des insuffisances dans la capacité de l’entreprise à évaluer avec précision les formes visuelles d’incitation basées sur la désinformation et la fausse information virales.
  • Outre ces décisions standard, le Conseil a également publié deux décisions sommaires concernant des cas qui mettent en lumière les erreurs d’application de Meta. Dans le premier cas, Meta a supprimé à tort la vidéo d’un artiste drag, estimant à tort qu’elle contenait une insulte interdite, alors que le terme était utilisé dans un contexte autoréférentiel, ce que les politiques de Meta autorisent expressément. Le Conseil a noté que les suppressions incorrectes de ce type ne portent pas seulement atteinte à la liberté d’expression, mais peuvent également avoir un impact sur les moyens de subsistance des personnes concernées. Dans le second cas, le Conseil a identifié un exemple flagrant de discours déshumanisant sur les personnes handicapées, ce qui a soulevé des inquiétudes quant à l’incapacité des systèmes d’application de Meta à détecter de telles publications.

Réponse aux derniers changements apportés par Meta

Bien que les changements de politique apportés par Meta le 7 janvier n’aient pas affecté les résultats des cas publiés aujourd’hui, les recommandations contenues dans les décisions d’aujourd’hui répondent néanmoins à certains de ces changements.

Nos décisions signalent des inquiétudes quant au fait que les changements de politique et d’application de Meta du 7 janvier 2025 aient été annoncés à la hâte, en dérogeant à la procédure habituelle, sans qu’aucune information publique ne soit communiquée quant à la diligence raisonnable préalable en matière de droits de l’homme éventuellement effectuée par l’entreprise.

Le Conseil demande à Meta d’honorer son engagement public à respecter les principes directeurs des Nations unies relatifs aux entreprises et aux droits de l’homme, notamment en s’engageant auprès des parties prenantes concernées. Étant donné que ces changements sont mis en œuvre à l’échelle mondiale, le Conseil souligne qu’il est désormais essentiel que Meta identifie et traite les répercussions négatives sur les droits humains qui pourraient en résulter. Il convient notamment d’évaluer si la réduction de sa dépendance à l’égard de la détection automatique des violations des politiques pourrait avoir des conséquences inégales à l’échelle mondiale, en particulier dans les pays connaissant des crises actuelles ou récentes, telles que des conflits armés.

Le Conseil a émis aujourd’hui 17 recommandations concernant les changements apportés par Meta le 7 janvier, les politiques de l’entreprise et ses systèmes d’application. Voici quelques-unes des principales étapes demandées à Meta :

  • Évaluer l’impact sur les droits humains des mises à jour de la politique en matière de comportements haineux du 7 janvier, en particulier les répercussions négatives potentielles sur les pays dans le monde entier, les personnes LGBTQIA+, y compris les mineurs, et les migrants, en informant le Conseil de ses progrès tous les six mois, et en rendant compte publiquement de ces progrès prochainement.
  • Améliorer la manière dont elle applique, en cas de violation, ses politiques en matière d’intimidation et de harcèlement, en particulier celles qui exigent des utilisateurs qu’ils signalent eux-mêmes les contenus.
  • Clarifier les références aux idéologies haineuses qui ne sont pas autorisées dans le cadre de la politique relative aux organisations et individus dangereux.
  • Évaluer en permanence l’efficacité des Remarques de la communauté par rapport à la vérification des faits par des tiers, en particulier dans les situations où la diffusion rapide de fausses informations crée des risques pour la sécurité publique.
  • Améliorer la détection de l’incitation à la violence dans l’imagerie visuelle en donnant de meilleures indications aux examinateurs.

Tenir Meta pour responsable

Depuis près de cinq ans, nos décisions ont façonné les politiques de contenu et les pratiques d’application de Meta, ce qui a permis de renforcer la protection du discours politique, des actualités, de la sensibilisation et de l’expression culturelle et artistique. Le discours public sur les questions politiques et sociales - de l’immigration à l’avortement en passant par la critique des États et des dirigeants - reste sur les plateformes de Meta grâce au Conseil. Nos cas ont poussé Meta à faire preuve de plus de transparence dans la manière dont elle gère les pressions exercées par les gouvernements pour supprimer des contenus. Reconnaissant les risques accrus pour les processus démocratiques que représentent les plateformes censurant la parole, le Conseil a donné la priorité aux cas permettant aux individus de participer aux élections et aux manifestations, en particulier dans les pays où l’espace civique se rétrécit.

Entre-temps, nos recommandations ont permis à Meta d’ajouter des outils qui aident les gens à comprendre les règles et à éviter que leur contenu soit injustement retiré. Elles ont également conduit l’entreprise à implémenter des alternatives à la suppression de contenu, notamment des écrans d’avertissement et des étiquettes « Infos IA » pour indiquer qu’un contenu a été généré par l’intelligence artificielle. Ces solutions permettent de responsabiliser les utilisateurs et d’alléger le fardeau de l’expression.

À l’avenir, le Conseil continuera à sélectionner des cas portant sur certains des problèmes les plus difficiles et les plus importants en matière de modération du contenu à l’échelle mondiale. Le Conseil est également en discussion avec Meta, prêt à accepter une saisine pour avis consultatif en matière de politiques, afin d’aider à définir l’approche de l’entreprise en matière de vérification des faits dans les régions autres que les États-Unis. En tant que seul organe mondial assurant une surveillance indépendante de la modération du contenu de Meta, le Conseil est particulièrement bien placé pour jouer ce rôle, en interprétant la manière dont les changements apportés à la plateforme peuvent avoir un impact sur la liberté d’expression des utilisateurs et sur d’autres droits humains dans différentes régions et communautés à travers le monde.


Vidéos autour du débat sur l’identité de genre

(2024-046-FB-UA, 2024-047-IG-UA)

Dans deux publications contenant des vidéos où une femme transgenre est confrontée pour avoir utilisé des toilettes pour femmes et où une athlète transgenre remporte une course d’athlétisme, la majorité du Conseil a validé les décisions de Meta de laisser le contenu en l’état. Le Conseil note que le débat public sur les politiques relatives aux droits et à l’inclusion des personnes transgenres est autorisé, les points de vue offensifs étant protégés par la législation internationale sur les droits humains relative à la liberté d’expression. Dans ces cas, la majorité du Conseil a estimé qu’il n’y avait pas de lien suffisant entre la restriction de ces publications et la prévention des préjudices causés aux personnes transgenres, aucune de ces publications ne créant un risque probable ou imminent d’incitation à la violence. Les publications ne représentaient pas non plus une forme d’intimidation ou de harcèlement. L’accès des femmes et des filles transgenres aux toilettes pour femmes et leur participation dans le sport font l’objet d’un débat public permanent qui soulève diverses questions relatives aux droits humains. Il est normal qu’un seuil élevé soit exigé pour réprimer ce type de discours. Au-delà du contenu de ces cas, le Conseil a formulé des recommandations sur la manière dont les révisions apportées par Meta le 7 janvier 2025 à sa politique, désormais appelée « politique en matière de comportements haineux », peuvent avoir un impact négatif sur les personnes LGBTQIA+, y compris les mineurs.

Cliquez ici pour consulter l’intégralité de la décision.

Pour lire les commentaires publics sur ces cas, cliquez ici.


Publications sur lesquelles figure le drapeau sud-africain de l’ère de l’apartheid

(2025-001-FB-UA, 2025-002-FB-UA)

Suite à la révision de deux publications Facebook contenant des images du drapeau sud-africain utilisé de 1928 à 1994, la majorité du Conseil a confirmé les décisions de Meta de les conserver. Les membres du Conseil reconnaissent les conséquences à long terme et l’héritage de l’apartheid en Afrique du Sud. Toutefois, ces deux publications ne prônent pas clairement l’exclusion et la ségrégation, et ne peuvent être interprétées comme un appel à la violence ou à la discrimination. Les délibérations dans ces cas ont également abouti à des recommandations visant à améliorer les formulations contradictoires dans la politique relative aux organisations et individus dangereux.

Cliquez ici pour consulter l’intégralité de la décision.

Pour lire les commentaires publics sur ces cas, cliquez ici.


Critique des immigrants et des politiques de l’UE en matière de migration

(2025-003-FB-UA, 2025-004-FB-UA)

La majorité du Conseil a estimé que deux contenus relatifs à l’immigration, publiés sur Facebook avant les élections du Parlement européen de juin 2024, enfreignaient la politique en matière de comportements haineux et que Meta devait les retirer. Le Conseil reconnaît que le droit à la liberté d’expression est primordial lors de l’évaluation des discussions et des commentaires politiques. Toutefois, le contenu de ces deux publications a contribué à accroître les risques de violence et de discrimination à l’approche des élections, alors que l’immigration était un enjeu politique majeur et que le sentiment d’hostilité à l’égard des migrants était en hausse. Pour la majorité du Conseil, il est indispensable et proportionnel de les supprimer. L’une des publications par un parti politique polonais utilise intentionnellement une terminologie raciste pour attiser le sentiment d’hostilité à l’égard des migrants. L’autre publication généralise les migrants en les présentant comme des violeurs en bande, une affirmation qui, lorsqu’elle est répétée, suscite la peur et la haine.

Cliquez ici pour consulter l’intégralité de la décision.

Pour lire les commentaires publics sur ces cas, cliquez ici.


Publications en soutien aux émeutes au Royaume-Uni

(2025-009-FB-UA, 2025-010-FB-AU, 2025-011-FB-UA)

En révisant trois publications différentes partagées pendant les émeutes de l’été 2024 au Royaume-Uni, le Conseil a renversé les décisions initiales de Meta de les laisser sur Facebook. Chacune d’entre elles a créé un risque de préjudice probable et imminent. Elles auraient dû être retirées. Le contenu a été publié pendant une période de colère contagieuse et de violence croissante, alimentée par la fausse information et la désinformation sur les réseaux sociaux. Le sentiment d’hostilité à l’égard des musulmans et des migrants s’est répandu dans les rues. Meta a activé le protocole de politique de crise (CPP) en réponse aux émeutes et a ensuite identifié le Royaume-Uni comme zone à haut risque le 6 août. Ces mesures sont arrivées trop tard. À cette date, les trois contenus avaient été publiés. Le Conseil s’inquiète de la lenteur de Meta à déployer des mesures de crise, car ces mesures auraient dû être prises rapidement pour interrompre l’amplification des contenus préjudiciables.

Cliquez ici pour consulter l’intégralité de la décision.

Pour lire les commentaires publics sur ces cas, cliquez ici.


Terme repris dans la performance drag

(2025-013-IG-UA)

Cliquez ici pour consulter cette décision sommaire.


Commentaire ciblant les personnes atteintes du syndrome de Down

(2025-014-FB-UA)

Cliquez ici pour consulter cette décision sommaire.


Retour Aux Actualités