Pourquoi la liberté d’expression doit être au cœur des évaluations des risques systémiques

Synthèse analytique
En 2022, l’Union européenne a approuvé la loi sur les services numériques (DSA), une législation qui promet de protéger les droits des utilisateurs et impose aux plateformes l’obligation réglementaire d’identifier et d’atténuer les risques liés à leurs services en ligne. Il est essentiel de noter que la DSA stipule que les plateformes en ligne, y compris les réseaux sociaux, doivent « accorder une attention particulière » à la liberté d’expression lorsqu’elles décident de la manière de traiter les préjudices graves pour la société identifiés dans ce cadre. Depuis que ces plateformes ont publié leurs premières évaluations fin 2024, plusieurs défis liés à cet objectif sont apparus. Certains découlent de l’ambiguïté des termes clés de la DSA, d’autres résultant d’occasions manquées d’intégrer les normes mondiales en matière de droits humains dans ces évaluations.
S’appuyant sur les travaux de nombreuses organisations actives dans ce domaine, le Conseil de surveillance estime qu’il est essentiel que les droits de l’homme, en particulier la liberté d’expression, soient placés au cœur des évaluations des risques systémiques. Dans cet esprit, le présent document définit quatre domaines prioritaires qui pourraient contribuer à renforcer la responsabilité des plateformes et à améliorer la gouvernance des contenus, dans le cadre d’une approche cohérente et efficace fondée sur les droits :
- Clarifier la signification des risques systémiques. L’ambiguïté entourant ce terme de la DSA pourrait ouvrir la voie à des interprétations trop larges, ce qui pourrait inciter à restreindre la liberté d’expression.
- S’appuyer sur les normes internationales en matière de droits de l’homme. Intégrer pleinement ces normes dans toutes les catégories d’évaluation des risques afin d’assurer une plus grande cohérence dans les rapports. Intégrer les droits humains mondiaux dans toutes les politiques est plus efficace que de les traiter comme une catégorie à part.
- Intégrer l’engagement des parties prenantes dans l’identification des risques et la conception des mesures d’atténuation. En suivant les pratiques énoncées dans les Principes directeurs des Nations Unies relatifs aux entreprises et aux droits de l’homme (PDNU), les plateformes peuvent montrer de manière plus significative comment l’engagement des parties prenantes façonne leurs réponses aux risques.
- Approfondir les analyses grâce aux données. Les données quantitatives et qualitatives ont la même valeur dans la génération des rapports. Les entreprises devraient utiliser plus ouvertement les données relatives aux appels issues des analyses, étayées par les conclusions des mécanismes de contrôle externes, afin de démontrer l’efficacité des mesures d’atténuation en matière de respect de la liberté d’expression et des autres droits humains.
Introduction
La récente réglementation européenne relative aux plateformes en ligne introduit une nouvelle approche fondée sur les risques pour les services en ligne, qui met l’accent sur la manière dont les plateformes peuvent créer ou amplifier certains types de préjudices. La DSA vise à réglementer les réseaux sociaux afin d'établir des « règles harmonisées » pour un « environnement en ligne fiable » dans lequel les droits de l’homme sont respectés. Elle impose aux « très grandes plateformes en ligne » (VLOP) de divulguer les mesures qu’elles prennent pour empêcher que leurs services ne nuisent aux personnes et à la société. Les premières « évaluations des risques systémiques » publiées par les VLOP fournissent des informations sur la manière dont les plateformes identifient, évaluent et atténuent les risques, y compris ceux liés aux droits de l’homme, découlant de la conception et de l’utilisation de leurs systèmes, comme l’exigent les articles 34 et 35 de la DSA. Bien que la DSA ait le potentiel d’améliorer la transparence et de soutenir les droits de l’homme, les incitations qu’elle crée pourraient également conduire à des restrictions excessives de la liberté d’expression à l’échelle mondiale.
Concilier la réduction des risques et le respect de la liberté d’expression
Plusieurs risques abordés par la DSA reflètent les questions que le Conseil a jugées prioritaires dans ses cas. Par exemple, le DSA (considérant 86) exige des plateformes qu’elles « accordent une attention particulière à l’impact sur la liberté d’expression » lorsqu’elles choisissent comment atténuer les risques systémiques. Cette considération est étroitement liée au mandat du Conseil, qui consiste principalement à garantir le respect de la liberté d’expression et à déterminer dans quels cas des restrictions à la liberté d’expression peuvent être justifiées afin de protéger d’autres droits ou intérêts. Nos décisions, qui sont contraignantes pour Meta, traitent des questions les plus complexes en matière de modération de contenu et examinent l’impact des politiques, des choix de conception et de l’utilisation de l’automatisation par Meta sur les droits des personnes. Ces décisions fournissent des indications sur la manière de concilier l’identification et l’atténuation des risques sur les plateformes de Meta avec le respect de la liberté d’expression et d’autres droits humains.
Le Conseil souligne que les évaluations des risques systémiques doivent accorder une plus grande importance au respect des droits de l’homme, y compris la liberté d’expression, afin de renforcer la responsabilité des plateformes envers les utilisateurs et améliorer la gouvernance des contenus conformément aux objectifs de la DSA. Cela va dans le sens des travaux récents menés par des organisations telles que Global Network Initiative (GNI), Digital Trust & Safety Partnership (DTSP), Access Now et le Center for Studies on Freedom of Expression and Access to Information (CELE), ainsi que par d’autres experts du domaine, afin d’approfondir la compréhension des risques systémiques, d’ancrer les évaluations des risques dans les normes mondiales en matière de droits humains et de mettre en évidence les menaces potentielles pour la liberté d’expression et les risques d’ingérence politique. S’appuyant sur ces travaux et sur son analyse approfondie des premières évaluations des risques systémiques, le Conseil formule les réflexions suivantes.
Clarifier la signification des risques systémiques
Les premiers rapports sont limités par l’absence d’une compréhension commune de ce que signifie le terme « risques systémiques ». Il n’est pas défini dans la DSA et n’est pas ancré dans le droit international relatif aux droits de l’homme. Bien que le Conseil reconnaisse l’approche délibérément flexible adoptée par la DSA, qui consiste à laisser le sens évoluer au fil du temps, cela transfère la responsabilité aux plateformes, qui doivent interpréter le concept de manière réfléchie. Dans ce contexte, il est compréhensible que les plateformes adoptent souvent par défaut une approche restrictive axée sur la conformité, qui peut nuire à une compréhension approfondie des risques systémiques émergents. Il en résulte une réduction de l’analyse des risques systémiques à un exercice de conformité formelle, comme on l’a largement constaté dans la publication initiale des évaluations des risques des plateformes en 2024.
La plupart des rapports des plateformes ne font référence qu’aux catégories de risques systémiques répertoriées par la DSA (« contenu illégal », « effets négatifs » sur les « droits fondamentaux », les processus démocratiques, la sécurité publique, la « violence sexiste » et la protection des mineurs) et à ses 11 mesures d’atténuation (par exemple, « adapter » et « ajuster » leurs choix de conception et leurs « systèmes de recommandation »). Les plateformes restent largement silencieuses sur la question de savoir si leurs évaluations ont permis d’identifier de nouveaux risques ou ont conduit à la mise en place de nouvelles mesures d’atténuation, et ne remettent pas en cause les liens présumés entre leurs plateformes et des risques spécifiques. Cette ambiguïté peut à son tour empêcher les plateformes de détecter ou de masquer les nouvelles menaces et les tendances émergentes.
Incitations à restreindre la liberté d’expression
Du point de vue de la liberté d’expression, l’ambiguïté quant à la signification du terme peut conduire à des interprétations trop larges et à une application arbitraire, encourageant ainsi des restrictions excessives à la liberté d’expression. Cela pourrait étouffer la diversité des opinions et potentiellement refroidir l’engagement des plateformes à fournir des espaces de discussion ouverte sur des sujets difficiles et sensibles. Par conséquent, cela pourrait entraver la liberté d’expression des utilisateurs sur ces plateformes. Cela risque également de compromettre certains des avantages que la DSA pourrait apporter en termes d’amélioration de l’accès aux recours pour les utilisateurs et de transparence accrue.

S’appuyer sur les normes internationales en matière de droits de l’homme pour l’établissement de rapports sur les risques systémiques
La DSA traite les droits de l’homme comme une catégorie à part entière plutôt que de les intégrer dans tous les domaines de risque, ce qui conduit à des approches fragmentées quant à la manière dont les plateformes identifient, évaluent et atténuent les risques. Cela pose particulièrement problème compte tenu de la nouvelle norme de la DSA selon laquelle les mesures d’atténuation doivent être « raisonnables, proportionnées et efficaces », qui ne s’accompagne d’aucune directive claire quant à son implémentation. En plaçant les droits humains dans une catégorie distincte, la DSA passe à côté d’une occasion d’intégrer pleinement les considérations relatives aux droits humains dans la gouvernance des risques systémiques. Cela incite les plateformes à privilégier certains droits par rapport à d’autres et les dissuade d’évaluer comment chaque domaine de risque ou « facteur d’influence » peut affecter les droits humains dans leur ensemble. Une étude récente menée par CELE, une ONG basée en Argentine, soutient que l’approche fondée sur les risques « écarte les droits du centre de la gouvernance de l’Internet et peut créer une logique de "conformité symbolique" où le rôle des droits dans la gouvernance est encore davantage diminué ». S’appuyer sur les normes mondiales en matière de droits humains pourrait favoriser une approche plus cohérente et fondée sur les droits pour la notification des risques systémiques, contribuant ainsi à harmoniser les méthodologies tout en garantissant un cadre commun pour l’évaluation des impacts sur les droits.
Nuances négligées
Ce traitement fragmenté devient particulièrement évident dans le contexte de la liberté d’expression. Si les rapports autonomes peuvent aborder les préoccupations relatives aux pratiques de modération du contenu, aux suspensions de comptes ou à la fausse information, ils négligent souvent des questions plus nuancées. Par exemple, ils ne tiennent pas compte de la manière dont d’autres domaines à risque tels que les « contenus illégaux » ou les « facteurs d’influence » tels que la détection automatisée, les algorithmes de recommandation ou les fonctionnalités de recherche peuvent avoir des répercussions systémiques sur la liberté d’expression, même si ces effets semblent initialement limités. Ou, dans un autre cas, lorsque les plateformes coopèrent avec les gouvernements pour supprimer des contenus, on ne sait souvent pas très bien comment ces demandes sont formulées, enregistrées ou traitées.
Ce manque de transparence est un problème récurrent identifié dans les cas traités par le Conseil, qui a examiné la nature opaque et incohérente des demandes des États (voir les décisions relatives à la publication partagée d’Al Jazeera, la musique drill britannique et l’isolation d’Öcalan), et leur potentiel à restreindre la liberté d’expression. Les plateformes s’appuient également fortement sur des systèmes automatisés pour détecter et supprimer du contenu, ce qui peut, d’une part, conduire à une application excessive des mesures de lutte contre les discours politiques et les contre-discours. D’autre part, réduire la dépendance à l’automatisation peut également comporter des risques, avec des conséquences inégales pour différents utilisateurs. Le Conseil a récemment recommandé à Meta d’examiner les implications mondiales de sa décision, annoncée le 7 janvier 2025, de réduire sa dépendance à l’automatisation dans certains domaines politiques.
Intégrer les droits humains
Afin d’intégrer les droits humains en tant que question transversale, les plateformes pourraient bénéficier d’une plus grande clarté et de directives d’implémentation sur la manière d’identifier et d’évaluer les risques à l’aide d’un cadre fondé sur les droits, assorti de critères clairs et cohérents. Bien que de nombreuses plateformes aient développé leurs propres approches, elles font souvent référence à divers cadres dans leurs rapports, allant des Principes directeurs des Nations Unies à des modèles de gestion des risques provenant de secteurs non liés, tels que la finance et le changement climatique. Cela conduit à une évaluation incohérente de facteurs tels que la portée, l’ampleur, le caractère irrémédiable et la probabilité des impacts négatifs potentiels. Tout cela empêche les parties prenantes de comparer les risques entre les différents services et d’évaluer les préjudices et les limitations à l’échelle du secteur qui pèsent sur la liberté d’expression des utilisateurs.
S’appuyer sur les orientations fournies par les traités internationaux et les Principes directeurs des Nations Unies pourrait contribuer à garantir que les efforts visant à identifier et à évaluer les risques systémiques ne portent pas indûment atteinte aux droits de l’homme. Les Principes directeurs des Nations Unies offrent une approche structurée pour évaluer les impacts sur les droits humains, en mettant l’accent sur l’engagement des parties prenantes, le contexte et l’attention portée aux groupes vulnérables. Ils comprennent des directives bien établies sur l’évaluation de la portée, de l’ampleur, du caractère irrémédiable et de la probabilité des effets négatifs potentiels sur les droits de l’homme. L’utilisation des Principes directeurs des Nations Unies améliorerait la comparabilité entre les plateformes et garantirait que les évaluations des risques vont au-delà de ce qui est immédiatement visible ou quantifiable, en prenant en compte les impacts plus larges et à plus long terme inhérents à la conception et au fonctionnement des plateformes.
Distinguer les risques et les mesures d’atténuation
Pour relever ces défis, les plateformes doivent également disposer d’une méthode structurée permettant de distinguer la hiérarchisation des risques de la détermination des mesures d’atténuation. Une approche fondée sur les droits pourrait aider les plateformes à appliquer des mesures soigneusement calibrées, plutôt que de simplifier à l’extrême les évaluations basées sur la hiérarchisation des risques. Cette approche devrait inclure une évaluation des impacts des stratégies d’atténuation elles-mêmes, à l’aide de critères clairs et spécifiques aux droits. Par exemple, pour mesurer l’efficacité de la modération de contenu, il faudrait évaluer la prévalence du contenu, le volume des décisions, les taux d’erreur d’application et les résultats des appels. Cela permettrait de garantir que les réponses aux risques ne génèrent pas d’impacts nouveaux ou disproportionnés, tout en offrant une transparence plus fine et un meilleur accès aux données afin de soutenir les recherches menées par des tiers sur les tendances en matière de modération.
Si la DSA a pour objectif d’établir un cadre pour l’évaluation des mesures d’atténuation en exigeant qu’elles soient « raisonnables, proportionnées et efficaces », elle ne fournit toutefois pas de directives claires pour leur implémentation. Comme pour l’identification et l’évaluation des risques, cela laisse une grande marge d’appréciation aux plateformes et conduit à l’utilisation de méthodologies divergentes, ce qui peut affecter la qualité, l’efficacité et la rapidité de ces mesures d’atténuation.
Des orientations plus claires sur la manière d’évaluer et d’implémenter les mesures d’atténuation pourraient être obtenues en s’appuyant sur les cadres mondiaux existants pour l’évaluation des restrictions à la liberté d’expression : Notamment le test en trois parties applicable aux restrictions légitimes à la liberté d’expression, fondé sur l’article 19 (3) du Pacte international relatif aux droits civils et politiques (PIDCP), et sa pertinence pour les entreprises dans le cadre des Principes directeurs des Nations Unies. Cela permettrait aux plateformes de mieux évaluer les stratégies d’atténuation en intégrant les préoccupations liées à la liberté d’expression et d’autres objectifs légitimes. Un autre avantage serait de veiller à ce que la liberté d’expression et le discours civique ne soient pas considérés comme un domaine « à risque » isolé, mais intégrés comme une question transversale.
Un fossé comblé par les organisations
Adopter les cadres existants remettrait en question l’idée selon laquelle la liberté d’expression est toujours en contradiction avec le respect des autres droits humains et des intérêts sociétaux, et encouragerait des approches innovantes en matière d’atténuation des risques. Cette approche permettrait également de clarifier la relation entre la norme « raisonnable, proportionnée et efficace » de la DSA et les cadres bien établis en matière de droits humains, tels que le test en trois parties de légalité, de légitimité, de nécessité et de proportionnalité prévu à l’article 19 du PIDCP. Le Conseil applique ce test en trois parties dans tous nos cas afin d’évaluer si les interventions de Meta en matière d’expression répondent aux critères de légalité, d’objectif légitime, de nécessité et de proportionnalité. Cela fournit un modèle transparent et reproductible pour l’analyse fondée sur les droits que les plateformes peuvent adopter dans le cadre de leurs propres efforts d’atténuation.
Une réponse cohérente et mondiale
Les cadres de gestion du risque systémique conçus dans le cadre de régimes réglementaires régionaux, tels que la DSA, pourraient finir par influencer les approches réglementaires dans d’autres régions. Il est donc essentiel que l’autorité de régulation clarifie le rôle transversal des droits de l’homme dans tous les domaines à risque et que les plateformes adoptent des cadres fondés sur les normes internationales en matière de droits de l’homme afin de garantir que leurs systèmes atténuent efficacement les risques dans les juridictions régionales, tout en maintenant une cohérence mondiale. Comme le démontre le travail approfondi du Conseil, le recours à des normes mondiales nécessite de prendre en considération les contextes locaux et régionaux, tant lors de l’identification des risques que lors de la conception des mesures d’atténuation. Bien que les atteintes aux droits individuels puissent se manifester différemment selon les régions, l’application d’un cadre mondial peut garantir que la réponse d’une entreprise soit cohérente et fondée sur le respect de la liberté d’expression.

Intégrer les parties prenantes dans les évaluations et la conception des mesures d’atténuation
Bien que toutes les plateformes mentionnent l’engagement des parties prenantes (telles que la société civile, le monde universitaire et les communautés marginalisées) dans leurs rapports, on dispose de peu d’informations sur la manière dont ces contributions influencent les évaluations des risques systémiques. Bien que les plateformes décrivent en détail leurs processus de consultation, elles n’établissent pas clairement de liens entre les résultats de ces consultations et leur analyse des risques ou leur évaluation des mesures d’atténuation. Ce rapport sur l’engagement des parties prenantes n’est pas non plus conforme aux bonnes pratiques sectorielles décrites dans les Principes directeurs des Nations Unies. Plus précisément, en raison du manque de clarté quant à la manière dont les engagements sont structurés, aux parties prenantes impliquées et aux préoccupations soulevées, il est difficile de comprendre comment les avis des parties prenantes influencent les réponses des plateformes aux risques individuels, avant et après la mise en œuvre des mesures d’atténuation.
Diversifier les perspectives
Un engagement significatif des parties prenantes doit donner la priorité à la contribution des personnes et des groupes les plus touchés par les décisions de la plateforme, en recherchant activement leur expertise et leurs points de vue diversifiés. De plus, ce type d’engagement est essentiel pour prendre en compte les facteurs régionaux et mondiaux lors de l’évaluation des risques systémiques et des mesures d’atténuation. Alors que la DSA met l’accent sur l’évaluation localisée des risques, les méthodologies actuelles ne tiennent souvent pas compte de la diversité locale (par exemple, les différentes langues et cultures de l’UE), car les plateformes se concentrent principalement sur les questions structurelles qui affectent leurs systèmes. Cette situation est aggravée par un manque d’engagement ciblé des parties prenantes, ce qui conduit à des évaluations des risques qui ne reflètent pas la complexité des contextes locaux.
La priorité accordée par le Conseil à l’engagement des parties prenantes dans les cas et les avis consultatifs en matière de politique souligne à quel point ces efforts peuvent accroître la transparence et la participation, et amplifier la voix des personnes et des communautés les plus touchées par les décisions des plateformes (voir l’avis consultatif en matière politique « Shaheed »). En outre, les travaux d’organisations spécialisées telles que la Global Network Initiative et le forum Digital Trust & Safety Partnership soulignent à quel point les consultations multipartites avec divers experts peuvent enrichir les évaluations des risques et les stratégies d’atténuation, et aider les plateformes à aligner ces processus sur une approche fondée sur les droits.
Approfondir les analyses grâce aux données issues des appels.
Étant donné que les premiers rapports des plateformes sont principalement qualitatifs, ils fournissent des informations limitées sur les données quantitatives utilisées pour évaluer les risques et les mesures d’atténuation. Lorsqu’elles sont citées, les mesures sont souvent générales et font double emploi avec les informations déjà publiées dans les rapports de transparence. En s’appuyant sur l’expérience du Conseil, une façon d’évaluer l’efficacité des mesures d’atténuation, en particulier en matière de liberté d’expression et d’autres droits humains, consiste à recourir à des évaluations qualitatives et quantitatives des données relatives aux appels des utilisateurs, telles que les décisions de suppression ou de restauration de contenu. Les appels ne sont pas seulement un mécanisme permettant de corriger les erreurs, ils constituent également une garantie essentielle pour la protection de la liberté d’expression, car ils permettent de mettre en évidence les pratiques répressives susceptibles d’entraver l’expression légitime. Les signalements des utilisateurs et les appels contre les décisions de laisser du contenu en ligne peuvent également mettre en évidence les cas où les pratiques d’application de la loi ne parviennent pas à limiter correctement les contenus préjudiciables.
Les tendances en matière d’application de la loi comme indicateurs de risques
Les appels peuvent également fournir des informations précieuses sur la précision de l’application et les risques résiduels. Par exemple, les données relatives au volume des appels, à la situation géographique, aux politiques pertinentes, aux domaines de risque associés et aux résultats peuvent aider à déterminer quelles mesures d’atténuation sont efficaces à long terme et lesquelles doivent être améliorées. Recevant chaque année des centaines de milliers d’appels provenant du monde entier, les données du Conseil pourraient contribuer à mettre en évidence les tendances en matière d’application de la loi en tant qu’indicateurs potentiels de risques, tels que la censure des contenus journalistiques et l’application excessive ou insuffisante des politiques en période de crise, ainsi qu’à évaluer l’efficacité des mesures d’atténuation. Cela pourrait à son tour compléter les processus propres aux plateformes, contribuant ainsi à une surveillance indépendante.
En analysant systématiquement les données, en les communiquant ouvertement et en les intégrant de façon appropriée et cohérente dans les évaluations des risques, les plateformes amélioreront non seulement l’efficacité des mesures d’atténuation, mais renforceront également la confiance dans leur engagement à protéger les droits humains.
Conclusion
Les premières évaluations ont désormais été publiées et, alors que les plateformes élaborent leurs prochains rapports, le moment est venu d’affiner les méthodologies afin de garantir que les produits, les fonctionnalités des plateformes et les systèmes de modération des contenus soient évalués avec plus de précision, de profondeur et de rigueur. Une approche transparente et multipartite, réunissant diverses expertises et perspectives, est essentielle pour soutenir cette initiative. Il est essentiel que les droits de l’homme, en particulier la liberté d’expression, soient placés au centre des évaluations des risques systémiques afin de protéger la liberté d’expression, et non de constituer un mécanisme de restriction.
En s’appuyant sur son expertise, le Conseil s’engage à contribuer à l’élaboration d’approches fondées sur les droits qui placent la liberté d’expression au centre de leurs préoccupations. Compte tenu de la nature itérative des évaluations, le Conseil encourage les plateformes à intégrer les commentaires et les régulateurs de tenir compte de ces informations lorsqu’ils élaborent des lignes directrices à l’intention des plateformes et des auditeurs.
Le Conseil se réjouit de collaborer avec les organisations et les experts intéressés dans le domaine de l’évaluation et de l’atténuation des risques systémiques.