Décision sur plusieurs affaires
Déclaration d’un secrétaire du cabinet kényan
9 décembre 2025
Deux utilisateurs ont fait appel séparément des décisions de Meta de supprimer deux publications relatives au discours du secrétaire du cabinet kényan chargé du ministère de l’Intérieur, Kipchumba Murkomen, au sujet de manifestants. Après que le Conseil a porté ces appels à l’attention de Meta, l’entreprise est revenue sur ses décisions initiales et a restauré les deux publications.
2 cas inclus dans ce lot
FB-H5X3TL3A
Cas de violence et incitation sur Facebook
FB-KW8A63JE
Cas de violence et incitation sur Facebook
Les décisions sommaires concernent les cas pour lesquels Meta est revenue sur sa décision initiale après que le Conseil les a portés à l’attention de l’entreprise. Elles contiennent des informations relatives aux erreurs reconnues par Meta. Elles sont approuvées par une partie du Conseil (et pas par l’ensemble de ses membres), n’impliquent pas de commentaires publics et n’ont pas valeur de précédent pour le Conseil. Les décisions sommaires exercent une influence directe sur les décisions de Meta en assurant la transparence quant à ses corrections et en identifiant les domaines dans lesquels Meta pourrait améliorer son application des politiques.
Résumé
Deux utilisateurs ont fait appel séparément des décisions de Meta de supprimer deux publications relatives au discours du secrétaire du cabinet kényan chargé du ministère de l’Intérieur, Kipchumba Murkomen, au sujet de manifestants. Après que le Conseil a porté ces appels à l’attention de Meta, l’entreprise est revenue sur ses décisions initiales et a restauré les deux publications.
À propos des cas
Dans le premier cas, un utilisateur de Facebook dont la biographie indique qu’il gère une « page d’actualité politique » a partagé une vidéo qui montre le secrétaire du cabinet kényan chargé du ministère de l’Intérieur et de l’Administration nationale, Kipchumba Murkomen, lors d’une conférence de presse. Dans cette vidéo, M. Murkomen déclare « We are telling the police, anyone who approaches a police station, shoot him » (Nous disons à la police de tirer sur tous ceux qui s’approchent d’un commissariat de police). La vidéo comprend une légende en swahili selon laquelle M. Murkomen a été « heckled » (interpellé grossièrement) après avoir fait cette déclaration. Dans le second cas, un autre utilisateur de Facebook a publié du contenu en swahili qui cite l’appel de M. Murkomen à tirer sur tout manifestant qui s’approcherait d’un commissariat de police.
Les deux publications remontent à juin 2025, après le discours de M. Murkomen. Cette déclaration a suscité de vives critiques de la part des Kényans et de défenseurs des droits humains, qui l’accusent de violer les mesures de protection constitutionnelle. M. Murkomen a fait cette déclaration sur fond de répression gouvernementale à grande échelle des protestations qui ont secoué tout le pays et qui ont engendré des heurts violents, causé des victimes et soulevé de nombreuses préoccupations pour les droits humains. Ces manifestations ont débuté en juin 2024 en réponse à une proposition de loi controversée qui envisageait une hausse des taxes substantielle. Le mouvement s’est ravivé en juin 2025 après la mort en garde à vue du blogueur et professeur Albert Ojwang.
L’utilisateur qui a fait appel auprès du Conseil dans le premier cas a expliqué qu’il était un organe de presse et que le simple fait de souligner les propos de M. Murkomen n’était pas une incitation à la violence. Il a également affirmé que la suppression de son contenu « restreignait la liberté des médias ». L’utilisateur qui a fait appel dans le second cas a dit que sa publication « n’était qu’une déclaration » faite par M. Murkomen « pendant la conférence de presse après les manifestations de la génération Z au Kenya » alors qu’il s’adressait à la police, et que cette déclaration avait été « capturée par les utilisateurs de Facebook et les organes médiatiques ».
Au titre de sa politique sur la violence et l’incitation, Meta supprime les « menaces de violence pouvant entraîner la mort (ou d’autres formes de violence de haute gravité) ». Toutefois, la politique autorise explicitement les menaces « lorsqu’elles sont partagées dans un contexte de sensibilisation ou de condamnation ».
Après que le Conseil a porté ces deux cas à l’attention de Meta, l’entreprise a déterminé que les contenus n’enfreignaient pas sa politique relative à la violence et à l’incitation et que leur suppression était injustifiée. L’entreprise a expliqué que la publication dans le premier cas « faisait état de l’interpellation grossière [de M. Murkomen] » et qu’elle en avait conclu que le contenu n’enfreignait pas sa politique. Dans le second cas, Meta a noté que « bien que la publication ne mentionne pas expressément le contexte qui l’entoure, elle a été partagée à un moment où les médias rapportaient les commentaires de M. Murkomen ». En outre, Meta a souligné que la publication « ne contenait aucun autre indicateur de discours violent. Ensemble, tous ces éléments suggèrent que le contenu a été partagé à des fins de sensibilisation (un exemple de journalisme civique), ce qui est autorisé par [sa] politique ». L’entreprise a ensuite restauré les deux publications sur Facebook.
Autorité et champ de compétence du Conseil
Le Conseil jouit de l’autorité nécessaire pour examiner la décision de Meta à la suite d’un appel interjeté par l’utilisateur dont le contenu a été supprimé (article 2, section 1 de la Charte ; article 3, section 1 des Statuts).
Lorsque Meta reconnaît avoir commis une erreur et revient sur sa décision dans un cas soumis à l’examen du Conseil, ce dernier peut décider de ne statuer que sommairement sur ce cas (article 2, section 2.1.3 des Statuts). Le Conseil réexamine la décision initiale afin de mieux comprendre le processus de modération de contenu, de réduire les erreurs et d’accroître l’équité pour les personnes qui utilisent Facebook, Instagram et Threads.
Importance des cas
Les deux éléments de contenu sont des exemples de surmodération de la politique de Meta sur la violence et l’incitation, qui nuisent à la liberté d’expression des utilisateurs dans un pays en proie à des manifestations marquées par des heurts violents, des victimes et de sérieuses préoccupations pour les droits humains. Le Conseil a fait remarquer qu’après avoir porté ces cas à l’attention de Meta, l’entreprise les avait évalués en tenant compte de l’actualité au Kenya. Elle a notamment indiqué que la seconde publication avait été « partagée à un moment où les médias rapportaient les commentaires de M. Murkomen ». Cette nouvelle approche est cohérente avec les conseils du Conseil sur la manière dont Meta devrait appliquer ses politiques de contenu sur ses plateformes, bien qu’elle n’ait pas été suivie par les équipes de modération qui ont initialement examiné les deux publications. Dans la décision Appel à la manifestation des femmes à Cuba, le Conseil a souligné à quel point il était important de s’assurer que cette approche contextuelle de la modération de contenu soit adoptée à grande échelle « afin de réduire les taux de faux positif (la suppression erronée de contenu qui n’enfreint pas ses politiques) ».
Le Conseil a émis une recommandation relative à la politique de Meta sur la violence et l’incitation et à son application qui est pertinente dans ce cas-ci : « Meta devrait ajouter au langage public de son Standard de la communauté relatif à la violence et à l’incitation le fait que la société interprète la politique pour autoriser le contenu comportant des déclarations avec “une référence neutre à un résultat potentiel d’une action ou un avis consultatif” et le contenu qui “condamne ou sensibilise aux menaces violentes” » (recommandation n° 1 dans le cas Poème russe). La mise en œuvre partielle de la recommandation est attestée par des informations publiées. Meta a mis à jour sa politique sur la violence et l’incitation (cf. Rapport du T4 2023 de Meta) pour inclure ce qui suit : « Nous n’interdisons pas les menaces lorsqu’elles sont partagées dans un contexte de sensibilisation ou de condamnation, lorsqu’il s’agit de menaces moins graves dans le cas de sports de contact, ou de certaines menaces visant des acteurs violents, comme les groupes terroristes. » Toutefois, Meta a indiqué dans son Rapport du T3 2023 que l’entreprise avait décidé de ne pas ajouter de mention spécifique concernant « les références neutres à un résultat potentiel d’une action ou un avis consultatif, lorsque l’auteur de la publication ne profère pas de menace violente », car cela est « généralement couvert par la justification de la politique et la définition et le cadre d’une menace ».
En outre, le Conseil a émis des recommandations pour mieux comprendre à quel point les décisions de modération de Meta sont précises et l’approche de l’entreprise pour mesurer cette exactitude, ainsi que pour améliorer la transparence globale à ce sujet :
- « Pour prendre des décisions éclairées dans le cadre de ses futures évaluations et recommandations relatives à la politique sur la violence et l’incitation, ainsi que pour pouvoir effectuer ses propres analyses sur la nécessité et la proportionnalité des compromis trouvés au cours du développement de la politique », le Conseil recommande à Meta de « fournir au Conseil les données qu’elle utilise pour évaluer la précision avec laquelle elle applique sa politique. Ces informations doivent être suffisamment complètes pour permettre au Conseil de valider les arguments de Meta selon lesquels le type d’erreurs de modération dans ces cas-ci ne découle pas de problèmes systémiques au sein des processus de modération de Meta » (recommandation n° 1 du cas Publications sur l’avortement aux États-Unis).
- Meta « doit améliorer ses rapports de transparence pour augmenter la qualité des informations qu’elle fournit au public au sujet du taux d’erreurs de modération en ajoutant ces informations par pays, par langue et par standard de la communauté ». Le Conseil soutient que des « rapports de transparence plus détaillés aideront le public à détecter les endroits où les erreurs sont les plus fréquentes, y compris les répercussions spécifiques susceptibles de toucher les groupes minoritaires, et à alerter [Meta] pour que l’entreprise y remédie » (recommandation n° 3 du cas Inquiétude pendjabie concernant le RSS en Inde).
En réponse aux deux recommandations, Meta a partagé un « résumé confidentiel des données de modération […] y compris un aperçu des données sur la précision de la modération » pour les politiques sur la violence et l’incitation, d’une part, et sur les organisations et les personnes dangereuses, d’autre part (Rapport du S1 2025 de Meta sur le Conseil de surveillance). Le Conseil considère que ces deux recommandations ont été « omises ou recadrées » étant donné que les réponses de Meta ne traitaient pas de l’objectif principal des recommandations. Pour ce qui est de la première recommandation, cela est dû au fait que le Conseil demandait à Meta de lui fournir les données qu’elle utilise pour évaluer la précision de l’application de ses politiques, alors que Meta n’a partagé que les résultats d’une évaluation. Le Conseil a considéré que l’objectif de la seconde recommandation n’avait pas été atteint parce qu’il demandait à Meta de mettre lesdites données à la disposition du public et de les classer par pays et par langue.
Bien que les plateformes de Meta puissent être exploitées pour diffuser des menaces en cas d’application trop laxiste du standard de la communauté de l’entreprise sur la violence et l’incitation, comme le Conseil l’a souligné dans sa décision Premier ministre cambodgien, une application trop stricte de ladite politique nuit à la capacité des utilisateurs à publier et partager du contenu et des informations d’actualité sur les évènements d’intérêt public. Meta devrait avant tout chercher à réduire le nombre de ce type d’erreurs. La mise en place complète des recommandations susmentionnées pourrait réduire le nombre de suppressions indues au titre de la politique de l’entreprise sur la violence et l’incitation. Premièrement, cela permettrait de prévenir (et de corriger) les erreurs de suppression en sensibilisant davantage les utilisateurs et les modérateurs de contenu aux exceptions à cette politique. Deuxièmement, l’entreprise serait en mesure de peaufiner son approche pour mesurer et comparer les données de précision au travers des langues et/ou des régions afin de mieux répartir les ressources et, ainsi, d’améliorer le degré de précision où cela est nécessaire. Enfin, un rapport public sur le degré de précision des examens relatifs à la politique sur la violence et l’incitation permettrait à l’entreprise de faire preuve de plus de transparence et de générer un engagement avec Meta qui a le potentiel d’entraîner d’autres améliorations.
Décision
Le Conseil a annulé les décisions initiales de Meta de supprimer les deux éléments de contenu. Il reconnaît que Meta a corrigé ses erreurs initiales une fois qu’il a porté ces cas à l’attention de l’entreprise.
Retour aux décisions de cas et aux avis consultatifs politiques