Renversé
Image dégradante des candidats aux élections américaines
23 octobre 2024
Un utilisateur a fait appel de la décision de Meta de supprimer un contenu comportant une image retouchée et insultante de la candidate à l’élection présidentielle américaine Kamala Harris et de son colistier Tim Walz.
Les décisions sommaires concernent les cas pour lesquels Meta est revenue sur sa décision initiale après que le Conseil les a portés à l’attention de l’entreprise. Elles contiennent des informations relatives aux erreurs reconnues par Meta. Elles sont approuvées par une partie du Conseil (et pas par l’ensemble de ses membres), n’impliquent pas de commentaires publics et n’ont pas valeur de précédent pour le Conseil. Les décisions sommaires exercent une influence directe sur les décisions de Meta en assurant la transparence quant à ses corrections et en identifiant les domaines dans lesquels Meta pourrait améliorer son application des politiques.
Résumé
Un utilisateur a fait appel de la décision de Meta de supprimer un contenu comportant une image retouchée et insultante de la candidate à l’élection présidentielle américaine Kamala Harris et de son colistier Tim Walz. Après que le Conseil a porté l’appel à l’attention de Meta, l’entreprise est revenue sur sa décision initiale et a restauré la publication.
À propos du cas
En août 2024, un utilisateur de Facebook a publié une image retouchée de l’affiche du film comique de 1994 « Dumb and Dumber ». Sur l’image retouchée, les visages des acteurs originaux sont remplacés par ceux de la candidate à l’élection présidentielle américaine, la vice-présidente Kamala Harris, et de son colistier, le gouverneur du Minnesota Tim Walz. Comme sur l’affiche originale, les deux personnages se saisissent mutuellement les tétons par-dessus leurs vêtements. Le contenu publié était accompagné d’une légende comprenant les emojis « 🤷♂️🖕🖕 ». Meta a d’abord supprimé la publication de l’utilisateur de Facebook en vertu de son Standard de la communauté en matière d’intimidation et de harcèlement, qui interdit « les dessins et les images retouchés sexualisés et dégradants ». Lorsque le Conseil a porté ce cas à l’attention de Meta, l’entreprise a déterminé que la suppression du contenu était injustifiée et a restauré la publication sur Facebook. Meta a expliqué que ses Standards de la communauté n’avaient pas été enfreints dans ce cas, car l’entreprise ne considère pas que le fait de pincer le mamelon d’une personne par-dessus ses vêtements constitue une activité sexuelle.
Autorité et champ de compétence du Conseil
Le Conseil jouit de l’autorité nécessaire pour examiner la décision de Meta à la suite d’un appel interjeté par l’utilisateur dont le contenu a été supprimé (article 2, section 1 de la Charte ; article 3, section 1 des Statuts).
Lorsque Meta reconnaît avoir commis une erreur et revient sur sa décision dans un cas soumis à l’examen du Conseil, ce dernier peut décider de ne statuer que sommairement sur ce cas (article 2, section 2.1.3 des Statuts). Le Conseil réexamine la décision initiale afin de mieux comprendre le processus de modération de contenu, de réduire les erreurs et d’accroître l’équité pour les personnes qui utilisent Facebook, Instagram et Threads.
Signification du cas
Dans les cas d’Images explicites générées par l’IA de personnalités publiques féminines, le Conseil a décidé que deux images générées par l’IA enfreignaient la règle de Meta interdisant les « images retouchées sexualisées et dégradantes » en vertu de la politique en matière d’intimidation et de harcèlement. Les deux images avaient été modifiées pour montrer les visages de personnalités publiques réelles avec un corps nu différent (réel ou fictif). Toutefois, dans ce cas, le Conseil souligne l’application excessive de la politique de Meta en matière d’intimidation et de harcèlement en ce qui concerne la satire et le discours politique sous la forme d’une représentation désobligeante non sexualisée de personnalités politiques. Il souligne également les risques d’une application excessive de la politique en matière d’intimidation et de harcèlement, notamment en période électorale, car elle peut conduire à une suppression excessive des discours politiques et empêcher les utilisateurs de critiquer les représentants du gouvernement et les candidats aux élections, y compris sous forme de sarcasme. Cette publication n’est rien d’autre qu’une banale image satirique de personnalités politiques connues qui est instantanément reconnaissable en tant que telle. Dans le cadre des élections, le Conseil a précédemment recommandé que Meta développe un cadre d’évaluation de ses efforts en matière d’intégrité des élections afin de fournir à l’entreprise des données pertinentes pour améliorer son système de modération de contenu dans son ensemble et décider de la meilleure façon d’utiliser ses ressources en période électorale (recommandation n° 1 du cas sur le discours d’un général brésilien). Meta a informé le Conseil de ses progrès concernant la mise en œuvre de cette recommandation. Néanmoins, l’incapacité de l’entreprise à identifier la nature de cette publication et à la traiter en conséquence soulève de sérieuses inquiétudes quant aux systèmes et aux ressources dont dispose Meta pour déterminer efficacement le contenu de ce type en période électorale.
Le Conseil a par le passé demandé à Meta de mettre en place des procédures adéquates pour évaluer les contenus dans leur contexte respectif. Par exemple, le Conseil a déclaré que Meta devrait : « s’assurer que les procédures adéquates sont mises en place pour évaluer correctement les contenus satiriques et leur contexte respectif » (recommandation n° 3 du cas sur le Meme aux « deux boutons »). Meta a fait état de la mise en œuvre de cette recommandation, mais n’a pas encore publié d’informations pour en donner la preuve.
Le Conseil a également déclaré que le Standard de la communauté en matière d’intimidation et de harcèlement devrait « expliquer clairement aux utilisateurs en quoi le harcèlement et l’intimidation diffèrent des discours uniquement offensants qui peuvent être protégés par la législation internationale des droits humains » (recommandation n° 2 du cas sur les Manifestations pro-Navalny en Russie). Meta a refusé d’appliquer cette recommandation suite à une évaluation de faisabilité. Enfin, le Conseil a déclaré que Meta devrait : « inclure des exemples de contenus en infraction et autorisés dans le Standard de la communauté sur le harcèlement et l’intimidation en vue de clarifier les lignes d’action établies ainsi que la manière dont ces distinctions peuvent reposer sur le statut identitaire de la cible » (recommandation n° 4 du cas sur les Manifestations pro-Navalny en Russie). Meta a refusé de mettre en œuvre cette recommandation après avoir évalué sa faisabilité.
Le Conseil estime que l’application complète de ces recommandations, qui préconisent une évaluation efficace du contexte et l’élaboration d’un cadre pour l’intégrité des élections, permettrait de réduire le nombre d’erreurs d’application.
Décision
Le Conseil a annulé la décision initiale de Meta visant à supprimer le contenu. Le Conseil reconnaît que Meta a corrigé son erreur initiale une fois que le Conseil a porté le cas à son attention.
Retour aux décisions de cas et aux avis consultatifs politiques