Renversé

Vidéo manipulée grâce à l’IA de promotion d’un jeu de hasard

Le Conseil a annulé la décision de Meta de conserver une publication Facebook qui incluait une vidéo retouchée grâce à l’IA. Une personne qui semblait être Ronaldo Nazário, une légende du football brésilien, y apportait son soutien à un jeu en ligne.

Type de décision

Standard

Politiques et sujets

Sujet
Photo ou vidéo retouchée

Régions/Pays

Emplacement
Brésil

Plate-forme

Plate-forme
Facebook

Résumé

Le Conseil a annulé la décision de Meta de conserver une publication Facebook qui incluait une vidéo retouchée grâce à l’IA. Une personne qui semblait être Ronaldo Nazário, une légende du football brésilien, y apportait son soutien à un jeu en ligne. La suppression de la publication est cohérente avec les Standards de la communauté de Meta sur la fraude et le spam. Meta aurait également dû refuser la diffusion du contenu à des fins publicitaires, étant donné que ses règles interdisent le recours à l’image d’une personnalité célèbre pour inciter les gens à interagir avec une publicité.

Sur la base de rapports publics, le Conseil note qu’il est probable que Meta autorise une quantité considérable de spams sur ses plateformes par peur d’appliquer trop sévèrement ses politiques à un petit nombre de vraies marques de soutien par des célébrités. Les équipes de révision à grande échelle n’ont pas les moyens nécessaires pour faire appliquer cette interdiction au contenu qui établit un profil-type faux ou qui usurpe l’identité d’une célébrité dans le but d’arnaquer ou d’escroquer. Meta devrait appliquer cette interdiction à grande échelle en fournissant aux équipes de modération des indicateurs souvent facilement identifiables qui permettent de détecter le contenu généré par l’IA.

À propos du cas

En septembre 2024, un utilisateur a partagé une publication qui comprenait une vidéo retouchée grâce à l’IA. Une personne, qui semblait être Ronaldo Nazário, un joueur de football brésilien à la retraite, y figurait. Il y encourageait au téléchargement de l’application d’un jeu en ligne populaire : Plinko (ou Plinco).

L’audio qui imitait la voix de Ronaldo Nazário n’était pas synchronisé avec les mouvements de ses lèvres. La vidéo incluait également des images irréalistes et générées par l’IA d’un professeur, d’un chauffeur de bus et d’un employé d’une épicerie, et renseignait le salaire moyen de ces personnes-là au Brésil. La piste audio affirmait que les joueurs sur Plinko pouvaient gagner plus d’argent grâce au jeu que les gens qui occupaient les emplois susmentionnés. La vidéo encourageait les utilisateurs à cliquer sur le lien de téléchargement de l’application, qui les redirigeait alors vers un jeu différent appelé Bubble Shooter. La publication a été vue plus de 600 000 fois.

Un utilisateur a signalé à Meta que le contenu était une arnaque ou une tentative de fraude, mais son signalement n’a pas été traité en priorité. L’entreprise n’a pas supprimé le contenu. L’utilisateur a fait appel de cette décision auprès de Meta, mais cet appel n’a pas non plus été traité en priorité par une équipe de révision, de sorte que le contenu est resté sur Facebook. Enfin, l’utilisateur a fait appel de la décision de Meta auprès du Conseil et a indiqué à celui-ci que la publication semblait sponsorisée. Lorsqu’une publication est boostée, une publicité est créée à partir de son contenu.

La publicité a été désactivée parce qu’elle enfreignait le standard publicitaire sur les pratiques commerciales inacceptables ; la publication organique originale, elle, est restée sur la plateforme. Après que le Conseil a décidé de se pencher sur ce cas-ci, Meta a supprimé la publication initiale pour violation de sa politique sur la fraude, les arnaques et les pratiques trompeuses. Meta a par la suite confirmé que la publication enfreignait également son standard sur le spam.

Les « deepfakes » et les marques de soutien qui utilisent cette méthode d’hypertrucage voient leur nombre augmenter dans le monde entier, en particulier avec des personnalités publiques qui alimentent des campagnes politiques frauduleuses et des escroqueries financières. Des rapports mettent en évidence le fait qu’au Brésil, de nombreuses escroqueries financières ayant leur origine sur Facebook, Instagram et WhatsApp impliquent du contenu manipulé grâce à l’IA.

Principales conclusions

La suppression du contenu est cohérente avec les responsabilités de Meta en matière des droits humains. Les marques de soutien manipulées et trompeuses posent des risques significatifs pour la réputation et le droit à la vie privée de la personne représentée. Elles ont également des répercussions sur le public puisqu’elles facilitent la fraude.

Le Conseil s’inquiète de voir que les équipes de modération à grande échelle ne sont pas en mesure de supprimer les publications qui établissent un profil-type faux ou qui usurpent l’identité d’une célébrité « afin d’arnaquer ou d’escroquer d’autres personnes », même lorsqu’il est clair que le contenu enfreint les politiques de Meta. Ce type de contenu peut uniquement être supprimé par les équipes spécialisées de Meta. Par conséquent, il est plus probable que sa politique sur la fraude, les arnaques et les pratiques trompeuses ne soit pas appliquée avec suffisamment de sévérité.

Il est probable que Meta autorise une quantité considérable de spams sur ses plateformes par peur d’appliquer trop sévèrement ses politiques à un petit nombre de vraies marques de soutien par des célébrités. Cela est particulièrement inquiétant lorsque l’on sait que les vraies marques de soutien par des célébrités jouissent vraisemblablement d’autres protections contre la surmodération, soit par le biais de systèmes formels tels que la vérification croisée, soit par l’intermédiaire de points de contact chez Meta. Le Conseil recommande donc à Meta de changer d’approche et d’appliquer cette règle à grande échelle.

Il est évident que la vidéo a été manipulée ou est fausse. Le Conseil estime que la publication enfreint la règle de Meta qui interdit les profils-types faux et l’usurpation d’identité des célébrités pour arnaquer ou escroquer, au titre du standard de la communauté sur la fraude, les arnaques et les pratiques trompeuses. Elle enfreint également la règle de Meta qui interdit le partage de liens trompeurs au titre de son standard de la communauté sur le spam, car elle fait la promotion de Plinko, mais redirige vers un autre jeu. Par conséquent, le Conseil trouve que la publication aurait dû être supprimée après avoir été signalée. Meta aurait dû apposer une étiquette « Notice sur l’IA » sur la publication avant même de la supprimer, comme le stipule sa politique sur les médias manipulés. L’entreprise aurait également dû refuser que le contenu serve de publicité, étant donné que son standard publicitaire sur les pratiques commerciales inacceptables interdit l’utilisation de l’image d’une célébrité et les stratégies trompeuses pour inciter les gens à interagir avec une publicité.

Il est de la responsabilité de Meta de « limiter les conséquences négatives sur les droits humains » du contenu monétisé qui pourrait arnaquer ou escroquer, conformément aux Principes directeurs des Nations Unies relatifs aux entreprises et aux droits de l’homme. Lorsque du contenu est sponsorisé, Meta devrait veiller à ce qu’il n’enfreigne pas ses politiques.

La décision du Conseil de surveillance

Le Conseil de surveillance a annulé la décision de Meta de conserver la publication sur Facebook.

Le Conseil recommande également à Meta ce qui suit :

  • Appliquer à grande échelle sa politique sur la fraude, les arnaques et les pratiques trompeuses qui interdit le contenu qui « essaye d’établir un profil-type faux ou de prétendre être une personne connue afin d’arnaquer ou d’escroquer d’autres personnes » en fournissant aux équipes de modération des indicateurs pour les aider à identifier ce type de contenu. Il peut s’agir, par exemple, de la présence de filigranes et de métadonnées ou de facteurs de manipulation évidents, comme lorsque l’audio et la vidéo ne correspondent pas.

* Les résumés de cas donnent un aperçu de chaque cas et n’ont pas valeur de précédent.

Décision complète sur le cas

1. Description du cas et contexte

En septembre 2024, un utilisateur a publié une vidéo retouchée grâce à l’IA. Une personne qui semble être Ronaldo Nazário, une légende du football brésilien à la retraite, y encourage les gens à télécharger une application pour jouer à Plinko. Plinko (ou Plinco) est un jeu en ligne populaire qui implique de lâcher une bille en haut d’une surface pyramidale dotée d’obstacles, les gains variant en fonction de l’endroit où finit la bille.

Ronaldo Nazário commence par s’adresser à la caméra. Bien que la vidéo semble à première vue réaliste, l’audio qui imite la voix de la star de football n’est pas synchronisé avec les mouvements de ses lèvres. La vidéo montre ensuite des images irréalistes et générées par l’IA d’un professeur, d’un chauffeur de bus et d’un employé d’une épicerie, ainsi que le salaire moyen de ces personnes-là au Brésil. La piste audio qui imite la voix de Ronaldo Nazário affirme que Plinko est un jeu simple qui permet aux joueurs de gagner en moyenne plus d’argent que s’ils occupaient ces fonctions-là. Enfin, la vidéo encourage les utilisateurs à cliquer sur le lien de téléchargement de l’application, qui les redirige alors vers un jeu différent appelé Bubble Shooter. La publication a été vue plus de 600 000 fois et signalée plus de 50 fois par différents utilisateurs.

Un utilisateur a signalé à Meta que le contenu était une arnaque ou une tentative de fraude, mais son signalement n’a pas été traité en priorité par une équipe de modération, et l’entreprise n’a pas supprimé le contenu. L’utilisateur a ensuite fait appel de cette décision auprès de Meta. Cet appel n’a pas non plus été traité en priorité par une équipe de révision, de sorte que le contenu est resté sur la plateforme. L’utilisateur a finalement fait appel de la décision de Meta auprès du Conseil

et indiqué à celui-ci que la publication semblait sponsorisée. Meta autorise les utilisateurs à « booster » leurs publications pour augmenter leur visibilité et faire en sorte qu’elles soient vues par plus de personnes. Lorsqu’une publication est boostée, une publicité est créée à partir de son contenu. Parallèlement, Meta a expliqué au Conseil que la publicité avait été désactivée parce qu’elle enfreignait sa politique. Cela signifie que la visibilité de la publication organique originale n’était plus boostée, mais que cette dernière est restée sur la plateforme. Après que le Conseil a décidé de se pencher sur ce cas-ci, Meta a supprimé la publication initiale, estimant qu’elle enfreignait la politique sur la fraude, les arnaques et les pratiques trompeuses. L’entreprise a également appliqué une pénalité standard au profil de l’utilisateur qui a créé la publication. Meta a par la suite confirmé que la publication enfreignait également sa politique sur le spam.

Le Conseil a pris en considération le contexte ci-dessous pour parvenir à sa décision dans le cas présent :

Les deepfakes et les marques de soutien qui s’appuient sur cette méthode d’hypertrucage représentent un problème de plus en plus préoccupant dans le monde entier. Les deepfakes posent un problème social et politique majeur au Brésil et impliquent souvent des personnalités publiques influentes. Par exemple, les fausses informations manipulées grâce à l’IA, y compris les fausses marques de soutien à des candidats, ont joué un rôle lors de récentes campagnes électorales. En 2024, le ministère des Sports brésilien a fait part de son inquiétude quant au contenu sur les réseaux sociaux qui faisait la promotion des jeux de hasard en ligne et promettait aux utilisateurs qu’ils gagneraient facilement de l’argent sans les avertir des risques inhérents. Des rapports mettent également en évidence le fait qu’au Brésil, de nombreuses escroqueries financières ayant leur origine sur Facebook, Instagram et WhatsApp impliquent du contenu manipulé grâce à l’IA (cf. le commentaire public PC-31027 du Centre des études avancées sur la cyberlégislation et l’intelligence artificielle).

2. Soumissions de l’utilisateur

L’utilisateur qui a signalé le contenu a qualifié la vidéo de mensonge et d’arnaque du fait qu’elle utilise l’image de Ronaldo Nazário pour inciter les gens à télécharger un jeu et à y jouer. L’utilisateur a expliqué que Meta apposait des avertissements et des étiquettes sur d’autres publications, mais qu’elle ne l’avait pas fait dans ce cas-ci et qu’elle n’avait pas non plus supprimé la publication. Il a déclaré que le contenu avait été visiblement manipulé et semblait sponsorisé.

3. Politiques de Meta relatives au contenu et soumissions

I. Politiques de Meta relatives au contenu

Standard de la communauté sur la fraude, les arnaques et les pratiques trompeuses

La justification de la politique sur la fraude, les arnaques et les pratiques trompeuses stipule que Meta s’évertue « à protéger les utilisateurs et les entreprises contre les escroqueries liées à l’argent, à la propriété ou aux informations à caractère personnel » en supprimant le contenu « faisant volontairement appel à des moyens trompeurs, comme les fausses déclarations intentionnelles, les informations volées et les affirmations exagérées, dans le but d’arnaquer ou d’escroquer les utilisateurs et les entreprises, ou de générer des interactions ».

La section de la politique dont l’application requiert de Meta qu’elle dispose « d’informations supplémentaires et/ou d’un contexte » indique que l’entreprise « p[eut] supprimer le contenu » qui « [e]ssaye d’établir un profil-type faux ou de prétendre être une personne connue afin d’arnaquer ou d’escroquer d’autres personnes ». Cela signifie que seules les équipes de révision spécialisées de Meta peuvent faire respecter cette règle, qui ne peut être appliquée par les équipes de modération à grande échelle.

Standard de la communauté sur le spam

La justification de la politique sur le spam explique que Meta n’autorise pas « le contenu conçu pour tromper, induire en erreur ou perturber les utilisateurs dans le but d’augmenter artificiellement le nombre de vues ». Les règles interdisent le contenu qui contient des liens trompeurs, définis comme le « [c]ontenu qui inclut un lien promettant un type de contenu, mais qui fournit quelque chose de considérablement différent ».

Standard de la communauté sur les fausses informations

Le standard de la communauté sur les fausses informations indique que Meta supprime le contenu uniquement « lorsqu’elles sont susceptibles de contribuer directement au risque de blessures physiques imminentes » ou sont « susceptibles de favoriser directement l’interférence avec le fonctionnement des processus politiques ». L’entreprise exige également « des personnes qu’elles indiquent, à l’aide de l’outil que nous avons conçu à cet effet, quand elles publient du contenu organique avec des vidéos photoréalistes ou de l’audio réaliste qui ont été créés ou retouchés numériquement ».

Si le contenu multimédia n’enfreint d’aucune autre manière les Standards de la communauté, Meta est susceptible de « placer une étiquette informative sur le contenu – ou rejeter le contenu envoyé en tant que publicité – lorsqu’il s’agit d’une image, d’une vidéo ou d’un contenu audio qui semble réaliste, créé ou retouché numériquement et impliquant un risque particulièrement élevé de tromper considérablement le public sur un sujet d’intérêt général ».

Standard publicitaire sur les pratiques commerciales inacceptables

Le standard publicitaire sur les pratiques commerciales inacceptables explique que les publicités « ne doivent pas promouvoir de produits, de services, de manœuvres ou d’offres reposant sur des pratiques identifiées comme trompeuses ou mensongères ». Dans ses règles pour les publicités, Meta interdit « d’utiliser l’image d’une personne célèbre [ou] des stratagèmes trompeurs afin d’attirer les utilisateurs vers une publicité ».

II. Soumissions de Meta

À la suite de la sélection de ce cas par le Conseil, Meta a déterminé que sa décision de laisser le contenu sur la plateforme était une erreur et a supprimé la publication pour non-respect de son Standard de la communauté sur la fraude, les arnaques et les pratiques trompeuses. Meta a indiqué que la publication enfreignait l’interdiction de contenu qui « [e]ssaye d’établir un profil-type faux ou de prétendre être une personne connue afin d’arnaquer ou d’escroquer d’autres personnes ». Elle a expliqué qu’en prétendant, grâce à l’IA, que Ronaldo Nazário utilisait ou promouvait un jeu en ligne, la vidéo cherchait à arnaquer les gens en les incitant à utiliser un produit qu’ils n’auraient peut-être pas téléchargé sans son soutien.

En réponse aux questions du Conseil sur la modération du contenu avec de faux profils-types, Meta a expliqué qu’elle n’appliquait la politique qu’après une remontée afin de s’assurer que la personne représentée n’avait effectivement pas apporté son soutien au produit. Meta a indiqué que cela nécessitait une certaine expertise et une analyse qui dépendait fortement du contexte. Elle a dit : « L’interprétation des équipes de révision à grande échelle de ce qui peut être qualifié de “profil-type faux” peut varier en fonction des régions, ce qui peut donner lieu à des choix de modération incohérents ».

Meta a également estimé que le contenu enfreignait son standard de la communauté sur le spam, qui interdit l’utilisation de liens trompeurs. Dans ce cas-ci, la publication incluait un lien qui redirigeait vers un jeu qui n’était pas Plinko. Selon Meta, l’utilisation d’un lien qui redirige vers un jeu différent suggère que le contenu a été conçu pour arnaquer ou escroquer les gens ou générer des interactions.

Meta a informé le Conseil que la suppression de ce contenu protégeait également les droits et la réputation des autres personnes. Elle a conclu que les « risques liés à l’authenticité du contenu l’emportaient sur la valeur de liberté d’expression et qu’il n’y avait pas de moyen moins perturbateur de restreindre le contenu que sa suppression ».

Le Conseil a posé à Meta dix questions, notamment sur ses pratiques de modération, la façon dont elle étiquette le contenu multimédia manipulé et son approche des arnaques qui s’appuient sur des représentations de célébrités pour générer des interactions avec du contenu payant et organique. Meta a répondu à toutes les questions.

En réponse aux questions du Conseil sur l’étiquetage du contenu manipulé grâce à l’IA, Meta a dit qu’elle n’avait pas apposé d’étiquette « Notice sur l’IA » sur la publication avant de supprimer cette dernière. Selon Meta, la vidéo « n’incluait pas d’indicateurs habituels qui auraient permis de comprendre qu’elle avait été générée par l’IA, et son auteur ne l’a pas précisé lui-même ».

4. Commentaires publics

Le Conseil a reçu quatre commentaires publics qui répondaient aux critères de soumission : un d’Amérique latine et des Caraïbes, un du Moyen-Orient et d’Afrique du Nord, un des États-Unis et du Canada, et un d’Asie centrale et du Sud. Pour consulter les commentaires publics soumis accompagnés d’un consentement à la publication, cliquez ici.

Les soumissions abordaient les thèmes suivants : les répercussions socio-économiques des deepfakes, l’efficacité des pratiques de modération de Meta et les conséquences de la décision de Meta de mettre fin à la modération proactive de certaines catégories de contenu.

5. Analyse du Conseil de surveillance

Le Conseil a analysé la décision de Meta dans le cas présent et l’a comparé à ses politiques relatives au contenu, à ses valeurs et à ses responsabilités en matière de droits humains. Il a également évalué les implications de ce cas-ci sur l’approche plus globale de la gouvernance du contenu par Meta.

Le Conseil a sélectionné ce cas-ci afin d’examiner pour la première fois les défis associés à l’application des politiques de Meta sur la fraude, les arnaques et les pratiques trompeuses. L’on s’attend à ce que la quantité de contenu multimédia manipulé dans le cadre d’arnaques augmente, surtout si l’on tient compte des avancées réalisées en matière d’IA générative. Ce cas-ci tombe sous le coup de la priorité stratégique du Conseil intitulée « Application automatisée des politiques et de la curation de contenu ».

5.1 Respect des politiques de Meta relatives au contenu

I. Règles relatives au contenu

Le Conseil estime que la publication enfreint la règle de Meta qui interdit d’« établir un profil-type faux ou de prétendre être une personne connue afin d’arnaquer ou d’escroquer d’autres personnes », au titre du standard de la communauté sur la fraude, les arnaques et les pratiques trompeuses. La vidéo fait croire que Ronaldo Nazário encourage les gens à télécharger une application de jeu de hasard grâce à laquelle ils pourront gagner de l’argent facilement. Il est évident que la vidéo est fausse ou a été manipulée, étant donné que l’audio qui imite la voix de la star de football n’est pas synchronisé avec les mouvements de ses lèvres. Le Conseil n’a trouvé aucune information publique qui corroborerait le fait que Ronaldo Nazário a apporté son soutien au jeu.

Le Conseil a également estimé que la publication enfreint la règle de Meta qui interdit le partage de liens trompeurs au titre de son standard de la communauté sur le spam, étant donné que le contenu « inclut un lien promettant un type de contenu, mais qui fournit quelque chose de considérablement différent ». La vidéo fait la promotion de Plinko et encourage les utilisateurs à télécharger le jeu, mais le lien inclus redirige vers un autre jeu.

II. Mesures de mise en application

Meta a eu de nombreuses occasions d’examiner et de supprimer ce contenu avant qu’il parvienne jusqu’au Conseil. En dépit de plus de 600 000 vues et de plus de 50 signalements d’utilisateurs, Meta n’a pas examiné la publication en priorité lorsqu’elle a été signalée pour la première fois et lorsqu’un utilisateur a par la suite interjeté appel.

Avant sa suppression, elle aurait dû être étiquetée en vertu du standard de la communauté de Meta sur les fausses informations afin d’indiquer que son contenu avait été manipulé. Dans sa décision Vidéo retouchée du président Biden, le Conseil a recommandé à Meta d’étiqueter le contenu manipulé afin d’éviter que les utilisateurs soient trompés quant à son authenticité. Meta a appliqué cette recommandation. Dans ce cas-ci, la vidéo a été retouchée numériquement pour faire croire aux utilisateurs que Ronaldo Nazário, une personnalité publique célèbre, apportait son soutien à une application de jeu de hasard. Conformément à sa nouvelle approche du contenu généré par l’IA, Meta aurait dû apposer une étiquette « Notice sur l’IA » afin d’indiquer que le contenu avait été créé ou retouché numériquement.

Meta étiquette le contenu manipulé et trompeur en se fiant aux métadonnées et aux filigranes. L’entreprise a expliqué au Conseil qu’elle avait « étiqueté une grande quantité de contenu en suivant cette approche », mais qu’elle ne dévoilait pas publiquement de statistiques sur son efficacité. Pour les types de contenu qui ne contiennent pas de tels indicateurs, comme c’est le cas ici, d’autres éléments peuvent révéler qu’ils ont été générés par l’IA. Ainsi, l’audio et la vidéo de la publication concernée ici n’étaient pas synchronisés, et la vidéo comprenait des images générées par l’IA de faible qualité. Les spécialistes consultés par le Conseil et les autorités publiques attirent l’attention sur le fait que les incohérences entre la vidéo et l’audio sont un indicateur clé de la manipulation du contenu par l’IA. Ils citent d’autres indicateurs, notamment des mouvements du visage peu naturels, un éclairage et des zones d’ombre incohérentes, et un manque de continuité et de cohérence dans les mouvements.

Le Conseil s’inquiète également du fait que les équipes d’examen de contenu à grande échelle ne sont pas en mesure de supprimer les publications qui établissent un profil-type faux ou qui usurpent l’identité d’une célébrité « afin d’arnaquer ou d’escroquer d’autres personnes », comme l’interdit la politique. En effet, seules les équipes spécialisées de Meta peuvent supprimer ce type de contenu. À cause de cette approche, il est plus probable que la politique de Meta sur la fraude, les arnaques et les pratiques trompeuses ne soit pas appliquée avec suffisamment de sévérité. Bien qu’une certaine expertise puisse être nécessaire pour déterminer si des publications spécifiques utilisent de faux profils-types, la politique pourrait être appliquée à grande échelle dans d’autres cas, comme dans celui-ci.

Meta aurait également dû refuser que le contenu serve de publicité, étant donné que son standard publicitaire sur les pratiques commerciales inacceptables interdit d’utiliser « l’image d’une personne célèbre et des stratagèmes trompeurs afin d’attirer les utilisateurs vers une publicité » Par ailleurs, Meta a déclaré publiquement qu’elle faisait appel à une technologie de reconnaissance faciale pour détecter les deepfakes de célébrités dans les publicités. L’entreprise a informé le Conseil que son système d’examen des publicités, en grande partie automatisé, était « conçu pour évaluer toutes les publicités avant leur diffusion ». En dépit de ces mécanismes, il semble que Meta ait accepté la diffusion de ce contenu à des fins publicitaires. Meta a par la suite informé le Conseil que la publicité avait été désactivée parce qu’elle enfreignait son standard publicitaire sur les pratiques commerciales inacceptables, mais que le contenu organique était resté disponible sur la plateforme. Lorsque Meta a trouvé que le contenu ne respectait pas un standard publicitaire et désactivé la publicité, aucun examen supplémentaire n’a été réalisé pour déterminer si la publication organique originale enfreignait les Standards de la communauté, alors qu’il ne fait aucun doute que plusieurs politiques se recoupent. Pour remédier à ce vide réglementaire, l’entreprise pourrait entreprendre d’examiner les contenus organiques lorsque ceux-ci sont à l’origine de publicités en infraction.

5.2 Respect des responsabilités de Meta en matière de droits humains

Le Conseil estime que la suppression du contenu de Facebook est conforme aux responsabilités de Meta en matière de droits de l’homme.

L’article 19 (2) du Pacte international relatif aux droits civils et politiques (PIDCP) prévoit de nombreuses protections pour la liberté d’expression. Celles-ci incluent « la liberté de rechercher, de recevoir et de répandre des informations et des idées de toute espèce ». Le Comité des droits de l’homme énumère les formes d’expression spécifiques qui sont incluses dans l’article 19 et note que le droit à la liberté d’expression peut également inclure les publicités commerciales (Observation générale n° 34, paragraphe 11).

Lorsque des restrictions de la liberté d’expression sont imposées par un État, elles doivent remplir des critères de légalité, d’objectif légitime, ainsi que de nécessité et de proportionnalité (article 19, paragraphe 3 du PIDCP). Ces exigences sont souvent reprises sous l’intitulé « test tripartite ». Le Comité des droits de l’homme a souligné l’applicabilité de ce test dans le contexte d’une publicité commerciale (Observation générale n° 34, paragraphe 33). Le Conseil s’appuie sur ce test afin d’interpréter les responsabilités de Meta en matière de droits humains conformément aux Principes directeurs relatifs aux entreprises et aux droits de l’homme de l’ONU, que Meta elle-même s’est engagée à respecter dans sa Politique relative aux droits humains. Le Conseil utilise ce test à la fois pour la décision relative au contenu en cours d’examen et pour ce que cela dit de l’approche plus large de Meta en matière de gouvernance du contenu. Comme l’a déclaré le Rapporteur spécial des Nations Unies sur la liberté d’expression, même si « les entreprises ne sont pas soumises aux mêmes devoirs que les gouvernements, leur influence est néanmoins telle qu’elle doit les inciter à se poser les mêmes questions qu’eux quant à la protection de la liberté d’expression de leurs utilisateurs » (A/74/486, paragraphe 41).

Le Conseil a souvent noté l’importance de protéger les discours politiques et sociaux (Observation générale n° 34, paragraphe 38). Ces considérations ne s’appliquent pas dans ce cas-ci. Le Conseil estime que cette publication constitue un discours commercial qui peut être restreint dans les cas où les critères du test tripartite sont remplis.

I. Légalité (clarté et accessibilité des règles)

Le principe de légalité prévoit que les règles qui limitent la liberté d’expression soient accessibles, claires et suffisamment précises pour permettre à un individu d’adapter son comportement en conséquence (observation générale n° 34, paragraphe 25). Les personnes utilisant les plateformes de Meta doivent pouvoir accéder aux règles et les comprendre, et les équipes d’examen de contenu doivent disposer de conseils clairs sur leur application.

Le Conseil estime que les règles prévues par la politique de Meta sur la fraude, les arnaques et les pratiques trompeuses sont suffisamment claires et accessibles. Selon le Conseil, il est clair que l’interdiction relative au fait d’« établir un profil-type faux ou de prétendre être une personne connue afin d’arnaquer ou d’escroquer d’autres personnes » comprend les publications qui recourent à l’image d’une figure publique pour soutenir un produit ou une application de manière frauduleuse.

II. Objectif légitime

Par ailleurs, toute restriction déclarée de la liberté d’expression doit au minimum répondre à l’un des objectifs légitimes énumérés dans le PIDCP, qui incluent la protection des droits et de la réputation d’autrui. La règle de Meta qui interdit les publications qui établissent un profil-type faux pour arnaquer ou escroquer des gens répond à deux objectifs. Tout d’abord, elle cherche à protéger des arnaques et de la fraude (article 17 de la Déclaration universelle des droits de l’homme). Ensuite, elle protège les droits et la réputation des personnes représentées, étant donné que ce type de contenu affecte leur droit à la vie privée et leur capacité à décider de la création et de la diffusion des images qui les représentent (article 17 du PIDCP ; voir également la décision Images explicites générées par l’IA de personnalités publiques féminines).

III. Nécessité et proportionnalité

Conformément à l’article 19(3) du PIDCP, le principe de nécessité et de proportionnalité requiert que les restrictions de la liberté d’expression soient « appropriées pour remplir leur fonction de protection, elles doivent constituer le moyen le moins perturbateur parmi ceux qui pourraient permettre d’obtenir le résultat recherché et elles doivent être proportionnées à l’intérêt à protéger ». En outre, en vertu des Principes directeurs des Nations Unies relatifs aux entreprises et aux droits de l’homme (PDNU), les mesures prises par une entreprise à la suite d’un préjudice potentiel doivent être éclairées par l’ampleur de son implication dans la survenue d’incidences négatives sur les droits de l’homme (article 19b des PDNU).

Le Conseil estime que la décision finalement prise par Meta de supprimer le contenu de Facebook était nécessaire et proportionnée. Dans ce cas-ci, la suppression était la mesure la moins perturbatrice pour protéger le public des arnaques, en particulier les personnes qui ne jouissent que d’une alphabétisation numérique limitée, et pour empêcher l’utilisation à mauvais escient de l’image de Ronaldo Nazário. Les conséquences sur sa vie privée et sa réputation sont immédiates, et des répercussions d’ordre financier auraient pu affecter le public, de sorte que Meta devait supprimer un tel contenu.

Mise en application

Il est de la responsabilité de Meta de « limiter les conséquences négatives sur les droits humains » du contenu monétisé qui pourrait arnaquer ou escroquer, conformément aux PDNU. Si Meta est payée pour élargir la portée de contenus par le biais de son programme de sponsorisation, l’entreprise doit tout particulièrement veiller à ce que ces publications n’enfreignent pas ses politiques.

Ces marques de soutien, en particulier lorsqu’elles sont créées à l’aide d’outils d’IA générative, peuvent être difficiles à détecter pour les utilisateurs. La disponibilité des outils avancés d’IA générative, qui permettent de créer des vidéos, a augmenté dramatiquement ces dernières années, et la tendance n’est sans doute pas près de s’inverser. Comme cela a été dit ci-dessus, des rapports mettent en évidence le fait qu’au Brésil, de nombreuses arnaques financières, y compris celles qui s’appuient sur les deepfakes, trouvent leur source sur Facebook, Instagram et WhatsApp.

Les problèmes posés par le contenu organique et les publicités Plinko à base de deepfakes ne semblent pas dater d’aujourd’hui. Pour le cas présent, le Conseil a recherché les termes « application Plinko » dans la Bibliothèque publicitaire Meta. Au moment de ses recherches, le Conseil a trouvé plus de 3900 publicités actives pour ce type de contenu, dont 3500 incluaient des vidéos. Parmi celles-ci, plusieurs contenaient des marques de soutien similairement générées par l’IA, y compris des deepfakes du joueur de football portugais Cristiano Ronaldo. En ce qui concerne le contenu organique, le Conseil a également trouvé des deepfakes du PDG de Meta, Mark Zuckerberg, en train d’apporter son soutien à Plinko.

Le Conseil s’inquiète de voir que les équipes de modération à grande échelle ne sont pas en mesure de supprimer les publications qui établissent un profil-type faux ou qui usurpent l’identité d’une célébrité « afin d’arnaquer ou d’escroquer d’autres personnes », même lorsqu’il est clair que le contenu enfreint les politiques de Meta. L’approche de Meta, qui consiste à n’appliquer cette politique qu’après avoir recherché du contexte supplémentaire lors d’une remontée, empêche l’entreprise d’appliquer ses règles avec suffisamment de sévérité. Sur la base de rapports publics, y compris de bases de données sur les incidents signalés et de rapports de journalistes, le Conseil note qu’il est probable que l’entreprise autorise une quantité considérable de spams sur ses plateformes par peur d’appliquer trop sévèrement ses politiques à un petit nombre de vraies marques de soutien par des célébrités. Cela est particulièrement inquiétant lorsque l’on sait que les vraies marques de soutien par des célébrités jouissent vraisemblablement d’autres protections contre la surmodération, soit par le biais de systèmes formels tels que la vérification croisée, soit par l’intermédiaire de points de contact chez Meta. Le Conseil recommande donc à Meta de changer d’approche et d’appliquer cette règle à grande échelle.

6. La décision du Conseil de surveillance

Le Conseil de surveillance a annulé la décision initiale de Meta de conserver la publication sur Facebook.

7. Recommandations

Mise en application

1. Pour mieux lutter contre les faux soutiens de célébrités, Meta doit appliquer à grande échelle sa politique sur la fraude, les arnaques et les pratiques trompeuses qui interdit le contenu qui « essaye d’établir un profil-type faux ou de prétendre être une personne connue afin d’arnaquer ou d’escroquer d’autres personnes » en fournissant aux équipes de modération des indicateurs pour les aider à identifier ce type de contenu. Il peut s’agir, par exemple, de la présence de filigranes et de métadonnées ou de facteurs de manipulation évidents, comme lorsque l’audio et la vidéo ne correspondent pas.

Le Conseil considérera que cette recommandation aura été mise en place lorsque les consignes internes privées et les règles publiques seront mises à jour afin de refléter ce changement.

* Note de procédure :

  • Les décisions du Conseil de surveillance sont prises par des panels de cinq membres et approuvées par une majorité du Conseil dans son ensemble. Les décisions du Conseil ne représentent pas nécessairement les opinions de tous les membres.
  • En vertu de sa Charte, le Conseil de surveillance est habilité à examiner les appels déposés par les utilisateurs dont le contenu a été supprimé par Meta, les appels déposés par les utilisateurs ayant signalé un contenu que Meta n’a finalement pas supprimé, et les décisions que Meta lui transmet (article 2, section 1 de la Charte). Le Conseil dispose d’une autorité contraignante pour confirmer ou annuler les décisions de Meta relatives au contenu (article 3, section 5 de la Charte ; article 4 de la Charte). Le Conseil est habilité à émettre des recommandations non contraignantes auxquelles Meta doit répondre (article 3, section 4 de la Charte ; Article 4). Lorsque Meta s’engage à donner suite aux recommandations, le Conseil surveille leur mise en œuvre.
  • Pour la décision sur ce cas, des recherches indépendantes ont été commandées au nom du Conseil. Le Conseil a bénéficié de l’aide de Duco Advisors, une société de conseil spécialisée dans la géopolitique, la confiance et la sécurité, ainsi que la technologie.

Retour aux décisions de cas et aux avis consultatifs politiques