Le Conseil va se pencher sur une vidéo générée par l'IA mettant en scène un homme politique, publiée avant les élections hongroises

Le Conseil annonce aujourd’hui qu’il va examiner un nouveau cas. Dans ce cadre, nous invitons individus et organisations à soumettre des commentaires publics en cliquant sur le bouton ci-dessous.

Sélection des cas

Comme nous ne pouvons pas entendre tous les appels, le Conseil accorde la priorité aux cas susceptibles d’affecter de nombreux utilisateurs à l’échelle internationale, qui revêtent une extrême importance dans le débat public ou qui soulèvent des questions essentielles par rapport aux politiques de Meta.

Le cas que nous annonçons aujourd’hui est le suivant :

Vidéo générée par l’IA d’un homme politique hongrois
2026-029-FB-UA
Appels d’un utilisateur pour supprimer du contenu
Soumettez un commentaire public en cliquant sur le bouton ci-dessous.

Pour lire cette annonce en hongrois, cliquez ici.

Ha magyar nyelven szeretné elolvasni ezt a közleményt, kattintson ide.

Le Conseil annonce un cas concernant une vidéo d’un homme politique hongrois éminent, présumée générée par l’IA et signalée par des centaines d’utilisateurs comme étant en infraction avec les politiques de Meta. L'entreprise a estimé que ce contenu n'enfreignait pas sa politique en matière de désinformation et ne nécessitait pas de mention « généré par l'IA ». À travers ce cas, le Conseil examinera les défis liés à la gouvernance des contenus posés par les outils d'IA, en particulier dans un contexte électoral, ainsi que l'impact que peuvent avoir les contenus générés par l'IA sur l'intégrité électorale.

Le 4 novembre 2025, l'administrateur d'une page Facebook consacrée aux questions politiques en Hongrie a publié une vidéo de huit secondes mettant en scène l'homme politique hongrois Péter Magyar. La vidéo semble avoir été générée par l'IA, comme en témoignent les expressions faciales et la façon de parler peu naturelles. On y voit Magyar exprimer une frustration exagérée face à la pratique courante en Hongrie consistant à recourir aux appels automatisés – c'est-à-dire à utiliser les appels téléphoniques comme outil de campagne. Une légende en hongrois fait référence à un incident survenu en 2024, au cours duquel Magyar a quitté le plateau d'une interview télévisée, et précise que la vidéo montre pourquoi il était « hors de lui » pendant cette interview. La publication a été vue plus de 100 000 fois et a suscité plus de 3 000 réactions, dont plus de 1 400 étaient des réactions « rires ».

P.Magyar est à la tête du parti Tisza, qui a remporté au Parlement 138 sièges sur 199, lors des élections du 12 avril 2026. Il devrait prêter serment en tant que Premier ministre dans les semaines à venir. Avant les élections, le Parlement européen a exprimé ses préoccupations concernant « l'utilisation croissante de contenus politiques générés par l'IA et non signalés en Hongrie… notamment la publication de vidéos deepfake ».

Au total, 209 utilisateurs ont signalé ce contenu entre le 4 et le 24 novembre 2025 pour des infractions potentielles variées, notamment une infraction générique (c'est-à-dire non précisée), des cas de fraude et d'escroquerie, ainsi que des comportements haineux. Le 24 novembre, l'un de ces rapports d'utilisateur a été transmis pour examen. Sur la base d’une décision automatisée, Meta a déterminé que le contenu n'enfreignait son standard de la communauté et l’a laissé sur Facebook. À l'époque, cette publication n'avait pas non plus été examinée ni évaluée par des vérificateurs de faits tiers. Les vérificateurs de faits peuvent soit identifier des contenus de leur propre initiative, soit les sélectionner parmi une liste de signalements d'informations potentiellement fausses.

L’utilisateur ayant émis ce signalement a fait appel auprès du Conseil de la décision de Meta de laisser le contenu sur la plateforme. Meta a confirmé au Conseil qu'à son avis, la publication n'enfreignait pas son standard de la communauté relative à la désinformation car elle « ne semblait pas liée à une ingérence dans le fonctionnement des processus politiques ». De plus, elle « n'aurait pas mérité une mention informative relatif à l'IA au titre de la politique sur la désinformation » si elle avait été signalée aux équipes chargées des politiques de Meta au moment de sa publication, car la vidéo avait été publiée « bien avant un événement crucial, tel que les élections d'avril 2026 ». L'entreprise peut apposer des mentions indiquant aux utilisateurs que le contenu a été créé à l'aide de l'IA ou qu'il s'agit d'un média manipulé. Meta a ajouté que la vidéo « semblait également avoir un but humoristique ». Il est donc peu probable qu'elle « présente un risque particulièrement élevé d'induire le public en erreur de manière significative sur une question d'intérêt public ».

Le Conseil a sélectionné ce cas pour examiner les nouveaux défis liés à la gouvernance des contenus posés par les outils d'IA, en particulier dans des contextes électoraux. Ce cas offre l’occasion d’évaluer la modération humaine et automatisée par Meta des contenus générés par l’IA. Il permettra également au Conseil d'étudier comment les vidéos générées par l'IA qui imitent des personnalités politiques peuvent être utilisées pour influencer les électeurs et, éventuellement, porter atteinte à l'intégrité des processus électoraux.

Ce cas relève des priorités stratégiques du Conseil : Élections et espace civique et Application automatisée des politiques et de la curation de contenu.

Le Conseil aimerait recevoir des commentaires publics sur ce qui suit :

  • Le rôle joué par les contenus générés par l’IA dans leles élections hongroises récentes ou d’autres contextes électoraux, notamment dans les médias et le discours public.
  • La recherche sur la nature et l’impact des campagnes de fausses informations/désinformation générées par l’IA sur les plateformes de réseaux sociaux, en particulier dans des contextes électoraux, ainsi que sur les incitations et motivations à créer et à partager de tels contenus.
  • Les réponses des plateformes à ces campagnes et à ce type de contenu, en particulier en période électorale, ainsi que sur les incitations et motivations.
  • Le rôle des « influenceurs politiques » en ligne, en particulier des réseaux coordonnés de ces créateurs de contenu, dans la formation de l'opinion publique sur les questions électorales.  
  • La relation entre la satire et la désinformation dans les contenus des réseaux sociaux, notamment en matière de discours politique, ainsi que les défis et les compromis liés à la modération de ces publications.

Dans le cadre de ses décisions, le Conseil peut émettre des recommandations sur les politiques de Meta. Bien que ces recommandations ne soient pas contraignantes, Meta doit y répondre dans un délai de 60 jours. Aussi le Conseil encourage-t-il à l’envoi de commentaires publics qui suggèrent des recommandations pertinentes dans ce cas-ci.

Commentaires publics

Si vous ou votre organisation estimez que votre point de vue est opportun et qu’il pourrait aider le Conseil à prendre une décision dans le cas annoncé aujourd’hui, vous pouvez soumettre vos contributions en cliquant sur le bouton ci-dessous. Veuillez noter que les commentaires publics peuvent être envoyés de manière anonyme. Le délai de soumission des commentaires publics est de 14 jours ; il prendra fin le jeudi 7 mai à 23 h 59, heure du Pacifique (PST).

Prochaines étapes

Au cours des prochaines semaines, les membres du Conseil délibéreront sur ce cas. Lorsque le Conseil aura statué sur ces cas, nous publierons sa décision sur la page Décisions.

Return to Blogs