Le Conseil de surveillance annonce deux nouveaux cas et confirme la décision de Meta sur le cas « Produits pharmaceutiques au Sri Lanka »

Aujourd’hui, le Conseil de surveillance annonce deux nouveaux cas à examiner, l’un relatif aux élections au Brésil, l’autre au témoignage d’une victime de violence sexiste, ainsi qu’un avis consultatif en matière de politique sur la modération par Meta du mot arabe « chahid ». Nous publions également notre décision sur le cas « Produits pharmaceutiques au Sri Lanka », dans laquelle nous confirmons la décision de Meta d’autoriser le contenu demandant des dons de produits pharmaceutiques pendant la crise financière du pays. Enfin, le Conseil annonce la nomination d’une nouvelle fiduciaire, Marie Wieck, cadre supérieure en technologie.

Deux nouveaux cas

Aujourd’hui, le Conseil présente deux nouveaux cas qu’il va examiner. À cet effet, nous invitons les personnes et les organisations à envoyer des commentaires publics.

Sélection des cas

Puisque nous ne pouvons pas traiter tous les cas, le Conseil donne la priorité à ceux pouvant potentiellement toucher de nombreux utilisateurs à travers le monde, ayant une importance cruciale pour le débat public ou soulevant des questions majeures sur les politiques de Meta.

Les cas que nous annonçons aujourd’hui sont :

Discours d’un général brésilien

(2023-001-FB-UA)

Appel d’un utilisateur pour supprimer un contenu de Facebook

Pour envoyer des commentaires publics, cliquez ici.

Le 3 janvier 2023, deux jours après la prestation de serment de Luiz Inácio Lula da Silva en tant que président du Brésil, un utilisateur de Facebook a publié une vidéo avec une légende en portugais. La légende comprenait un appel à « assiéger » le Congrès du Brésil en tant que « dernier recours ». La vidéo montre une partie d’un discours prononcé par un éminent général brésilien et partisan de l’adversaire de Lula, dans lequel il appelle la population à « descendre dans la rue » et à « se rendre au Congrès national... [et à] la Cour suprême ». Le discours du général est suivi par une séquence d’images, notamment celle d’un incendie faisant rage sur la place des Trois Pouvoirs à Brasilia, où se trouvent les bureaux présidentiels, le Congrès et la Cour suprême du Brésil. Le texte de l’image était le suivant : « Venez à Brasilia ! À l’assaut ! Assiégeons les trois pouvoirs. » Une autre image contient le texte « Nous voulons le code source », un slogan utilisé par les manifestants pour remettre en question la fiabilité des machines à voter électroniques du Brésil. La vidéo a été vue plus de 18 000 fois, n’a pas été partagée et a été signalée sept fois.

La prestation de serment de Lula da Silva s’était accompagnée de troubles civils, notamment des manifestations et des blocages. Le 8 janvier, plus d’un millier de soutiens de l’ancien président Jair Bolsonaro ont envahi le Congrès national, la Cour suprême et les bureaux présidentiels, se confrontant à la police et détruisant des biens. Meta a temporairement désigné le Brésil en tant que lieu à haut risque en prévision des élections générales d’octobre 2022, en plus de supprimer le contenu appelant à prendre les armes ou à envahir de force des bâtiments fédéraux. Meta n’a annoncé cette mesure que le 9 janvier.

Le jour même où le contenu a été publié, un utilisateur l’a signalé pour infraction au Standard de la communauté sur la violence et l’incitation de Meta, qui interdit « le recours à la force pour entrer dans des lieux … présentant des signaux temporaires de risque accru de violence hors ligne ». Au total, quatre utilisateurs ont signalé le contenu sept fois entre le 3 et le 4 janvier. À la suite du premier signalement, le contenu a été soumis à un examen manuel et jugé conforme aux politiques de Meta. L’utilisateur a fait appel de la décision, mais cette dernière a été confirmée lors d’un deuxième examen manuel. Le lendemain, les six autres signalements ont été examinés par cinq modérateurs différents, qui ont tous conclu que le contenu n’enfreignait pas les politiques de Meta. Le contenu a été transmis à des spécialistes en la matière pour un examen complémentaire.

L’un des utilisateurs qui avait signalé le contenu a fait appel de la décision de Meta auprès du Conseil de surveillance. Dans son appel au Conseil, l’utilisateur indique que le contenu incite les personnes « qui n’acceptent pas les résultats des élections » au Brésil à la violence.

Le Conseil a sélectionné ce cas pour examiner la façon dont Meta modère le contenu lié aux élections et applique son protocole de politique de crise dans un lieu temporairement désigné à haut risque. Meta a développé ce protocole en réponse à la recommandation du Conseil sur le cas « Suspension de l’ancien président américain Trump ». Ce cas relève de la priorité « Élections et espace civique » du Conseil.

À la suite de la sélection de ce cas par le Conseil, Meta a déterminé que ses décisions successives de laisser le contenu sur Facebook étaient une erreur. Les équipes d’examen à grande échelle n’indiquant pas le pourquoi de leurs décisions, l’entreprise ne connaît pas les raisons pour lesquelles le contenu a été considéré comme conforme à ses politiques dans ce cas. Le 20 janvier 2023, Meta a supprimé le contenu, appliqué un avertissement au compte à l’origine de ce contenu et limité ses fonctionnalités, l’empêchant ainsi de créer de nouveaux contenus.

Le Conseil aimerait recevoir des commentaires publics sur les points suivants :

  • La situation politique au Brésil avant les élections d’octobre et son évolution entre octobre 2022 et le 8 janvier 2023.
  • La relation entre la violence politique, le déni des résultats des élections et les appels à une mobilisation hors ligne sur les médias sociaux.
  • Le moment où Meta devrait commencer et terminer ses efforts en faveur de l’intégrité des élections, ainsi que les critères pour fixer ces délais, en particulier en ce qui concerne la passation de pouvoirs.
  • La façon dont Meta devrait faire la distinction entre la mobilisation politique légitime et les activités coordonnées nuisibles.
  • La façon dont Meta devrait traiter le contenu qui attaque ou remet en cause la légitimité des institutions et des processus démocratiques.

Dans ses décisions, le Conseil peut fournir des recommandations en matière de politiques à Meta. Bien que ces recommandations ne soient pas contraignantes, Meta doit y répondre sous 60 jours. De ce fait, le Conseil appréciera tout commentaire public proposant des recommandations pertinentes pour ce cas.

Témoignage de violence contre les femmes

(2023-002-IG-UA)

Appel d’un utilisateur pour restaurer un contenu sur Instagram

Pour envoyer des commentaires publics, cliquez ici.

En novembre 2022, un utilisateur d’Instagram a publié une vidéo avec une légende en suédois. La vidéo contient un enregistrement audio, en suédois également, d’une femme décrivant une relation intime violente, mentionnant notamment le fait qu’elle est incapable de discuter de sa situation avec sa famille. L’enregistrement audio ne décrit pas cet acte de violence en détail. La légende indique que la femme qui parle a donné son consentement à la publication du contenu et que sa voix a été modifiée. Elle indique également que la société blâme les victimes de violence sexiste et ne comprend pas à quel point il peut être difficile pour les femmes de quitter un partenaire violent. La légende indique : « Les hommes tuent, violent et maltraitent des femmes mentalement et physiquement ​​tout le temps, tous les jours. » Elle fournit également le numéro d’une ligne d’écoute et indique avoir pour but que les femmes qui lisent la publication se rendent compte qu’elles ne sont pas seules. La publication a été vue plus de 10 000 fois, partagée moins de 20 fois et n’a jamais été signalée.

Meta a supprimé le contenu d’Instagram en vertu de son Standard de la communauté sur le discours haineux. Le Standard de la communauté sur le discours haineux interdit de faire des déclarations générales, ou des « déclarations sur le comportement », indiquant que les personnes d’un certain sexe ou genre sont des « criminels violents » ou des « prédateurs sexuels ». Les systèmes automatisés de Meta ont identifié le contenu comme potentiellement en infraction. Après deux examens manuels, Meta a supprimé la publication et appliqué un « avertissement standard » au compte de l’utilisateur. L’utilisateur a fait appel et un troisième examen manuel a confirmé la décision de l’entreprise. Le contenu a ensuite été identifié par le système automatisé High Impact False Positive Override (HIPO) de Meta, qui vise à identifier le contenu qui n’enfreint pas les politiques de Meta et qui a été supprimé à tort. Un examen supplémentaire a alors été mené à bien, et deux autres modérateurs ont jugé que le contenu enfreignait la politique sur le discours haineux.

L’utilisateur a fait appel auprès du Conseil. Dans son appel, cette personne a expliqué qu’elle abordait souvent le sujet de la violence des hommes à l’égard des femmes et que son objectif était d’aider les femmes victimes de cette violence. À la suite de la sélection de ce cas par le Conseil, Meta a déterminé que sa décision de supprimer le contenu était une erreur, l’a restauré et a annulé l’avertissement.

Le Conseil a sélectionné ce cas pour examiner les politiques et les pratiques de modération du contenu de Meta ciblant les personnes en fonction d’une caractéristique protégée, telle que le sexe et le genre. Ce cas relève des priorités stratégiques « Genre » et « Discours haineux envers les groupes marginalisés » du Conseil.

Le Conseil aimerait recevoir des commentaires publics sur les points suivants :

  • Comment la politique en matière de discours haineux de Meta peut entraîner la suppression de contenu contenant des témoignages de violence sexiste ou la condamnant.
  • Des informations sur les défis potentiels et les avantages de l’approche de Meta en matière d’inégalités de pouvoir entre les différentes « caractéristiques protégées » dans sa politique sur le discours haineux.
  • Des informations sur les difficultés rencontrées pour partager des témoignages et condamner la violence sexiste sur Facebook et Instagram.
  • Des informations sur le contexte sociopolitique de la violence à l’égard des femmes en Suède (et dans le monde entier), en particulier la violence conjugale.
  • La façon dont le système d’avertissement de Meta pourrait être amélioré pour mieux protéger les activistes, les personnes qui défendent les droits humains, les journalistes et autres contre la suppression de leur contenu par erreur et l’application de sanctions à leurs comptes.

Dans ses décisions, le Conseil peut fournir des recommandations en matière de politiques à Meta. Bien que ces recommandations ne soient pas contraignantes, Meta doit y répondre sous 60 jours. Le Conseil apprécie tout commentaire public proposant des recommandations pertinentes pour ces cas.

Commentaires publics

Si vous ou votre organisation pensez que vous pouvez apporter un regard différent sur les cas mentionnés aujourd’hui et aider le Conseil à prendre une décision, envoyez vos contributions en utilisant les liens ci-dessus. Les commentaires publics pour ces cas seront ouverts jusqu’au jeudi 23 mars à 15 h 00 UTC, soit pendant une période de 14 jours.

Le Conseil a également annoncé aujourd’hui qu’il avait accepté un avis consultatif en matière de politique sur la modération par Meta du terme arabe « chahid ». Dans ce cadre, le Conseil accepte les commentaires publics. Les commentaires publics pour cette demande d’avis consultatif en matière de politique annoncée aujourd’hui seront ouverts jusqu’au lundi 10 avril à 15 h 00 UTC.

Et après ?

Dans les prochaines semaines, les membres du Conseil délibéreront sur ces cas. Lorsqu’ils auront rendu leurs décisions finales, nous les publierons sur le site web du Conseil de surveillance.

Pour recevoir des mises à jour lorsque le Conseil annonce de nouveaux cas ou publie des décisions, inscrivez-vous ici.

Nomination de Marie Wieck en tant que fiduciaire

Aujourd’hui, nous annonçons également la nomination de Marie Wieck en tant que nouvelle fiduciaire du Conseil de surveillance. Nos fiduciaires jouent un rôle essentiel dans la protection de l’indépendance du Conseil et, en tant que cadre supérieure en technologie ayant travaillé chez IBM pendant plus de 30 ans, Marie apporte au Conseil de nombreuses connaissances sur le secteur afin de l’aider à s’améliorer.

Le Conseil de surveillance confirme la décision de Meta sur le cas « Produits pharmaceutiques au Sri Lanka » (2022-014-FB-MR)

Le Conseil de surveillance a maintenu la décision de Meta de laisser en ligne une publication Facebook demandant des dons de médicaments en faveur du Sri Lanka pendant la crise financière du pays. Toutefois, le Conseil estime que des exceptions secrètes et discrétionnaires aux politiques sont incompatibles avec les responsabilités de Meta en matière de droits humains, et a formulé des recommandations afin d’augmenter la transparence et la cohérence de la tolérance au titre de « l’esprit de la politique ». Cette tolérance autorise le contenu lorsqu’une interprétation stricte d’une politique produit un effet qui est en contradiction avec l’intention de cette politique.

À propos du cas

En avril 2022, une image a été publiée sur la Page Facebook d’un syndicat médical sri lankais, faisant appel au don de médicaments et de produits médicaux pour le pays et fournissant un lien pour le faire.

Le Sri Lanka se trouvait à ce moment-là au cœur d’une crise politique et financière importante ayant vidé les réserves de devises étrangères du pays. Par conséquent, le Sri Lanka, qui importe 85 % de ses produits médicaux, n’avait plus les fonds nécessaires à ces importations. Des médecins ont déclaré que les hôpitaux arrivaient à court de médicaments et de produits de première nécessité et expliqué craindre une catastrophe sanitaire imminente.

Les équipes Meta responsables de la surveillance des risques pendant la crise au Sri Lanka ont identifié le contenu de ce cas. L’entreprise estimait que cette publication allait à l’encontre de son Standard de la communauté sur les biens et services restreints, qui interdit le contenu demandant des médicaments, mais a appliqué une tolérance étendue au titre de « l’esprit de la politique ».

Les tolérances au titre de « l’esprit de la politique » autorisent le contenu lorsque la justification de la politique et les valeurs de Meta exigent d’appliquer une stratégie différente de l’interprétation stricte des règles. Les tolérances étendues s’appliquent à des catégories de contenu dans leur ensemble, et non pas à des publications individuelles. La justification de la politique sur les biens et services restreints mentionne d’« encourager la sécurité ». Meta a transmis ce cas au Conseil.

Principales observations

Le Conseil de surveillance estime que la publication enfreint le Standard de la communauté sur les biens et services restreints. Toutefois, il juge que l’application d’une tolérance étendue au titre de « l’esprit de la politique » pour autoriser ce contenu et d’autres contenus similaires était appropriée et conforme aux valeurs de Meta et à ses responsabilités en matière de droits humains.

Dans le contexte de la crise au Sri Lanka, lors de laquelle la santé et la sécurité de la population étaient gravement menacées, la tolérance avait pour but de respecter l’objectif du Standard de la communauté d’« encourager la sécurité » ainsi que le droit à la santé. Malgré le fait qu’autoriser les dons de médicaments comporte des risques, le besoin urgent du Sri Lanka a justifié les actions de Meta.

Cependant, le fait que Meta ait déclaré que la tolérance au titre de « l’esprit de la politique » pourrait s’appliquer au contenu publié en cingalais en dehors du Sri Lanka également inquiète le Conseil. Meta doit définir clairement dans quels cas ses tolérances s’appliquent. Meta doit également s’assurer que les tolérances étendues tiennent compte de la diversité ethnique et linguistique des personnes concernées afin d’éviter toute discrimination involontaire. Le Sri Lanka a deux langues officielles, le cingalais et le tamoul, cette dernière étant largement utilisée par les minorités tamoule et musulmane.

Le Conseil estime également que, pour s’acquitter de ses responsabilités en matière de droits humains, Meta devrait prendre des mesures pour que les utilisateurs comprennent mieux la tolérance au titre de « l’esprit de la politique » et veiller à ce qu’elle soit appliquée de manière cohérente.

Les utilisateurs qui signalent un contenu ne sont pas notifiés si ce contenu fait l’objet de cette tolérance et n’ont pas non plus la possibilité de savoir que cette exception existe. La tolérance au titre de « l’esprit de la politique » n’est pas mentionnée dans les Standards de la communauté et Meta n’a publié aucune information à ce sujet dans l’Espace modération, comme elle l’a fait pour l’exception pour intérêt médiatique, en partie grâce aux recommandations du Conseil. Les exceptions secrètes et discrétionnaires aux politiques de Meta sont incompatibles avec les responsabilités de Meta en matière de droits humains.

Il ne semble pas exister de critères clairs pour déterminer quand les tolérances au titre de « l’esprit de la politique » peuvent être appliquées ou doivent être révoquées. Le Conseil souligne l’importance de ces critères afin de garantir que les décisions sont prises de manière cohérente et recommande à Meta de les rendre publics. Le Conseil estime également que lorsque Meta applique régulièrement une tolérance pour un même motif, elle devrait évaluer si une exception distincte à la politique concernée est nécessaire.

La décision du Conseil de surveillance

Le Conseil de surveillance confirme la décision de Meta de laisser la publication sur Facebook.

Le Conseil recommande également à Meta de :

  • Publier des informations sur la tolérance au titre de « l’esprit de la politique » dans l’Espace modération, en indiquant les critères utilisés pour déterminer l’étendue de la tolérance.
  • Expliquer dans les Standards de la communauté que ces tolérances peuvent s’appliquer lorsque la justification de la politique et les valeurs de Meta exigent d’appliquer une stratégie différente de l’interprétation stricte des règles. Ce point devrait rediriger vers les informations concernant la tolérance au titre de « l’esprit de la politique » dans l’Espace modération.
  • Informer les utilisateurs lorsque le contenu qu’ils ont signalé fait l’objet de la tolérance au titre de « l’esprit de la politique ».
  • Partager publiquement les informations agrégées en matière de tolérances accordées au titre de « l’esprit de la politique » dans l’Espace modération, y compris le nombre de cas ainsi que les régions et les langues concernées.

Pour en savoir plus

Pour lire l’intégralité de la décision, cliquez ici.

Pour lire un résumé des commentaires publics relatifs à ce cas, cliquez sur la pièce jointe ci-dessous.

Retour Aux Actualités