Annonce des prochains cas du Conseil et des changements apportés à nos statuts

Le Conseil annonce aujourd’hui de nouveaux cas ainsi que des changements au niveau de ses statuts.

Sélection des cas

Depuis que nous avons commencé à accepter des cas en octobre 2020, plus de 220 000 appels ont été formulés auprès du Conseil. Puisque nous ne pouvons pas traiter tous les cas, nous donnons la priorité à ceux pouvant potentiellement toucher de nombreuses personnes à travers le monde, ayant une importance cruciale pour le débat public ou soulevant des questions majeures sur les règles de Facebook.

Les cas que nous annonçons aujourd’hui sont les suivants :

2021-004-FB-UA

Cas soumis par un utilisateur

Envoyez un commentaire public ici.

En janvier 2021, l’utilisateur A a laissé un commentaire résumant son expérience lors des récentes manifestations de soutien au leader de l’opposition russe, Alexeï Navalny. Dans le commentaire, l’utilisateur A a qualifié l’utilisateur B, qui a critiqué les manifestants, de « bot lâche et sans personnalité » [« банальный трусливый бот »].

Le 24 janvier, l’utilisateur B a commenté une publication composée de plusieurs images, d’une vidéo et d’un texte sur les manifestations de soutien à Alexeï Navalny qui ont eu lieu à Saint-Pétersbourg et dans toute la Russie le 23 janvier. L’utilisateur B a déclaré qu’il ne savait pas ce qui s’était passé à Saint-Pétersbourg, mais que les manifestants de Moscou étaient tous des enfants, qu’ils étaient « mentalement lents » et qu’ils avaient été « manipulés ». Il a ajouté que les manifestants ne représentaient pas le peuple mais plutôt un « spectacle de théâtre ». D’autres utilisateurs ont commencé à répondre à cette critique dans les commentaires.

L’utilisateur A a contesté l’affirmation de l’utilisateur B. L’utilisateur A a indiqué être une personne d’un certain âge et avoir participé aux manifestations de Saint-Pétersbourg avec ses collègues et ses enfants adultes. L’utilisateur A a déclaré qu’il y avait tellement de manifestants qu’il a perdu ses accompagnants dans la foule. Il a également affirmé avoir vu des manifestants âgés et handicapés. Il a exprimé sa fierté envers les jeunes qui ont participé aux manifestations et a contredit l’argument selon lequel ils auraient été manipulés. Pour conclure, l’utilisateur A a qualifié l’utilisateur B de « bot lâche et sans personnalité » [« банальный трусливый бот »].

L’utilisateur B est la seule personne à avoir signalé le commentaire. Facebook l’a supprimé en vertu de son standard sur l’intimidation et le harcèlement, qui prévoit la suppression du contenu destiné à rabaisser ou à humilier des personnes. Dans certains cas, Facebook exige que la personne ciblée par l’intimidation ou le harcèlement signale le cas elle-même.

Dans le cadre de son appel, l’utilisateur A a expliqué au Conseil qu’il n’avait fait que partager son expérience des manifestations et répondre à des informations manifestement fausses. L’utilisateur A a ajouté qu’il pensait que l’utilisateur B était « un bot qui fonctionne sur commande, sans avoir été témoin des événements ni y avoir participé ». L’utilisateur A a également indiqué que son opinion sur cet utilisateur n’avait pas changé, que le terme « bot » n’était pas une insulte et qu’il n’approuvait pas le terrorisme ni d’autres actes illégaux.

Le Conseil aimerait recevoir des commentaires publics sur les questions suivantes :

  • La décision de Facebook était-elle conforme à son standard sur l’intimidation et le harcèlement ?
  • La décision de Facebook et son standard sur l’intimidation et le harcèlement respectent-ils ses valeurs et ses responsabilités en matière de droits humains, en tenant compte à la fois de l’importance de la liberté d’expression et de la nécessité de garantir des réponses adaptées aux dommages causés par l’intimidation et le harcèlement ?
  • Des informations contextuelles concernant l’utilisation courante ou la reconnaissance de termes équivalents à « банальный трусливый бот » (« bot lâche et sans personnalité ») lorsque des sujets émotionnels sont abordés sur les médias sociaux, en particulier en russe.
  • L’impact éventuel de la mise en application par Facebook de ses Standards de la communauté sur les opinions politiques dissidentes ou minoritaires dans des contextes où les gouvernements limitent systématiquement la critique.
  • Des recherches sur les campagnes de désinformation à l’encontre des participants aux manifestations de janvier en Russie et comment elles sont diffusées sur les médias sociaux, y compris des preuves de tout comportement inauthentique coordonné et les personnes impliquées.

2021-005-FB-UA

Cas soumis par un utilisateur

Envoyez un commentaire public ici.

En décembre 2020, un utilisateur de Facebook aux États-Unis a publié un commentaire contenant une adaptation d’un mème connu illustrant deux boutons. Le mème présentait le même dessin en deux parties que le mème original, mais le visage du personnage de dessin animé avait été remplacé par un drapeau turc. Le personnage de dessin animé a la main droite sur sa tête et semble transpirer. Au-dessus du personnage de dessin animé, dans l’autre partie du mème, il y a deux boutons rouges avec des étiquettes indiquant : « Le génocide arménien est un mensonge » et « Les Arméniens étaient des terroristes qui le méritaient. » Le mème était précédé et suivi d’un emoji pensif.

Le commentaire de cet utilisateur était une réponse à une publication qui contenait une image d’une personne portant un niqab, avec une superposition de texte qui disait : « Tous les prisonniers ne sont pas derrière les barreaux. » À ce stade, le Conseil n’a pas accès à tous les commentaires, et le mème pourrait avoir été une réponse à l’un des commentaires précédents.

Facebook a supprimé la publication en vertu de son standard sur le contenu cruel et insensible après signalement d’un autre utilisateur de Facebook. En vertu de ce standard, Facebook supprime le contenu « ciblant des victimes de préjudices physiques ou émotionnels graves », y compris les « tentatives explicites de se moquer de victimes », et désigne « comme cruelles les tentatives implicites, qui prennent souvent la forme de GIF. » Facebook a ensuite reclassé cette suppression en indiquant qu’elle relevait de son standard sur le discours haineux.

Dans son appel à Facebook, l’utilisateur a déclaré que « [l]es événements historiques ne devraient pas être censurés » et que son commentaire ne visait pas à offenser mais à souligner « l’ironie d’un événement historique particulier ». L’utilisateur a considéré que Facebook avait mal interprété son commentaire et qu’il ne s’agissait pas d’une attaque. Il a déclaré que même si le contenu évoquait « la religion et la guerre », il ne s’agissait pas d’un sujet sensible. L’utilisateur a également jugé Facebook et ses règles comme trop restrictifs et soutenu que « [l]’humour, comme beaucoup de choses, est subjectif, et quelque chose d’offensant pour une personne peut être drôle pour une autre. »

Le Conseil aimerait recevoir des commentaires publics sur les questions suivantes :

  • La décision de Facebook de supprimer la publication était-elle conforme à son standard sur le contenu cruel and insensible de Facebook, en particulier la règle interdisant les tentatives explicites et implicites de se moquer des victimes ?
  • La décision de Facebook de supprimer la publication était-elle conforme à son standard sur les discours haineux, par exemple sa règle sur le fait de se moquer des victimes d’un crime de haine ?
  • La décision de Facebook de supprimer la publication est-elle conforme aux valeurs et aux responsabilités de l’entreprise en matière de droits humains ?
  • Toute information spécifique de commentateurs connaissant le contexte social, politique et culturel en Arménie, en Turquie et au sein des diasporas concernant l’intention et l’impact potentiels de la publication.
  • Comment Facebook peut et doit tenir compte de l’humour et / ou de la satire lors de la mise en application de ses règles.
  • Des recherches sur le discours actuel sur les événements mentionnés dans le mème, y compris les conséquences de la suppression de ce type de discours, soit à l’initiative de Facebook, soit en raison d’une mesure gouvernementale.

Commentaires publics

Si vous ou votre organisation pensez que vous pouvez apporter un regard différent sur ces cas et aider le Conseil à prendre une décision, envoyez vos contributions en utilisant les liens ci-dessus.

Le Conseil ayant traité sa première série de cas, nous réitérons et améliorons le processus de commentaires publics en fonction des retours des participants. Dans cette optique, nous étendons la période de consultation publique à 14 jours pour tous les cas. Nous espérons que cela permettra à autant de personnes et d’organisations que possible d’apporter leur contribution au Conseil.

En tenant compte de ces changements, la période de commentaires publics pour les cas annoncés aujourd’hui prendra fin le mardi 16 mars 2021 à 16 h UTC+1.

Mise à jour de nos statuts

Nous travaillons également sur plusieurs changements au niveau de nos statuts, afin de devenir plus efficaces en tant qu’organisation. À ce titre, nous annonçons aujourd’hui des changements dans les délais de décision et de mise en œuvre des cas.

Nos statuts fixaient un délai de 90 jours pour que les cas soient traités par le Conseil et mis en œuvre par Facebook. Ce délai commençait au moment de la dernière décision de Facebook sur un cas. En vertu de la mise à jour de nos statuts, cette période de 90 jours commencera lorsque le Conseil attribuera un cas à un jury. Cette mise à jour permettra de garantir que le temps disponible pour délibérer soit le même pour tous les cas, quel que soit le moment où le cas a été soumis au Conseil par Facebook ou par un utilisateur.

D’autres changements permettront au Conseil d’agir rapidement pour traiter les cas soumis par Facebook dans le cadre d’un examen accéléré, qui doit être effectué sous 30 jours. Par exemple, les coprésidents, en collaboration avec la direction du Conseil, peuvent désormais s’assurer que les cas accélérés sont attribués à des jurys qui sont en mesure de délibérer dans le délai de 30 jours. Les jurys pourront également réduire le temps dont un utilisateur dispose pour soumettre sa déclaration.

Vous pouvez lire l’intégralité de nos statuts ici.

Et après ?

Dans les semaines à venir, les membres du Conseil délibèreront sur les cas annoncés aujourd’hui. Lorsqu’ils auront rendu leurs décisions finales, nous les publierons sur le site web du Conseil de surveillance.

Retour Aux Actualités