Le Conseil de surveillance annule la décision initiale de Facebook : Cas 2021-006-IG-UA

Le Conseil de surveillance a annulé la décision initiale de Facebook visant à supprimer une publication Instagram encourageant les utilisateurs à débattre sur l’isolement cellulaire d’Abdullah Öcalan, membre fondateur du Parti des travailleurs du Kurdistan (PKK). Par suite de l’appel de l’utilisateur et de l’examen du cas par le Conseil, Facebook a conclu que le contenu avait été supprimé par erreur et l’a restauré. Le Conseil note avec préoccupation que Facebook a égaré une exception de politique interne pendant trois ans et que ce faisant, de nombreuses autres publications ont pu être supprimées.

À propos du cas

Le présent cas se rapporte à Abdullah Öcalan, un membre fondateur du PKK. Ce groupe a eu recours à la violence pour tenter d’atteindre son objectif, c’est-à-dire établir un État kurde indépendant. Le PKK et Öcalan sont tous deux désignés comme entités dangereuses en vertu de la politique de Facebook sur les personnes et organisations dangereuses.

Le 25 janvier 2021, un utilisateur américain d’Instagram a publié une image de M. Öcalan qui comprenait les mots « vous êtes tous prêts à avoir cette discussion ». Dans la légende, l’auteur de la publication a écrit qu’il était temps de parler de l’isolement de M. Öcalan en prison sur l’île d’Imrali en Turquie et d’y mettre fin. Cette personne encourageait les lecteurs à parler de l’emprisonnement de M. Öcalan et de la nature inhumaine de son isolement cellulaire.

Après avoir été évaluée par un modérateur, la publication a été supprimée le 12 février, conformément aux règles de Facebook relatives aux personnes et organisations dangereuses, pour être un appel à l’action visant à soutenir M. Öcalan et le PKK. Lorsque l’utilisateur a fait appel de cette décision, il lui a été répondu que son appel ne pouvait être examiné en raison d’une réduction temporaire de la capacité d’examen de Facebook due au COVID-19. Toutefois, un second modérateur a évalué le contenu et estimé qu’il enfreignait ladite politique. L’utilisateur a alors introduit un appel auprès du Conseil de surveillance.

Le cas a été sélectionné par le Conseil et assigné à un panel, après quoi Facebook a découvert qu’une instruction interne relative à la politique sur les personnes et organisations dangereuses « n’avait pas été transférée par inadvertance » au nouveau système d’examen en 2018. Cette instruction, mise au point en 2017 pour répondre en partie à l’inquiétude suscitée par les conditions d’emprisonnement de M. Öcalan, autorise les discussions relatives aux conditions de détention des personnes désignées comme dangereuses.

Facebook a restauré le contenu sur Instagram le 23 avril, conformément à ladite instruction. Facebook a indiqué au Conseil être en train de travailler à une mise à jour de ses politiques pour autoriser les utilisateurs à discuter des droits de l’homme des personnes désignées comme dangereuses. L’entreprise a demandé au Conseil de lui donner un avis ainsi que des recommandations pour améliorer ces politiques. Bien que Facebook ait mis à jour son Standard de la communauté sur les personnes et organisations dangereuses le 23 juin 2021, ces modifications n’ont pas d’incidence directe sur les recommandations que l’entreprise a demandées au Conseil.

Principales observations

Le Conseil a estimé que la décision initiale de Facebook visant à supprimer le contenu n’était pas conforme à ses Standards de la communauté. Étant donné que l’instruction interne égarée précise que les utilisateurs peuvent discuter des conditions de détentions de personnes ayant été désignées comme dangereuses, la publication était autorisée par les règles de Facebook.

Le Conseil note avec préoccupation que Facebook a égaré une instruction spécifique sur une exception de politique importante pendant trois ans. La politique de Facebook consistant à supprimer par défaut le contenu témoignant du « soutien » à des personnes désignées, tout en cachant au public des exceptions clés, a permis à cette erreur de passer inaperçue pendant une longue période. Facebook a uniquement découvert que cette politique n’était pas appliquée parce que l’utilisateur a décidé de faire appel de la décision de la société auprès du Conseil.

Bien que la plate-forme Facebook ait affirmé au Conseil qu’elle procédait à un examen des raisons pour lesquelles l’instruction n’a pas été transférée à son nouveau système d’examen, elle a également indiqué qu’il n’était « techniquement pas possible de déterminer combien de contenus ont été supprimés durant la période où l’instruction n’était pas mise à la disposition des examinateurs ». Le Conseil estime que l’erreur de Facebook peut avoir entraîné la suppression à tort de nombreuses autres publications et que les rapports de transparence de Facebook ne sont pas suffisants pour déterminer si ce type d’erreur reflète un problème systématique. Les actions de Facebook en l’espèce indiquent que l’entreprise ne respecte pas le droit de recours, ce qui enfreint sa politique d’entreprise en matière des droits de l’homme (section 3).

Même sans la découverte de l’instruction égarée, le contenu n’aurait jamais dû être supprimé. L’utilisateur n’a pas témoigné de la violence dans sa publication et n’a pas exprimé son soutien envers l’idéologie de M. Öcalan ou du PKK. Il a plutôt cherché à mettre en lumière les préoccupations relatives aux droits de l’homme que soulevait l’isolement cellulaire prolongé de M. Öcalan, lesquelles avaient également été exprimées par des organismes internationaux. Dans la mesure où il était peu probable que la publication cause des préjudices, sa suppression n’était ni nécessaire ni proportionnée en vertu des normes internationales des droits de l’homme.

Décision du Conseil de surveillance

Le Conseil de surveillance a annulé la décision initiale de Facebook visant à supprimer le contenu. Le Conseil note que Facebook a déjà restauré le contenu.

Dans un avis consultatif sur la politique, le Conseil recommande à Facebook de :

  • Rétablir immédiatement l’instruction égarée en 2017 dans les Standards d’implémentation internes et les Questions fréquemment posées (les instructions internes pour les modérateurs de contenu).
  • Évaluer les procédés de modération automatisés destinés à la mise en application de la politique sur les individus et les organismes dangereux. Le cas échéant, Facebook doit mettre à jour les classificateurs afin d’exclure les données d’entraînement provenant d’erreurs de mise en application antérieures résultant de l’incapacité à appliquer l’instruction de 2017.
  • Publier les résultats de la procédure d’examen continu pour déterminer si d’autres politiques ont été égarées, en ce compris la description de toute politique perdue, la période durant laquelle elle a été égarée et les mesures prises pour la restaurer.
  • Veiller à ce que la « justification de la politique » sur les individus et les organismes dangereux reflète le fait que le respect des droits de l’homme et de la liberté d’expression peut faire progresser la valeur « sécurité ». La justification de la politique doit préciser plus en détail les « dangers réels » que la politique cherche à éviter et empêcher en supprimant la valeur « liberté d’expression ».
  • Ajouter à la politique une explication claire des considérations exclues par le terme « soutien ». Les utilisateurs doivent être libres de discuter des abus présumés des droits de l’homme des membres d’organismes désignés.
  • Expliquer dans les Standards de la communauté comment les utilisateurs peuvent faire comprendre à Facebook l’intention sous-entendue par leurs publications.
  • Assurer un engagement significatif des parties prenantes envers les modifications proposées à sa politique sur les individus et les organismes dangereux par le biais du Forum de politique des produits de Facebook, notamment par un appel public à contributions.
  • Veiller à ce que des formations et des instructions internes soient fournies aux modérateurs de contenu concernant toute modification de politique proposée.
  • Veiller à ce que les utilisateurs soient prévenus de la suppression de leur contenu. La notification doit indiquer si la suppression est due à une demande gouvernementale ou à une infraction aux Standards de la communauté, ou encore à un gouvernement affirmant que sa législation nationale a été enfreinte (et la portée juridictionnelle de toute suppression).
  • Préciser aux utilisateurs d’Instagram que les Standards de la communauté Facebook s’appliquent à Instagram de la même manière qu’ils s’appliquent à Facebook.
  • Inclure, dans ses rapports de transparence, des informations sur le nombre de demandes de suppression de contenu reçues de la part des gouvernements sur la base d’infractions des Standards de la communauté (par opposition aux infractions de la législation nationale), ainsi que les résultats de ces demandes.
  • Inclure, dans ses rapports de transparence, des informations plus complètes sur les taux d’erreur dans l’application des règles relatives aux « éloges » et au « soutien » envers les personnes et organisations dangereuses, réparties par région et par langue.

Pour en savoir plus :

Pour lire l’intégralité de la décision sur le cas, cliquez ici.

Pour lire un résumé des commentaires publics relatifs à ce cas, cliquez ici.

Retour Aux Actualités