Renversé
Otages enlevés en Israël
19 décembre 2023
Le Conseil annule la décision initiale de Meta de supprimer le contenu de Facebook. Il estime que rétablir le contenu sur la plateforme, avec un écran d’avertissement « contenu dérangeant », est conforme aux politiques de Meta en matière de contenu, à ses valeurs et à ses responsabilités en matière de droits humains.
Dans les semaines qui suivront la publication de cette décision, nous mettrons en ligne une traduction en hébreu ici et une traduction en arabe sera disponible via l’onglet « langue » accessible dans le menu en haut de cet écran.
לקריאת החלטה זו בעברית יש ללחוץ כאן.
1. Résumé
Le cas concerne une vidéo à forte charge émotionnelle montrant une femme qui, lors de l’attaque terroriste du 7 octobre menée par le Hamas contre Israël, supplie ses ravisseurs de ne pas la tuer alors qu’elle est prise en otage et emmenée en voiture. La légende qui l’accompagne invite les personnes à regarder la vidéo pour mieux comprendre l’horreur dans laquelle Israël s’est réveillé le 7 octobre 2023. Les systèmes automatisés de Meta ont supprimé la publication pour infraction au Standard de la communauté relatif aux personnes et organisations dangereuses. L’utilisateur a fait appel de la décision auprès du Conseil de surveillance. Après que le Conseil a identifié le cas à examiner, Meta a informé le Conseil qu’elle avait par la suite fait une exception à la politique en vertu de laquelle le contenu avait été supprimé et avait rétabli le contenu avec un écran d’avertissement. Le Conseil annule la décision initiale de Meta et approuve la décision de rétablir le contenu avec un écran d’avertissement, mais désapprouve la rétrogradation associée du contenu qui l’empêche de faire l’objet de recommandations. Ce cas, ainsi que celui de l’hôpital Al-Shifa ( 2023-049-IG-UA), sont les premiers cas tranchés par le Conseil dans le cadre de ses procédures d’examen accéléré.
2. Contexte du cas et réponse de Meta
Le 7 octobre 2023, le Hamas, une organisation de niveau 1 désignée par le Standard de la communauté relatif aux personnes et organisations dangereuses, a mené des attaques terroristes sans précédent contre Israël depuis Gaza, qui ont fait environ 1 200 morts et 240 otages ( Ministère des affaires étrangères, gouvernement d’Israël). Israël a immédiatement entrepris une campagne militaire à Gaza en réponse aux attaques. L’action militaire d’Israël a tué plus de 18 000 personnes à Gaza à la mi-décembre 2023 (Bureau de la coordination des affaires humanitaires de l’ONU, à partir de données du ministère de la Santé à Gaza), dans un conflit où les deux parties ont été accusées de violer le droit international. Les attaques terroristes et les actions militaires israéliennes qui ont suivi ont fait l’objet d’une publicité, d’un débat, d’un examen minutieux et d’une controverse intenses à l’échelle mondiale, dont une grande partie s’est déroulée sur les plateformes de réseaux sociaux, notamment Instagram et Facebook.
Meta a immédiatement qualifié les évènements du 7 octobre d’attaque terroriste dans le cadre de sa politique relative aux personnes et organisations dangereuses. En vertu de ses Standards de la communauté, Meta supprimera ainsi tout contenu sur ses plateformes qui « fait l’éloge des attentats du 7 octobre ou de leurs auteurs, les soutient de manière substantielle ou les représente ». Elle supprimerait également tout contenu généré par les auteurs de ces attaques ainsi que les images de tiers montrant le moment de ces attaques sur des victimes visibles.
En réaction à une augmentation exceptionnelle du nombre de contenus violents et explicites publiés sur ses plateformes à la suite des attaques terroristes et de la réponse militaire, Meta a mis en place plusieurs mesures temporaires, y compris l’abaissement des seuils de confiance pour les systèmes de classification automatique (classificateurs) de ses politiques en matière de discours haineux, de violence et d’incitation, et d’intimidation et de harcèlement, afin d’identifier et de supprimer ce type de contenu. Meta a informé le Conseil que ces mesures s’appliquaient au contenu provenant d’Israël et de Gaza dans toutes les langues. Les modifications apportées à ces classificateurs ont permis d’augmenter la suppression automatique des contenus dont le score de confiance était inférieur à celui des contenus violant les politiques de Meta. En d’autres termes, Meta a utilisé ses outils automatisés de manière plus agressive pour supprimer les contenus susceptibles d’être interdits. Meta a ainsi donné la priorité à sa valeur de sécurité, en supprimant plus de contenus que ne l’aurait fait le seuil de confiance plus élevé en vigueur avant le 7 octobre. Bien que cela réduise la probabilité que Meta ne supprime pas les contenus en infraction qui pourraient autrement échapper à la détection ou lorsque la capacité d’examen manuel est limitée, cela augmente également la probabilité que Meta supprime par erreur des contenus liés au conflit qui ne sont pas en infraction.
Lorsque les équipes d’escalation ont évalué des vidéos comme étant en infraction avec ses politiques en matière de contenu violent et explicite, de violence et d’incitation, et de personnes et organisations dangereuses, Meta s’est appuyée sur les banques du service de mise en correspondance du contenu multimédia pour supprimer automatiquement les vidéos correspondantes. Cette approche a suscité des inquiétudes quant à l’application excessive de la politique, notamment en ce qui concerne les personnes confrontées à des restrictions ou à la suspension de leur compte à la suite d’infractions multiples aux politiques de Meta en matière de contenu (parfois appelées « prison Facebook »). Pour atténuer cette inquiétude, Meta a retenu les « pénalités » qui accompagneraient normalement les suppressions automatiques basées sur les banques du service de mise en correspondance du contenu multimédia (comme Meta l’a annoncé dans sa publication de la newsroom).
Les modifications apportées par Meta au seuil de confiance du classificateur et à sa politique de pénalités sont limitées au conflit Israël-Gaza et n’ont pas vocation à être maintenues dans le temps. Au 11 décembre 2023, Meta n’avait pas rétabli les seuils de confiance aux niveaux antérieurs au 7 octobre.
3. Description du cas
Ce cas concerne une vidéo des attentats du 7 octobre montrant une femme suppliant ses ravisseurs de ne pas la tuer alors qu’elle est prise en otage et emmenée sur une moto. La femme est vue assise à l’arrière du véhicule, les bras tendus, implorant pour sa vie. La vidéo montre ensuite un homme, qui semble être un autre otage, emmené par ses ravisseurs. Les visages des otages et des ravisseurs ne sont pas masqués et sont identifiables. Les images originales ont été largement diffusées au lendemain des attentats. La vidéo publiée par l’utilisateur dans ce cas, environ une semaine après les attentats, intègre un texte dans la vidéo indiquant : « Israel is under attack »(Israël est attaqué), avec le hashtag #FreeIsrael et le nom de l’un des otages. Dans une légende accompagnant la vidéo, l’utilisateur indique qu’Israël a été attaqué par des militants du Hamas et invite les personnes à regarder la vidéo pour mieux comprendre l’horreur dans laquelle Israël s’est réveillé le 7 octobre 2023. À l’heure où nous écrivons ces lignes, les deux personnes enlevées dans la vidéo sont toujours retenues en otage.
Une instance de cette vidéo a été placée dans une banque du service de mise en correspondance du contenu multimédia. Meta a d’abord supprimé la publication en question pour infraction à sa politique relative aux personnes et organisations dangereuses, qui interdit les images de tiers représentant des attaques terroristes désignées sur des victimes visibles en toutes circonstances, même si elles sont partagées pour condamner ou sensibiliser à l’attaque. Meta n’a pas appliqué de pénalité. L’utilisateur a alors fait appel de la décision de Meta auprès du Conseil de surveillance.
Immédiatement après les attentats terroristes du 7 octobre, Meta a appliqué strictement sa politique concernant les vidéos montrant le moment de l’attaque sur des victimes visibles. Meta a expliqué que cela était dû à des préoccupations concernant la dignité des otages ainsi qu’à l’utilisation de ces vidéos pour célébrer ou promouvoir les actions du Hamas. Meta a ajouté des vidéos montrant des moments d’attaque le 7 octobre, y compris la vidéo diffusée dans ce cas, aux banques du service de mise en correspondance du contenu multimédia afin que les futures occurrences de contenu identique puissent être supprimées automatiquement.
Meta a indiqué au Conseil qu’elle appliquait la lettre de la politique relative aux personnes et organisations dangereuses à ce type de contenu et qu’elle publiait des conseils consolidés à l’intention des équipes d’examen. Le 13 octobre, l’entreprise a expliqué dans sa publication de la newsroom qu’elle avait temporairement étendu la politique sur la violence et l’incitation pour supprimer le contenu qui identifiait clairement les otages lorsque Meta en était informée, même si cette décision avait été prise pour condamner les actions ou sensibiliser à leur situation. L’entreprise a affirmé au Conseil que ces politiques s’appliquaient de la même manière à Facebook et à Instagram, bien que des contenus similaires aient été signalés comme étant largement diffusés sur cette dernière plateforme, ce qui indique que l’application de cette politique y a peut-être été moins efficace.
Le Standard de la communauté relatif à la violence et l’incitation autorise généralement les contenus décrivant des enlèvements et des séquestrations dans un nombre limité de contextes, notamment lorsque le contenu est partagé à des fins d’information, de condamnation ou de sensibilisation, ou par la famille en tant qu’appel à l’aide. Toutefois, selon Meta, lorsqu’elle désigne une attaque terroriste dans le cadre de sa politique relative aux personnes et organisations dangereuses, et que ces attaques comprennent la prise en otage de victimes visibles, les règles de Meta relatives au contenu au moment de l’attaque prévalent sur le Standard de la communauté relatif à la violence et à l’incitation. Dans ce cas, les tolérances de cette politique relatives à l’information, à la condamnation ou à la sensibilisation des vidéos d’enlèvements ne s’appliquent pas et le contenu est supprimé.
Cependant, au fur et à mesure que les évènements se sont déroulés après le 7 octobre, Meta a observé des tendances en ligne indiquant un changement dans les raisons pour lesquelles les personnes partageaient des vidéos montrant des otages identifiables au moment de leur enlèvement. Les familles des victimes ont partagé les vidéos pour condamner et sensibiliser l’opinion publique, et le gouvernement israélien et les organisations médiatiques ont également partagé les images, notamment pour contrer les nouveaux récits qui nient la survenue des évènements du 7 octobre ou la gravité des atrocités perpétrées.
En réponse à ces développements, Meta a mis en œuvre une exception à sa politique relative aux personnes et organisations dangereuses, tout en maintenant sa désignation des évènements du 7 octobre. Sous réserve de contraintes opérationnelles, le contenu montrant des otages identifiables au moment de l’enlèvement serait autorisé avec un écran d’avertissement dans le cadre d’une condamnation, d’une sensibilisation, d’un reportage ou d’un appel à la libération.
Meta a expliqué au Conseil que le déploiement de cette exception a été échelonné et n’a pas atteint tous les utilisateurs en même temps. Le 20 octobre ou aux alentours de cette date, l’entreprise a commencé à autoriser le contenu sur les prises d’otages des attaques du 7 octobre. Dans un premier temps, elle ne l’a fait qu’à partir des comptes inclus dans le programme « Examen secondaire de l’équipe de réponse rapide » (communément appelé « vérification croisée »), en raison de préoccupations liées aux contraintes opérationnelles, notamment l’incertitude quant à la capacité de l’examen manuel. Le programme de vérification croisée garantit un examen manuel supplémentaire du contenu par des entités spécifiques chaque fois qu’elles publient un contenu identifié comme potentiellement contraire aux politiques de Meta en matière de contenu et nécessitant leur mise en application. Le 16 novembre, Meta a déterminé qu’elle avait la capacité d’étendre la tolérance pour le contenu de prise d’otages à tous les comptes, ce qu’elle a fait, mais seulement pour le contenu publié après cette date. Meta a informé le Conseil et expliqué dans la mise à jour publique de la newsroom que l’exception qu’elle accorde actuellement est limitée uniquement aux vidéos montrant le moment de l’enlèvement des otages perpétré en Israël le 7 octobre.
Après que le Conseil a identifié ce cas, Meta est revenue sur sa décision initiale et a rétabli le contenu avec un écran d’avertissement « contenu dérangeant ». La visibilité du contenu est ainsi limitée aux personnes âgées de plus de 18 ans et il n’est plus recommandé aux autres utilisateurs de Facebook.
4. Justification de l’examen accéléré
Les statuts du Conseil de surveillance prévoient un examen accéléré dans des « circonstances exceptionnelles, notamment lorsque le contenu pourrait avoir des conséquences graves dans le monde réel », et les décisions sont contraignantes pour Meta (Charte, art. 3, section 7.2 ; Statuts, art. 2, section 2.1.2). La procédure accélérée ne permet pas d’effectuer des recherches approfondies, de procéder à des consultations externes ou de recueillir des commentaires publics, comme il conviendrait dans des cas examinés dans des délais normaux. Le cas est tranché sur la base des informations dont dispose le Conseil au moment de la délibération et est décidé par un panel de cinq membres sans vote complet du Conseil.
Le Conseil de surveillance a sélectionné ce cas et un autre, l’hôpital Al-Shifa (2023-049-IG-UA), en raison de l’importance de la liberté d’expression dans les situations de conflit, qui a été mise en péril dans le contexte du conflit entre Israël et le Hamas. Ces deux cas sont représentatifs du type d’appels que les utilisateurs de la région ont soumis au Conseil depuis les attentats du 7 octobre et l’action militaire israélienne qui s’en est suivie. Ces deux cas relèvent de la priorité dans des situations de crise et de conflit du Conseil de surveillance. Les décisions de Meta dans les deux cas répondent à la norme des « conséquences graves dans le monde réel » pour justifier un examen accéléré, et par conséquent le Conseil et Meta ont convenu d’observer les procédures accélérées du Conseil.
Dans ses observations au Conseil, Meta a reconnu que « la décision sur la manière de traiter ce contenu est difficile et implique des valeurs concurrentes et des compromis », et s’est félicité de l’avis du Conseil sur cette question.
5. Soumissions de l’utilisateur
L’auteur de la publication a déclaré dans son appel au Conseil que la vidéo capture des évènements réels. Il vise à « mettre fin à la terreur » en montrant la brutalité de l’attaque du 7 octobre, au cours de laquelle les otages ont été enlevés. L’utilisateur a été informé de l’examen de son appel par le Conseil.
6. Décision
Le Conseil annule la décision initiale de Meta de supprimer le contenu de Facebook. Il estime que rétablir le contenu sur la plateforme, avec un écran d’avertissement « contenu dérangeant », est conforme aux politiques de Meta en matière de contenu, à ses valeurs et à ses responsabilités en matière de droits humains. Toutefois, le Conseil conclut également que la rétrogradation par Meta du contenu restauré, sous la forme d’une exclusion de la possibilité d’être recommandé, n’est pas conforme aux responsabilités de l’entreprise en matière de respect de la liberté d’expression.
6.1 Respect des politiques relatives au contenu de Meta
Le Conseil estime que la décision initiale de Meta de supprimer le contenu était conforme à sa politique de l’époque relative aux personnes et organisations dangereuses, qui interdisait les « images de tiers représentant le moment d’attaques [désignées] sur des victimes visibles ». La restauration du contenu, avec un écran d’avertissement, était également conforme à l’autorisation temporaire de Meta d’autoriser ce type de contenu lorsqu’il est partagé à des fins de condamnation, de sensibilisation, d’information ou d’appel à la libération.
6.2 Respect des responsabilités de Meta en matière de droits humains
Le Conseil approuve la position initiale de Meta, le 7 octobre, de supprimer « les images de tiers représentant le moment d’attaques [désignées] sur des victimes visibles », conformément à la politique relative aux personnes et organisations dangereuses. Protéger la dignité des otages et veiller à ce qu’ils ne soient pas exposés à la curiosité du public devrait être l’approche par défaut de Meta. Toutefois, dans des circonstances exceptionnelles, lorsqu’un intérêt public impérieux ou l’intérêt vital des otages l’exige, des exceptions temporaires et limitées à cette interdiction peuvent être justifiées. Compte tenu de la situation spécifique du présent cas, comme Meta l’a reconnu en restaurant le contenu et en y ajoutant un écran d’avertissement après que le Conseil l’a sélectionné, le contenu devrait être autorisé. Le Conseil estime que la décision de Meta de modifier temporairement son approche initiale, autoriser ce type de contenu avec un écran d’avertissement lorsqu’il est partagé à des fins de condamnation, de sensibilisation, de reportage ou d’appel à la libération, était justifiable. En outre, ce changement était justifiable avant le 16 novembre, car il est apparu clairement que l’application stricte par Meta de la politique relative aux personnes et organisations dangereuses entravait l’expression visant à faire progresser et à protéger les droits et les intérêts des otages et de leurs familles. Compte tenu de l’évolution rapide de la situation et du coût élevé de la suppression de ce type de contenu pour la liberté d’expression et l’accès à l’information, Meta aurait dû adapter plus rapidement sa politique.
Comme l’a déclaré le Conseil dans le cas de la Vidéo de prisonniers de guerre arméniens, les protections de la liberté d’expression au titre de l’article 19 du Pacte international relatif aux droits civils et politiques (PIDCP) « restent engagées pendant les conflits armés et devraient continuer à éclairer les responsabilités de Meta en matière de droits humains, parallèlement aux règles du droit international humanitaire qui se renforcent mutuellement et se complètent et qui s’appliquent pendant de tels conflits ». Les principes directeurs des Nations Unies relatifs aux entreprises et aux droits humains imposent une responsabilité accrue aux entreprises opérant dans un contexte de conflit (« Entreprises, droits humains et régions touchées par des conflits : vers une action renforcée », A/75/212).
Lorsque des limitations de la liberté d’expression sont imposées par un État, elles doivent remplir des critères de légalité, d’objectif légitime, et de nécessité et de proportionnalité (article 19, paragraphe 3 du PIDCP). Ces exigences sont souvent reprises sous l’intitulé « test tripartite ». Le Conseil utilise ce cadre pour interpréter les engagements volontaires de Meta en matière de droits humains, à la fois pour la décision relative au contenu individuel en cours d’examen et pour ce que cela dit de l’approche plus large de Meta en matière de gouvernance du contenu. Ce faisant, le Conseil s’efforce de tenir compte du fait que ces droits peuvent être différents selon qu’ils s’appliquent à une entreprise privée de réseaux sociaux ou à un gouvernement. Néanmoins, comme l’a déclaré le Rapporteur spécial des Nations Unies sur la liberté d’expression, si les entreprises ne sont pas soumises aux mêmes devoirs que les gouvernements, « leur influence est néanmoins telle qu’elle doit les inciter à se poser les mêmes questions qu’eux quant à la protection de la liberté d’expression de leurs utilisateurs » (rapport A/74/486, paragraphe 41).
La légalité exige que toute restriction à la liberté d’expression soit accessible et suffisamment claire pour fournir des indications sur ce qui est autorisé et ce qui ne l’est pas. Appliquée à ce cas, la règle de Meta relative aux personnes et organisations dangereuses, qui interdit les images de tiers représentant le moment d’attaques terroristes désignées sur des victimes visibles, quel que soit le contexte dans lequel elles sont partagées, est claire. En outre, Meta a annoncé publiquement le 13 octobre, par le biais d’une publication de la newsroom, qu’elle supprimerait toutes les vidéos de ce type. Bien que Meta ait par la suite modifié son approche, d’abord le 20 octobre, en autorisant ce type de contenu (avec un écran d’avertissement) lorsqu’il est partagé par des entités bénéficiant du programme ERSR à des fins d’information ou de sensibilisation, puis le 16 novembre, en élargissant cette autorisation à tous les utilisateurs, l’entreprise n’a pas annoncé publiquement cette modification avant le 5 décembre. Cette intervention a eu lieu après que le Conseil a identifié ce cas pour examen, mais avant que le Conseil n’annonce publiquement qu’il se saisissait de ce cas le 7 décembre. Tout au long du conflit, les règles appliquées par Meta ont été modifiées à plusieurs reprises, mais n’ont pas été clairement expliquées aux utilisateurs. Il n’est pas non plus évident de savoir en vertu de quelle politique l’écran d’avertissement est imposé, car ni la politique relative aux personnes et organisations dangereuses, ni celle relative à la violence et à l’incitation ne prévoient l’utilisation d’écrans d’avertissement. Le Conseil encourage Meta à répondre à ces questions de légalité en clarifiant publiquement le fondement et la portée de sa politique actuelle concernant le contenu relatif aux otages enlevés en Israël le 7 octobre, ainsi que sa relation avec les politiques plus générales en cause.
En vertu de l’article 19, paragraphe 3, du PIDCP, la liberté d’expression peut être restreinte pour toute une série de raisons limitées et définies. Le Conseil a déjà estimé que les politiques relatives aux personnes et organisations dangereuses et à la violence et à l’incitation poursuivaient l’objectif légitime de protéger les droits d’autrui (voir Bureau des affaires de communication du Tigré et Mention des talibans dans les informations d’actualité).
Le principe de nécessité et de proportionnalité stipule que les restrictions de la liberté d’expression « doivent être appropriées pour remplir leur fonction de protection ; elles doivent constituer le moyen le moins perturbateur parmi ceux qui pourraient permettre d’obtenir le résultat recherché » [et] « elles doivent être proportionnées à l’intérêt à protéger » ( observation générale n° 34, paragraphe 34).
Le Conseil estime que la décision initiale de Meta de supprimer tout contenu représentant des otages visibles était nécessaire et proportionnée pour atteindre les objectifs de protection de la sécurité et de la dignité des otages et pour garantir que les plateformes de Meta ne soient pas utilisées pour renforcer la violence du 7 octobre ou pour encourager d’autres traitements dégradants et inhumains à l’encontre des otages. Le Conseil a examiné le droit humanitaire international, le contexte numérique au cours de la première semaine du conflit et les mesures d’atténuation prises par Meta pour limiter l’impact de sa décision de supprimer tous les contenus de ce type.
Le droit international humanitaire, tant dans les conflits armés internationaux que non internationaux, identifie la vulnérabilité particulière des otages dans un conflit armé et prévoit des protections pour faire face à ces risques accrus ; la prise d’otages est interdite par les Conventions de Genève ( article 3 commun, Conventions de Genève ; articles 27 et article 34, Convention de Genève IV). Selon le commentaire du CICR, la définition de la prise d’otages dans la Convention internationale contre la prise d’otages, à savoir la saisie ou la détention d’une personne, accompagnée de la menace de la tuer, de la blesser ou de la maintenir en détention afin de contraindre un tiers à accomplir ou à s’abstenir d’accomplir un acte quelconque en tant que condition explicite ou implicite de sa libération, devrait être utilisée pour définir le terme dans le cadre des Conventions de Genève. L’article 3 commun interdit également « les atteintes à la dignité de la personne, notamment les traitements humiliants et dégradants ». L’article 27 de la Convention IV de Genève protège les personnes protégées, y compris les otages, contre les traitements inhumains et dégradants, y compris les insultes et la curiosité publique. La diffusion de vidéos d’otages peut faire partie intégrante d’une stratégie visant à menacer un gouvernement et le public et peut favoriser la poursuite de la détention et de la dégradation des otages, ce qui constitue une violation permanente du droit international. Dans de telles circonstances, permettre la diffusion d’images de violence, de mauvais traitements et de vulnérabilité permanente peut encourager d’autres violences et traitements dégradants.
Des vidéos d’otages ont commencé à circuler sur les réseaux sociaux en même temps que l’attentat du 7 octobre. Selon les rapports, tout au long de la première semaine, des vidéos ont été diffusées par le Hamas et le Jihad islamique palestinien, ce qui fait craindre que d’autres streams en direct et vidéos d’exécutions ou de tortures ne suivent. Dans de telles circonstances, la décision de Meta d’interdire toutes les vidéos de ce type sur ses plateformes était raisonnable et conforme au droit humanitaire international, à ses Standards de la communauté et à ses valeurs de sécurité. Les normes du secteur, telles que les engagements énoncés dans l’appel de Christchurch, exigent des entreprises qu’elles réagissent rapidement et efficacement aux contenus nuisibles diffusés à la suite d’attaques extrémistes violentes. Toutefois, l’appel de Christchurch souligne également la nécessité de réagir à ces contenus dans le respect des droits humains et des libertés fondamentales.
Dans le même temps, Meta a pris des mesures pour limiter l’impact négatif potentiel de sa décision de supprimer toutes ces images en décidant de ne pas appliquer de pénalité aux utilisateurs dont le contenu a été supprimé en vertu de cette politique, ce qui a permis d’atténuer les effets préjudiciables de cette politique stricte sur les utilisateurs qui auraient pu publier le contenu à des fins telles que la condamnation ou la sensibilisation et le compte rendu d’évènements. Le Conseil estime qu’il peut être raisonnable et utile pour Meta d’envisager de calibrer ou de renoncer aux pénalités afin d’atténuer les conséquences négatives de règles catégorielles strictement appliquées à grande échelle, et donc de rendre une restriction d’expression plus proportionnelle à l’objectif à atteindre.
Les Conventions de Genève interdisent d’exposer les personnes protégées, y compris les otages, à la curiosité du public, car cela constitue un traitement humiliant. Il existe d’étroites exceptions à cette interdiction, que le Conseil a analysées dans la décision relative à la Vidéo de prisonniers de guerre arméniens, exigeant qu’un équilibre raisonnable soit trouvé entre, d’une part, les avantages de la divulgation publique de documents représentant des prisonniers identifiables, « compte tenu de la grande valeur de ces documents lorsqu’ils sont utilisés comme preuves pour poursuivre des crimes de guerre, promouvoir la responsabilité et sensibiliser le public à la maltraitance, et, d’autre part, l’humiliation potentielle et même les blessures physiques qui peuvent être causées aux personnes figurant dans les documents partagés ». La divulgation exceptionnelle nécessite un intérêt public impérieux ou que les intérêts vitaux de l’otage soient servis.
Pour ces raisons, toute décision d’imposer une exception temporaire aux restrictions sur les contenus montrant des otages ou des prisonniers de guerre identifiables doit être évaluée sur la base des faits particuliers relatifs à ces otages ou prisonniers de guerre et à leurs droits et intérêts, doit être continuellement réexaminée pour s’assurer qu’elle est précisément adaptée pour servir ces droits et intérêts, et ne devient pas une exception générale aux règles visant à protéger les droits et la dignité des personnes protégées. Les faits du cas présent indiquaient clairement qu’une telle divulgation servait l’intérêt vital des otages. Dès la première semaine suivant l’attentat du 7 octobre, les familles des otages ont également commencé à s’organiser et à partager des vidéos dans le cadre de leur campagne visant à réclamer la libération des otages et à faire pression sur les différents gouvernements pour qu’ils agissent dans l’intérêt supérieur des otages. La vidéo qui a été utilisée comme élément de la publication dans ce cas faisait également partie d’une campagne menée par la famille de la femme décrite. En outre, à partir du 16 octobre environ, le gouvernement israélien a commencé à montrer des compilations vidéo aux journalistes pour démontrer la gravité des attaques du 7 octobre. Dans les semaines qui ont suivi le 7 octobre, des récits se sont répandus, niant les atrocités commises. Dans ces conditions, il était raisonnable pour Meta de conclure qu’elle ne devait pas réduire au silence les familles des otages et entraver le travail des organes de presse et d’autres entités qui enquêtent et rendent compte des faits. Il peut être crucial pour la future sécurité des otages que les familles et les autorités voient un otage vivant et soient en mesure de déterminer son état physique, voire d’identifier les ravisseurs. Cela est d’autant plus important que Meta ne dispose pas d’un mécanisme transparent et efficace pour préserver ce type de contenu (voir ci-dessous). En résumé, compte tenu des changements intervenus en matière d’environnement numérique dans les semaines qui ont suivi les évènements du 7 octobre, il était légitime que Meta impose une exception temporaire à ses politiques, limitée aux otages enlevés en Israël le 7 octobre.
Le Conseil conclut également que Meta a pris trop de temps pour étendre l’application de cette exception à tous les utilisateurs. Meta a également été trop lente à annoncer ce changement temporaire au public. Le 20 octobre, Meta a commencé à autoriser ces vidéos avec un écran d’avertissement lorsqu’elles sont partagées à des fins d’information et de sensibilisation, en se limitant aux entités figurant sur la liste de vérification croisée de l’ERSR. Le 16 novembre, près de quatre semaines après la reconnaissance de la tolérance initiale et près d’un mois et demi après le début du conflit, Meta a étendu cette tolérance à tous les utilisateurs. Le 5 décembre, Meta a finalement annoncé dans un article de la newsroom qu’elle avait modifié sa politique interdisant les vidéos montrant des otages au moment de l’attaque. Bien que le Conseil estime que le concept de mise en œuvre progressive des modifications de la politique est raisonnable en principe, il conclut que l’entreprise aurait dû réagir plus rapidement à l’évolution de la situation.
Après avoir modifié son approche initiale et introduit la tolérance, Meta a continué à appliquer un écran d’avertissement sur le contenu. Comme le Conseil l’a conclu dans des cas antérieurs, l’application d’un écran d’avertissement peut, dans certaines circonstances, constituer une mesure proportionnée, même si elle a un impact négatif sur la portée du contenu, car elle offre aux utilisateurs la possibilité de partager et de choisir de voir ou non le contenu dérangeant (voir Vidéo de prisonniers de guerre arméniens). Le Conseil estime que le fait d’exclure des recommandations les contenus sensibilisant aux violations potentielles des droits humains, aux conflits ou aux actes de terrorisme ne constitue pas une restriction nécessaire ni proportionnée de la liberté d’expression, compte tenu de l’intérêt public très élevé que présentent ces contenus. Les écrans d’avertissement et la suppression des recommandations remplissent des fonctions distinctes et devraient dans certains cas être séparés, en particulier dans les situations de crise. Supprimer du contenu des systèmes de recommandation revient à en réduire la portée. Le Conseil estime que cette pratique porte atteinte à la liberté d’expression de manière disproportionnée dans la mesure où elle s’applique à des contenus qui sont déjà réservés à des utilisateurs adultes et qui sont publiés pour sensibiliser, condamner ou rendre compte de questions d’intérêt public telles que l’évolution d’un conflit violent.
Le Conseil est également préoccupé par le fait que l’évolution rapide de l’approche de Meta en matière de modération de contenu au cours du conflit s’est accompagnée d’un manque de transparence permanent, ce qui nuit à l’évaluation efficace de ses politiques et de ses pratiques et qui peut lui donner l’apparence de l’arbitraire. Par exemple, Meta a confirmé que l’exception autorisant le partage d’images représentant des victimes visibles d’un attentat désigné à des fins d’information ou de sensibilisation est une mesure temporaire. Cependant, on ne sait pas si cette mesure fait partie du Protocole de politique de crise de l’entreprise ou si elle a été improvisée par les équipes de Meta au fur et à mesure que les évènements se déroulaient. Meta a élaboré le protocole de politique de crise en réponse à la recommandation n° 18 du Conseil dans le cas de la suspension de l’ancien président Trump. Selon l’entreprise, il s’agit de fournir à Meta un cadre permettant d’anticiper les risques et d’y répondre de manière cohérente à travers les crises. Le manque de transparence du protocole signifie que ni le Conseil ni le public ne savent si la mesure politique utilisée dans ce cas (à savoir autoriser un contenu enfreignant la lettre de la règle pertinente de la politique relative aux personnes et organisations dangereuses à des fins de sensibilisation et de condamnation avec un écran d’avertissement) a été élaborée et évaluée avant ce conflit, quelle est la portée exacte de la mesure politique temporaire (par ex., si elle s’applique aux vidéos montrant des otages en détention, après l’attaque du 7 octobre), les critères de son utilisation, les circonstances dans lesquelles la mesure ne sera plus nécessaire, et si Meta a l’intention de reprendre la suppression de tous les contenus de ce type une fois la mesure temporaire terminée. Le Conseil insiste à nouveau sur le fait que les utilisateurs et le public ne sont pas informés en temps utile et de manière efficace de ces mesures de crise ad hoc. Le Conseil a précédemment déclaré que Meta devrait annoncer de telles exceptions à ses Standards de la communauté, « leur durée et la notification de leur expiration, afin de communiquer aux personnes qui utilisent ses plateformes les modifications de politique autorisant certaines expressions » (voir Slogan de protestation iranien, recommandation n° 5, que Meta a partiellement mise en œuvre). Le manque de transparence peut également avoir un effet dissuasif sur les utilisateurs, qui peuvent craindre que leur contenu soit supprimé et que leur compte soit pénalisé ou restreint s’ils commettent une erreur. Enfin, compte tenu de l’interdiction générale de base de permettre l’exposition d’otages et des circonstances très exceptionnelles dans lesquelles cette interdiction peut être assouplie, une notification et une transparence rapides et régulières concernant la portée exacte et les limites temporelles des exceptions contribuent à garantir qu’elles resteront aussi limitées que possible.
En outre, l’entreprise a commencé par autoriser les entités bénéficiant de son programme de vérification croisée à partager des vidéos d’otages avec un écran d’avertissement à des fins d’information ou de sensibilisation, avant d’étendre cette autorisation à tous les utilisateurs. L’adoption d’une étape intermédiaire pour passer à une politique temporaire plus permissive semble raisonnable compte tenu du contexte, car elle permet à l’entreprise de tester les effets de la modification selon une portée plus limitée avant de le mettre en œuvre à grande échelle. Toutefois, l’utilisation du programme de vérification croisée met à nouveau en lumière certains des problèmes que le Conseil avait déjà identifiés dans son avis consultatif sur la politique à suivre en la matière. Il s’agit notamment de l’inégalité de traitement des utilisateurs, de l’absence de critères transparents pour les listes de vérification croisée, de la nécessité d’assurer une plus grande représentation des utilisateurs dont le contenu est susceptible d’être important du point de vue des droits humains, tels que les journalistes et les organisations de la société civile, et du manque général de transparence sur le fonctionnement de la vérification croisée. L’utilisation du programme de vérification croisée de cette manière contredit également la façon dont Meta a décrit et expliqué l’objectif du programme, à savoir qu’il s’agit d’un système de prévention des erreurs et non d’un programme qui fournit à certains utilisateurs privilégiés des règles plus permissives. Meta a indiqué qu’elle continue de travailler à la mise en œuvre de la plupart des recommandations formulées par le Conseil dans cet avis consultatif, mais ni le Conseil ni le public ne disposent d’informations suffisantes pour évaluer si le recours à la liste de vérification croisée pendant le conflit était conforme aux responsabilités de Meta en matière de droits humains ou risquait d’avoir un impact disparate, en privilégiant un marché ou un groupe de locuteurs au détriment d’un autre.
Enfin, Meta a la responsabilité de préserver les preuves d’éventuelles violations des droits humains et du droit international humanitaire, comme le recommande également le rapport du BSR (recommandation n° 21) et comme le préconisent les groupes de la société civile. Même lorsque le contenu est supprimé des plateformes de Meta, il est essentiel de conserver ces preuves dans l’intérêt de la responsabilité future (voir Vidéo explicite au Soudan et Vidéo de prisonniers de guerre arméniens). Bien que Meta ait expliqué qu’elle conservait pendant un an tous les contenus enfreignant ses Standards de la communauté, le Conseil demande instamment que les contenus spécifiquement liés à des crimes de guerre potentiels, des crimes contre l’humanité et des violations graves des droits humains soient identifiés et conservés de manière plus durable et accessible à des fins de responsabilisation à plus long terme. Le Conseil note que Meta a accepté de mettre en œuvre la recommandation n° 1 dans le cas de la Vidéo de prisonniers de guerre arméniens. Meta a été invitée à élaborer un protocole visant à préserver et, le cas échéant, à partager avec les autorités compétentes les informations nécessaires aux enquêtes et aux procédures judiciaires visant à remédier aux crimes d’atrocité ou aux violations graves des droits humains ou à en poursuivre les auteurs. Meta a informé le Conseil qu’elle était en train de mettre au point une « approche cohérente pour conserver les preuves potentielles de crimes d’atrocité et de violations graves du droit international en matière de droits humains » et qu’elle prévoyait de fournir prochainement au Conseil une note d’information sur son approche. Le Conseil s’attend à ce que Meta mette pleinement en œuvre la recommandation susmentionnée.
* Note de procédure :
Les décisions accélérées du Conseil de surveillance sont préparées par des groupes de cinq membres et ne sont pas soumises à l’approbation de la majorité du Conseil dans son ensemble. Les décisions du Conseil ne représentent pas nécessairement les opinions personnelles de tous les membres.
Retour aux décisions de cas et aux avis consultatifs politiques