Renversé

Hôpital Al-Shifa

Le Conseil annule la décision initiale de Meta de supprimer le contenu d’Instagram. Il estime que rétablir le contenu sur la plateforme, avec un écran d’avertissement « comme dérangeant », est conforme aux politiques de Meta en matière de contenu, à ses valeurs et à ses responsabilités en matière de droits humains.

Type de décision

Expedited

Politiques et sujets

Sujet
Guerre et conflits, Sécurité, Violence
Norme communautaire
Contenu violent et explicite

Régions/Pays

Emplacement
Israël, Territoires palestiniens

Plate-forme

Plate-forme
Instagram

Pièces jointes

Hebrew translation.pdf

Dans les semaines qui suivront la publication de cette décision, nous mettrons en ligne une traduction en hébreu ici, et une traduction en arabe sera disponible dans l’onglet « langue » accessible dans le menu en haut de cet écran.

לקריאת החלטה זו בעברית יש ללחוץ כאן.

1. Résumé

Dans ce cas, il s’agit d’une vidéo à forte charge émotionnelle montrant les conséquences d’une frappe sur ou près de l’hôpital Al-Shifa à Gaza pendant l’offensive terrestre d’Israël, avec une légende condamnant l’attaque. Les systèmes automatisés de Meta ont supprimé le message pour violation du Standard de la communauté relatif aux contenus violents et explicites. Après avoir contesté sans succès cette décision auprès de Meta, l’utilisateur a fait appel au Conseil de surveillance. Après que le Conseil a identifié le cas à réexaminer, Meta est revenu sur sa décision et a rétabli le contenu avec un écran d’avertissement. Le Conseil estime que la décision initiale de supprimer le contenu n’était pas conforme aux politiques de Meta en matière de contenu ni aux responsabilités de l’entreprise en matière de droits humains. Le Conseil approuve la décision de rétablir le contenu avec un écran d’avertissement mais désapprouve la rétrogradation associée du contenu, qui l’empêche de faire l’objet de recommandations. Ce cas, ainsi que celui des Otages enlevés en Israël ( 2023-050-IG-UA), sont les premiers cas tranchés par le Conseil dans le cadre de ses procédures d’examen accéléré.

2. Contexte et réponse de Meta

Le 7 octobre 2023, le Hamas, une organisation de niveau 1 désignée par le Standard de la communauté relatif aux personnes et organisations dangereuses, a mené des attaques terroristes sans précédent contre Israël depuis Gaza, qui ont fait environ 1 200 morts et 240 otages ( ministère des Affaires étrangères, gouvernement d’Israël). Israël a immédiatement entrepris une campagne militaire à Gaza en réponse aux attaques. L’action militaire d’Israël a tué plus de 18 000 personnes à Gaza à la mi-décembre 2023 (Bureau de la coordination des affaires humanitaires de l’ONU, à partir de données du ministère de la Santé à Gaza), dans un conflit où les deux parties ont été accusées de violer le droit international. Les attaques terroristes et les actions militaires israéliennes qui ont suivi ont fait l’objet d’une publicité, d’un débat, d’un examen minutieux et d’une controverse intenses à l’échelle mondiale, dont une grande partie s’est déroulée sur les plateformes de réseaux sociaux, notamment Instagram et Facebook.

Meta a immédiatement qualifié les évènements du 7 octobre d’attaque terroriste dans le cadre de sa politique relative aux personnes et organisations dangereuses. En vertu de ses Standards de la communauté, cela signifie que Meta supprimera tout contenu sur ses plateformes qui « fait l’éloge des attentats du 7 octobre ou de leurs auteurs, les soutient de manière substantielle ou les représente ».

En réaction à une augmentation exceptionnelle du nombre de contenus violents et explicites publiés sur ses plateformes à la suite des attaques terroristes et de la réponse militaire, Meta a mis en place plusieurs mesures temporaires, notamment une réduction des seuils de fiabilité pour son système de classification automatique des contenus explicites et violents (classificateur) afin d’identifier et de supprimer les contenus. Meta a informé le Conseil que ces mesures s’appliquaient au contenu provenant d’Israël et de Gaza dans toutes les langues. Les modifications apportées à ces classificateurs ont permis d’augmenter la suppression automatique des contenus dont le seuil de fiabilité était inférieur à celui des contenus violant les politiques de Meta. En d’autres termes, Meta a utilisé ses outils automatisés de manière plus agressive pour supprimer les contenus susceptibles d’enfreindre ses politiques. Meta a ainsi donné la priorité à sa valeur de sécurité, en supprimant plus de contenu que ne l’aurait fait le seuil de fiabilité plus élevé en vigueur avant le 7 octobre. Bien que cela réduise la probabilité que Meta ne supprime pas les contenus en infraction qui pourraient autrement échapper à la détection ou lorsque la capacité d’examen manuel est limitée, cela augmente également la probabilité que Meta supprime par erreur des contenus qui ne sont pas en infraction liés au conflit.

Lorsque les équipes d’escalation ont évalué des vidéos comme étant en infraction avec ses politiques en matière de contenu violent et explicite, de violence et d’incitation, et de personnes et organisations dangereuses, Meta s’est appuyé sur les banques du service de comparaison des médias pour supprimer automatiquement les vidéos correspondantes. Cette approche a suscité des inquiétudes quant à l’application excessive de la loi, notamment en ce qui concerne les personnes confrontées à des restrictions ou à la suspension de leur compte à la suite d’infractions multiples aux politiques de Meta en matière de contenu (parfois appelées « prison Facebook »). Pour atténuer cette inquiétude, Meta a retenu les « pénalités » qui accompagneraient normalement les suppressions de contenu automatisées qui se produisent sur les services de mise en correspondance de contenu multimédia (comme Meta l’a annoncé dans sa publication de la salle de presse).

Les modifications apportées par Meta au seuil de fiabilité du classificateur et à sa politique de frappe sont limitées au conflit Israël-Gaza et sont censées être temporaires. Au 11 décembre 2023, Meta n’avait pas rétabli les seuils de fiabilité aux niveaux antérieurs au 7 octobre.

3. Description du cas

Le contenu de ce cas concerne une vidéo publiée sur Instagram au cours de la deuxième semaine de novembre, montrant ce qui semble être les conséquences d’une frappe sur ou près de l’hôpital Al-Shifa dans la ville de Gaza pendant l’offensive terrestre d’Israël dans le nord de la bande de Gaza. La publication Instagram en question montre des personnes, dont des enfants, allongées sur le sol, sans vie ou blessées, et en pleurs. L’un des enfants semble décédé, victime d’un grave traumatisme crânien. Une légende en arabe et en anglais sous la vidéo indique que l’hôpital a été pris pour cible par « l’occupation usurpatrice », une référence à l’armée israélienne, et que des organisations de défense des droits humains et d’information ont été identifiées.

Le Standard de la communauté Meta relatif aux contenus violents et explicites, qui s’applique aux contenus sur Facebook et Instagram, interdit les « [v]idéos de personnes ou de cadavres dans des contextes non médicaux s’ils représentent [...] des organes internes [v]isibles ». Au moment de la publication, la politique autorisait « les images montrant la mort violente d’une ou de plusieurs personnes à la suite d’un accident ou d’un meurtre », à condition que ce contenu soit placé derrière un écran d’avertissement « marquer comme dérangeant » et ne soit visible que par les personnes âgées de plus de 18 ans. Cette règle a été mise à jour le 29 novembre, après que le contenu de ce cas a été rétabli, afin de préciser que la règle s’applique au « moment de la mort ou de ses suites » ainsi qu’aux images d’une « personne confrontée à un événement mettant sa vie en danger ».

Les systèmes automatisés de Meta ont retiré le contenu en question pour violation du standard de la communauté relatif aux contenus violents et explicites. L’appel de l’utilisateur contre cette décision a été automatiquement rejeté parce que les classificateurs de Meta ont indiqué « un niveau de fiabilité élevé » selon lequel le contenu était contraire à la loi. L’utilisateur a alors fait appel de la décision de Meta auprès du Conseil de surveillance.

Suite à la sélection de ce cas par le Conseil, Meta a déclaré qu’il n’était pas possible de déterminer de manière concluante que la vidéo montrait des organes internes visibles. Meta a donc conclu que ce contenu n’aurait pas dû être supprimé, bien qu’il ait été à la « limite » de la violation. Meta a également expliqué que même si les organes internes avaient été visibles, le message aurait dû être accompagné d’un écran d’avertissement « marquer comme dérangeant », car il a été partagé dans un but de sensibilisation. L’entreprise a rappelé que, conformément à la politique relative aux contenus explicites et violents, ces contenus sont autorisés lorsqu’ils sont partagés pour sensibiliser le public « à des questions importantes telles que les violations des droits de l’homme, les conflits armés ou les actes de terrorisme ».

Meta est donc revenu sur sa décision initiale et a rétabli le contenu avec un écran d’avertissement. L’écran d’avertissement indique aux utilisateurs que le contenu peut être dérangeant. Les utilisateurs adultes peuvent cliquer pour voir la publication, mais Meta supprime ces publications des fils des utilisateurs d’Instagram de moins de 18 ans et les supprime également des recommandations destinées aux utilisateurs adultes d’Instagram. Meta a également ajouté une instance distincte de la même vidéo à une banque du service de mise en correspondance du contenu multimédia afin que d’autres vidéos identiques à celle-ci soient automatiquement maintenues avec un écran d’avertissement et ne soient visibles que par les personnes âgées de plus de 18 ans.

4. Justification de l’examen accéléré

Les statuts du Conseil de surveillance prévoit un examen accéléré dans des « circonstances exceptionnelles, notamment lorsque le contenu pourrait avoir des conséquences graves dans le monde réel », et les décisions sont contraignantes pour Meta (Charte, Art. 3, section 7.2 ; Statuts, Art. 2, section 2.1.2). La procédure accélérée ne permet pas d’effectuer des recherches approfondies, de procéder à des consultations externes ou de recueillir des commentaires publics, comme ce serait le cas dans des cas examinés dans des délais normaux. Le cas est tranché sur la base des informations dont dispose le Conseil au moment de la délibération et est décidée par un panel de cinq membres sans vote complet du Conseil.

Le Conseil de surveillance a sélectionné ce cas et un autre, Otages enlevés en Israël (2023-050-FB-UA), en raison de l’importance de la liberté d’expression dans les situations de conflit, qui a été mise en péril dans le contexte du conflit entre Israël et le Hamas. Ces deux cas sont représentatifs du type d’appels que les utilisateurs de la région ont soumis au Conseil depuis les attentats du 7 octobre et l’action militaire israélienne qui s’en est suivie. Ces deux cas relèvent de la priorité des situations de crise et de conflit du Conseil de surveillance. Les décisions de Meta dans les deux cas répondent à la norme des « conséquences graves dans le monde réel » pour justifier un examen accéléré, et par conséquent le Conseil et Meta ont convenu de procéder selon les procédures accélérées du Conseil.

Dans ses observations au Conseil, Meta a reconnu que « la décision sur la manière de traiter ce contenu est difficile et implique des valeurs concurrentes et des compromis », et s’est félicité de l’avis du Conseil sur cette question.

5. Soumissions de l’utilisateur

L’auteur de la publication a déclaré dans son appel au Conseil qu’il n’incitait pas à la violence, mais qu’il partageait un contenu montrant les souffrances des Palestiniens, y compris des enfants. L’utilisateur a ajouté que la suppression était biaisée par rapport à la souffrance des Palestiniens. L’utilisateur a été informé de l’examen de son appel par le Conseil.

6. Décision

Bien que les membres du Conseil aient des désaccords sur la réponse militaire d’Israël et sa justification, ils sont unanimes sur l’importance pour Meta de respecter le droit à la liberté d’expression et les autres droits de l’homme de tous ceux qui ont été touchés par ces événements, ainsi que leur capacité à communiquer dans cette crise.

Le Conseil annule la décision initiale de Meta de supprimer le contenu d’Instagram. Il estime que rétablir le contenu sur la plateforme, avec un écran d’avertissement « comme dérangeant », est conforme aux politiques de Meta en matière de contenu, à ses valeurs et à ses responsabilités en matière de droits humains. Toutefois, le Conseil conclut également que la rétrogradation par Meta du contenu restauré, sous la forme d’une exclusion de la possibilité d’être recommandé, n’est pas conforme aux responsabilités de l’entreprise en matière de respect de la liberté d’expression.

6.1 Respect des politiques relatives au contenu de Meta

Le Conseil convient avec Meta qu’il est difficile de déterminer si la vidéo en question montre des « organes internes [v]isibles ». Dans le contexte de ce cas, où la protection de l’accès à l’information et la sensibilisation à l’impact du conflit revêtent une valeur d’intérêt public exceptionnellement élevée, les contenus qui sont « à la limite » de la violation de la politique relative aux contenus violents et explicites ne doivent pas être supprimés. Comme le contenu comporte des images montrant la mort violente d’une personne, avec une blessure à la tête ensanglantée, Meta aurait dû appliquer un écran d’avertissement et ne le rendre accessible qu’aux personnes âgées de plus de 18 ans, conformément à ses règles.

Le Conseil approuve également la décision ultérieure de Meta selon laquelle, même si cette vidéo avait inclus des organes internes visibles, le langage du message condamnant ou sensibilisant à la violence signifie également qu’il aurait dû être accompagné d’un écran d’avertissement « Marquer comme dérangeant » et ne pas être accessible aux utilisateurs de moins de 18 ans. Le Standard de la communauté ne prévoit pas d’écrans d’avertissement en rapport avec la ligne de conduite applicable (« [v]idéos de personnes ou de cadavres dans un contexte médical s’ils représentent [...] organes internes [v]isibles »). Dans le cas de la vidéo explicite du Soudan, le Conseil a expliqué que Meta demandait aux équipes d’examen de suivre à la lettre ses politiques indiquant de « ne pas publier ». La justification indique que « [d]ans le contexte de discussions sur des questions importantes telles que les violations des droits de l’homme, les conflits armés ou les actes de terrorisme, nous autorisons le contenu explicite (avec certaines restrictions) pour aider les personnes à condamner ces situations et à y sensibiliser l’opinion publique ». La règle du Standard de la communauté interdit cependant toutes les vidéos montrant des « organes internes visibles » dans un contexte non médical, sans offrir aux équipes d’examen la possibilité d’ajouter un écran d’avertissement lorsque l’exception relative à la justification de la politique est invoquée. Les systèmes automatisés de Meta ne semblent pas être configurés pour appliquer des écrans d’avertissement aux vidéos présentant un contenu explicite lorsqu’il existe un contexte condamnant ou sensibilisant à la violence. Il n’est pas non plus évident que, lorsque ce contexte est présent, les classificateurs applicables soient en mesure d’envoyer le contenu à des évaluateurs humains pour un examen plus approfondi.

6.2 Respect des responsabilités de Meta en matière des droits humains

Conformément à ses responsabilités en matière de droits humains, la modération par Meta des contenus violents et explicites doit respecter le droit à la liberté d’expression, qui comprend la liberté de rechercher, de recevoir et de répandre des informations (art.  19, paragraphe 2 du Pacte international relatif aux droits civils et politiques (PIDCP)). Comme l’a déclaré le Conseil dans le cas de la Vidéo de prisonniers de guerre arméniens, les protections de la liberté d’expression au titre de l’article 19 du Pacte international relatif aux droits civils et politiques (PIDCP) « restent engagées pendant les conflits armés et devraient continuer à éclairer les responsabilités de Meta en matière de droits humains, parallèlement aux règles du droit international humanitaire qui se renforcent mutuellement et se complètent et qui s’appliquent pendant de tels conflits ». Les principes directeurs des Nations Unies relatifs aux entreprises et aux droits humains imposent une responsabilité accrue aux entreprises opérant dans un contexte de conflit (« Entreprises, droits humains et régions touchées par un conflit : vers une action renforcée », A/75/212).

Le Conseil a souligné dans des cas antérieurs que les plateformes de réseaux sociaux comme Facebook et Instagram sont un véhicule important pour transmettre en temps réel des informations sur des évènements violents, y compris des reportages d’actualité (voir par exemple :Mention des talibans dans les reportages d’actualité). Elles jouent un rôle particulièrement important dans les contextes de conflits armés, notamment lorsque l’accès aux journalistes est limité. En outre, les contenus décrivant des attaques violentes et des violations des droits humains présentent un grand intérêt pour le public (voir la vidéo explicite du Soudan).

Lorsque des limitations de la liberté d’expression sont imposées par un État, elles doivent, en vertu du droit international des droits humains, remplir des critères de légalité, d’objectif légitime, et de nécessité et de proportionnalité (article 19, paragraphe 3 du PIDCP). Ces exigences sont souvent reprises sous l’intitulé « test tripartite ». Le Conseil utilise ce cadre pour interpréter les engagements volontaires de Meta en matière de droits humains, à la fois pour la décision relative au contenu individuel en cours d’examen et pour ce que cela dit de l’approche plus large de Meta en matière de gouvernance du contenu. Ce faisant, le Conseil s’efforce de tenir compte du fait que ces droits peuvent être différents selon qu’ils s’appliquent à une entreprise privée de réseaux sociaux ou à un gouvernement. Néanmoins, comme l’a déclaré le rapporteur spécial des Nations Unies sur la liberté d’expression, si les entreprises n’ont pas les mêmes obligations que les gouvernements, « leur impact est tel qu’elles doivent évaluer le même type de questions concernant la protection de leurs droits à la liberté d’expression » (rapport A/74/486, paragraphe 41).

La légalité exige que toute restriction à la liberté d’expression soit accessible et suffisamment claire pour fournir des indications sur ce qui est autorisé et ce qui ne l’est pas. Le Conseil s’est déjà inquiété du fait que les règles du Standard de la communauté relatif à la violence et au contenu explicite ne s’alignent pas entièrement sur la logique de la politique, qui en définit les objectifs (voir la vidéo explicite du Soudan et la Vidéo après l’attaque d’une église au Nigeria). Le Conseil réaffirme l’importance des recommandations n° 1 et n° 2 dans le cas de la vidéo explicite du Soudan, qui invitait Meta à modifier son Standard de la communauté relatif aux contenus violents et explicites afin d’autoriser les vidéos de personnes ou de cadavres lorsqu’elles sont partagées dans le but de sensibiliser aux violations des droits humains ou de les documenter (ce cas concernait un démembrement visible). Meta a mené un processus d’élaboration de politiques en réponse à ces recommandations et a l’intention de rendre compte de ses progrès dans sa prochaine mise à jour trimestrielle au Conseil. Selon le Conseil, cette recommandation devrait s’appliquer aux règles relatives aux vidéos montrant des organes internes visibles et prévoir spécifiquement des écrans d’avertissement comme mesure d’exécution lorsque l’exception relative à la sensibilisation (y compris les signalements factuels) et à la condamnation est invoquée.

En vertu de l’article 19, paragraphe 3, du PIDCP, la liberté d’expression peut être restreinte pour toute une série de raisons limitées et définies. Le Conseil a déjà estimé que la politique relative aux contenus violents et explicites visait légitimement à protéger les droits d’autrui, y compris la confidentialité de la personne représentée (voir la vidéo explicite du Soudan et la vidéo après l’attaque d’une église au Nigeria). Le présent cas démontre en outre que la restriction de l’accès au contenu pour les personnes de moins de 18 ans répondait à l’objectif légitime de protéger le droit à la santé des mineurs (Convention relative aux droits de l’enfant, article 24).

Le principe de nécessité et de proportionnalité stipule que les restrictions de la liberté d’expression « doivent être appropriées pour remplir leur fonction de protection ; elles doivent constituer le moyen le moins perturbateur parmi ceux qui pourraient permettre d’obtenir le résultat recherché » [et] « elles doivent être proportionnées à l’intérêt à protéger » ( observation générale n° 34, paragraphe 34).

Le Conseil a déjà estimé, en ce qui concerne les contenus violents et explicites, qu’un écran d’avertissement « n’impose pas de charge excessive à ceux qui souhaitent voir le contenu, tout en informant les autres de la nature du contenu et en leur permettant de décider de le voir ou non » (voir Vidéo explicite du Soudan). Les écrans d’avertissement empêchent les utilisateurs de voir involontairement des contenus potentiellement dérangeants. Les droits des victimes sont également protégés par la politique de Meta qui consiste à supprimer les vidéos et les photos montrant la mort violente d’une personne (ou ses suites immédiates) lorsqu’un membre de la famille en fait la demande. Le contenu de ce cas peut être distingué de celui du cas Poème russe, qui montrait une image fixe d’un corps allongé sur le sol à longue distance, où le visage de la victime n’était pas visible et où il n’y avait pas d’indicateurs visuels clairs de violence. L’application d’un écran d’avertissement dans ce cas n’était pas cohérente avec les conseils de Meta aux évaluateurs et ne constituait pas une restriction nécessaire ou proportionnée de l’expression. Le contenu de ce cas est plus proche de celui de la décision concernant la Vidéo après l’attaque d’une église au Nigeria, montrant des morts et des blessés à bout portant, avec des indicateurs visuels très clairs de la violence.

Dans ce cas, la représentation d’enfants blessés et sans vie rend la vidéo particulièrement perturbante. Dans de telles circonstances, offrir aux utilisateurs le choix de voir ou non un contenu dérangeant est une mesure nécessaire et proportionnée (voir également la Vidéo sur les prisonniers de guerre arméniens).

Le Conseil estime que l’exclusion des contenus sensibilisant aux violations potentielles des droits humains et des lois de la guerre, des conflits ou des actes de terrorisme des recommandations destinées aux adultes ne constitue pas une restriction nécessaire ou proportionnée à la liberté d’expression, compte tenu de l’intérêt public très élevé que présentent ces contenus. Les écrans d’avertissement et la suppression des recommandations remplissent des fonctions distinctes et devraient dans certains cas être découplés, en particulier dans les situations de crise. Les recommandations sur Instagram sont générées par des systèmes automatisés qui suggèrent du contenu aux utilisateurs en fonction des intérêts prédits par ces derniers. Supprimer du contenu des systèmes de recommandation revient à réduire la portée de ce contenu. Le Conseil estime que cette pratique porte atteinte à la liberté d’expression de manière disproportionnée dans la mesure où elle s’applique à des contenus qui sont déjà réservés à des utilisateurs adultes et qui sont publiés pour sensibiliser, condamner ou rendre compte de questions d’intérêt public telles que l’évolution d’un conflit violent.

Le Conseil reconnaît que les réponses immédiates à une crise peuvent nécessiter des mesures temporaires exceptionnelles et que, dans certains contextes, il est légitime de donner la priorité aux questions de sécurité et d’imposer temporairement et proportionnellement des restrictions plus importantes à la liberté d’expression. Certains d’entre eux sont décrits, par exemple, dans les engagements pris dans l’appel de Christchurch pour lutter contre les « contenus terroristes et extrémistes violents ». Toutefois, le Conseil note que l’appel de Christchurch souligne la nécessité de réagir à ce type de contenu dans le respect des droits humains et des libertés fondamentales. Le Conseil estime que les questions de sécurité ne justifient pas la suppression de contenus explicites visant à sensibiliser le public ou à condamner les crimes de guerre potentiels, les crimes contre l’humanité ou les violations graves des droits humains. Ces restrictions peuvent même entraver les informations nécessaires à la sécurité des personnes sur le terrain dans ces conflits.

Des mesures telles que la non-imposition de pénalités permettent d’atténuer les effets négatifs potentiellement disproportionnés des erreurs de mise en application dues à des mesures d’urgence telles que la réduction des seuils de fiabilité pour le retrait de contenu dans les situations de conflit. Elles ne sont toutefois pas suffisantes pour protéger la capacité des utilisateurs à partager des contenus qui sensibilisent aux violations potentielles des droits humains et du droit humanitaire, ainsi que d’autres informations essentielles dans les situations de conflit.

Le Conseil a souligné à plusieurs reprises la nécessité d’élaborer un cadre transparent et fondé sur des principes pour la modération des contenus en période de crise et dans les zones de conflit (voir la Vidéo du poste de police haïtien et le bureau des affaires de communication du Tigré). C’est précisément dans les périodes où les conflits évoluent rapidement que les grandes entreprises de réseaux sociaux doivent consacrer les ressources nécessaires pour veiller à ce que la liberté d’expression ne soit pas inutilement restreinte. Dans ces moments-là, les sources journalistiques font souvent l’objet d’agressions physiques et autres, ce qui rend les reportages des citoyens ordinaires sur les réseaux sociaux particulièrement essentiels.

Le Conseil a également observé précédemment que dans des contextes de guerre ou de troubles politiques, il y aura plus de contenu explicite et violent capturé par les utilisateurs et partagé sur la plateforme dans le but de sensibiliser ou de documenter les abus (voir la Vidéo explicite sur le Soudan). Dans des contextes tels que le conflit entre Israël et Gaza, où un nombre alarmant de civils sont tués ou blessés, dont une forte proportion d’enfants, dans un contexte d’aggravation de la crise humanitaire, ce type de contenus est particulièrement important. Tout en reconnaissant le processus d’élaboration de la politique de Meta concernant les contenus violents et explicites, le Conseil s’attend à ce que Meta soit prête à déployer rapidement des mesures temporaires pour autoriser ce type de contenu avec des écrans d’avertissement, et non pas à le supprimer des recommandations.

Le Conseil note que la situation à Gaza au moment où ce contenu a été publié ne posait pas les mêmes problèmes à Meta que les attaques du 7 octobre. À Gaza, il a été difficile d’obtenir des informations de la part des personnes sur le terrain, alors que l’accès des journalistes au territoire est limité et que la connectivité Internet a été perturbée. En outre, contrairement aux premières conséquences des attentats du 7 octobre, la situation à Gaza présentée dans ce cas n’impliquait pas que les terroristes utilisent les réseaux sociaux pour diffuser leurs atrocités. Dans le contexte d’un conflit armé, en revanche, Meta devrait veiller à ce que ses actions ne rendent pas plus difficile le partage de contenus fournissant des informations qui sensibilisent aux dommages causés aux civils et qui peuvent être utiles pour déterminer si des violations du droit international humanitaire et du droit international des droits humains ont été commises. La question de savoir si le contenu a été partagé pour sensibiliser aux évènements sur le terrain ou pour les condamner doit être le point de départ de toute évaluation de ce contenu, et les systèmes automatisés de Meta doivent être conçus pour éviter de supprimer à tort des contenus qui devraient bénéficier des exceptions applicables.

Ce cas illustre également le fait qu’une surveillance humaine insuffisante de la modération automatisée dans le contexte d’une réponse à une crise peut conduire à la suppression erronée d’un discours qui peut être d’un intérêt public important. La décision initiale de supprimer ce contenu ainsi que le rejet de l’appel de l’utilisateur ont été pris automatiquement sur la base d’un score de classificateur, sans aucun examen manuel. Cette situation a pu être exacerbée par la réaction de crise de Meta, qui a abaissé le seuil de suppression des contenus relevant de la politique relative aux contenus violents et explicites à la suite des attentats du 7 octobre. Cela signifie que même si le classificateur attribue à la probabilité de violation un score relativement inférieur à celui qui serait normalement requis, Meta supprime ce contenu.

Pour que Meta utilise ses systèmes automatisés d’une manière compatible avec ses engagements en matière de droits humains, le Conseil rappelle à Meta la recommandation n° 1 dans le cas du Dessin animé de la police colombienne. Dans ce cas, le Conseil a demandé à Meta de veiller à ce que les contenus présentant des taux d’appel élevés et des taux élevés d’appels réussis soient réévalués en vue d’un éventuel retrait de ses banques de services de mise en correspondance du contenu multimédia. En réponse à cette recommandation, Meta a mis en place un groupe de travail chargé d’améliorer la gouvernance dans l’ensemble de ses banques de services de mise en correspondance du contenu multimédia (voir les dernières mises à jour de Meta à ce sujet ici). Le Conseil note qu’il est important pour ce groupe d’accorder une attention particulière à l’utilisation des services de mise en correspondance du contenu multimédia dans le contexte des conflits armés. Dans le cas des Symptômes du cancer du sein et nudité (recommandations n° 3 et n° 6), le Conseil a recommandé à Meta d’informer les utilisateurs lorsque l’automatisation est utilisée pour prendre des mesures de mise en application à l’encontre de leur contenu, et de divulguer des données sur le nombre de décisions de suppression automatisées par Standard de la communauté et sur la proportion de ces décisions qui sont ensuite annulées à la suite d’un examen manuel. Cela est d’autant plus important que les seuils de fiabilité pour les contenus susceptibles d’être violés auraient été considérablement abaissés. Le Conseil demande instamment à Meta de progresser dans la mise en œuvre de la recommandation n° 6 et de lui partager les preuves de cette mise en œuvre pour la recommandation n° 3.

Les restrictions de la liberté d’expression ne doivent pas se faire sur une base discriminatoire, notamment sur la base de la nationalité, de l’ethnicité, de la religion ou des croyances, ou des opinions politiques ou autres (Article 2, paragraphe 1 et article 26 du PDCP). L’application discriminatoire des Standards de la communauté porte atteinte à cet aspect fondamental de la liberté d’expression. Dans le cas de la publication partagée avec Al Jazeera, le Conseil a exprimé de sérieuses inquiétudes quant à la répartition inégale des erreurs dans la modération du contenu de Meta en Israël et dans les territoires palestiniens occupés, et a demandé une enquête indépendante (décision concernant la publication partagée avec Al Jazeera, recommandation n° 3). L’évaluation de l’impact sur les droits humains de Business for Social Responsibility (BSR), commandée par Meta en réponse à cette recommandation, a identifié « divers cas de préjugés involontaires où la politique et les pratiques de Meta, combinées à une dynamique externe plus large, conduisent à des impacts différents sur les droits humains pour les utilisateurs palestiniens et arabophones. » Le Conseil encourage Meta à tenir les engagements pris en réponse au rapport de BSR.

Enfin, Meta a la responsabilité de préserver les preuves d’éventuelles violations des droits humains et du droit international humanitaire, comme le recommande également le rapport du BSR (recommandation 21) et comme le préconisent les groupes de la société civile. Même lorsque le contenu est supprimé des plateformes de Meta, il est essentiel de conserver ces preuves dans l’intérêt de la responsabilité future (Voir Vidéo explicite du Soudan et Vidéo de prisonniers de guerre arméniens). Bien que Meta ait expliqué qu’elle conservait pendant un an tous les contenus enfreignant ses Standards de la communauté, le Conseil demande instamment que les contenus spécifiquement liés à des crimes de guerre, des crimes contre l’humanité et des violations graves des droits humains soient identifiés et conservés de manière plus durable et accessible à des fins de responsabilisation à plus long terme. Le Conseil note que Meta a accepté de mettre en œuvre la recommandation n° 1 dans le cas de la Vidéo de prisonniers de guerre arméniens. Meta a été invité à élaborer un protocole visant à préserver et, le cas échéant, à partager avec les autorités compétentes les informations nécessaires aux enquêtes et aux procédures judiciaires visant à remédier aux crimes d’atrocité ou aux violations graves des droits , humains ou à en poursuivre les auteurs. Meta a informé le Conseil qu’elle était en train de mettre au point une « approche cohérente pour conserver les preuves potentielles de crimes d’atrocité et de violations graves du droit international des droits humains » et qu’elle prévoyait de fournir prochainement au Conseil une note d’information sur son approche. Le Conseil s’attend à ce que Meta mette pleinement en œuvre la recommandation susmentionnée.

*Note de procédure :

Les décisions accélérées du Conseil de surveillance sont préparées par des groupes de cinq membres et ne sont pas soumises à l’approbation de la majorité du Conseil dans son ensemble. Les décisions du Conseil ne représentent pas nécessairement les opinions personnelles de tous les membres.

Retour aux décisions de cas et aux avis consultatifs politiques