أسقط

Ospedale Al-Shifa

Il Board revoca la decisione originaria di Meta di rimuovere il contenuto da Instagram, poiché ritiene che ripristinare il contenuto sulla piattaforma con una schermata di avviso per segnalarlo come inquietante sia coerente con le normative sui contenuti, i valori e le responsabilità di Meta in materia di diritti umani.

نوع القرار

Expedited

السياسات والمواضيع

عنوان
سلامة، عنف، حرب وصراع
معيار المجتمع
محتوى عنيف وصادم

المناطق/البلدان

موقع
إسرائيل، الأراضي الفلسطينية

منصة

منصة
Instagram

Nelle settimane successive alla pubblicazione di questa decisione, caricheremo qui una traduzione in ebraico e una traduzione in arabo sarà disponibile tramite la scheda "Lingua" a cui si accede dal menu nella parte superiore di questa schermata.

לקריאת החלטה זו בעברית יש ללחוץ כאן.

1. Riepilogo

Questo caso riguarda un video emotivamente molto forte delle conseguenze di un attacco contro o nelle vicinanze dell'ospedale Al-Shifa a Gaza durante l'offensiva israeliana di terra, con una didascalia che condanna l'attacco. I sistemi automatizzati di Meta hanno rimosso il post per aver violato il suo Standard della community sui contenuti forti e violenti. L'utente, dopo aver contestato invano contro Meta tale decisione, ha inviato un ricorso all'Oversight Board. Dopo che il Board ha individuato il caso da sottoporre a controllo, Meta ha annullato la sua decisione e ha ripristinato il contenuto con una schermata di avviso. Il Board ritiene che la decisione originale di rimuovere il contenuto non rispettasse le normative sui contenuti di Meta o le responsabilità dell'azienda in materia di diritti umani. Il Board approva la decisione di ripristinare il contenuto con una schermata di avviso ma disapprova la conseguente retrocessione del contenuto escludendolo dai contenuti suggeriti. Questo e il caso Ostaggi rapiti da Israele (2023-050-FB-UA) sono i primi casi decisi dal Board secondo le sue procedure di controllo rapido.

2. Contesto e risposta di Meta

Il 7 ottobre 2023, Hamas, un'organizzazione di livello 1 designata secondo lo Standard della community sulle persone e organizzazioni pericolose di Meta, ha condotto attacchi terroristici senza precedenti contro Israele da Gaza, causando l'uccisione di circa 1.200 persone e la presa in ostaggio di circa 240 persone (Ministero degli Affari Esteri, Governo di Israele). Israele ha immediatamente intrapreso una campagna militare a Gaza in risposta agli attacchi. L'azione militare di Israele ha ucciso più di 18.000 persone a Gaza a metà dicembre 2023 (Ufficio delle Nazioni Unite per il Coordinamento degli Affari Umanitari, in base ai dati del Ministero della Salute di Gaza), in un conflitto in cui entrambe le parti sono state accusate di aver violato la legge internazionale. Sia gli attacchi terroristici che le successive azioni militari di Israele sono stati oggetto di intensa divulgazione, discussione, osservazione e controversia a livello mondiale, molte delle quali hanno avuto luogo su piattaforme di social media, tra cui Instagram e Facebook.

Meta ha immediatamente definito gli eventi del 7 ottobre un attacco terroristico ai sensi della sua normativa in materia di persone e organizzazioni pericolose. Secondo i suoi Standard della community, questo significa che Meta rimuoverà dalle sue piattaforme qualsiasi contenuto che "elogi, supporti in modo sostanziale o rappresenti" gli attacchi del 7 ottobre o i relativi autori.

In reazione all'eccezionale ondata di contenuti forti e violenti pubblicati sulle sue piattaforme in seguito agli attacchi terroristici e alla risposta militare, Meta ha messo in atto diverse misure temporanee, tra cui una riduzione delle soglie di sicurezza per il suo sistema di classificazione automatico dei contenuti forti e violenti (classificatore) per individuare e rimuovere i contenuti. Meta ha informato il Board che queste misure si applicano ai contenuti creati in Israele e Gaza in tutte le lingue. Le modifiche a questi classificatori hanno aumentato la rimozione automatica dei contenuti in cui era presente un punteggio di sicurezza inferiore per i contenuti che violavano le normative di Meta. In altre parole, Meta ha utilizzato i suoi strumenti automatizzati in modo più aggressivo per rimuovere contenuti che potrebbero violare le sue normative. Meta ha fatto questo per dare priorità al suo valore di sicurezza, rimuovendo più contenuti di quanto sarebbe avvenuto con la soglia di sicurezza più alta in vigore prima del 7 ottobre. Sebbene ciò riducesse la probabilità che Meta non riuscisse a rimuovere contenuti in violazione che altrimenti avrebbero potuto eludere il rilevamento o laddove la capacità di controllo umano fosse limitata, aumentava anche la probabilità che Meta rimuovesse erroneamente contenuti relativi al conflitto non in violazione.

Quando i team addetti all'escalation hanno valutato che i video violavano le normative in materia di contenuti forti e violenti, violenza e istigazione alla violenza e persone e organizzazioni pericolose, Meta si è affidata alle banche del servizio di ricerca di contenuti multimediali corrispondenti per rimuovere automaticamente i video corrispondenti. Questo approccio ha suscitato la preoccupazione di un'applicazione eccessiva, comprese le persone che devono affrontare restrizioni o sospensioni dei propri account a seguito di molteplici violazioni delle normative sui contenuti di Meta (a volte definite "Facebook jail", la prigione di Facebook). Per mitigare questa preoccupazione, Meta ha rifiutato gli "avvertimenti" che normalmente accompagnerebbero le rimozioni di post con contenuti che si verificano automaticamente in base alle banche del servizio di ricerca di contenuti multimediali corrispondenti (come annunciato da Meta nel suo post Newsroom).

Le modifiche di Meta alla soglia di sicurezza del classificatore e alla sua normativa sugli avvertimenti sono limitate al conflitto Israele-Gaza e sono destinate a essere temporanee. All'11 dicembre 2023, Meta non aveva ripristinato le soglie di sicurezza ai livelli precedenti al 7 ottobre.

3. Descrizione del caso

Il contenuto in questo caso riguarda un video pubblicato su Instagram nella seconda settimana di novembre, che mostra quelle che sembrano essere le conseguenze di un attacco contro o nelle vicinanze dell'ospedale Al-Shifa nella città di Gaza durante l'offensiva israeliana di terra nel nord della Striscia di Gaza. Il post di Instagram in questo caso mostra persone, compresi bambini, che giacciono a terra senza vita o feriti e in lacrime. Un bambino sembra essere morto, con una grave ferita alla testa. Una didascalia in arabo e in inglese sotto il video afferma che l'ospedale è stato vittima dell'"usurping occupation" (occupazione usurpatrice), un riferimento all'esercito israeliano, e sono taggate organizzazioni che si occupano di diritti umani e testate giornalistiche.

Lo Standard della community sui contenuti forti e violenti di Meta, che si applica ai contenuti su Facebook e Instagram, proibisce "[v]ideo di persone o cadaveri in un ambiente non medico se raffigurano... [o]rgani interni visibili". Al momento della pubblicazione, la normativa consentiva "[i]immagini che mostrano la morte violenta di una o più persone per incidente o omicidio", a condizione che tali contenuti fossero posizionati dietro una schermata di avviso per segnalarli come inquietanti e fossero visibili solo a persone di età superiore ai 18 anni. Questa regola è stata aggiornata il 29 novembre, dopo che il contenuto di questo caso è stato ripristinato, al fine di chiarire che la regola si applica al "momento del decesso o quello successivo" così come alle immagini di "una persona in pericolo di vita".

I sistemi automatizzati di Meta hanno rimosso il contenuto in questo caso per aver violato il suo Standard della community sui contenuti forti e violenti. Il ricorso dell'utente contro tale decisione è stato automaticamente respinto perché i classificatori di Meta indicavano "un alto livello di sicurezza" che il contenuto stesse violando la normativa. L'utente ha poi inviato un ricorso all'Oversight Board contro la decisione di Meta.

A seguito della selezione del caso da parte del Board, Meta ha affermato di non poter determinare in modo definitivo che il video mostrasse organi interni visibili. Meta ha quindi concluso che non avrebbe dovuto rimuovere questo contenuto, sebbene fosse al "limite" della violazione. Meta ha inoltre spiegato che, anche se gli organi interni fossero stati visibili, il post avrebbe dovuto essere aggiornato con una schermata di avviso per segnalarlo come inquietante poiché è stato condiviso per aumentare la sensibilizzazione. L'azienda ha ribadito che, in linea con i fondamenti della normativa sui contenuti forti e violenti, tali contenuti sono consentiti se condivisi per aumentare la sensibilizzazione "su temi importanti, quali violazioni dei diritti umani, conflitti armati o atti di terrorismo".

Meta ha quindi ribaltato la decisione iniziale e ripristinato il contenuto con una schermata di avviso. Questa informa gli utenti che il contenuto potrebbe essere inquietante. Gli utenti adulti possono cliccare per vedere il post, ma Meta rimuove tali post dai feed degli utenti Instagram sotto i 18 anni e li rimuove anche dai contenuti suggeriti agli utenti Instagram adulti. Meta ha inoltre aggiunto un'istanza separata dello stesso video a una banca del servizio di ricerca di contenuti multimediali corrispondenti, quindi altri video identici a questo verrebbero automaticamente aggiornati con una schermata di avviso e sarebbero visibili solo alle persone di età superiore ai 18 anni.

4. Giustificazione per il controllo rapido

Lo Statuto dell'Oversight Board prevede un controllo rapido in "circostanze eccezionali, come nel caso di contenuti che potrebbero avere serie conseguenze nel mondo reale" e le decisioni sono vincolanti per Meta (atto costitutivo, art. 3, sezione 7.2; Statuto, art. 2, sezione 2.1 .2). Il processo rapido preclude il livello di ricerca approfondita, consultazione esterna o commenti pubblici che verrebbero effettuati nei casi esaminati secondo tempistiche ordinarie. Il caso viene deciso in base alle informazioni a disposizione del Board al momento della delibera e la decisione viene presa da un gruppo di cinque membri senza il voto pieno del Board.

L'Oversight Board ha selezionato questo e un altro caso, ovvero Ostaggi rapiti da Israele (2023-050-FB-UA), per l'importanza della libertà di espressione nelle situazioni di conflitto, che è stata messa in pericolo nel contesto del conflitto Israele-Hamas. Entrambi i casi sono rappresentativi del tipo di ricorsi che gli utenti della regione hanno inviato al Board dopo gli attacchi del 7 ottobre e la successiva azione militare di Israele. Entrambi i casi rientrano nella priorità delle situazioni di crisi e di conflitto dell'Oversight Board. Le decisioni di Meta in entrambi i casi soddisfano lo standard di "conseguenze urgenti nel mondo reale" per giustificare un controllo rapido e di conseguenza il Board e Meta hanno concordato di procedere secondo le procedure rapide del Board.

Nelle sue osservazioni al Board, Meta ha riconosciuto che "la decisione su come trattare questo contenuto è difficile e implica valori concorrenti e compromessi", accogliendo con favore il contributo del Board su questo tema.

5. Osservazioni degli utenti

L'autore del post ha dichiarato nel suo ricorso al Board di non incitare alla violenza, ma di condividere contenuti che mostrano la sofferenza dei palestinesi, compresi i bambini. L'utente ha aggiunto che la rimozione è stata pregiudizievole nei confronti della sofferenza dei palestinesi. L'utente è stato informato del controllo del suo ricorso da parte del Board.

6. Decisione

Sebbene i membri del Board siano in disaccordo sulla risposta militare di Israele e sulla sua giustificazione, concordano all'unanimità sull'importanza che Meta rispetti il diritto alla libertà di espressione e gli altri diritti umani di tutti coloro che sono colpiti da questi eventi e sulla loro possibilità di comunicare durante questa crisi.

Il Board revoca la decisione originaria di Meta di rimuovere il contenuto da Instagram, poiché ritiene che ripristinare il contenuto sulla piattaforma con una schermata di avviso per segnalarlo come inquietante sia coerente con le normative sui contenuti, i valori e le responsabilità di Meta in materia di diritti umani. Tuttavia, il Board conclude anche che la retrocessione da parte di Meta del contenuto ripristinato, sotto forma della sua esclusione dalla possibilità di essere suggerito, non è conforme alle responsabilità dell'azienda di rispettare la libertà di espressione.

6.1 Conformità con le normative sui contenuti di Meta

Il Board concorda con Meta che è difficile determinare se il video in questo caso mostri "[o]rgani interni visibili". Dato il contesto di questo caso, in cui esiste un valore di interesse pubblico eccezionalmente elevato nel proteggere l'accesso alle informazioni e nel fornire vie per aumentare la sensibilizzazione in merito all'impatto del conflitto, i contenuti che sono "al limite" della violazione della normativa sui contenuti forti e violenti non dovrebbero essere rimossi. Poiché il contenuto include immagini che mostrano la morte violenta di una persona, raffigurante un trauma cranico, Meta avrebbe dovuto applicare una schermata di avviso e renderla disponibile solo alle persone di età superiore ai 18 anni, in linea con le sue normative.

Il Board concorda inoltre con la successiva determinazione di Meta secondo cui, anche se questo video avesse incluso organi interni visibili, il linguaggio del post che condanna o sensibilizza sulla violenza significa anche che avrebbe dovuto essere lasciato con una schermata di avviso per segnalarlo come inquietante e non essere disponibile per gli utenti sotto i 18 anni. La Standard della community non prevede schermate di avviso in relazione alla linea di normativa applicabile ("[v]ideo di persone o cadaveri in un ambiente non medico se raffigurano... [o]rgani interni visibili"). Nel caso Video di violenza esplicita in Sudan, il Board ha spiegato che Meta dà istruzioni alle persone addette al controllo di seguire alla lettera le sue normative riguardanti i "contenuti da non pubblicare". I fondamenti affermano che "[n]el contesto di discussioni su temi importanti, quali violazioni dei diritti umani, conflitti armati o atti di terrorismo, consentiamo la pubblicazione di contenuti violenti (con alcune limitazioni) per aiutare le persone a sensibilizzare gli altri su queste situazioni e a condannarle." La regola dello Standard della community, tuttavia, vieta tutti i video che raffigurano "organi interni visibili" in un contesto non medico, senza fornire alle persone addette al controllo la possibilità di aggiungere una schermata di avviso laddove sia coinvolta l'eccezione basata sui fondamenti della normativa. I sistemi automatizzati di Meta non sembrano essere configurati per applicare schermate di avviso ai video che raffigurano contenuti violenti in cui è presente un contesto che condanna la violenza o che sensibilizza a riguardo. Inoltre, non è chiaro se, laddove è presente questo contesto, i classificatori applicabili sarebbero in grado di inviare il contenuto a persone addette al controllo per un'ulteriore valutazione.

6.2 Conformità con le responsabilità di Meta in materia di diritti umani

In linea con le sue responsabilità in materia di diritti umani, la moderazione dei contenuti forti e violenti da parte di Meta deve rispettare il diritto alla libertà di espressione, che include la libertà di cercare, ricevere e diffondere informazioni (art. 19, par. 2, Convenzione internazionale sui diritti civili e politici (ICCPR)). Come affermato dal Board nel caso Video di prigionieri di guerra armeni, le tutele della libertà di espressione ai sensi dell'articolo 19 della Convenzione internazionale sui diritti civili e politici (ICCPR) "rimangono effettive durante i conflitti armati e devono continuare a ispirare le responsabilità di Meta in materia di diritti umani, oltre alle regole complementari che si rafforzano a vicenda del diritto internazionale umanitario applicate in simili conflitti". I Principi Guida delle Nazioni Unite su imprese e diritti umani impongono una maggiore responsabilità alle aziende che operano in una situazione di conflitto ("Aziende, diritti umani e aree geografiche colpite da conflitti: verso un'azione rafforzata", A/75/212).

Il Board ha sottolineato in casi precedenti che le piattaforme di social media come Facebook e Instagram sono un mezzo importante per trasmettere informazioni in tempo reale su eventi violenti, compresi i servizi giornalistici (vedi il caso Menzione dei talebani in un servizio giornalistico). Le piattaforme svolgono un ruolo particolarmente importante nei contesti di conflitti armati, soprattutto dove l'accesso ai giornalisti è limitato. Inoltre, i contenuti che mostrano attacchi violenti e violazioni dei diritti umani sono di grande interesse pubblico (vedi il caso Video di violenza esplicita in Sudan).

Quando le limitazioni alla libertà di espressione sono imposte da uno Stato, secondo il diritto internazionale sui diritti umani queste devono soddisfare i requisiti di legalità, fine legittimo, necessità e proporzionalità (articolo 19, par. 3, ICCPR). Questi requisiti vengono spesso definiti "test in tre fasi". Il Board utilizza questo framework per interpretare gli impegni volontari di Meta in materia di diritti, sia per quanto riguarda la singola decisione sul contenuto oggetto di controllo sia per quanto riguarda il più ampio approccio di Meta alla governance dei contenuti. In tal modo, il Board cerca di essere sensibile in merito a come tali diritti possano essere diversi quando applicati a un'azienda di social media privata rispetto a quando applicati a un governo. Tuttavia, come ha dichiarato il Relatore speciale delle Nazioni Unite sulla libertà di espressione, sebbene "le aziende non abbiano gli stessi obblighi dei governi, hanno un impatto che richiede loro di valutare lo stesso tipo di domande sulla protezione del loro diritto alla libertà di espressione" (report A/74/486, par.41.).

La legalità richiede che qualsiasi restrizione alla libertà di espressione deve essere accessibile e abbastanza chiara da fornire indicazioni su ciò che è consentito e ciò che non lo è. Il Board ha precedentemente espresso preoccupazione per il fatto che le regole dello Standard della community sui contenuti forti e violenti non siano pienamente in linea con i fondamenti della normativa, che ne definisce gli obiettivi (vedi i casi Video di violenza esplicita in Sudan e Video a seguito dell'attacco a una chiesa in Nigeria). Il Board ribadisce l'importanza delle raccomandazioni n. 1 e n. 2 nel caso Video di violenza esplicita in Sudan, che invitava Meta a modificare il suo Standard della community sui contenuti forti e violenti per consentire video di persone o cadaveri condivisi allo scopo di sensibilizzare o documentare abusi dei diritti umani (quel caso riguardava lo smembramento visibile). Meta ha condotto un processo di sviluppo delle normative in risposta a queste raccomandazioni e intende riferire i suoi progressi nel prossimo aggiornamento trimestrale al Board. Secondo il Board, questa raccomandazione dovrebbe applicarsi alle regole per i video che mostrano organi interni visibili e prevedere in particolare schermate di avviso come misura di applicazione in cui sono coinvolte la sensibilizzazione (inclusa la segnalazione dei fatti) e l'eccezione di condanna.

Ai sensi dell'articolo 19, par. 3 dell'ICCPR, la libertà di espressione può essere limitata per un elenco definito e limitato di motivi. Il Board ha precedentemente riscontrato che la normativa sui contenuti forti e violenti mira legittimamente a proteggere i diritti degli altri, inclusa la privacy della persona raffigurata (vedi i casi Video di violenza esplicita in Sudan e Video a seguito dell'attacco a una chiesa in Nigeria). Il presente caso dimostra, inoltre, che limitare l'accesso ai contenuti ai minori di 18 anni serviva allo scopo legittimo di tutelare il diritto alla salute dei minori (Convenzione sui diritti del fanciullo, articolo 24).

Il principio di necessità e proporzionalità prevede che le limitazioni alla libertà di espressione "debbano corrispondere allo strumento meno invasivo tra quelli che potrebbero svolgere la funzione protettiva e debbano essere proporzionate alla relativa funzione protettiva e all'interesse da tutelare" (Commento generale n. 34, par. 34).

Il Board ha precedentemente ritenuto in relazione ai contenuti forti e violenti che la schermata di avviso "non comporta un onere eccessivo per chi desidera vedere il contenuto, mentre informa gli altri sulla natura del contenuto stesso e consente loro di decidere se visualizzarlo o meno" (vedi il caso Video di violenza esplicita in Sudan). Le schermate di avviso impediscono agli utenti di vedere involontariamente contenuti potenzialmente inquietanti. I diritti delle vittime sono ulteriormente tutelati dalla normativa di Meta che prevede la rimozione di video e foto che mostrano la morte violenta di una persona (o il momento immediatamente successivo) quando un membro della famiglia lo richiede. Il contenuto in questo caso può essere distinto da quello del caso Poesia russa, che mostrava un fermo immagine di un corpo disteso a terra a lunga distanza, in cui il volto della vittima non era visibile e dove non c'erano chiari indicatori visivi di violenza. L'applicazione di una schermata di avviso in quel caso non era coerente con le indicazioni di Meta alle persone addette al controllo e non costituiva una restrizione necessaria o proporzionata all'espressione. Il contenuto in questo caso è più simile a quello della decisione del caso Video a seguito dell'attacco a una chiesa in Nigeria, che mostrava persone morte e ferite a distanza ravvicinata, con indicatori visivi di violenza molto chiari.

In questo caso, la raffigurazione di bambini feriti e senza vita rende il video particolarmente angosciante. In circostanze come queste, fornire agli utenti la possibilità di scegliere se vedere o meno contenuti inquietanti è una misura necessaria e proporzionata (vedi anche il caso Video di prigionieri di guerra armeni).

Il Board ritiene che escludere dai contenuti suggeriti rivolti agli adulti contenuti che sensibilizzino su potenziali abusi dei diritti umani e violazioni delle leggi di guerra, conflitti o atti di terrorismo non costituisca una restrizione necessaria o proporzionata alla libertà di espressione, in considerazione dell'altissimo interesse pubblico per tali contenuti. Le schermate di avviso e la rimozione dai contenuti suggeriti svolgono funzioni separate e in alcune istanze dovrebbero essere disgiunti, in particolare in situazioni di crisi. I contenuti suggeriti su Instagram sono generati da sistemi automatizzati che suggeriscono contenuti agli utenti in base agli interessi previsti di questi ultimi. Rimuovere i contenuti dai sistemi dei suggerimenti significa ridurre la copertura che altrimenti avrebbero questi contenuti. Il Board ritiene che questa pratica interferisca con la libertà di espressione in modo sproporzionato nella misura in cui si applica a contenuti che sono già riservati a utenti adulti e che vengono pubblicati per sensibilizzare, condannare o denunciare questioni di interesse pubblico come lo sviluppo di un conflitto violento.

Il Board riconosce che le risposte immediate a una crisi possono richiedere misure temporanee eccezionali e che in alcuni contesti è legittimo dare priorità alle preoccupazioni sulla sicurezza e imporre temporaneamente e proporzionalmente maggiori restrizioni alla libertà di espressione. Alcune di queste sono delineate, ad esempio, negli impegni per contrastare "i contenuti terroristici ed estremisti violenti" stabiliti nel Christchurch Call. Tuttavia, il Board osserva che il Christchurch Call sottolinea la necessità di rispondere a tali contenuti in modo coerente con i diritti umani e le libertà fondamentali. Il Board ritiene che le preoccupazioni relative alla sicurezza non giustifichino l'errore di rimuovere contenuti violenti che hanno lo scopo di sensibilizzare o condannare potenziali crimini di guerra, crimini contro l'umanità o gravi violazioni dei diritti umani. Tali restrizioni possono persino ostacolare le informazioni necessarie per la sicurezza delle persone sul campo in tali conflitti.

Misure come la non imposizione di avvertimenti aiutano a mitigare gli effetti negativi potenzialmente sproporzionati degli errori di applicazione dovuti a misure di emergenza come la riduzione delle soglie di sicurezza per la rimozione dei contenuti durante le situazioni di conflitto. Tuttavia, non sono sufficienti a proteggere la possibilità degli utenti di condividere contenuti che sensibilizzano su potenziali abusi dei diritti umani e violazioni del diritto umanitario e altre informazioni critiche in situazioni di conflitto.

Il Board ha ripetutamente sottolineato la necessità di sviluppare un quadro trasparente e di saldi principi per la moderazione dei contenuti durante le crisi e nelle zone di conflitto (vedi i casi Video della stazione di polizia haitiana e Tigray Communication Affairs Bureau). È proprio in tempi di conflitti in rapida evoluzione che le grandi aziende di social media devono dedicare le risorse necessarie per garantire che la libertà di espressione non venga inutilmente ridotta. In questi momenti, le fonti giornalistiche sono spesso soggette ad attacchi fisici e di altro tipo, rendendo particolarmente essenziale la segnalazione di notizie da parte dei comuni cittadini sui social media.

Il Board ha inoltre osservato in precedenza che in contesti di guerra o disordini politici, gli utenti creeranno e condivideranno sulla piattaforma più contenuti forti e violenti allo scopo di favorire la sensibilizzazione sugli abusi o documentarli (vedi il caso Video di violenza esplicita in Sudan). In contesti come il conflitto Israele-Gaza, dove si registra un numero allarmante di civili uccisi o feriti, tra cui un'alta percentuale di bambini, in un clima di crisi umanitaria in peggioramento, questo tipo di agevolazioni sono particolarmente importanti. Pur riconoscendo il continuo processo di sviluppo delle normative di Meta in merito alla sua normativa sui contenuti forti e violenti, il Board si aspetta che Meta sia pronta a implementare rapidamente misure temporanee per consentire questo tipo di contenuti con schermate di avviso e non rimuoverli dai contenuti suggeriti.

Il Board osserva che la situazione a Gaza nel momento in cui questo contenuto è stato pubblicato non ha comportato per Meta la stessa serie di problematiche degli attacchi del 7 ottobre. A Gaza ci sono state difficoltà nell'ottenere informazioni dalle persone sul campo, mentre l'accesso dei giornalisti al territorio è limitato e la connessione a Internet è stata interrotta. Inoltre, a differenza delle prime conseguenze degli attacchi del 7 ottobre, la situazione di Gaza presentata in questo caso non prevedeva che i terroristi utilizzassero i social media per trasmettere le loro atrocità. Nel contesto di un conflitto armato, al contrario, Meta dovrebbe garantire che le sue azioni non rendano più difficile per le persone condividere contenuti che forniscono informazioni che aumentano la sensibilizzazione sui danni contro i civili e che potrebbero essere rilevanti per determinare se si siano verificate violazioni del diritto internazionale umanitario e del diritto internazionale sui diritti umani. La questione se il contenuto sia stato condiviso per aumentare la sensibilizzazione o condannare eventi sul campo dovrebbe essere il punto di partenza per qualsiasi persona addetta al controllo che valuti tale contenuto e i sistemi automatizzati di Meta dovrebbero essere progettati per evitare di rimuovere in modo errato contenuti che dovrebbero beneficiare delle eccezioni applicabili.

Questo caso illustra ulteriormente che un controllo umano insufficiente della moderazione automatizzata nel contesto di una risposta alla crisi può portare alla rimozione errata di discorsi che potrebbero essere di notevole interesse pubblico. Sia la decisione iniziale di rimuovere questo contenuto che il rifiuto del ricorso dell'utente sono stati presi automaticamente sulla base di un punteggio del classificatore, senza alcun controllo umano. Ciò, a sua volta, potrebbe essere stato esacerbato dalla risposta alla crisi di Meta che ha abbassato la soglia di rimozione dei contenuti in base alla normativa sui contenuti forti e violenti in seguito agli attacchi del 7 ottobre. Questo significa che, anche se il classificatore assegna alla probabilità di violazione un punteggio relativamente inferiore a quello normalmente richiesto, Meta rimuove quel contenuto.

Affinché Meta utilizzi i propri sistemi automatizzati in modo compatibile con i propri impegni in materia di diritti umani, il Board ricorda a Meta la raccomandazione n. 1 nel caso Vignetta sulla polizia colombiana. In quel caso, il Board ha invitato Meta a garantire che i contenuti con elevati tassi di ricorso ed elevati tassi di ricorsi con esito positivo vengano rivalutati per una possibile rimozione dalle banche dei servizi di ricerca dei contenuti multimediali corrispondenti. In risposta a questa raccomandazione, Meta ha istituito un gruppo di lavoro designato impegnato a migliorare la governance nelle sue banche dei servizi di ricerca dei contenuti multimediali corrispondenti (vedi qui gli aggiornamenti più recenti di Meta al riguardo). Il Board osserva che è importante che questo gruppo presti particolare attenzione all'uso dei servizi di ricerca dei contenuti multimediali corrispondenti nel contesto dei conflitti armati. Nel caso Sintomi del tumore al seno e nudo (raccomandazione n. 3 e n. 6), il Board ha raccomandato a Meta di informare gli utenti quando viene utilizzata l'automazione per intraprendere provvedimenti contro i loro contenuti e di divulgare dati sul numero di decisioni di rimozione automatizzata per Standard della community e la proporzione di tali decisioni successivamente annullate a seguito di controllo umano. Ciò è particolarmente importante quando, secondo quanto riferito, le soglie di sicurezza per i contenuti che potrebbero violare le normative sono state significativamente abbassate. Il Board sollecita Meta a compiere ulteriori progressi nell'attuazione della raccomandazione n. 6 e di condividere con il Board prova dell'attuazione della raccomandazione n. 3.

Le limitazioni alla libertà di espressione non devono operare discriminazioni, ad esempio in base a nazionalità, etnia, religione, credo, opinioni politiche o altre opinioni (articolo 2, paragrafo 1, e articolo 26 dell'ICCPR). L'applicazione discriminatoria degli Standard della community danneggia questo aspetto fondamentale della libertà di espressione. Nel caso Post di Al Jazeera condiviso, il Board ha espresso serie preoccupazioni sul fatto che gli errori nella moderazione dei contenuti di Meta in Israele e nei territori palestinesi occupati possano essere distribuiti inegualmente e ha chiesto un'indagine indipendente (decisione sul caso Post di Al Jazeera condiviso, raccomandazione n. 3). La valutazione dell'impatto dei diritti umani di Business for Social Responsibility (BSR), commissionata da Meta in risposta a tale raccomandazione, ha identificato "vari casi di pregiudizi involontari in cui la normativa e la pratica di Meta, combinate con dinamiche esterne più ampie, portano a diversi impatti sui diritti umani sugli utenti di lingua palestinese e araba". Il Board incoraggia Meta a mantenere gli impegni assunti in risposta al report BSR.

Infine, Meta ha la responsabilità di preservare le prove di potenziali violazioni dei diritti umani e del diritto internazionale umanitario, come raccomandato anche nel report BSR (raccomandazione 21) e sostenuto dai gruppi della società civile. Anche quando i contenuti vengono rimossi dalle piattaforme di Meta, è fondamentale preservare tali prove nell'interesse della futura responsabilità (vedi i casi Video di violenza esplicita in Sudan e Video di prigionieri di guerra armeni). Mentre Meta ha spiegato che conserva tutti i contenuti che violano i suoi Standard della community per un periodo di un anno, il Board insiste che i contenuti specificamente correlati a potenziali crimini di guerra, crimini contro l'umanità e gravi violazioni dei diritti umani siano individuati e preservati in modo più duraturo e accessibile ai fini della responsabilità a lungo termine. Il Board prende atto che Meta ha accettato di dare attuazione alla raccomandazione n. 1 nel caso Video di prigionieri di guerra armeni. Questa situazione ha invitato Meta a sviluppare un protocollo per preservare e, all'occorrenza, condividere con le autorità competenti informazioni rilevanti ai fini di indagini e processi legali per perseguire o porre rimedio ad atroci crimini o gravi violazioni dei diritti umani. Meta ha informato il Board che è nelle fasi finali dello sviluppo di un "approccio coerente per conservare potenziali prove di crimini atroci e gravi violazioni del diritto internazionale sui diritti umani" e prevede di fornire presto al Board un briefing sul suo approccio. Il Board si aspetta che Meta dia piena attuazione alla raccomandazione di cui sopra.

*Nota procedurale:

le decisioni rapide dell'Oversight Board sono predisposte da gruppi di cinque membri e non sono soggette all'approvazione della maggioranza dell'intero Board. Le decisioni del Board non rappresentano necessariamente le opinioni personali di tutti i membri.

العودة إلى قرارات الحالة والآراء الاستشارية المتعلقة بالسياسة