Multiple Case Decision

Testimonianze sulle vittime di stupro israeliane

Un utente ha inviato un ricorso contro la decisione di Meta di rimuovere due post su Facebook che descrivono le violenze sessuali perpetrate dai militanti di Hamas durante gli attacchi terroristici sferrati contro Israele, il 7 ottobre 2023. Dopo che il Board ha portato questi ricorsi all'attenzione di Meta, l'azienda ha revocato le sue decisioni originali e ripristinato i post.

2 cases included in this bundle

Overturned

FB-YCJP0Q9D

Caso di persone e organizzazioni pericolose su Facebook

Platform
Facebook
Topic
Parità di genere e sesso,Violenza,Guerre e conflitti
Standard
Persone e organizzazioni pericolose
Location
Israele,Territori palestinesi
Date
Published on April 4, 2024
Overturned

FB-JCO2RJI1

Caso di persone e organizzazioni pericolose su Facebook

Platform
Facebook
Topic
Parità di genere e sesso,Violenza,Guerre e conflitti
Standard
Persone e organizzazioni pericolose
Location
Israele,Stati Uniti,Territori palestinesi
Date
Published on April 4, 2024

La presente è una decisione riassuntiva. Le decisioni riassuntive esaminano i casi in cui Meta ha revocato la sua decisione iniziale su un contenuto specifico dopo che il Board ha portato il caso all'attenzione dell'azienda e includono informazioni sugli errori riconosciuti di Meta. Sono approvate da un gruppo di membri del Board, non dall'intero organo, non coinvolgono commenti pubblici e non costituiscono un precedente per il Board. Le decisioni riassuntive garantiscono direttamente le modifiche alle decisioni di Meta, fornendo trasparenza sulle correzioni e individuando gli aspetti su cui Meta potrebbe migliorare l'applicazione.

Riepilogo del caso

Un utente ha inviato un ricorso contro la decisione di Meta di rimuovere due post su Facebook che descrivono le violenze sessuali perpetrate dai militanti di Hamas durante gli attacchi terroristici sferrati contro Israele, il 7 ottobre 2023. Dopo che il Board ha portato questi ricorsi all'attenzione di Meta, l'azienda ha revocato le sue decisioni originali e ripristinato i post.

Descrizione e contesto del caso

A ottobre 2023, un utente di Facebook ha caricato due post distinti, uno dopo l'altro, con contenuti identici, ossia un video di una donna che descrive gli stupri delle donne israeliane perpetrati da Hamas durante gli attacchi terroristici del 7 ottobre. La didascalia contiene un "avvertimento deterrente" e la voce del video avverte gli utenti circa la presenza di contenuti violenti. Il video prosegue mostrando il filmato di due diverse donne rapite da Hamas, con una clip in cui una donna gravemente ferita giace a faccia in giù in un camion e un'altra in cui una donna ferita viene trascinata dal retro di un veicolo. Queste immagini sono state ampiamente condivise in seguito all'attacco. Il primo post è stato condiviso circa 4000 volte, mentre il secondo ha ricevuto meno di 50 condivisioni.

Entrambi i post sono stati inizialmente rimossi da Meta per violazione dello Standard della community su organizzazioni e persone pericolose. Ai sensi della normativa in questione, l'azienda vieta le immagini di terzi che ritraggono momenti di attacchi terroristici designati su vittime identificabili in qualsiasi circostanza, anche se condivise ai fini di condanna o sensibilizzazione sugli attacchi. Inoltre, ai sensi dello Standard della community su violenza e istigazione alla violenza di Meta, l'azienda rimuove "contenuti che raffigurano rapimenti o sequestri, se è chiaro che il contenuto non è stato condiviso da una vittima o da un relativo familiare come richiesta di aiuto o se è stato condiviso per uno scopo diverso da quello informativo, di condanna o di sensibilizzazione".

In seguito all'attacco di Hamas del 7 ottobre, Meta ha messo in atto una rigorosa applicazione della sua normativa in materia di organizzazioni e persone pericolose nei confronti dei video che ritraggono singoli attacchi contro vittime visibili. Meta ha illustrato tale approccio in un post di Newsroom il 13 ottobre, indicandone come giustificazione "il dare priorità alla sicurezza delle persone rapite da Hamas". I due contenuti nei casi in esame sono stati pertanto rimossi per violazione della normativa in materia di organizzazioni e persone pericolose di Meta.

In seguito a questa decisione, molti organi di informazione hanno iniziato a trasmettere filmati correlati e anche gli utenti hanno cominciato a pubblicare contenuti simili per sensibilizzare e condannare gli attacchi. Di conseguenza, intorno al 20 ottobre, Meta ha aggiornato le sue normative al fine di consentire agli utenti di condividere il filmato in questione esclusivamente nel contesto della sensibilizzazione o della condanna delle atrocità. L'azienda ha inoltre applicato una schermata di avviso per informare gli utenti della natura potenzialmente inquietante del filmato. Meta ha pubblicato tale modifica alla sua normativa in un aggiornamento del 5 dicembre del suo post originale di Newsroom del 13 ottobre (vd. Ostaggi rapiti da Israele per ulteriori informazioni e contesto).

Meta ha inizialmente rimosso entrambi i contenuti da Facebook nei due casi in esame. L'utente ha inviato un ricorso contro le decisioni di Meta al Board. Dopo che il Board ha portato i casi in esame all'attenzione di Meta, l'azienda ha stabilito che i post non violavano più le sue normative, alla luce dell'aggiornamento all'eccezione, e li ha ripristinati entrambi.

Autorità e ambito del Board

Il Board ha l'autorità di controllare le decisioni di Meta dando seguito al ricorso della persona il cui contenuto è stato rimosso (articolo 2, sezione 1 dell'Atto costitutivo; articolo 3, sezione 1 dello Statuto).

Quando Meta riconosce di aver commesso un errore e revoca la sua decisione in un caso preso in considerazione per un controllo da parte del Board, quest'ultimo può selezionare tale caso per una decisione riassuntiva (articolo 2, sezione 2.1.3 dello Statuto). Il Board controlla la decisione iniziale per comprendere meglio il processo di moderazione dei contenuti, limitarne gli errori e migliorare l'equità della sua applicazione per gli utenti di Facebook e Instagram.

Significatività del caso

I due casi in esame evidenziano le difficoltà nella capacità di Meta di applicare le sue normative ai contenuti in situazioni di conflitto ad alto rischio, in continua e rapida evoluzione. Come rilevato dal Board nella sua decisione rapida, Ostaggi rapiti da Israele, la normativa iniziale di Meta che vietata i contenuti raffiguranti ostaggi ne proteggeva la dignità e mirava a non esporli alla curiosità pubblica. Tuttavia, il Board ritiene anche che, in circostanze eccezionali, se richiesto da un impellente interesse pubblico o dall'interesse vitale degli ostaggi, eccezioni temporanee e limitate possano essere giustificate. Considerato il contesto, ripristinare questo tipo di contenuti sulla piattaforma con una schermata di avviso per segnalarlo come inquietante è coerente con le normative sui contenuti, i valori e le responsabilità di Meta in materia di diritti umani. Ciò sarebbe altresì coerente con il diritto umanitario internazionale e con la pratica di conservare documentazione di presunte violazioni per una futura responsabilità, oltre che per sensibilizzare il pubblico. In tale caso, il Board ha inoltre rilevato come Meta abbia impiegato troppo tempo per applicare l'eccezione a tutti gli utenti e come il rapido cambio di approccio alla moderazione dei contenuti dell'azienda durante il conflitto sia stato accompagnato da una continua mancanza di trasparenza.

In precedenza, il Board aveva formulato raccomandazioni pertinenti al caso in oggetto. Il Board ha raccomandato a Meta di annunciare le eccezioni ai suoi Standard della community, sottolineandone "la relativa durata e l'avviso di scadenza per poter informare le persone che usano le sue piattaforme delle modifiche apportate alla normativa che consentono determinate forme di libertà di espressione" (vd. Slogan di protesta in Iran, raccomandazione n. 5). Meta ha parzialmente implementato tale raccomandazione, come dimostrato dalle informazioni pubblicate. Il Board ha inoltre raccomandato in precedenza a Meta di conservare prove di potenziali crimini di guerra, crimini contro l'umanità e gravi violazioni dei diritti umani nell'interesse della futura responsabilità ( Video di violenza esplicita in Sudan, raccomandazione n. 1, e Video di prigionieri di guerra armeni, raccomandazione n. 1). Meta ha accettato di implementare tale raccomandazione, la cui attuazione è ancora in fase di svolgimento. Il Board ribadisce la necessità per Meta di agire secondo tali raccomandazioni per garantire la corretta applicazione delle normative ai contenuti relativi ai diritti umani sulle sue piattaforme.

Decisione

Il Board revoca la decisione originaria di Meta di rimuovere due contenuti. Il Board riconosce la correzione di Meta agli errori iniziali dopo che il Board ha portato questi due casi alla sua attenzione.

Return to Case Decisions and Policy Advisory Opinions