أسقط
Giornalista che racconta del suo incontro a Gaza
تم النشر بتاريخ 4 نَيْسان 2024
Un giornalista ha inviato un ricorso contro la decisione di Meta di rimuovere un post su Facebook che raccontava la sua esperienza personale nell'intervistare Abdel Aziz Al-Rantisi, co-fondatore di Hamas. Il caso in esame evidenzia un problema ricorrente nell'applicazione eccessiva della normativa in materia di organizzazione e persone pericolose dell'azienda, specie in merito ai post neutrali. Dopo che il Board ha portato il ricorso all'attenzione di Meta, l'azienda ha revocato la decisione iniziale e ripristinato il post.
La presente è una decisione riassuntiva. Le decisioni riassuntive esaminano i casi in cui Meta ha revocato la sua decisione iniziale su un contenuto specifico dopo che il Board ha portato il caso all'attenzione dell'azienda eincludono informazioni sugli errori riconosciuti di Meta. Sono approvate da un gruppo di membri del Board, non dall'intero organo, non coinvolgono commenti pubblici e non costituiscono un precedente per il Board. Le decisioni riassuntive garantiscono direttamente le modifiche alle decisioni di Meta, fornendo trasparenza sulle correzioni e individuando gli aspetti su cui Meta potrebbe migliorare l'applicazione.
Riepilogo del caso
Un giornalista ha inviato un ricorso contro la decisione di Meta di rimuovere un post su Facebook che raccontava la sua esperienza personale nell'intervistare Abdel Aziz Al-Rantisi, co-fondatore di Hamas. Il caso in esame evidenzia un problema ricorrente nell'applicazione eccessiva della normativa in materia di organizzazione e persone pericolose dell'azienda, specie in merito ai post neutrali. Dopo che il Board ha portato il ricorso all'attenzione di Meta, l'azienda ha revocato la decisione iniziale e ripristinato il post.
Descrizione e contesto del caso
Poco dopo gli attacchi terroristici del 7 ottobre 2023 perpetrati contro Israele, un giornalista ha pubblicato su Facebook il racconto scritto della sua intervista ad Abdel Aziz Al-Rantisi, un co-fondatore di Hamas, un'organizzazione designata di livello 1 ai sensi della normativa in materia di organizzazioni e persone pericolose di Meta. Il post descrive il viaggio del giornalista a Gaza, l'incontro con i membri di Hamas e i residenti locali, nonché l'esperienza vissuta nel trovare e intervistare al-Rantisi. Il post contiene 4 foto, tra cui quella di Al-Rantisi, dell'intervistatore e dei militanti di Hamas mascherati.
Nel suo ricorso al Board, l'utente ha chiarito che l'intenzione del post era informare il pubblico circa la sua esperienza a Gaza e nell'intervistare uno dei fondatori originali di Hamas.
Meta ha rimosso il post su Facebook, adducendo come motivazione la sua normativa in materia di organizzazioni e persone pericolose, secondo cui l'azienda rimuove dalle sue piattaforme determinati contenuti relativi a organizzazioni e persone designate come pericolose. Tuttavia, la normativa riconosce che "gli utenti potrebbero condividere contenuti che includono riferimenti a organizzazioni e persone pericolose nel contesto del dibattito sociale e politico. Ciò include contenuti che riportano notizie in merito, discutono in modo neutro o esprimono condanna su persone e organizzazioni pericolose o sulle loro attività".
Dopo che il Board ha portato il presente caso all'attenzione di Meta, l'azienda ha stabilito che "il contenuto mirava a una maggiore sensibilizzazione circa la situazione" e pertanto non violava lo Standard della community su organizzazioni e persone pericolose. Meta ha menzionato l'eccezione relativa al dibattito sociale e politico nel contesto delle "rappresentazioni neutrali e informative di attività o comportamenti di organizzazioni e persone pericolose". Inoltre, Meta ha dichiarato che "il contesto relativo al dibattito sociale e politico è esplicitamente menzionato nel contenuto, dunque non sussiste alcuna ambiguità [circa] l'intento dell'utente" nel caso in esame.
Autorità e ambito del Board
Il Board ha l'autorità di controllare la decisione di Meta dando seguito al ricorso dell'utente il cui contenuto è stato rimosso (articolo 2, sezione 1 dell'Atto costitutivo; articolo 3, sezione 1 dello Statuto).
Quando Meta riconosce di aver commesso un errore e revoca la sua decisione in un caso preso in considerazione per un controllo da parte del Board, quest'ultimo può selezionare tale caso per una decisione riassuntiva (articolo 2, sezione 2.1.3 dello Statuto). Il Board controlla la decisione iniziale per migliorare la comprensione del processo di moderazione dei contenuti, limitare gli errori e aumentare l'equità per le persone che usano Facebook e Instagram.
Significatività del caso
Il caso mette in evidenza un'applicazione eccessiva della normativa in materia di organizzazioni e persone pericolose di Meta, in particolar modo sul riportare notizie in merito a entità designate dall'azienda come pericolose. È un problema ricorrente, particolarmente frequente durante il conflitto Israele-Hamas, nel quale una delle parti è un'organizzazione designata. Il Board ha formulato numerose raccomandazioni in merito all'applicazione dell'eccezione relativa al riportare notizie ai sensi della normativa in materia di organizzazioni e persone pericolose. Errori continui nell'applicazione di questa importante eccezione possono limitare notevolmente la libertà di espressione degli utenti, l'accesso pubblico alle informazioni e pregiudicare il dibattito pubblico.
In una decisione precedente, il Board ha raccomandato a Meta di "aggiungere criteri ed esempi illustrativi alla normativa in materia di organizzazioni e persone pericolose di Meta per rendere più comprensibili le eccezioni, nello specifico in merito alle discussioni neutrali e al riportare notizie", ( Post di Al Jazeera condiviso, raccomandazione n. 1). Meta ha dichiarato che l'implementazione di tale raccomandazione è stata dimostrata attraverso le informazioni pubblicate. In un aggiornamento alla normativa in materia di organizzazioni e persone pericolose del 29 dicembre 2023, Meta ha modificato le sue indicazioni e ora utilizza il termine "esaltazione" anziché "elogio" nel suo Standard della community.
Inoltre, il Board ha raccomandato a Meta di "valutare l'accuratezza degli addetti umani al controllo che applicano l'eccezione relativa al riportare notizie ai sensi della normativa in materia di organizzazioni e persone pericolose, al fine di individuare i problemi sistemici che causano errori di applicazione" ( Menzione dei talebani in un servizio giornalistico, raccomandazione n. 5). Meta ha comunicato l'implementazione di tale raccomandazione, ma non ha pubblicato alcuna informazione che lo dimostri.
Nei casi di moderazione automatizzata, il Board ha esortato Meta a implementare una procedura di controllo interna per analizzare in modo continuo un campione statisticamente rappresentativo di decisioni automatizzate di rimozione dei contenuti al fine di revocarle e apprendere dagli errori di applicazione ( Sintomi del tumore al seno e nudo, raccomandazione n. 5), che Meta ha comunicato di aver implementato.
Il Board ritiene che l'implementazione completa di tali raccomandazioni potrebbe ridurre il numero di errori di applicazione della normativa in materia di organizzazioni e persone pericolose di Meta.
Decisione
Il Board revoca la decisione originaria di Meta di rimuovere il contenuto. Il Board riconosce la correzione di Meta all'errore iniziale dopo che il Board ha portato il caso alla sua attenzione.
العودة إلى قرارات الحالة والآراء الاستشارية المتعلقة بالسياسة