Anulado
Articolo del Washington Post sul conflitto israelo-palestinese
4 de Abril de 2024
Un utente ha inviato un ricorso contro la decisione di Meta di rimuovere un post di Facebook con un link a un articolo del Washington Post che esaminava la cronologia del conflitto israelo-palestinese. Dopo che il Board ha portato il ricorso all'attenzione di Meta, l'azienda ha revocato la decisione iniziale e ripristinato il post.
Questa è una decisione riassuntiva.Le decisioni riassuntive esaminano i casi in cui Meta ha revocato la sua decisione iniziale su un contenuto specifico dopo che il Board ha portato il caso all'attenzione dell'azienda e includono informazioni sugli errori riconosciuti di Meta. Sono approvate da un gruppo di membri del Board, non dall'intero Board, non coinvolgono commenti pubblici e non costituiscono un precedente per il Board. Le decisioni riassuntive garantiscono direttamente le modifiche alle decisioni di Meta, fornendo trasparenza sulle correzioni e individuando gli aspetti su cui Meta potrebbe migliorare l'applicazione.
Riepilogo del caso
Un utente ha inviato un ricorso contro la decisione di Meta di rimuovere un post di Facebook con un link a un articolo del Washington Post che esaminava la cronologia del conflitto israelo-palestinese. Dopo che il Board ha portato il ricorso all'attenzione di Meta, l'azienda ha revocato la decisione iniziale e ripristinato il post.
Descrizione e contesto del caso
A ottobre 2023, un utente di Facebook ha pubblicato un link a un articolo del Washington Post che riguardava la cronologia del conflitto israelo-palestinese. L'anteprima dell'articolo, automaticamente incluse con il link, menziona Hamas. L'utente non ha aggiunto una didascalia per accompagnare il post o fornire ulteriore contesto.
Il post di Facebook è stato rimosso ai sensi della normativa Organizzazioni e persone pericolose di Meta, in base alla quale sono proibiti determinati discorsi su e rappresentazioni di gruppi e persone che l'azienda giudica collegate a un pericolo significativo nel mondo reale.
Nel ricorso al Board, l'utente ha sottolineato che il post aveva l'obiettivo di dare informazioni sul conflitto israelo-palestinese e non di fornire sostegno a Hamas o ad altre organizzazioni pericolose.
Dopo che il Board ha portato questo caso all'attenzione di Meta, l'azienda ha stabilito che il contenuto non violava la sua normativa in materia di persone e organizzazioni pericolose dato che il post faceva riferimento a Hamas in un contesto giornalistico, consentito dalla normativa. L'azienda ha infine ripristinato il contenuto su Facebook.
Autorità e ambito del Board
Il Board ha l'autorità di controllare la decisione di Meta dando seguito al ricorso della persona il cui contenuto è stato rimosso (articolo 2, sezione 1 dell'Atto costitutivo; articolo 3, sezione 1 dello Statuto).
Quando Meta riconosce di aver commesso un errore e revoca la sua decisione in un caso preso in considerazione per un controllo da parte del Board, quest'ultimo può selezionare tale caso per una decisione riassuntiva (articolo 2, sezione 2.1.3 dello Statuto). Il Board controlla la decisione iniziale per migliorare la comprensione del processo di moderazione dei contenuti, limitare gli errori e aumentare l'equità per gli utenti di Facebook e Instagram.
Significatività del caso
Il caso sottolinea un'applicazione eccessiva da parte di Meta della normativa in materia di organizzazioni e persone pericolose, in particolar modo del servizio giornalistico su entità che l'azienda designa come pericolose. È un problema ricorrente, particolarmente frequente durante il conflitto attuale Israele-Hamas, nel quale una delle parti è un'organizzazione designata. Il Board ha formulato numerosi consigli in merito all'applicazione del servizio giornalistico ai sensi della normativa in materia di Organizzazioni e persone pericolose. Errori continui nella sua applicazione possono limitare notevolmente la libertà di espressione degli utenti, l'accesso del pubblico alle informazioni e pregiudicare il discorso pubblico.
In una decisione precedente, il Board ha consigliato a Meta di "valutare l'accuratezza degli addetti al controllo che applicano l'eccezione di cronaca ai sensi della normativa in materia di organizzazioni e persone pericolose, al fine di individuare i problemi sistemici che causano errori di applicazione" ( Menzione dei talebani in un servizio giornalistico, raccomandazione n. 5). Meta ha segnalato un'implementazione di già questa operazione, ma non ha pubblicato nessuna informazione a sua dimostrazione. Il Board ha anche raccomandato a Meta di "aggiungere criteri ed esempi illustrativi alla sua normativa in materia di persone e organizzazioni pericolose per aumentare la comprensione delle eccezioni per discussioni neutrali, condanne e servizi giornalistici", ( Post di Al Jazeera condiviso, raccomandazione n. 1). L'implementazione di questa raccomandazione è stata dimostrata attraverso le informazioni pubblicate. Inoltre, il Board ha consigliato a Meta di "includere informazioni più esaustive sul tasso di errori relativo all'applicazione delle regole su "elogio" e "supporto" di persone e organizzazioni pericolose" nel report sulla trasparenza ( Isolamento di Öcalan, raccomandazione n. 12). Meta ha rifiutato di attuare questo consiglio dopo una valutazione della fattibilità. In un aggiornamento della normativa datato 29 dicembre 2023, Meta ora usa il termine "esaltazione" al posto di "elogio" nello Standard della community.
Il Board ritiene che l'implementazione completa di questi consigli potrebbe ridurre il numero di errori di applicazione della normativa in materia di organizzazioni e persone pericolose di Meta.
Decisione
Il Board revoca la decisione originaria di Meta di rimuovere il contenuto. Il Board riconosce la correzione di Meta all'errore iniziale dopo che il Board ha portato il caso alla sua attenzione.
Voltar para Decisões de Casos e Pareceres Consultivos sobre Políticas