Décision sur plusieurs affaires
Intervista al negoziatore di ostaggi tailandese
18 avril 2024
Il Board ha controllato due post su Facebook contenenti segmenti quasi identici di un'intervista video di Sky News a un negoziatore di ostaggi tailandese che racconta del suo lavoro per la liberazione degli ostaggi catturati da Hamas. Dopo che il Board ha portato i ricorsi all'attenzione di Meta, l'azienda ha revocato le sue decisioni iniziali e ripristinato tutti i post.
2 cas inclus dans ce lot
FB-XO941WWQ
Caso di persone e organizzazioni pericolose su Facebook
FB-U3Y5VV2E
Caso di persone e organizzazioni pericolose su Facebook
La presente è una decisione riassuntiva. Le decisioni riassuntive esaminano i casi in cui Meta ha revocato la sua decisione iniziale su un contenuto specifico dopo che il Board ha portato il caso all'attenzione dell'azienda e includono informazioni sugli errori riconosciuti di Meta. Sono approvate da un gruppo di membri del Board, non dall'intero organo, non coinvolgono commenti pubblici e non costituiscono un precedente per il Board. Le decisioni riassuntive garantiscono direttamente le modifiche alle decisioni di Meta, fornendo trasparenza sulle correzioni e individuando gli aspetti su cui Meta potrebbe migliorare l'applicazione.
Riepilogo
Il Board ha controllato due post su Facebook contenenti segmenti quasi identici di un'intervista video di Sky News a un negoziatore di ostaggi tailandese che racconta del suo lavoro per la liberazione degli ostaggi catturati da Hamas. Dopo che il Board ha portato i ricorsi all'attenzione di Meta, l'azienda ha revocato le sue decisioni iniziali e ripristinato tutti i post.
Informazioni sui casi
Nel dicembre 2023, due utenti hanno inviato un ricorso contro le decisioni di Meta di rimuovere i loro post, ciascuno contenente clip pressoché identiche di un'intervista trasmessa da Sky News a novembre 2023. Il video in questione ritrae un negoziatore tailandese a capo di un team non ufficiale di negoziatori, che ha contribuito al rilascio dei cittadini tailandesi presi in ostaggio da Hamas il 7 ottobre in Israele.
Nella clip, l'intervistato descrive il suo contributo ai negoziati, dichiarando che ritiene che gli ostaggi tailandesi e tutti gli ostaggi "were well taken care of" (siano stati trattati bene) da Hamas, dal momento che l'organizzazione segue la legge islamica e che Hamas non ha posto alcuna condizione al rilascio dei prigionieri tailandesi.
Il negoziatore, che esprime solidarietà per il popolo palestinese, menziona decenni di ciò che egli considera abusi da parte degli israeliani nei confronti dei palestinesi nei Territori occupati. Egli dichiara che Hamas "[was] targeting soldiers" (prendeva di mira i soldati), giustificando la presta di ostaggi da parte dell'organizzazione "to help the Palestinians" (per aiutare i palestinesi) e "to get the world’s attention focused on the Israeli treatment of Palestinians" (per richiamare l'attenzione del mondo sul trattamento riservato ai palestinesi dagli israeliani).
Nel loro ricorso al Board, entrambi gli utenti hanno dichiarato di aver pubblicato il video per portare l'attenzione sulle dichiarazioni del negoziatore tailandese, ma per motivi diversi. Un utente ha dichiarato che l'intenzione era quella di portare alla luce un'intervista che "mostra Hamas in una prospettiva più bilanciata", in contrasto agli orientamenti comuni della "macchina della propaganda occidentale". L'utente indica nella didascalia che il negoziatore si rifiuta di attenersi alla versione comune e precisa inoltre che il suo post era stato censurato in precedenza poiché il contenuto menzionava una particolare organizzazione politica. Nel secondo post, l'utente, che ha pubblicato il video senza una didascalia o ulteriori commenti, ha dichiarato che stava "denunciando i collaboratori che mentono e manipolano" a supporto di Hamas.
Meta ha inizialmente rimosso i post da Facebook, adducendo come motivazione la sua normativa in materia di organizzazioni e persone pericolose, secondo cui l'azienda rimuove i contenuti che "esaltano" (in passato, che "elogiano"), "supportano" e "rappresentano" persone e organizzazioni designate come pericolose. Tuttavia, la normativa riconosce che "gli utenti potrebbero condividere contenuti che includono riferimenti a organizzazioni e persone pericolose nel contesto del dibattito sociale e politico. Ciò include contenuti che riportano notizie in merito, discutono in modo neutro o esprimono condanna su persone e organizzazioni pericolose o sulle loro attività".
Dopo che il Board ha portato i casi in esame all'attenzione di Meta, l'azienda ha stabilito che i post "non comprendono didascalie che esaltano, supportano o rappresentano un'organizzazione o una persona pericolosa". Inoltre, il video è "stato in precedenza condiviso da Sky News, e da altri organi di stampa, su Facebook [...] e [pertanto] ricade nell'ambito dell'eccezione relativa al riportare notizie". Meta ha ripristinato entrambi i post.
Autorità e ambito del Board
Il Board ha l'autorità di controllare la decisione di Meta dando seguito al ricorso dell'utente il cui contenuto è stato rimosso (articolo 2, sezione 1 dell'Atto costitutivo; articolo 3, sezione 1 dello Statuto).
Quando Meta riconosce di aver commesso un errore e revoca la sua decisione in un caso preso in considerazione per un controllo da parte del Board, quest'ultimo può selezionare tale caso per una decisione riassuntiva (articolo 2, sezione 2.1.3 dello Statuto). Il Board controlla la decisione iniziale per migliorare la comprensione del processo di moderazione dei contenuti, limitare gli errori e aumentare l'equità per le persone che usano Facebook e Instagram.
Importanza del caso
I casi in esame confermano la costante applicazione eccessiva dello Standard della community su organizzazioni e persone pericolose dell'azienda, come evidenziato in precedenti decisioni pronunciate dal Board. I costanti errori nell'applicazione di tale normativa riducono l'accesso degli utenti a commenti neutrali, notizie e post di condanna, pregiudicando la libertà di espressione.
In una decisione precedente, il Board aveva esortato Meta a "inserire dati più completi sui tassi di errore relativi allo Standard della community su organizzazioni e persone pericolose nei suoi report sulla trasparenza" ( Isolamento di Öcalan, raccomandazione n. 12), iniziativa che l'azienda ha rifiutato di implementare dopo una valutazione sulla fattibilità.
Inoltre, il Board ha raccomandato a Meta l'inserimento di "criteri ed esempi illustrativi nella normativa dello Standard della community su organizzazioni e persone pericolose di Meta per rendere più comprensibili le eccezioni, nello specifico in merito alle discussioni neutrali e al riportare notizie", in modo da fornire ulteriori indicazioni agli addetti al controllo umano ( Post di Al Jazeera condiviso, raccomandazione n. 1). Questa raccomandazione è di particolare rilievo poiché riguardava la rimozione di un post su una notizia relativa alle minacce di violenza perpetrate dalle Brigate Ezzedin al-Qassam, l'ala armata del gruppo palestinese Hamas. Il Board ha richiesto a Meta di "valutare l'accuratezza degli addetti al controllo che applicano l'eccezione di cronaca [...] per individuare i problemi sistemici che causano errori di applicazione" ( Menzione dei talebani in un servizio giornalistico, raccomandazione n. 5). Nonostante Meta abbia comunicato l'implementazione di entrambe le raccomandazioni, riguardo alla raccomandazione n. 5 del caso Menzione dei talebani in un servizio giornalistico, l'azienda non ha ancora pubblicato informazioni a sostegno di ciò.
Il Board ha raccomandato miglioramenti alla moderazione dei post con video, invitando l'azienda ad adottare "modifiche alle linee guida sui prodotti e/o operative che consentano un controllo più accurato dei video più lunghi" ( Primo ministro cambogiano, raccomandazione n. 5) In risposta, Meta ha dichiarato che "continuerà ad apportare nuovi miglioramenti ai propri processi di controllo dei video più lunghi e alla creazione e valutazione delle metriche" nel suo Q3 2023 Quarterly Update on the Oversight Board (Aggiornamento trimestrale sull'Oversight Board, terzo trimestre 2023).
Il Board ritiene che l'implementazione completa di tali raccomandazioni potrebbe ridurre il numero di errori di applicazione della normativa in materia di organizzazioni e persone pericolose di Meta.
Decisione
Il Board revoca le decisioni iniziali di Meta di rimuovere i contenuti. Il Board riconosce la correzione di Meta all'errore iniziale dopo che il Board ha portato questi casi alla sua attenzione.
Retour aux décisions de cas et aux avis consultatifs politiques