पलट जाना
Dichiarazione sul Partito comunista cinese
1 अगस्त 2024
Un utente ha inviato un ricorso contro la decisione di Meta di rimuovere un commento su Instagram che invitava alla "morte" del Partito comunista cinese.
Le decisioni riassuntive esaminano i casi in cui Meta ha revocato la sua decisione iniziale su un contenuto specifico dopo che il Board ha portato il caso all'attenzione dell'azienda e includono informazioni sugli errori riconosciuti di Meta. Sono approvate da un gruppo di membri del Board, non dall'intero organo, non coinvolgono commenti pubblici e non costituiscono un precedente per il Board. Le decisioni riassuntive garantiscono direttamente le modifiche alle decisioni di Meta, fornendo trasparenza sulle correzioni e individuando gli aspetti su cui Meta potrebbe migliorare l'applicazione.
Riepilogo
Un utente ha inviato un ricorso contro la decisione di Meta di rimuovere un commento su Instagram che invitava alla "morte" del Partito comunista cinese. Dopo che il Board ha portato il ricorso all'attenzione di Meta, l'azienda ha revocato la decisione iniziale e ripristinato il post.
Informazioni sul caso
A marzo 2024, un utente di Instagram ha pubblicato un commento che recitava "Death to the Chinese Communist Party" (Morte al Partito comunista cinese), seguito da emoji del teschio. Il commento era in risposta a un post pubblicato da un account di un organo di stampa, con un video di Wang Wenbin, ex portavoce del Ministro per gli affari esteri della Cina, che condanna l'approvazione di un disegno di legge da parte della Camera dei rappresentanti degli Stati Uniti che potrebbe pregiudicare la presenza di TikTok nel Paese.
Meta ha inizialmente rimosso il post dell'utente da Facebook ai sensi del suo Standard della community in materia di violenza e istigazione alla violenza, che vieta "minacce di violenza". L'azienda ha spiegato che tale divieto comprende "determinati inviti alla morte, se contengono un bersaglio e un metodo di violenza".
Quando il Board ha portato questo caso all'attenzione di Meta, l'azienda ha stabilito che la rimozione del commento non era corretta e lo ha ripristinato su Instagram. Meta ha affermato che, come illustrato nelle sue linee guida interne per gli addetti al controllo dei contenuti, gli inviti alla morte per un'istituzione, come il Partito comunista cinese, sono considerati come non violenti.
Autorità e ambito del Board
Il Board ha l'autorità di controllare la decisione di Meta dando seguito al ricorso dell'utente il cui contenuto è stato rimosso (articolo 2, sezione 1 dell'Atto costitutivo; articolo 3, sezione 1 dello Statuto).
Quando Meta riconosce di aver commesso un errore e revoca la sua decisione in un caso preso in considerazione per un controllo da parte del Board, quest'ultimo può selezionare tale caso per una decisione riassuntiva (articolo 2, sezione 2.1.3 dello Statuto). Il Board controlla la decisione iniziale per comprendere meglio il processo di moderazione dei contenuti, limitarne gli errori e migliorare l'equità della sua applicazione per gli utenti di Facebook, Instagram e Threads.
Importanza del caso
Il caso in esame dimostra un'incoerenza nelle modalità di applicazione da parte di Meta della sua normativa in materia di violenza e istigazione alla violenza nei confronti di dichiarazioni metaforiche o figurative in un contesto politico, il che potrebbe produrre effetti sproporzionati sui dibattiti politici critici verso Stati e istituzioni governative. Nella progettazione dei suoi sistemi di moderazione, il presente caso sottolinea l'importanza per Meta di prendere in considerazione il bersaglio del dibattito (in questo caso, un partito politico), nonché il ricorso da parte delle persone di forme di libertà di espressione iperboliche, retoriche, ironiche e satiriche per criticare le istituzioni.
Nell'ambito delle espressioni retoriche, il Board nel caso Poesia russa aveva osservato che gli estratti con un linguaggio violento della poesia "Kill him!" (Uccidilo!) potrebbero essere interpretati come "la descrizione di uno stato mentale, e non come un incitamento allo stesso". Il Board ha determinato che il ricorso a tale espressione costituiva uno strumento retorico per trasmettere il messaggio dell'utente e che, di conseguenza, la parte interessata del contenuto era consentita dalle linee guida interne di Meta relative alla sua normativa in materia di violenza e istigazione alla violenza.
Nonostante riguardi uno Standard della community diverso (incitamento all'odio) rispetto a quello oggetto del caso in esame (violenza e istigazione alla violenza), la decisione Bot in Myanmar è pertinente poiché riguarda forme di libertà di espressione rivolte a Stati o istituzioni politiche. Pertanto, secondo il Board, dato che i termini volgari nel post non prendevano di mira persone in base a razza, etnia o nazionalità di origine, ma erano riferiti a uno Stato, non è stato violato lo Standard della community in materia di incitamento all'odio. Il Board sottolinea che: "È fondamentale garantire che i divieti di prendere di mira le persone in base a caratteristiche protette non vengano interpretati in modo da sottrarre governi o istituzioni dalle critiche".
Il Board ha in precedenza esortato a Meta a mettere in atto procedure adeguate per valutare i contenuti nei loro contesti pertinenti( Meme dei due pulsanti, raccomandazione n. 3). Il Board ha altresì raccomandato: "Per informare meglio gli utenti sui tipi di dichiarazioni vietate, Meta dovrebbe modificare lo Standard della community in materia di violenza e istigazione alla violenza per (i) spiegare che le minacce retoriche come le dichiarazioni 'morte a X' sono in genere consentite, tranne quando il bersaglio della minaccia è una persona ad alto rischio..." ( Slogan di protesta in Iran, raccomandazione n. 1). Inoltre, "Meta dovrebbe continuare a emettere eccezioni su vasta scala (i) quando il contenuto difficilmente può generare violenza; (ii) quando un contenuto potenzialmente in violazione viene usato durante proteste e (iii) quando ciò viene fatto per l'interesse pubblico", ( Slogan di protesta in Iran, raccomandazione n. 2).
Meta ha segnalato l'implementazione della raccomandazione del caso "Meme dei due pulsanti" e della raccomandazione n. 2 della decisione "Slogan di protesta in Iran", ma non ha pubblicato informazioni a riprova di ciò. Per la raccomandazione n. 1 della decisione "Slogan di protesta in Iran", nel suo Q4 2023 Quarterly Update on the Board (Aggiornamento trimestrale di Meta sull'Oversight Board, quarto trimestre 2023) Meta ha dichiarato: "Abbiamo aggiornato il nostro Standard della community in materia di violenza e istigazione alla violenza fornendo ulteriori dettagli su ciò che costituisce una 'minaccia', differenziando la nostra applicazione in base al bersaglio. Nell'ambito di tale iniziativa, abbiamo altresì aggiornato le linee guida interne".
Il Board ritiene che l'implementazione completa di tali raccomandazioni potrebbe contribuire a ridurre il numero di errori di applicazione della normativa in materia di violenza e istigazione alla violenza.
Decisione
Il Board revoca la decisione originaria di Meta di rimuovere il contenuto. Il Board riconosce la correzione di Meta all'errore iniziale dopo che il Board ha portato il caso alla sua attenzione.