पलट जाना

Commenti disumanizzanti sulle persone a Gaza

Un utente ha inviato un ricorso contro la decisione di Meta di lasciare pubblicato un post su Facebook secondo cui Hamas nasce tra la popolazione di Gaza, paragonandola a una "savage horde" (orda selvaggia). Dopo che il Board ha portato il ricorso all'attenzione di Meta, l'azienda ha revocato la decisione iniziale e rimosso il post.

निर्णय का प्रकार

सारांश

नीतियां और विषय

विषय
Comunità emarginate, जाति और नस्ल, युद्ध और मतभेद
सामुदायिक मानक
नफ़रत फ़ैलाने वाली भाषा

क्षेत्र/देश

जगह
Israele, Territori palestinesi

प्लैटफ़ॉर्म

प्लैटफ़ॉर्म
Facebook

La presente è una decisione riassuntiva. Le decisioni riassuntive esaminano i casi in cui Meta ha revocato la sua decisione iniziale su un contenuto specifico dopo che il Board ha portato il caso all'attenzione dell'azienda e includono informazioni sugli errori riconosciuti di Meta. Sono approvate da un gruppo di membri del Board, non dall'intero organo, non coinvolgono commenti pubblici e non costituiscono un precedente per il Board. Le decisioni riassuntive garantiscono direttamente le modifiche alle decisioni di Meta, fornendo trasparenza sulle correzioni e individuando gli aspetti su cui Meta potrebbe migliorare l'applicazione.

Riepilogo

Un utente ha inviato un ricorso contro la decisione di Meta di lasciare pubblicato un post su Facebook secondo cui Hamas nasce tra la popolazione di Gaza e riflette i suoi "innermost desires" (desideri più reconditi), paragonandola a una "savage horde" (orda selvaggia). Dopo che il Board ha portato il ricorso all'attenzione di Meta, l'azienda ha revocato la decisione iniziale e rimosso il post.

Informazioni sul caso

Nel dicembre 2023, un utente ha ripubblicato su Facebook un'immagine contenente un testo, accanto all'immagine di un uomo senza nome, che esprimeva l'opinione secondo cui la "general public" (popolazione generale) di Gaza non è "victim" (vittima) di Hamas, ma piuttosto che il gruppo militante è sorto come un "true reflection" (vero riflesso) dei "the innermost desires of a savage horde" (desideri più reconditi di un'orda selvaggia). L'immagine ripubblicata comprendeva una didascalia a sostegno che riportava le parole "the truth" (la verità). Il post è stato visualizzato meno di 500 volte.

Ai sensi della normativa in materia di incitamento all'odio, Meta vieta contenuti che prendono di mira persone o gruppi di persone sulla base delle loro caratteristiche protette, menzionando nello specifico confronti con "subumani" e prevedendo "selvaggi" come esempio. Nel contenuto in esame, il riferimento alla "the general public of Gaza" (popolazione generale di Gaza) si riferisce implicitamente ai palestinesi a Gaza, prendendo pertanto di mira le caratteristiche protette della etnia e della nazionalità.

In una dichiarazione relativa al ricorso del caso in esame al Board, l'utente ha sottolineato che il post "costituiva un discorso disumanizzante", giacché presentava una generalizzazione sulle persone di Gaza.

Dopo che il Board ha portato il caso all'attenzione di Meta, l'azienda ha determinato che il contenuto violava la normativa in materia di incitamento all'odio di Meta, e che la sua decisione iniziale di lasciarlo pubblicato non era corretta. L'azienda ha infine rimosso il contenuto da Facebook.

Autorità e ambito del Board

Il Board ha l'autorità di controllare la decisione di Meta dando seguito al ricorso dell'utente che ha segnalato il contenuto che è stato lasciato sulla piattaforma (articolo 2, sezione 1 dell'Atto costitutivo; articolo 3, sezione 1 dello Statuto).

Quando Meta riconosce di aver commesso un errore e revoca la sua decisione in un caso preso in considerazione per un controllo da parte del Board, quest'ultimo può selezionare tale caso per una decisione riassuntiva (articolo 2, sezione 2.1.3 dello Statuto). Il Board controlla la decisione iniziale per migliorare la comprensione del processo di moderazione dei contenuti, limitare gli errori e aumentare l'equità per gli utenti di Facebook e Instagram.

Importanza del caso

Il caso in esame rivela errori nell'applicazione da parte di Meta della sua normativa in materia di incitamento all'odio, nello specifico in relazione ai contenuti che attaccano le persone sulla base delle loro caratteristiche protette. Gli errori di moderazione sono particolarmente pericolosi durante i conflitti armati in corso. Pertanto, sarebbe stata opportuna l'adozione di pratiche di moderazione più affidabili.

Il caso Cartone animato di Knin riguardava allo stesso modo l'incitamento all'odio rivolto verso una caratteristica protetta, un'etnia, riferendosi a un gruppo etnico come ratti senza nominarlo in modo esplicito. Tuttavia, il caso Cartone animato di Knin ha richiesto un contesto storico e culturale per l'interpretazione della raffigurazione simbolica di un gruppo etnico. Al contrario, il contenuto nel caso in esame associa in modo più diretto a un'intera popolazione commenti disumanizzanti, che andrebbero ragionevolmente interpretati come riferiti a persone sulla base di caratteristiche protette.

Nella decisione Cartone animato di Knin, il Board aveva raccomandato a Meta "di chiarire lo Standard della community sull'incitamento all'odio e le indicazioni fornite agli addetti al controllo, spiegando che anche i riferimenti impliciti ai gruppi protetti sono contrari alla normativa, se risultano ragionevolmente comprensibili" (decisione Cartone animato di Knin, raccomandazione n. 1), raccomandazione che Meta ha riferito di aver parzialmente implementato. Nel 4° trimestre del 2022, Meta ha dichiarato di "aver aggiunto un'indicazione negli Standard della community e nelle linee guida sulla normativa per gli addetti al controllo secondo cui è prevista la rimozione dell'incitamento all'odio implicito in caso di escalation dagli addetti al controllo su vasta scala al controllo degli esperti nei casi in cui Meta possa ragionevolmente comprendere l'intenzione dell'utente". Il Board considera tale raccomandazione parzialmente implementata dal momento che non sono state apportate modifiche allo Standard della community sull'incitamento all'odio, ma solo all'introduzione generale degli Standard della community.

Il Board ritiene che l'implementazione completa di tale raccomandazione potrebbe ridurre il numero di errori di applicazione della normativa in materia di incitamento all'odio di Meta.

Decisione

Il Board revoca la decisione iniziale di Meta di lasciare pubblicato il contenuto. Il Board riconosce la correzione di Meta all'errore iniziale dopo che il Board ha portato il caso alla sua attenzione.

मामले के निर्णयों और नीति सलाहकार राय पर लौटें