एकाधिक मामले का निर्णय
Stereotipi negativi sugli afroamericani
18 अप्रैल 2024
Il Board ha controllato tre post su Facebook contenenti materiali razzisti, che Meta ha lasciato pubblicati. Dopo che il Board ha portato questi ricorsi all'attenzione di Meta, l'azienda ha revocato le sue decisioni iniziali, rimuovendo i post.
3 इस बंडल में केस शामिल हैं
FB-LHBURU6Z
Caso di incitamento all'odio su Facebook
FB-1HX5SN1H
Caso di incitamento all'odio su Facebook
FB-ZD01WKKW
Caso di incitamento all'odio su Facebook
Questa è una decisione riassuntiva. Le decisioni riassuntive esaminano i casi in cui Meta ha revocato la sua decisione iniziale su un contenuto specifico dopo che il Board ha portato il caso all'attenzione dell'azienda e includono informazioni sugli errori riconosciuti di Meta. Sono approvate da un gruppo di membri del Board, non dall'intero organo, non coinvolgono commenti pubblici e non costituiscono un precedente per il Board. Le decisioni riassuntive garantiscono direttamente le modifiche alle decisioni di Meta, fornendo trasparenza sulle correzioni e individuando gli aspetti su cui Meta potrebbe migliorare l'applicazione.
Riepilogo
Il Board ha controllato tre post su Facebook contenenti materiali razzisti, che Meta ha lasciato pubblicati. Ciascun post comprendeva una caricatura o un'immagine manipolata di afroamericani che mettevano in evidenza stereotipi offensivi, tra cui l'assenza di padri, il vivere di sussidi e i saccheggiatori in un negozio. I casi in esame fanno emergere errori nell'applicazione da parte di Meta delle sue normative in materia di incitamento all'odio e bullismo e intimidazioni. Dopo che il Board ha portato questi ricorsi all'attenzione di Meta, l'azienda ha revocato le sue decisioni iniziali, rimuovendo i post.
Informazioni sui casi
Alla fine del 2023, il Board ha ricevuto tre distinti ricorsi in merito a tre immagini diverse pubblicate su Facebook, tutte contenenti materiali negativi circa gli afroamericani.
Nel primo post, visualizzato circa 500 000 volte, un utente ha pubblicato un'immagine generata al computer di un negozio in fiamme con persone nere, raffigurate come personaggi di cartoni animati, che indossano felpe con cappuccio, portano via merce e corrono fuori dal negozio. Il nome del negozio, Target, è stato modificato in "Loot" (saccheggio) nell'immagine e nella didascalia a corredo, l'utente descrive l'immagine come il prossimo film Pixar.
Il secondo post presenta un'immagine generata al computer, anch'essa ricalcante la locandina di un film, con una donna nera dai tratti fisici esagerati che trasporta un carrello della spesa pieno di Cheetos. Il titolo del film è "EBT", ossia il nome di un sistema per la fruizione di sussidi sociali negli Stati Uniti. Nella parte superiore della locandina, al posto del nome degli attori, figurano i nomi Trayvon Martin e George Floyd, entrambi afroamericani vittime di violenza, uno colpito da un vigilante armato nel 2012 e l'altro ucciso per mano della polizia nel 2020. Le loro morti hanno contribuito a scatenare le proteste sulle disparità razziali presenti nel sistema di giustizia statunitense.
Il terzo post, visualizzato circa 14 milioni di volte, presenta un meme secondo cui "Adobe has developed software that can detect photoshop in an image" (Adobe ha sviluppato un software in grado di rilevare l'uso di photoshop in un'immagine). Sotto l'affermazione, è presente l'immagine di una donna con contrassegni colorati sull'intero volto (di solito utilizzati per mostrare il rilevamento del calore) a sottintendere l'alterazione di parti dell'immagine. A ciò si contrappone un'immagine di una famiglia nera che consuma un pasto, con il padre e il cibo sul tavolo che presentano gli stessi contrassegni colorati, implicando che questi due elementi sono stati aggiunti mediante un ritocco. Il post rafforza il diffuso stereotipo negativo circa la mancanza delle figure paterne nelle famiglie nere negli Stati Uniti, frutto della complessa storia di razzismo sistemico e della diseguaglianza economica.
Meta ha in un primo momento lasciato tutti e tre i post pubblicati su Facebook, nonostante i ricorsi degli utenti. Nei loro ricorsi al Board, gli stessi utenti sostenevano che i contenuti raffiguravano stereotipi razziali pericolosi degli afroamericani.
Dopo che il Board ha portato i casi in esame all'attenzione di Meta, l'azienda ha stabilito che ciascun post violava lo Standard della community sull'incitamento all'odio, che vieta gli attacchi diretti contro le persone sulla base delle caratteristiche protette, compresa la razza e l'etnia. La normativa vieta altresì nello specifico "prendere di mira una persona o un gruppo" con "discorsi disumanizzanti" nella forma di "confronti ai criminali (compresi i ladri)", "derisione del concetto, degli eventi o delle vittime dei crimini di odio" e "generalizzazioni che dichiarano l'inferiorità nelle [...] caratteristiche morali".
Inoltre, Meta ha stabilito che il secondo post con i nomi di Trayvon Martin e George Floyd ha inoltre violato lo Standard della community su bullismo e intimidazioni, secondo cui l'azienda rimuove la "celebrazione o derisione della morte o di una patologia medica" di chiunque. L'azienda ha dichiarato che "l'immagine comprende il nome di due persone decedute, Trayvon Martin e George Floyd [...] Il contenuto banalizza la loro morte lasciando intendere che saranno protagonisti di un film d'animazione di fantasia".
L'azienda ha pertanto rimosso tutti e tre i post.
Autorità e ambito del Board
Il Board ha l'autorità di controllare la decisione di Meta dando seguito al ricorso dell'utente che ha segnalato il contenuto che è stato lasciato sulla piattaforma (articolo 2, sezione 1 dell'Atto costitutivo; articolo 3, sezione 1 dello Statuto).
Quando Meta riconosce di aver commesso un errore e revoca la sua decisione in un caso preso in considerazione per un controllo da parte del Board, quest'ultimo può selezionare tale caso per una decisione riassuntiva (articolo 2, sezione 2.1.3 dello Statuto). Il Board controlla la decisione iniziale per comprendere meglio il processo di moderazione dei contenuti, limitarne gli errori e migliorare l'equità della sua applicazione per gli utenti di Facebook e Instagram.
Importanza del caso
I casi in esame portano alla luce tre istanze in cui Meta non ha applicato in modo efficace le sue normative contro l'incitamento all'odio e il bullismo e intimidazioni, lasciando pubblicati post in violazione nonostante i reclami degli utenti. Due dei post hanno ricevuto un elevato numero di visualizzazioni. Tali errori di moderazione relativi alla mancata applicazione possono avere un impatto negativo sulle persone appartenenti a gruppi con caratteristiche protette e favorire un ambiente di discriminazione. Il Board ha reso una priorità strategica la gestione da parte di Meta dell'incitamento all'odio rivolto ai gruppi emarginati.
Nel 2022, il Board aveva pronunciato una raccomandazione secondo cui Meta dovrebbe "chiarire lo Standard della community sull'incitamento all'odio e le indicazioni fornite agli addetti al controllo, spiegando che anche i riferimenti impliciti ai gruppi protetti sono contrari alla normativa, se risultano ragionevolmente comprensibili" (decisione Cartone animato di Knin, raccomandazione n. 1), raccomandazione che Meta ha riferito di aver parzialmente implementato.
Decisione
Il Board revoca la decisione iniziale di Meta di lasciare pubblicati i tre post. Il Board riconosce la correzione di Meta agli errori iniziali dopo che il Board ha portato i casi alla sua attenzione.