Publicado
Riferimento a persone pericolose designate come "Shaheed"
26 de marzo de 2024
Il presente parere consultivo sulle normative analizza l'approccio di Meta alla moderazione del termine "shaheed", sollevando importanti questioni sull'impatto della normativa in materia di organizzazioni e persone pericolose sulla libertà di espressione.
Riepilogo
Il Board ritiene che l'approccio di Meta alla moderazione dei contenuti che usano il termine "shaheed" in riferimento a persone designate come pericolose limiti in modo sostanziale e sproporzionato la libertà di espressione. Meta interpreta come in violazione tutti gli usi del termine "shaheed" riferiti a persone designate come "pericolose" e rimuove i contenuti interessati. Secondo Meta, è probabile che il termine "shaheed" comporti il maggior numero di rimozioni di contenuti ai sensi degli Standard della community rispetto a qualsiasi altra singola parola o frase sulle sue piattaforme. Gli atti di violenza terroristica hanno gravi conseguenze: annientano la vita di persone innocenti, violano i diritti umani e intaccano il tessuto delle nostre società. Tuttavia, qualsiasi limitazione della libertà di espressione volta a prevenire tale violenza deve essere necessaria e proporzionata, dato che la rimozione indebita di contenuti potrebbe essere inefficace e addirittura controproducente.
Le raccomandazioni del Board prendono le mosse dalla prospettiva secondo cui Meta debba assolutamente adottare azioni efficaci per garantire che le sue piattaforme non vengano utilizzate per incitare atti di violenza o per reclutare persone da coinvolgere in tali atti. Il termine "shaheed" è in alcuni casi utilizzato dagli estremisti per elogiare o esaltare persone decedute durante il compimento di atti terroristici violenti. Tuttavia, la risposta di Meta a questa minaccia deve anche essere ispirata al rispetto di tutti i diritti umani, compresa la libertà di espressione.
Il 7 ottobre 2023, mentre il Board stava perfezionando il presente parere consultivo sulle normative, Hamas (un'organizzazione di livello 1 designata secondo la normativa in materia di organizzazioni e persone pericolose di Meta) ha lanciato attacchi terroristici senza precedenti contro Israele, causando l'uccisione di circa 1200 persone e la presa in ostaggio di circa 240 persone (Ministero degli Affari Esteri, Governo di Israele). Secondo le notizie,, al 6 febbraio 2024, si ritiene che almeno 30 dei 136 ostaggi stimati rimasti nelle mani di Hamas all'inizio di gennaio siano morti. Meta ha immediatamente definito tali eventi un attacco terroristico ai sensi della sua normativa in materia di organizzazioni e persone e pericolose. In risposta agli attacchi, Israele ha rapidamente scatenato una campagna militare che, al 4 marzo, ha causato la morte di oltre 30 000 persone a Gaza (Ufficio delle Nazioni Unite per il Coordinamento degli Affari Umanitari, sulla base dei dati del Ministero della Sanità di Gaza). Le notizie di gennaio indicavano che il 70% delle vittime si stimava fossero donne e bambini.
In seguito agli eventi in questione, il Board ha sospeso la pubblicazione del presente parere consultivo sulle normative per garantire che le sue raccomandazioni fossero adeguate all'uso delle piattaforme di Meta e della parola "shaheed" in tale contesto. Le ulteriori ricerche hanno confermato le raccomandazioni del Board in merito alla moderazione del termine "shaheed" rivolte a Meta, anche nelle condizioni di estremo shock di tali eventi, e che garantirebbero un maggiore rispetto dei diritti umani nella risposta dell'azienda alle crisi. Allo stesso tempo, il Board sottolinea la natura globale delle normative di Meta in questo ambito e che il loro effetto va ben oltre questo conflitto. Pur riconoscendo l'importanza dei recenti eventi in Israele e Palestina, le raccomandazioni del Board sono anche di natura globale e non si limitano ad alcun contesto particolare.
È opinione del Board che l'approccio di Meta alla moderazione del termine "shaheed" sia eccessivo e che limiti in maniera sproporzionata la libertà di espressione e il dibattito civico. Ad esempio, i post che riportano notizie su violenza ed entità designate potrebbero essere indebitamente rimossi. L'approccio di Meta inoltre non prende in considerazione i vari significati della parola "shaheed", molti dei quali non sono intesi all'esaltazione o all'approvazione. Ciò comporta troppo spesso la rimozione dei post di utenti di lingua araba e di utenti (molti dei quali musulmani) di altre lingue, senza che la tale provvedimento risponda alle finalità della normativa in materia di organizzazioni e persone pericolose. Inoltre, le normative di Meta vietano, ad esempio, l'esaltazione, il sostegno e la rappresentazione di persone, organizzazioni ed eventi designati, nonché l'incitamento alla violenza. Tali normative, applicate in modo preciso, limitano i pericoli derivanti dagli usi da parte dei terroristi delle piattaforme di Meta. Di conseguenza, il Board raccomanda a Meta di porre fine al divieto assoluto di usare il termine "shaheed" per riferirsi a persone designate come pericolose e di modificare la sua normativa per un'analisi più contestuale dei contenuti che includono tale termine.
Contesto
Nel febbraio 2023, Meta ha chiesto al Board se dovesse continuare a rimuovere i contenuti che utilizzano il termine arabo "shaheed" o شهيد, scritto in lettere arabe, riferito a persone designati ai sensi della sua normativa in materia di organizzazioni e persone pericolose. "Shaheed" costituisce inoltre un prestito linguistico (molte lingue non arabe hanno "preso in prestito" questo termine di origine araba, adattandone anche l'ortografia).
L'azienda descrive la parola "shaheed" come un termine "onorifico", usato da molte comunità in diverse culture, religioni e lingue per indicare una persona deceduta in modo imprevisto, come in un incidente, o onorevole, ad esempio in guerra. L'azienda riconosce che il termine presenta "più significati" e, sebbene non sussista "nessun termine equivalente diretto nella lingua inglese", la traduzione comune in tale lingua è "martyr" (martire). Sottolineando come "in inglese il termine 'martyr' (martire) indichi una persona che ha sofferto o è morta per una giusta causa e presenta di norma connotazioni positive", Meta ha dichiarato che "è a causa di questo uso che abbiamo classificato il termine ["shaheed"] come forma di elogio ai sensi della nostra normativa [in materia di organizzazioni e persone pericolose]".
Il presupposto da cui parte Meta, ossia che il riferirsi a una persona designata come "shaheed" costituisca sempre un "elogio" ai sensi della normativa in materia di organizzazioni e persone pericolose, si è tradotto in un divieto generale dell'uso del termine. Meta ha riconosciuto che, a causa dei molteplici significati del termine, "potrebbe applicare in maniera eccessiva le sue regole su una quantità importante di dibattiti non intensi a elogiare una persona designata, specie fra gli utenti arabi". Inoltre, Meta non applica le eccezioni della normativa in materia di organizzazioni e persone pericolose che consente l'uso del termine "shaheed" per "riporta[re] notizie in merito, discut[ere] in modo neutro o esprim[ere] condanna [sulle entità designate]". Tale approccio non è cambiato dopo gli ultimi aggiornamenti di dicembre 2023 alla normativa, che adesso vietano l'"esaltazione" e "riferimenti poco chiari" anziché l'"elogio", che è stato del tutto eliminato.
Nel 2020, a causa di tali considerazioni, Meta ha avviato un processo di aggiornamento della normativa per rivalutare il suo approccio al termine "shaheed". Tuttavia, l'azienda non ha raggiunto un accordo al suo interno e non è stato concordato alcun nuovo approccio.
Al momento della richiesta del presente parere consultivo sulle normative, Meta ha presentato al Board tre possibili opzioni sulla normativa:
- Mantenere la situazione attuale.
- Consentire l'uso del termine "shaheed" in riferimento a persone designate nei post che rientrano nelle eccezioni al divieto di "elogio" (ad esempio, riportare notizie in merito, discutere in modo neutro o esprimere condanna), a condizione che non sussistano altre forme di elogio o "segnali di violenza". Alcuni esempi di questi segnali proposti da Meta includono una rappresentazione visiva di armi o riferimenti al linguaggio militare o alla violenza nel mondo reale.
- Consentire l'uso del termine "shaheed" in riferimento a persone designate purché non siano presenti altre forme di elogio o segnali di violenza, indipendentemente dal fatto che il contenuto rientri in una delle eccezioni di cui sopra, in contrasto con la seconda opzione.
Il Board ha preso in considerazione ulteriori possibili scelte in merito alla normativa. Per le motivazioni fornite nel presente parere consultivo sulle normative, le raccomandazioni del Board convergono fortemente sulla terza opzione, a condizione che vengano adottati meno segnali di violenza rispetto a quelli proposti da Meta nella sua richiesta e sia previsto un requisito per un'applicazione più ampia delle eccezioni della normativa per riportare notizie in merito alle entità designate e alle loro azioni, discuterne in modo neutro ed esprimere condanna in relazione a esse.
Conclusioni principali e raccomandazioni
Il Board ritiene che l'attuale approccio di Meta al termine "shaheed" in riferimento a persone designate come pericolose sia eccessivo e limiti in modo sostanziale e sproporzionato la libertà di espressione.
"Shaheed" è un termine dal significato culturale e religioso, a volte utilizzato per elogiare le persone decedute nel commettere un atto di violenza, arrivando addirittura a "esaltarle". Tuttavia, il termine viene spesso usato, anche in riferimento a persone pericolose, per riportare notizie in merito e commentare in modo neutro, per discussioni accademiche, dibattiti sui diritti umani e addirittura in modi ancora più passivi. Tra gli altri significati, "shaheed" è ampiamente utilizzato per indicare persone decedute nel servire il proprio Paese o la propria causa o come vittime di violenze sociopolitiche o tragedie naturali. In alcune comunità musulmane viene utilizzato anche come nome e cognome. Esistono validi motivi per ritenere che i molteplici significati di "shaheed" comportino la rimozione di una quantità considerevole di materiale non finalizzato all'elogio dei terroristi o delle loro azioni violente.
L'approccio di Meta di rimuovere contenuti solo per l'uso del termine "shaheed" se riferito a persone designate, ignora in modo intenzionale la complessità linguistica del termine e i suoi svariati usi, ritenendolo sempre e comunque come equivalente della parola inglese "martyr" (martire). In questo modo, viene pregiudicata in modo sostanziale la libertà di espressione e dei media, limitato indebitamente il dibattito civico, con conseguenti gravi implicazioni negative sull'eguaglianza e sulla non discriminazione. Tale applicazione eccessiva colpisce in modo sproporzionato gli utenti di lingua araba e di altre lingue che usano il termine "shaheed" come prestito linguistico. Allo stesso tempo, altre forme di implementazione della normativa in materia di organizzazioni e persone pericolose consentirebbero comunque a Meta di tutelare i suoi valori di sicurezza e il suo obiettivo di mantenere al di fuori delle sue piattaforme materiali che esaltano i terroristi. L'attuale normativa è pertanto sproporzionata e non necessaria.
Per allineare al meglio le sue normative e le pratiche di applicazioni relative al termine "shaheed" con le normative sui diritti umani, il Board propone le seguenti raccomandazioni (v. la sezione 6 per le raccomandazioni complete):
1. Meta dovrebbe smettere di presumere che il termine "shaheed", se usato in riferimento a una persona designata o a membri non nominati di organizzazioni designate, sia sempre in violazione e non idoneo alle eccezioni della normativa. I contenuti che si riferiscono a una persona designata come "shaheed" dovrebbero essere rimossi come un "riferimento poco chiaro" solo in due situazioni. La prima, in presenza di uno o più dei tre segnali di violenza: una rappresentazione visiva di un'arma, una dichiarazione o un'esortazione a utilizzare o a portare con sé un'arma o un riferimento a un evento designato. La seconda, qualora il contenuto violi in altro modo le normative di Meta (ad es., in caso di esaltazione di persone designate o riferimenti a esse poco chiari per motivi diversi dall'uso del termine "shaheed"). In entrambe le ipotesi, i contenuti dovrebbero comunque essere idonei alle eccezioni relative al "riportare notizie in merito, discutere in modo neutro ed esprimere condanna".
2. Per chiarire il divieto di "riferimenti poco chiari", Meta dovrebbe includere diversi esempi di contenuti in violazione, tra cui un post che si riferisce a una persona designata come "shaheed" insieme a uno o più dei tre segnali di violenza di cui alla raccomandazione n. 1.
3. Le linee guida interne sulla normativa di Meta dovrebbero inoltre essere aggiornate per chiarire che riferirsi a persone designate come "shaheed" non costituisce una violazione salvo in presenza di segnali di violenza e che, anche in presenza di tali segnali, il contenuto può ancora beneficiare delle eccezioni relative a "riportare notizie in merito, discutere in modo neutro ed esprimere condanna".
Se Meta accettasse e implementasse tali raccomandazioni, ai sensi delle sue regole esistenti, l'azienda continuerebbe a rimuovere i contenuti che "esaltano" le persone designate, rappresentano la loro violenza o odio come un risultato o legittimano o difendono i loro atti violenti o che incitano all'odio, nonché qualsiasi forma di sostegno o rappresentazione di entità pericolose designate. L'approccio proposto dal Board derivante dalle presenti raccomandazioni comporterebbe che Meta smettesse di interpretare sempre il termine "shaheed" riferito a una persona designata come in violazione, rimuovendo i contenuti solo in presenza di ulteriori violazioni della normativa (ad es., l'esaltazione) o come "riferimento poco chiaro" a causa dei segnali di violenza. Tali contenuti dovrebbero comunque essere idonei alle eccezioni della normativa relative a "riportare notizie in merito a persone designate, discuterne in modo neutro ed esprimere condanna nei loro confronti".
Il Board raccomanda, inoltre, a Meta i seguenti provvedimenti:
4. Illustrare in maggiore dettaglio il procedimento secondo cui entità ed eventi vengono designati ai sensi della sua normativa in materia organizzazioni e persone pericolose per una maggiore trasparenza in merito a tale lista. Meta dovrebbe inoltre pubblicare informazioni aggregate sul numero totale di entità all'interno di ciascun livello della sua lista di designazione, nonché il numero di entità aggiunte e rimosse nell'ultimo anno.
5. Introdurre un processo chiaro ed efficace per verificare regolarmente le designazioni e rimuovere quelle che non soddisfano più i criteri pubblicati, in modo da garantire che la lista di organizzazioni e persone pericolose sia aggiornata e non includa organizzazioni, persone ed eventi non più conformi alla definizione di designazione di Meta.
6. Illustrare i metodi utilizzati per valutare l'accuratezza del controllo umano e le prestazioni dei sistemi automatizzati nell'applicazione della normativa in materia di organizzazioni e persone pericolose. Meta dovrebbe inoltre condividere periodicamente i risultati delle valutazioni delle prestazioni dei classificatori utilizzati nell'applicazione della normativa in questione, fornendo i risultati in modo da poterli confrontare tra le varie lingue e/o aree geografiche.
7. Illustrare in modo chiaro in che modo vengono utilizzati i classificatori per creare previsioni circa le violazioni della normativa e le modalità con cui Meta fissa le soglie per non prendere provvedimenti, sottoporre i contenuti al controllo umano o rimuoverli. Queste informazioni andrebbero fornite nel Centro sulla trasparenza dell'azienda in modo da informare gli stakeholder.
Parere consultivo sulle normative completo
1. Richiesta di Meta
I. Richiesta di parere consultivo sulle normative
1. Nella sua richiesta (disponibile in inglese e arabo), Meta ha chiesto al Board se debba continuare a rimuovere i contenuti che utilizzano il termine "shaheed" (شهيد) (e le sue forme singolari e plurali, comprese le varianti derivanti da prestito linguistico in arabo e altre lingue) per riferirsi a persone designate come pericolose ai sensi della sua normativa in materia di organizzazioni e persone pericolose, oppure se un approccio diverso sia più in linea con i valori e le responsabilità in materia di diritti umani dell'azienda. Meta ha altresì richiesto indicazioni su problemi simili relativi ai contenuti che potrebbero emergere in futuro.
II. Approccio di Meta
2. In passato, la normativa in materia di organizzazioni e persone pericolose di Meta vietava "contenuti che elogiano, supportano in modo sostanziale o rappresentano entità e persone designate" ed "eventi violenti in violazione" designati. Il 29 dicembre 2023, Meta ha aggiornato la normativa in questione, rimuovendo il divieto di elogio e aggiungendo quelli relativi a "esaltazione" e "riferimenti poco chiari". Il Board ha esteso le sue riflessioni per valutare l'eventuale impatto di tali modifiche alla normativa sui suoi rilievi e sulle sue raccomandazioni.
3. La presente richiesta di parere consultivo sulle normative riguardava il divieto di elogio di persone designate e non i divieti paralleli relativi a supporto in modo sostanziale e rappresentazione. Rispetto alla rappresentazione e al supporto in modo sostanziale, Meta considerava l'"elogio" come la violazione meno grave. Meta riserva il "Livello 1" alle entità più pericolose, fra cui organizzazioni terroristiche, criminali e che incitano all'odio. Quando Meta designa un "evento violento in violazione", anche gli autori di tali eventi vengono designati come persone pericolose di livello 1 e l'esaltazione (in precedenza l'"elogio") di questi è pertanto proibita. Gli eventi designati comprendono "attacchi terroristici, episodi d'odio, atti di violenza con più vittime o tentativi di atti di violenza con più vittime, omicidi seriali o crimini d'odio". Benché sia Meta a controllare la propria lista di entità designata, che non è di dominio pubblico, le designazioni si basano in parte sulle relative liste del governo degli Stati Uniti (la lista di designazioni di Meta comprenderà quantomeno quanto previsto dalle liste del governo degli Stati Uniti da cui è tratta). Gli Standard della community indicano che le entità di livello 1 comprendono "specially designated narcotics trafficking kingpins (boss del narcotraffico con designazione speciale, SDNTK)", "foreign terrorist organizations (organizzazioni terroristiche straniere, FTO)" e terroristi globali con designazione speciale". Le liste del governo degli Stati Uniti sono disponibili al pubblico rispettivamente qui, qui e qui.
4. Prima del 29 dicembre 2023, ossia dell'aggiornamento alla normativa, la definizione di Meta di "elogio" comprendeva parlare "in modo positivo di entità o eventi designati", fornire "un senso di realizzazione" alle entità designate, legittimare "la causa di un'entità designata affermando che la condotta violenta, criminale o di incitamento all'odio di quest'ultima sia legalmente, moralmente o altrimenti giustificata o accettabile" e allinearsi "ideologicamente con entità o eventi designati". Tale definizione, o serie di esempi, è stata aggiunta alla normativa per garantire una maggiore chiarezza a seguito di una raccomandazione dell'Oversight Board in uno dei suoi primi casi (decisione Citazione nazista, raccomandazione n. 2). In seguito all'aggiornamento alla normativa di dicembre 2023, l'"esaltazione" e definita come "legittimare o prendere le difese di atti di incitamento all'odio o alla violenza da parte di entità designate affermandone l'accettabilità o la plausibilità in virtù di giustificazioni morali, politiche, logiche o di altro tipo" o "definire come traguardi o risultati o celebrare manifestazioni di odio o violenza da parte di entità designate". Più in generale, Meta afferma nel suo aggiornamento alla normativa che "rimuover[à] riferimenti senza contesto o poco chiari qualora l'intento dell'utente non fosse chiaramente indicato". La normativa chiarisce che ciò include "riferimenti umoristici poco chiari" e "senza didascalie o positivi che non esaltano manifestazioni di odio o violenza da parte di entità designate". Tuttavia, la normativa non fornisce esempi dei tipi di post che violerebbero tale regola. Meta ha comunicato al Board che continua a rimuovere tutti i contenuti che si riferiscono a persone designate come "shaheed". Per tali riferimenti, l'azienda presume che il termine "shaheed" sia in violazione in tutti i contesti, con conseguente divieto generalizzato del termine se utilizzato in riferimento a una persona designata. L'ambito di tale divieto può essere illustrato in parte consultando le menzionate liste di designazione degli Stati Uniti, poiché la normativa di Meta vieta il riferimento a tutte le persone (e membri di organizzazioni) presenti nella propria lista derivata da quella del governo come "shaheed" (o qualsiasi altra traduzione del termine "martire"). Ciò comprende entità di tutti i continenti e non si limita a organizzazioni terroristiche o di una particolare ideologia.
5. L'azienda descrive la parola "shaheed", come un termine "onorifico", usato da numerose comunità in diverse culture, religioni e lingue. L'azienda riconosce che il termine racchiude "diversi significati" e che è stato "usato per descrivere qualcuno che muore all'improvviso o prematuramente, a volte riferendosi a una morte onorevole, ad esempio in un incidente, in un conflitto o in guerra". Meta ha dichiarato che sebbene non esista "alcuna parola equivalente al termine nella lingua inglese", la traduzione comune in tale lingua è "martyr" (martire). Nell'inviare la sua richiesta al Board, prima delle modifiche alla normativa del dicembre 2023, Meta ha dichiarato che "presumiamo che la parola significhi 'martire'" ed "è a causa di questo uso che abbiamo classificato il termine come elogio ai sensi della normativa [in materia di organizzazioni e persone pericolose]". L'unico riferimento a questa regola negli Standard della community rivolti al pubblico era una serie di frasi di esempio che avrebbero violato il divieto di elogio. Tra gli altri esempi, Meta ha incluso una frase che definiva "martire" un terrorista statunitense condannato. Nella sua versione in arabo della normativa, Meta ha usato lo stesso esempio, traducendo la parola "martire" come "shaheed". L'esempio "martire"/"shaheed" è stato rimosso nell'aggiornamento di dicembre 2023 dello Standard della community rivolto al pubblico, nonostante Meta abbia informato il Board che il termine continua a essere in violazione e che ai moderatori viene indicato di rimuoverlo.
6. Meta non applica le eccezioni della normativa in materia di organizzazioni e persone pericolose all'uso del termine "shaheed" in riferimento a una persona designata. Tali eccezioni consentono tuttavia di "riportare notizie in merito, discutere in modo neutro ed esprimere condanna" in relazione alle persone designate. La rimozione di contenuti che includono il termine "shaheed" come elogio di una persona designata comportano "avvertimenti" gravi per gli utenti, il cui accumulo causa l'applicazione più rapida di sanzioni quali la disabilitazione o la sospensione dell'account o della Pagina. L'inapplicabilità delle eccezioni alla regola in merito al termine "shaheed" non è spiegata negli Standard della community rivolti al pubblico
7. Meta ha precisato che il suo trattamento del termine "shaheed" risponde al suo valore di promozione della sicurezza poiché i contenuti in questione potrebbero, a suo parere, "contribuire al rischio di violenza offline". Allo stesso tempo, Meta riconosce che il termine inglese "martyr" (martire) non è una traduzione adeguata di "shaheed". Visti i molteplici significati di "shaheed" e le difficoltà nel tenere conto del contesto e delle intenzioni degli utenti su vasta scala, Meta ha ammesso di aver rimosso forme di libertà di espressione che "non contribuiscono a un rischio di violenza" e che "non sono intesi a elogiare una persona designata, in particolare tra gli utenti di lingua araba". Ad esempio, la rimozione di contenuti quando il termine "shaheed" viene utilizzato per riportare notizie o per discutere in modo neutro sulla morte prematura di persone designate, anziché elogiare (o esaltare) loro o le loro condotte.
8. Il 29 agosto 2023, Meta ha aggiornato l'eccezione della normativa in materia di organizzazioni e persone pericolose per integrare le definizioni di "riportare notizie", "discussione in modo neutro" e "condanna", nonché esempi illustrativi di ciascuna eccezione. Allo stesso tempo, Meta ha ampliato la descrizione di tale eccezione per riconoscere che gli utenti possono fare riferimento alle entità designate "nel contesto del dibattito sociale e politico". Gli esempi illustrativi dei contenuti ammessi sono stati tutti rimossi nell'ambito dell'aggiornamento della normativa di dicembre 2023, nonostante l'eccezione stessa conservi la sua validità. Gli esempi sono stati reintrodotti in un aggiornamento della normativa, in data 8 febbraio 2024. Tuttavia, né l'aggiornamento di dicembre 2023 né quello di febbraio 2024 chiariscono che i riferimenti poco chiari o privi di contesto a organizzazioni o persone designate non beneficeranno di tali eccezioni, poiché sono caratterizzati dalla mancanza di un intento dimostrato in modo chiaro nei post stessi.
9. Nel 2020, Meta ha avviato un processo di sviluppo della normativa per rivalutare il suo approccio al termine "shaheed". Questo processo ha incluso una revisione della ricerca e una consultazione con gli stakeholder. Secondo Meta, la conclusione principale emersa dal confronto con gli stakeholder indica che il significato di "shaheed" dipende dal contesto e "che in alcuni casi il termine è diventato più neutrale e non è collegato a un'idea di elogio". Allo stesso tempo, chiaramente, sussistono istanze in cui il termine "shaheed" viene usato e percepito come elogio di una persona designata. Determinare le differenze nelle intenzioni in un singolo post è di per sé problematico, specie su vasta scala. Durante tale processo, come sottolineato nella sua richiesta, Meta ha individuato due opzioni relative alla normativa come possibili alternative al suo attuale trattamento del termine "shaheed". Tuttavia, non è stato trovato il consenso tra gli stakeholder su quale fosse l'opzione migliore, quindi Meta non ha potuto individuare un nuovo approccio efficace. L'azienda sottolinea che, a causa del volume di contenuti presenti sulla sua piattaforma, una delle principali questioni pratiche riguarda la possibile applicazione su vasta scala di qualsiasi normativa modificata.
III. Modifiche alla normativa che Meta ha chiesto al Board di prendere in considerazione
10. Meta ha presentato al Board le seguenti opzioni relative alla normativa da prendere in considerazione, prima della sostituzione del divieto di "elogio" con il divieto di "esaltazione" e "riferimenti poco chiari":
1) Continuare a rimuovere tutti i contenuti che usano la parola "shaheed" per riferirsi a una persona designata come pericolosa ai sensi della normativa in materia di organizzazioni e persone pericolose.
2) Consentire i contenuti che fanno riferimento a una persona designata come "shaheed" quando vengono soddisfatte le seguenti condizioni: (i) il termine viene utilizzato in un contesto consentito dalla normativa su organizzazioni e persone pericolose (ad es., condanna, riportare notizie in merito, dibattito accademico, sociale e politico); (ii) non sono presenti ulteriori elogi, rappresentazioni o forme di sostegno sostanziali a una persona designata (ad es., il post non elogia esplicitamente l'autore di un attacco terroristico né legittima la violenza delle sue azioni); e (iii) non sono presenti segnali di violenza nei contenuti. I segnali proposti da Meta sono: una rappresentazione visiva di un'arma; dichiarazioni o esortazioni a utilizzare o a portare con sé armi; riferimenti al linguaggio militare, riferimenti a incendi dolosi, saccheggi o altri atti di distruzioni di proprietà; riferimenti a incidenti violenti noti nel mondo reale e dichiarazioni d'intenti, inviti, rappresentazioni, sostegno o supporto alla violenza contro le persone.
3) Rimuovere i contenuti che usano la parola "shaheed" per riferirsi a una persona designata come pericolosa ai sensi della normativa di Meta in materia di organizzazioni e persone pericolose solo in presenza di ulteriori elogi, rappresentazioni o sostegni sostanziali o qualora siano presenti elementi di violenza. Questi segnali corrispondono a quelli indicati nell'opzione due.
11. La seconda e la terza opzione mirano a giungere a una comprensione più contestualizzata dell'uso del termine "shaheed" e non sembrano differire molto nei risultati auspicati. Le due opzioni risultano ancora più simili nella misura in cui Meta ha ampliato l'ambito delle eccezioni contestualizzate al divieto di elogio (ora esaltazione) in generale (v. paragrafo 8 sopra). A quanto risulta al Board, dopo aver interrogato Meta circa le differenze nell'applicazione e nell'esito di queste due opzioni, la differenza fondamentale risiede nel fatto che la seconda opzione richiederebbe a Meta di cercare e confermare l'applicazione al contenuto di una delle eccezioni (riportare notizie, discussione in modo neutro e condanna), mentre la terza opzione non terrebbe conto di questo passaggio e si limiterebbe a prendere in considerazione l'eventuale presenza nel post di ulteriori elogi (oggi "esaltazione" o "riferimenti poco chiari") o di uno dei sei segnali di violenza indicati. Riguardo a tutte le opzioni proposte da Meta, la normativa verrebbe applicata in modo tale che qualsiasi contenuto che nomini o ritragga individui designati come pericolosi, che sia ambiguo o poco chiaro nelle sue intenzioni, venga considerato in automatico come in violazione, gravando così l'utente dell'onere di chiarire le intenzioni. Le modifiche di dicembre 2023 comprendono tale applicazione nello Standard della community su organizzazioni e persone pericolose, spiegando che per gli eventi designati e le entità di livello 1, la normativa vieta "riferimenti senza contesto o poco chiari" che comprendono "riferimenti umoristici poco chiari, senza didascalie o positivi che non esaltano manifestazioni di odio o violenza da parte di entità designate". Ad esempio, una foto di una persona designata, senza ulteriori parole o commenti, verrebbe rimossa in base alla normativa che vieta i riferimenti poco chiari, a causa dell'intento non sufficientemente esplicito dell'utente.
12. Pur avendo preso in considerazione le opzioni presentate da Meta, il Board ne ha anche valutate altre e ha tenuto conto delle modifiche alla normativa di dicembre 2023. Inoltre, dato che la richiesta di Meta chiedeva direttamente al Board di formulare raccomandazioni sulla normativa per affrontare sfide simili in futuro, il Board ha valutato questioni connesse alle pratiche in materia di trasparenza e applicazione di Meta in aree rilevanti nel presente parere consultivo sulle normative, che presentano anche implicazioni per la libertà di espressione e altri diritti umani più in generale.
IV. Domande poste dal Board a Meta
13. Il Board ha posto 41 domande a Meta per iscritto. Le domande riguardavano i fondamenti della normativa alla base dello Standard della community su organizzazioni e persone pericolose, le prove della violenza che potrebbe derivare dal consentire l'"elogio" sulle piattaforme di Meta, i processi di applicazione umani e automatizzati dell'azienda, il processo di designazione e la relativa lista di entità di Meta, il sistema di avvertimenti di Meta e le implicazioni pratiche dell'adozione dell'opzione due o tre relativa alla normativa. A ottobre 2023, il Board ha posto domande di approfondimento circa le tendenze dei contenuti per il termine "shaheed" in relazione agli attacchi terroristici subiti da Israele il 7 ottobre e alla risposta militare in corso da parte del Paese. Il Board ha chiesto inoltre a Meta se la sua analisi circa le opzioni relative alla normativa presentate al Board nella sua richiesta fosse cambiata alla luce dell'attuale crisi. Il Board ha posto 3 domande aggiuntive circa l'aggiornamento della normativa di Meta del 29 dicembre 2023. 40 domande totale hanno ricevuto risposta, mentre una ha ricevuto una risposta parziale. Meta ha fornito al Board solo la lista delle entità designate di livello 1, non condividendo quelle delle entità di livello 2 e 3, affermando che l'"elogio" è vietato solo se riferito al livello 1.
2. Coinvolgimento degli stakeholder
14. L'Oversight Board ha ricevuto 101 commenti pubblici conformi ai termini di presentazione. Un totale di 72 commenti sono stati inviati dagli Stati Uniti e dal Canada; 15 dal Medio Oriente e dal Nord Africa; 8 dall'Europa; 3 dall'Asia Pacifico e dall'Oceania; 2 dall'America Latina e dai Caraibi; 1 dall'Asia centrale e meridionale. Tutti sono stati ricevuti prima del 10 aprile 2023. Per consultare i commenti pubblici inviati con il consenso alla pubblicazione, cliccare qui.
15. Gli invii hanno affrontato diversi temi. Molti hanno illustrato i molteplici significati del termine "shaheed" e, di conseguenza, l'impatto negativo sulla libertà di espressione, in particolare sul dibattito politico e sulla documentazione relativa ai diritti umani, del trattamento automatico di Meta di questo termine come "elogio". Gli invii hanno inoltre espresso preoccupazioni sull'uso dell'automazione nell'applicazione, nonché sulla lista di designazione di Meta, sui problemi legati alla trasparenza e sui potenziali pregiudizi nel processo di designazione. Altri invii hanno manifestato il timore che le modifiche alla normativa potrebbero portare alla legittimazione dei gruppi terroristici e all'aumento della violenza, specie in Israele e nei Territori palestinesi occupati.
16. Il Board ha tenuto tre tavole rotonde regionali con le parti interessate per l'Asia sud-occidentale e l'Africa settentrionale, l'Africa subsahariana e il Sud-est asiatico. Inoltre, si sono svolte due tavole rotonde tematiche, una sull'automazione nella moderazione dei contenuti e una sull'antiterrorismo e i diritti umani. I partecipanti hanno ribadito che il termine "shaheed" presenta molti significati. Il martirio è uno dei possibili significati, anche per la morte di persone durante la perpetrazione di atti di terrorismo, ma "shaheed" è spesso usato anche in altri contesti, ad esempio per indicare le vittime di violenza in questi attacchi. Molti partecipanti, tra cui membri della comunità colpita, esperti di antiterrorismo e di moderazione dei contenuti, hanno manifestato timori circa i pregiudizi presenti nella normativa, discutendo di come quest'ultima influisca negativamente sulla libertà di espressione, in particolare per gli utenti di lingua araba e per altre comunità che usano il termine "shaheed". Ulteriori temi hanno riguardato la mancanza di prove che dimostrino un nesso causale tra l'uso del termine "shaheed" in riferimento a persone designate e violenza nel mondo reale, circostanza sottolineata anche dagli esperti di sicurezza nazionale e antiterrorismo. Allo stesso modo, sono stati espressi timori secondo cui la mancata moderazione del termine consentirebbe la legittimazione delle persone designate e delle relative organizzazioni, che potrebbero usare i social media a scopo di reclutamento o per altre forme di sostegno sostanziale. Altri argomenti hanno sollevato preoccupazioni circa la qualità dell'automazione usata da Meta nella moderazione dei contenuti del termine e i partecipanti hanno sollecitato una maggiore trasparenza sul loro uso, nonché sulla lista di Meta di entità designate e sul processo di designazione.
17. Per un report sulle tavole rotonde di coinvolgimento degli stakeholder, cliccare qui (per la versione in arabo, cliccare qui).
3. Ambito e autorità dell'Oversight Board
18. Meta può richiedere al Board pareri consultivi sulle normative (atto costitutivo, articolo 3, sezione 7.3) e il Board ha la facoltà di accettare o respingere le richieste di Meta (statuto, articolo 2, sezione 2.1.3) Questi pareri sono di natura consultiva (atto costitutivo; articolo 3, sezione 7.3). Meta ha l'obbligo di rispondere a tali pareri entro 60 giorni alla pubblicazione (statuto, articolo 2, sezione 2.3.2). Il Board monitora l'implementazione delle raccomandazioni che Meta si impegna ad attuare, e può richiedere aggiornamenti su eventuali raccomandazioni precedenti nelle decisioni sui casi.
4. Fonti di autorità e indicazioni
I. Raccomandazioni precedenti dell'Oversight Board
19. In casi precedenti, il Board ha raccomandato a Meta di chiarire e limitare l'ambito di applicazione della normativa in materia di organizzazioni e persone pericolose, migliorare il giusto processo e la trasparenza dell'applicazione.
20. In relazione al migliorare la chiarezza della normativa e al limitarne l'ambito di applicazione, il Board ha raccomandato a Meta quanto segue:
- Limitare la definizione di "elogio" nelle linee guida Domande note per gli addetti al controllo umano ( Menzione dei talebani in un servizio giornalistico, raccomandazione n. 3).
- Rivedere le sue linee guida interne in modo da chiarire che l'eccezione relativa al "riportare notizie" nella normativa in materia di organizzazioni e persone pericolose consente dichiarazioni positive su entità designate nell'ambito dell'attività giornalistica, e come distinguere ciò dall'"elogio" vietato ( Menzione dei talebani in un servizio giornalistico, raccomandazione n. 4).
- Integrare la sua normativa con criteri ed esempi per migliorare la comprensione delle eccezioni nell'ambito di discussioni neutre, condanna e riportare notizie ( Post di Al Jazeera condiviso, raccomandazione n. 1).
- Aggiornare i fondamenti della normativa in modo da indicare che il rispetto della libertà di espressione e di altri diritti umani può promuovere il valore di sicurezza di Meta e specificare in modo più dettagliato gli "atti di violenza nel mondo reale" che la normativa mira a prevenire e contrastare quando il valore della libertà di espressione viene soppresso ( Isolamento di Öcalan, raccomandazione n. 4).
- Illustrare in che modo gli utenti possono rendere l'intento dei loro post chiaro in modo da beneficiare delle eccezioni della normativa ( Isolamento di Öcalan, raccomandazione n. 6).
- Illustrare e fornire esempi dell'applicazione dei termini chiave nella normativa in materia di organizzazioni e persone pericolose, fra cui il significato di "elogio", e fornire indicazioni più chiare agli utenti su come rendere chiare il loro intento ( Citazione nazista, raccomandazione n. 2).
21. In relazione al sistema degli avvertimenti di Meta, il Board ha raccomandato all'azienda quanto segue:
- Illustrare in maniera chiara, comprensibile e accessibile, le procedure di sanzione e avvertimento di cui si avvale per applicare restrizioni a profili, Pagine, gruppi e account su Facebook e Instagram ( Sospensione dell'ex Presidente degli Stati Uniti Trump, raccomandazione n. 15).
- Rendere più completa e accessibile la spiegazione pubblica del suo sistema di avvertimenti su due binari, fornendo maggiori informazioni sugli "avvertimenti gravi" ( Menzione dei talebani in un servizio giornalistico, raccomandazione n. 2).
- Fornire informazioni accessibili sul numero di violazioni, avvertimenti e sanzioni già valutati nei confronti degli utenti e sulle conseguenze previste per eventuali violazioni future ( Sospensione dell'ex Presidente degli Stati Uniti Trump, raccomandazione n. 16).
22. In relazione alla trasparenza, il Board ha raccomandato a Meta quanto segue:
- Rendere di dominio pubblico la sua lista di entità designata o quantomeno fornire esempi illustrativi delle stesse ( Citazione nazista, raccomandazione n. 3).
- Migliorare i report sull'applicazione, includendo il numero di profili, Pagine e account che hanno subito restrizioni (oltre alle decisioni di rimozione dei contenuti), con informazioni suddivise per area geografica e Paese ( Sospensione dell'ex Presidente degli Stati Uniti Trump, raccomandazione n. 17).
- Includere informazioni più esaustive sui tassi di errori relativi all'applicazione delle regole su "elogio" e "supporto" di organizzazioni e persone pericolose, suddivise per area geografica e lingua ( Isolamento di Öcalan, raccomandazione n. 12).
- Fornire maggiori informazioni pubbliche sui tassi di errore e renderle visibili per Paese e lingua per ciascun Standard della community ( Preoccupazioni dei punjabi in relazione alla RSS in India, raccomandazione n. 3).
23. In relazione all'automazione, il Board ha raccomandato a Meta quanto segue:
- Informare gli utenti quando viene utilizzata l'automazione per applicare misure contro i loro contenuti, includendo descrizioni che ne illustrino in modo comprensibile le conseguenze ( Sintomi del tumore al seno e nudo, raccomandazione n. 3).
- Aumentare i report sulla trasparenza e divulgare dati sul numero di decisioni di rimozione automatizzata per Standard della community e la proporzione di tali decisioni successivamente annullate a seguito di controllo umano (Sintomi del tumore al seno e nudo, raccomandazione n. 6).
- Pubblicare i tassi di errore dei contenuti indebitamente inclusi nelle banche dati dei servizi di ricerca dei contenuti multimediali corrispondenti relativi ai contenuti in violazione, suddivisi per ciascuna normativa sui contenuti, nei suoi report sulla trasparenza. Tali report dovrebbero includere informazioni su come il contenuto viene inserito nelle banche dati e gli sforzi dell'azienda per ridurre gli errori di questo processo ( Vignetta sulla polizia colombiana, raccomandazione n. 3).
- Fornire una spiegazione pubblica in merito all'assegnazione automatica della priorità e alla chiusura dei ricorsi ( Slogan di protesta in Iran, raccomandazione n. 7).
24. Per consultare lo stato d'implementazione di queste precedenti raccomandazioni al momento del perfezionamento della presente opinione, cliccare qui (per la versione in arabo, cliccare qui).
II. Valori e responsabilità di Meta in materia di diritti umani
25. L'analisi e le raccomandazioni del Board nel presente parere consultivo sulle normative si sono basate sui valori e sulle responsabilità di Meta in materia di diritti umani.
26. Meta definisce la libertà di espressione come un valore "fondamentale", sottolineando che può essere limitata in funzione di altri quattro valori, il più importante dei quali è la sicurezza ai fini del presente parere consultivo sulle normative. Per proteggere il valore della sicurezza, Meta "rimuove i contenuti in grado di contribuire a un rischio di violenza per la sicurezza fisica delle persone". L'azienda inoltre non consente "contenuti che minacciano le persone" poiché "possono intimidire, escludere o limitare il diritto di espressione altrui".
27. Il 16 marzo 2021 Meta ha annunciato la sua Normativa aziendale sui diritti umani, nella quale sottolinea l'impegno dell'azienda a rispettare i diritti dell'uomo in conformità ai Principi guida delle Nazioni Unite su imprese e diritti umani ("Principi guida"). I Principi guida, promossi nel 2011 dal Consiglio per i diritti umani delle Nazioni Unite, stabiliscono un quadro normativo volontario per le responsabilità delle aziende private in materia di diritti umani. Queste responsabilità implicano, tra le altre cose, che le aziende "dovrebbero evitare di violare i diritti umani di altri e intervenire sugli impatti negativi sui diritti umani in cui esse siano coinvolte" (Principio 11, Principi guida). Le aziende sono tenute a: "(a) [evitare] di causare o contribuire agli impatti negativi sui diritti umani attraverso le proprie attività, e intervenire su tali impatti quando si verificano; (b) [cercare] di prevenire o mitigare gli impatti negativi sui diritti umani direttamente collegati alle loro operazioni, ai loro prodotti o ai loro servizi in virtù di un rapporto commerciale, anche se esse non abbiano contribuito a tali impatti" (Principio 13, Principi guida).
28. Come riconosciuto da Meta nella richiesta rivolta al Board, le sue pratiche di moderazione dei contenuti possono pregiudicare il diritto alla libertà di espressione. L'articolo 19, paragrafo 2, del Patto internazionale sui diritti civili e politici (ICCPR) fornisce un'ampia protezione a questo diritto, data la sua importanza per il dibattito politico, e il Comitato per i diritti umani ha sottolineato che protegge anche forme di libertà di espressione potenzialmente offensive ( Commento generale n. 34, par. 11, 13 e 38). Quando le limitazioni alla libertà di espressione sono imposte da uno Stato, devono soddisfare i requisiti di legalità, fine legittimo, necessità e proporzionalità (articolo 19, par. 3 dell'ICCPR). Questi requisiti vengono spesso definiti "test in tre fasi". Il Board utilizza questo quadro di riferimento per interpretare gli impegni volontari di Meta in materia di diritti, sia per quanto riguarda la singola decisione sul contenuto oggetto di controllo sia in merito al più ampio approccio di Meta alla governance dei contenuti. Come ha dichiarato il Relatore speciale delle Nazioni Unite sulla libertà di opinione ed espressione, sebbene "le aziende non abbiano gli stessi obblighi dei governi, hanno un impatto che richiede loro di valutare lo stesso tipo di domande sulla protezione del diritto alla libertà di espressione dei propri utenti" (report A/74/486, par. 41).
29. Il diritto alla libertà di espressione è garantito a tutti allo stesso modo. Eventuali limitazioni a tale diritto devono essere non discriminatorie, anche sulla base della religione o delle convinzioni personali, della lingua parlata o della nazione di origine (articoli 2 e 26 dell'ICCPR).
Legalità (chiarezza e accessibilità delle norme)
30. Qualsiasi limitazione alla libertà di espressione deve essere accessibile e abbastanza chiara, in termini di ambito di applicazione, significato ed effetto, in modo da indicare a utenti e addetti al controllo dei contenuti ciò che è consentito sulla piattaforma e ciò che non lo è. La mancanza di chiarezza o precisione può provocare un'applicazione delle normative incoerente e arbitraria (report del Relatore speciale delle Nazioni Unite A/HRC/38/35, par. 46). Il Board ha in precedenza espresso critiche sulla mancanza di chiarezza della normativa in materia di organizzazioni e persone pericolose, rivolgendo raccomandazioni a Meta al fine di migliorarla ( Isolamento di Öcalan, raccomandazioni n. 4 e n. 6; Post di Al Jazeera condiviso, raccomandazione n. 1; Menzione dei talebani in un servizio giornalistico, raccomandazioni n. 3 e n. 4). Meta ha in seguito implementato le raccomandazioni del Board per chiarire la definizione di elogio.
31. L'aggiornamento di Meta di dicembre 2023 alla normativa in materia di organizzazioni e persone pericolose introduce, tuttavia, nuovi interrogativi sulla legalità. Nonostante Meta fornisca esempi di post che violano il divieto di "rappresentazione", "sostegno" ed "esaltazione", non fa lo stesso per quanto riguarda le violazioni relative a "riferimenti poco chiari". Le raccomandazioni del Board di cui al presente parere consultivo sulle normative mirano migliorare ulteriormente chiarezza e accessibilità delle regole di Meta.
Fine legittimo
32. L'articolo 19, par. 3, ICCPR stabilisce che qualsiasi limitazione alla libertà di espressione deve perseguire un fine legittimo, il che comprende la protezione dei diritti altrui, nonché degli interessi sociali più ampi, come la sicurezza nazionale (v. anche Commento generale 34, par. 21 e 30). Secondo i fondamenti della normativa di Meta per lo Standard della community su organizzazioni e persone pericolose, la normativa mira a "impedire e fermare gli atti di violenza nel mondo reale", obiettivo che il Board ha ritenuto in vari casi in linea con la finalità legittima di proteggere i diritti altrui, compreso quello alla vita (articolo 6, ICCPR). Il Board ha altresì riconosciuto in precedenza che l'elogio di entità designate può mettere a rischio di violenza i diritti altrui e che il tentativo di mitigare tale violenza attraverso l'apposito divieto previsto dallo Standard della community su organizzazioni e persone pericolose presenta un fine legittimo ( Menzione dei talebani in un servizio giornalistico).
Necessità e proporzionalità
33. Qualsiasi limitazione alla libertà di espressione "deve essere appropriata per assolvere la propria funzione protettiva; deve essere lo strumento meno invasivo tra quelli che potrebbero svolgere la loro funzione protettiva; deve essere proporzionata all'interesse da tutelare" ( Commento generale n. 34, par. 34).
34. La risoluzione 1624 del Consiglio di Sicurezza delle Nazioni unite (2005) invita gli Stati, per quanto necessario e opportuno, e in conformità con i relativi obblighi derivanti dal diritto internazionale, a "proibire per legge l'incitamento al compimento di uno o più atti terroristici" (par. 1a). Le risoluzioni successive hanno espresso timore circa l'uso di Internet da parte delle organizzazioni terroristiche ( Risoluzione UNSC 2178 (2014) e Risoluzione UNSC 2396 (2017)). Mentre queste risoluzioni ribadiscono il ruolo degli Stati nell'affrontare e prevenire il terrorismo in linea con i relativi obblighi derivanti dal diritto internazionale dei diritti umani, il Relatore speciale delle Nazioni Unite per la promozione e la protezione dei diritti umani e delle libertà fondamentali nella lotta al terrorismo ha espresso preoccupazioni sia per l'indeterminatezza delle leggi con cui gli Stati tentano di adempiere i propri obblighi, comprese quelle relative alla libertà di espressione online, sia per l'attenzione rivolta ai contenuti relativi alla libertà di espressione anziché all'intento dell'autore o all'impatto di tale libertà di espressione sugli altri (Report A/HRC/40/52, par. 37). Il Relatore speciale ha concluso che la repressione della propaganda terroristica "richiede la ragionevole probabilità che la forma di libertà di espressione interessata sia in grado di istigare un atto terroristico, costituendo dunque un nesso causale o un rischio effettivo del verificarsi del risultato vietato" ( ibid.). La Joint Declaration on the Internet and on Anti-Terrorism Measures (Dichiarazione congiunta su Internet e sulle misure antiterrorismo) del Relatore speciale delle Nazioni Unite sulla libertà di espressione, del Rappresentante dell'OSCE sulla libertà dei media e del Relatore speciale dell'OSA sulla libertà di espressione, del 21 dicembre 2005, afferma che senza dimostrare chiaramente che costituisca un invito diretto e intenzionale a compiere atti terroristici e incrementi in modo diretto la probabilità che se ne verifichi uno, la libertà di espressione non può essere limitata o sanzionata con misure punitive da uno Stato (pag. 39). Una soglia elevata è stata fissata anche dal Relatore speciale sulla libertà di espressione nel report A/HRC/17/27 (16 maggio 2011, par. 36), in cui si sottolinea che la libertà di espressione andrebbe limitata solo per finalità di sicurezza nazionale o antiterrorismo quando "(a) la libertà di espressione è destinata a incitare alla violenza imminente; (b) è probabile che inciti a tale violenza; e (c) sussiste un nesso diretto e immediato tra la libertà di espressione e la probabilità o il verificarsi di tale violenza". Secondo il Comitato per i diritti umani, quando le misure antiterrorismo vietano certe forme di libertà di espressione, termini come "incoraggiamento", "esaltazione" ed "elogio" devono essere "definiti in modo rigoroso" e non devono "limitare indebitamente il ruolo cruciale dei media nell'informare il pubblico sugli atti di terrorismo" ( Commento Generale 34, par. 30 e 46).
35. Sebbene questi principi e normative siano un importante punto di partenza per l'analisi del Board, gli obblighi e le limitazioni che il diritto internazionale dei diritti umani impone agli Stati non sono sovrapponibili alle responsabilità e alla discrezionalità di cui un'azienda privata può godere in tale ambito. L'applicazione di sanzioni penali da parte di uno Stato non equivale alla moderazione dei contenuti su una piattaforma di social media. Il Board riconosce che Meta, in qualità di azienda privata e non di uno Stato, può adottare, e talvolta lo fa, un approccio alla libertà di espressione più restrittivo di quello giustificabile da parte di uno Stato, tenendo conto sia dei suoi valori aziendali (v. i paragrafi 27 - 28 di cui sopra) sia delle sfide specifiche della moderazione dei contenuti su vasta scala. Secondo il Relatore speciale delle Nazioni Unite sulla libertà di espressione: "Quando le regole delle aziende differiscono dalle norme internazionali, queste dovrebbero fornire in anticipo una spiegazione ponderata delle differenze della normativa, articolandole" (report sull'incitamento all'odio online del Relatore speciale sulla libertà di espressione A/74/486, 9 ottobre 2019, par. 48). In molte delle sue precedenti decisioni, il Board ha valutato come trasporre in modo appropriato le norme internazionali concepite per gli Stati alle responsabilità delle aziende in materia di diritti umani nel valutare il requisito della proporzionalità, proprio come si propone di fare anche mediante il presente parere consultivo sulle normative.
36. Le precedenti decisioni del Board relative allo Standard della community su organizzazioni e persone pericolose hanno altresì esaminato le responsabilità di Meta in materia di diritti umani in relazione all'"elogio" delle entità designate. Sebbene la prevenzione degli usi impropri delle piattaforme di Meta da parte di entità designate volti all'incitamento alla violenza, al reclutamento o alla partecipazione ad altre forme di sostegno materiale sia un fine legittimo, il Board ha individuato vari casi in cui la portata o l'imprecisione del divieto di "elogio" ha limitato in modo non necessario e sproporzionato la libertà di espressione degli utenti. Ad esempio, il Board ha annullato la rimozione di un post di un giornale in lingua Urdu relativo all'annuncio della volontà dei Talebani di ristabilire l'accesso all'istruzione per donne e ragazze, ritenendo che il post non fosse un "elogio" ( Menzione dei talebani in un servizio giornalistico). Analogamente, il Board ha annullato la rimozione da parte di Meta di un post di un utente che attribuiva erroneamente una citazione a Joseph Goebbels ( Citazione nazista) poiché il contesto chiariva in modo sufficiente che il post non costituiva un elogio dell'ideologia nazista, bensì una discussione sulla politica negli Stati Uniti. Il Board ha inoltre annullato la decisione di Meta di rimuovere un post che condivideva una notizia di Al Jazeera che riportava la minaccia di violenza da parte di un gruppo terroristico designato, che avrebbe dovuto rimanere pubblicato sulla piattaforma, il che ha destato preoccupazioni sull'impatto potenzialmente discriminatorio delle normative di Meta ( Post di Al Jazeera condiviso). In decisioni sommarie e abbreviate, il Board ha inoltre annullato, o sollecitato l'annullamento, di diverse decisioni di Meta di rimuovere post su Facebook e Instagram inizialmente rimossi come elogio di persone designate ( Leader anti-colonialista Amílcar Cabral; Attivista libanese; In risposta all'antisemitismo; Partito federale in Nigeria; Istruzione delle ragazze in Afghanistan; Menzione di Al-Shabaab; Sia lodato il Signore e Ostaggi rapiti da Israele). Molte di queste decisioni sono ancora pertinenti, nonostante le recenti modifiche operate da Meta alla normativa in materia di organizzazioni e persone pericolose. Il Board continuerà a esaminare tale normativa in casi futuri, anche in relazione alle nuove disposizioni sull'esaltazione e sui "riferimenti poco chiari".
6. Raccomandazioni e analisi
37. L'Oversight Board emette sette raccomandazioni rivolte a Meta in materia di normativa sui contenuti, applicazione e trasparenza. Il Board ritiene che queste raccomandazioni siano attuabili su vasta scala e che promuoveranno il rispetto da parte di Meta dei suoi valori di libertà di espressione e sicurezza, rafforzando al contempo il rispetto della libertà di espressione e degli altri diritti umani, nonché della trasparenza.
6.1 Normativa sul termine "Shaheed" di Meta
Raccomandazione 1. Normativa sui contenuti: Meta dovrebbe smettere di presumere che il termine "shaheed", se usato in riferimento a una persona designata o a membri non nominati di organizzazioni designate, sia sempre in violazione e non idoneo alle eccezioni della normativa. I contenuti che si riferiscono a una persona designata come "shaheed" dovrebbero essere rimossi come un "riferimento poco chiaro" solo in due situazioni. La prima, in presenza di uno o più dei tre segnali di violenza: una rappresentazione visiva di un'arma, una dichiarazione o un'esortazione a utilizzare o a portare con sé un'arma o un riferimento a un evento designato. La seconda, qualora il contenuto violi in altro modo le normative di Meta (ad es., in caso di esaltazione di persone designate o riferimenti a esse poco chiari per motivi diversi dall'uso del termine "shaheed"). In entrambe le ipotesi, i contenuti dovrebbero comunque essere idonei alle eccezioni relative al "riportare notizie in merito, discutere in modo neutro ed esprimere condanna".
Il Board riterrà questa raccomandazione implementata non appena Meta aggiornerà pubblicamente il suo Standard della community per specificare che i riferimenti alle persone designate come "shaheed" non sono consentiti in presenza di uno o più dei tre segnali di violenza elencati.
Raccomandazione 2. Normativa sui contenuti: per chiarire il divieto di "riferimenti poco chiari", Meta dovrebbe includere diversi esempi di contenuti in violazione, tra cui un post che si riferisce a una persona designata come "shaheed" insieme a uno o più dei tre segnali di violenza di cui alla raccomandazione n. 1.
Il Board riterrà questa raccomandazione implementata non appena Meta aggiornerà pubblicamente il suo Standard della community con esempi di "riferimenti poco chiari".
Raccomandazione 3. Applicazione: le linee guida interne sulla normativa di Meta dovrebbero inoltre essere aggiornate per chiarire che riferirsi a persone designate come "shaheed" non costituisce una violazione salvo in presenza di segnali di violenza e che, anche in presenza di tali segnali, il contenuto può ancora beneficiare delle eccezioni relative a "riportare notizie in merito, discutere in modo neutro ed esprimere condanna".
Il Board considererà tale raccomandazione implementata non appena Meta aggiornerà le sue linee guida rivolte agli addetti al controllo in modo da consentire al termine "shaheed" di beneficiare delle eccezioni relative a riportare notizie in merito, discutere in modo neutro ed esprimere condanna e condividerà tali linee guida riviste con il Board.
38. Sebbene sia imperativo che Meta cerchi di evitare l'uso delle sue piattaforme per incitare atti di violenza terroristica (un fine legittimo delle sue normative di moderazione dei contenuti), le responsabilità di Meta in materia di diritti umani richiedono che qualsiasi limitazione alla libertà di espressione sia necessaria e proporzionata, soprattutto per rispettare la libertà di espressione delle persone facenti parte delle comunità colpite dalla violenza. Anche se un significato del termine "shaheed" corrisponde alla parola inglese "martyr" (martire) e viene usato in questo modo, il Board ritiene che non sia necessario o proporzionato che Meta rimuova tutti i contenuti solo per l'uso della parola "shaheed" quando riferita a persone designate. Questo perché il divieto assoluto non tiene conto della complessità linguistica del termine, porta a un'eccessiva limitazione della libertà di espressione, riduce indebitamente la libertà dei media e lo spazio civico e pregiudica gravemente l'uguaglianza e la non discriminazione. Inoltre, qualora la presente raccomandazione venisse accettata e implementata, i dettagli della normativa di Meta che proibisce l'"esaltazione" e i "riferimenti poco chiari" continueranno a essere applicabili più in generale. Meta dovrebbe pertanto interrompere la rimozione dei contenuti sull'unica base della presenza della parola "shaheed". Al contrario, Meta dovrebbe adottare un approccio più contestuale e definire in modo chiaro e rigoroso i segnali di violenza che porteranno all'interpretazione di "shaheed" come termine violento. Come illustrato più avanti, il Board approva in pieno solo due dei sei segnali proposti da Meta nella sua richiesta e raccomanda la limitazione di un terzo. Gli altri tre proposti da Meta, e forniti come linee guida agli addetti al controllo che applicano la normativa specifica in materia di violenza e istigazione alla violenza, sono troppo ampi per le finalità della normativa in materia di organizzazioni e persone pericolose. Allo stesso tempo, il Board raccomanda a Meta di applicare eccezioni per i contenuti che riportano notizie in merito a un'entità designata, la condannano o ne discutono in modo neutro in presenza di segnali di violenza. Le raccomandazioni di cui sopra si applicano alla parola "shaheed" nelle sue forme singolare e plurale, e alle varianti di "shaheed" nelle varie lingue che hanno adottato il termine.
39. Il Board ha consultato esperti e stakeholder per valutare i potenziali danni derivanti dal consentire contenuti che utilizzano il termine "shaheed" in riferimento a entità designate sulle piattaforme di Meta. Alcuni stakeholder hanno espresso preoccupazione riguardo la possibilità che le piattaforme di Meta agevolino la propaganda e le iniziative di reclutamento dei terroristi e favoriscano la discriminazione o la violenza, anche nei confronti del popolo ebraico (v. i commenti pubblici, ad es., PC-11123 – CyberWell Ltd; PC-11153 – Stop Antisemitism Now; PC-11194 – Committee for Accuracy in the Middle East; PC-11068 – Canadian Antisemitism Education Foundation). Sebbene non esistano ricerche che dimostrino un concreto nesso causale tra il termine "shaheed" e l'aumento di tali forme di violenza o discriminazione (come già osservato nel rinvio di Meta a pagina 10, frutto del coinvolgimento di esperti e stakeholder da parte dell'azienda prima di richiedere il parere consultivo sulle normative), esistono casi singoli che ricollegano il desiderio di martirio ad atti di violenza. Più in generale, è diffuso il timore che i social media possano essere utilizzati da organizzazioni violente per il reclutamento e per promuovere la commissione di atti terroristici, legittimare il terrorismo e agevolare l'estremismo. L'ampio coinvolgimento degli stakeholder e le consultazioni di esperti effettuate dal Board, che hanno compreso una tavola rotonda con esperti di antiterrorismo (v. Tavole rotonde per il coinvolgimento degli stakeholder), hanno confermato questi timori e ipotesi.
40. Numerosi invii di esperti e stakeholder al Board hanno inoltre segnalato gli impatti negativi sulla libertà di espressione derivanti dalla rimozione dei contenuti che utilizzano il termine "shaheed" (v. commenti pubblici, ad es., PC-11196 - Integrity Institute; PC-11164 – SMEX, PC-11183 ECNL EFF, PC-11190 – Brennan Centre; PC-11188 – Digital Rights Foundation). Ciò comprende la rimozione di forme di libertà di espressione che utilizzano il termine "shaheed" non per elogiare o esaltare entità designate, ma per segnalare notizie di violenze da parte di terroristi o altre organizzazioni designate o per intraprendere dibattiti politici o accademici neutrali su persone designate.
41. I seguenti esempi possono illustrare l'approccio di Meta quando l'azienda rimuove contenuti che si riferiscono a una persona designata come "shaheed":
- Un governo condivide sulle piattaforme di Meta un comunicato stampa che conferma il decesso di una persona designata, usando il termine onorifico "shaheed" accanto al suo nome. Il post verrebbe rimosso in quanto Meta presumerebbe che il termine "shaheed" sia in violazione, indipendentemente dal contesto indicante un dibattito neutrale.
- Un utente condivide una foto di una protesta a cui sta partecipando, senza una didascalia chiara che ne illustri lo scopo. Diversi cartelli indicano una persona designata deceduta con il termine "shaheed". Il post verrebbe rimosso in quanto Meta presumerebbe che l'immagine con cartelli che nominano la persona designata, in combinazione con il termine "shaheed", costituiscano una violazione.
- Un difensore dei diritti umani condivide un post che comprende la descrizione di un'esecuzione sommaria di una persona designata dallo Stato, definendolo "shaheed" e condannando la politica antiterroristica di un governo. Il post verrebbe rimosso in quanto Meta presumerebbe che il termine "shaheed" sia in violazione, indipendentemente dal contesto di segnalazione di una notizia.
- Un membro preoccupato della comunità pubblica un reclamo sullo stato di una strada locale, intitolata a una persona designata e include il termine onorifico "shaheed". Il post sarebbe rimosso poiché Meta presumerebbe che il termine "shaheed" costituisca una violazione, indipendentemente dal fatto che la menzione della persona designata sia marginale rispetto a un dibattito su questioni locali.
- Un familiare definisce "shaheed" un proprio caro ucciso in un attacco terroristico e condanna gli attentatori, che sono persone designate. Sebbene questo post non costituisca una violazione, la combinazione dell'uso della parola "shaheed" in un contesto in cui vengono nominati anche i responsabili è esemplificativa di un contenuto che favorirebbe una rimozione errata, dato l'approccio categorico di Meta.
42. Alcuni stakeholder hanno espresso il timore che un approccio meno restrittivo all'uso del termine "shaheed" possa avere l'effetto cumulativo, su vasta scala, di legittimare il terrorismo. Sebbene non si possa negare che in alcuni casi il termine "shaheed" sia inteso come, nonché costituisca, una forma di approvazione o sostegno di una persona e dei suoi atti di violenza, il Board non ritiene che il divieto generalizzato della normativa in relazione al termine sia giustificato da tali motivi. Alla luce delle informazioni fornite al Board dagli stakeholder, compresi gli esperti di antiterrorismo, e delle ricerche e delle consultazioni precedenti con gli stakeholder di Meta, il Board ritiene che le preoccupazioni circa la possibilità che tali casi possano avere effetti dannosi cumulativi sostanziali siano superate dal pregiudizio decisamente concreto esercitato dalla normativa esistente sulla libertà di espressione. Ciò è particolarmente vero poiché, anche in caso di implementazione delle raccomandazioni del Board, rimangono in vigore importanti barriere per conseguire gli obiettivi di prevenzione della violenza e di altri danni derivanti dal permettere ai terroristi e ai loro sostenitori di utilizzare liberamente le piattaforme di Meta.
43. Il Board ha inoltre preso in considerazione che il termine "shaheed" presenta diversi significati ed è spesso usato in modi che non incitano alla violenza o all'odio, ma piuttosto per segnalare notizie su questioni di interesse pubblico. Applicare un divieto generalizzato comporta la rimozione di numerosi contenuti che non presentano i pericoli che le normative di Meta cercano di limitare. Sebbene la moderazione dei contenuti su vasta scala imponga talvolta l'accettazione di una percentuale di errori di applicazione, Meta ha la responsabilità di soppesare i compromessi sulla base di tutte le sue responsabilità in materia di diritti umani. Alla luce di tutte queste considerazioni, il Board stabilisce che il suo approccio proposto si concilia al meglio con le responsabilità generali di Meta in materia di diritti umani.
Significato culturale e religioso del termine "shaheed" e molteplicità di significati
44. "Shaheed" è un termine importante dal punto di vista culturale e religioso, utilizzato in svariati contesti diversi e con molteplici significati. I commenti pubblici inviati al Board e le ricerche commissionate dallo stesso organo hanno fornito ulteriori chiarimenti sul termine. "Shaheed" può significare "offrire una testimonianza" e "testimoniare". È anche usato come nome islamico e in alcune aree geografiche, tra cui l'Asia occidentale e il Nord Africa, come cognome (v. i commenti pubblici, ad es., PC-11196 - Integrity Institute; PC-11164 – SMEX). Il termine "Shaheed" è usato anche per indicare persone decedute durante l'adempimento di un dovere religioso. Durante i conflitti armati o gli attacchi violenti, compresi gli incidenti che vedono il coinvolgimento delle organizzazioni designate, le persone talvolta commemorano le vittime della violenza e del terrorismo riferendosi a loro come "shaheed" (v. i commenti pubblici, ad es., PC-11164 – SMEX; PC-11197 del governo neozelandese che ha riconosciuto le vittime della sparatoria di Christchurch come "shuhada", il plurale di "shaheed"; PC-11196 dell'Integrity Institute che evidenzia come le comunità musulmane emarginate, compresi i Rohingya, in alcuni Paesi si siano riferite ai rifugiati costretti a fuggire dal Myanmar a causa delle persecuzioni basate sulla religione o sul credo come "shaheed"). La ricerca quantitativa sui contenuti pubblicati e rimasti tali sulle piattaforme di Meta, che il Board ha commissionato a Memetica, ha indicato che il termine "shaheed" è ampiamente utilizzato per riferirsi a persone decedute mentre servivano il loro Paese, la loro causa o come vittime inaspettate di violenze sociopolitiche o tragedie naturali. Benché tali post non associno necessariamente il termine "shaheed" a una persona designata, gli esempi citati in precedenza (v. par. 41) illustrano in che modo i molteplici significati e usi del termine in questione siano pertinenti anche in tale contesto.
45. In seguito agli attacchi terroristici di ottobre 2023, perpetrati da Hamas contro Israele e alla conseguente azione militare israeliana a Gaza, il Board ha commissionato un'ulteriore ricerca sulle tendenze relative ai contenuti in merito all'uso del termine "shaheed". Degli oltre 12 000 post pubblici esaminati in tale analisi, solo due sostenevano Hamas. Quasi tutti gli usi riguardavano descrizioni di vittime palestinesi nella Striscia di Gaza, senza menzionare alcuna organizzazione o persona designata. I post comprendevano palestinesi in lutto per la perdita dei loro cari, mentre altri mostravano bambini palestinesi feriti e/o le conseguenze degli attacchi aerei a Gaza. Sono state poste ulteriori domande a Meta, poiché l'accesso dei ricercatori alle tendenze relative ai contenuti è limitato ai contenuti pubblici che rimangono pubblicati sulle piattaforme e non comprende quelli rimossi dall'azienda per violazione della sua normativa in materia di organizzazioni e persone pericolose. La risposta di Meta ha corroborato i risultati della ricerca. Secondo l'azienda, le tendenze relative ai contenuti durante la crisi non hanno evidenziato alcun cambiamento nell'uso o nella percezione della parola "shaheed" rispetto a prima degli eventi in questione.
46. I diversi significati indicano che la presunzione automatica di Meta secondo cui l'uso del termine "shaheed" costituisca una violazione e comporti violenza nel mondo reale, e quindi andrebbe sempre rimosso, impone costi globali alla libertà di espressione da affrontare. Meta ha dichiarato che "shaheed" è probabilmente la parola più moderata sulle sue piattaforme e vari stakeholder hanno osservato che i contenuti che riportano notizie su entità designate e violenza vengono spesso rimossi dall'azienda ( richiesta di parere consultivo sulle normative, pagina 3). Questo approccio al termine "shaheed" è un esempio di come l'azienda dia priorità a distinzioni chiare (ovvie) per l'applicazione di provvedimenti su vasta scala. Sebbene in linea di principio tali distinzioni possano talvolta essere opportune, poiché la moderazione dei contenuti su vasta scala spesso comporta difficili compromessi, il Board ritiene in questo caso che la presunzione automatica che il termine "shaheed" debba sempre essere rimosso in relazione a una persona designata non sia giustificata e vada abbandonata. Come ammesso da Meta, il suo approccio non tiene conto del contesto linguistico e culturale per sua stessa natura e comporta applicazioni eccessive notevoli, in due modi. Il primo, prevede la rimozione di contenuti non intesi come elogio o esaltazione, ma che comunque violano la normativa poiché Meta ha scelto di presumere che "shaheed" costituisca sempre una violazione. Il secondo, favorisce tassi più elevati di rimozione errata di contenuti che utilizzano il termine "shaheed" in relazione a persone non designate, poiché l'approccio si basa su un criterio categorico e scoraggia valutazioni più contestuali.
47. Nonostante i vari significati del termine "shaheed", il Board rileva come gli esempi precedentemente previsti nel divieto di "elogio" per le organizzazioni e persone pericolose non fossero contestualizzati per i vari mercati, con traduzioni dirette troppo semplicistiche degli stessi. La sola indicazione negli Standard della community circa l'approccio di Meta ai contenuti con il termine "shaheed" era una frase esemplificativa in cui un terrorista condannato veniva definito "martire", riportata nell'ambito del divieto più ampio di elogio. Il medesimo esempio è stato utilizzato in tutte le lingue e per l'arabo è stato tradotto con "shaheed", nonostante i termini non siano perfettamente equivalenti. Il Board rileva che l'esempio in questione è stato rimosso nell'aggiornamento del dicembre 2023. Sebbene la traduzione in tale esempio non fosse necessariamente imprecisa, ricorrere solo a questo singolo esempio per affermare la costante equivalenza fra "shaheed" e "martire" non è corretto.
48. Al contrario, per le stesse ragioni, le conclusioni del Board sul termine "shaheed" nel presente parere consultivo sulle normative non dovrebbero essere estese in automatico al termine "martire" e a tutte le traduzioni di tale termine in altre lingue. I termini "martire" e "shaheed" non sono strettamente equivalenti, poiché il primo presenta una varietà semantica inferiore nella lingua inglese, tra le aree geografiche in cui si parla l'inglese e all'interno delle stesse. Tra le varie lingue, Meta dovrà valutare quali termini rientrano nella soglia dell'azienda per il concetto di "esaltazione", tenendo conto delle indicazioni contenute nel presente parere consultivo sulle normative. In ogni caso, il Board non approva divieti generalizzati volti a escludere e proibire l'uso del termine "shaheed" dal contesto più ampio dei post in cui viene utilizzato. In linea con le decisioni precedenti dell'Oversight Board, occorre valutare tali post nella loro interezza. Inoltre, in linea con le sue normative rivolte al pubblico, Meta dovrebbe garantire che le eccezioni alle normative consentano alle persone di "riportare notizie in merito, discutere in modo neutro ed esprimere condanna" circa le persone designate in caso di utilizzo del termine "martire" (e dei termini effettivamente corrispondenti che esprimono esaltazione o costituiscono un riferimento positivo in altre lingue). Ciò ribadisce l'importanza di linee guida interne per gli addetti al controllo adeguate al contesto locale e alle peculiarità linguistiche della lingua oggetto di controllo (v. le preoccupazioni simili espresse nella decisione del Board Bot in Myanmar, alla base della raccomandazione n. 1 nel caso in questione).
49. In diversi casi, il Board ha esortato Meta a rivedere il bilanciamento tra regole chiare e applicabili su vasta scala e normative maggiormente incentrate sul contesto per l'applicazione, spesso a favore della libertà di espressione, anche degli utenti (ad es., per tutelare il riportare notizie su entità designate, v. Menzione dei talebani in un servizio giornalistico e Post di Al Jazeera condiviso). Malgrado i casi precedenti non riguardino direttamente l'uso del termine "shaheed", il Board ha raccomandato di evitare presunzioni circa gli intenti negativi quando le persone fanno riferimento a entità designate (v. Citazione nazista). Svariati commenti pubblici evidenziano come la presunzione di Meta che "shaheed" equivalga sempre a un "elogio" potrebbe, per effetto di errori dei moderatori o dell'automazione su vasta scala, portare a un'applicazione eccessiva contro persone intente a commemorare le vittime di attacchi terroristici (v. i commenti pubblici, ad es., PC-11164 - SMEX, p.1; commento PC-11197 del governo neozelandese). La rimozione di tali contenuti può addirittura rivelarsi contraria alle finalità della normativa in materia di organizzazioni e persone pericolose, giacché potrebbe ostacolare il dibattito sulla violenza dei terroristi e gli sforzi volti a contrastare le ideologie alla base di tale violenza (v. ad es., PC-11164 - SMEX).
Rispetto della libertà dei media e dello spazio civico
50. Il Board teme in particolare che l'approccio di Meta pregiudichi il giornalismo e il dibattito civico. Tali effetti sono più evidenti nei luoghi di maggiore diffusione della violenza da parte di terroristi o di altre organizzazioni designate e nei luoghi in cui le entità designate esercitano il controllo territoriale o detengono in altro modo il potere politico. Diversi commenti pubblici hanno sollevati tali timori (v. i commenti pubblici, ad es., PC-11196 – Integrity Institute; PC-11157 – Palestine Institute for Public Diplomacy). Le organizzazioni dei media e altri giornalisti potrebbero assumere un atteggiamento di cautela nel riportare notizie su entità designate, onde evitare rimozioni di contenuti e conseguenti sanzioni severe, tra cui la rimozione di Pagine o gruppi o la disabilitazione di account. In alcuni casi, ciò potrebbe essere imprevedibile: ad esempio, riportare notizie su una protesta contro un soggetto governativo durante la quale le persone mostrano sostegno verso persone designate uccise dallo stesso soggetto contro cui è rivolta la protesta. Le convenzioni linguistiche, culturali o religiose potrebbero prevedere l'uso del termine "shaheed" per indicare persone uccise in tali circostanze, comprese quelle decedute durante il compimento di atti di violenza.
51. È importante sottolineare la complessità delle situazioni in cui le entità designate potrebbero essere coinvolte in atti di violenza, comprese le situazioni qualificabili come conflitti armati, resistenza all'occupazione straniera e disordini civili. I media possono dover affrontare sfide non indifferenti nel riportare notizie su tali situazioni, poiché devono prestare attenzione alle convenzioni linguistiche, culturali o religiose locali, rispettando al contempo le normative sui contenuti di Meta. Tali preoccupazioni sono acuite dalla scarsa trasparenza circa la lista di entità designate di Meta e dalla mancata conoscenza da parte degli utenti dei soggetti presenti nella stessa. Riportare notizie su tali situazioni potrebbe anche prevedere spesso segnali di violenza, come la rappresentazione di armi che, al di fuori del contesto delle eccezioni relativa al riportare notizie, discutere in modo neutro e condannare, possono costituire un indicatore di violazione della normativa. È dunque importante che Meta applichi un'eccezione alla normativa nei casi in cui i contenuti riportano notizie su un'entità designata, ne discutono in modo neutro o la condannano.
52. Per gli utenti che vivono in contesti in cui le entità designate operano o detengono il potere politico, il divieto può inoltre rendere più difficoltoso esprimere il loro punto di vista e le loro critiche. Per evitare confronti diretti e rischi per la sicurezza, gli utenti in tali contesti potrebbero formulare commenti in modo rispettoso che non vanno interpretati necessariamente come elogi. Sanzionare tali forme di libertà di espressione è particolarmente preoccupante, poiché i social media costituiscono un importante spazio di dibattito, specie in zone e Paesi in conflitto, in cui la libertà di stampa è limitata.
Uguaglianza e non discriminazione
53. Considerando l'uso diffuso ed estremamente variabile del termine "shaheed", specie fra gli utenti di lingua araba (molti dei quali musulmani) o di altre lingue in cui "shaheed" rappresenta un prestito linguistico, la normativa di Meta produce un impatto sproporzionato su tali comunità. Ciò desta notevole preoccupazione in merito alla responsabilità dell'azienda nei confronti del rispetto dei diritti all'uguaglianza e alla non discriminazione di tutti gli utenti nell'esercizio dei loro diritti alla libertà di espressione. Questo aspetto è stato al centro di svariati commenti pubblici (v. ad es., PC-11183 ECNL EFF, PC-11190 – Brennan Centre; PC-11188 – Digital Rights Foundation; PC-11196 – Integrity Institute; v. anche il report di BSR sull'impatto di Meta in Israele e Palestina). Il Programma delle Nazioni Unite per lo Sviluppo (UNDP), nel suo report sull'"interrompere il viaggio verso l'estremismo", sottolinea che i fattori chiavi della violenza estremista sono, tra le altre cause principali, "l'ineguaglianza, l'esclusione, la mancanza di opportunità e la percezione di ingiustizia". Il Board teme che l'approccio della normativa di Meta possa aggravare l'emarginazione ed esclusione di alcune comunità, e addirittura essere contrario all'obiettivo dichiarato di ridurre la violenza. L'UNDP sottolinea che, in relazione alla moderazione dei contenuti sulle piattaforme online, le aziende dovrebbero garantire che le attività di prevenzione dell'estremismo violento "non comportino la stigmatizzazione e la presa di mira accidentale delle persone".
Mezzi meno intrusivi di prevenzione della violenza
54. La valutazione della necessità e della proporzionalità della normativa richiede inoltre un'analisi circa l'eventuale sussistenza di mezzi meno restrittivi per raggiungere il fine legittimo in questione. Le raccomandazioni del Board nel presente parere, qualora attuate, imporrebbero a Meta di cessare l'eliminazione categorica di tutti gli usi del termine "shaheed" riferiti a persone designate. Tuttavia, i contenuti che utilizzano questo termine potrebbero comunque essere rimossi in circostanze più limitate, in cui il legame con la violenza è meno ambiguo e più evidente. Le raccomandazioni consentirebbero a Meta di continuare a rimuovere i contenuti che si riferiscono a persone designate come "shaheed" se accompagnati da altre violazioni della normativa (ad es., esaltazione o riferimenti poco chiari) o che contengono segnali di violenza. In questo modo si manterrà un importante limite, riducendo al contempo gli effetti negativi della normativa, tra cui l'applicazione eccessiva nei confronti di specifici gruppi linguistici e religiosi.
55. La presenza di segnali di violenza accanto a un riferimento a una persona designata come "shaheed" indica più chiaramente che il post intende riferirsi in modo positivo alla persona in virtù della sua associazione alla violenza (a condizione che non si applichino le eccezioni relative al riportare notizie, discutere in modo neutro o condannare). Nella sua richiesta, Meta ha proposto i seguenti segnali di violenza, riprendendoli dalle linee guida interne relative alla sua normativa in materia di violenza e istigazione alla violenza: (1) una rappresentazione visiva di un'arma (2) una dichiarazione o esortazione a utilizzare o a portare con sé armi (3) riferimenti al linguaggio militare (4) riferimenti a incendi dolosi, saccheggi o altri atti di distruzione di proprietà (5) riferimenti a incidenti violenti noti nel mondo reale e (6) dichiarazioni d'intenti, inviti, rappresentazioni, sostegno o supporto alla violenza contro le persone Il Board ritiene che alcuni di questi segnali forniscano utili indicazioni su contenuti che potrebbero causare violenza, il che non può essere presunto dal solo uso del termine "shaheed". Tuttavia, altri segnali non sono considerati così utili nel contesto in esame. La normativa rivolta al pubblico in materia di violenza e istigazione alla violenza menziona "segnali temporanei di un aumento del rischio di violenza" tre volte, ciascuna in relazione a regole concepite per affrontare i rischi di violenza in luoghi specifici e in occasione di eventi circoscritti nel tempo, come seggi elettorali e proteste. L'applicazione generalizzata di tutti questi segnali per orientare l'applicazione di provvedimenti ai riferimenti al termine "shaheed" in tutti i contesti, nei quali la probabilità di violenza non è altrettanto probabile o imminente, rischia di causare un'applicazione sproporzionata.
56. Il Board ritiene che, nel contesto più ampio della normativa in materia di organizzazioni e persone pericolose, sia più opportuno un insieme di segnali più circoscritto. Il segnale relativo a una rappresentazione visiva di un'arma e una dichiarazione o esortazione a utilizzare o a portare con sé armi, devono essere entrambi considerati come indicatori di un contenuto con maggiori probabilità di contribuire alla violenza. Il Board ritiene che il segnale relativo a "riferimenti a incidenti violenti noti nel mondo reale" sia troppo ampio e comprenda un numero eccessivo di circostanze lontane dalla violenza di organizzazioni o persone designate. Pertanto, tale segnale andrebbe definito in modo più restrittivo e limitato a eventi designati ai sensi della normativa in materia di organizzazioni e persone pericolose di Meta, che comprende attacchi terroristici, eventi di odio, atti di violenza con più vittime, tentativi di atti di violenza con più vittime, omicidi seriali e crimini d'odio. I tre segnali raccomandati dal Board offrono maggiori sfumature contestuali al fine di garantire la rimozione degli usi meno ambigui del termine "shaheed", riferiti più espressamente ad atti di violenza terroristica.
57. I restanti segnali proposti da Meta, ossia "riferimenti al linguaggio militare" e "a incendi dolosi, saccheggi o altri atti di distruzione di proprietà" sono troppo ampi e causerebbero un'applicazione non precisa. L'ultimo segnale proposto, vale a dire "dichiarazioni d'intenti, inviti, rappresentazioni, sostegno o supporto alla violenza contro le persone", comporterebbe comunque la presenza di contenuti in violazione dello Standard della community su violenza e istigazione alla violenza, quindi sarebbe ridondante e non necessario includerlo come segnale di violenza.
58. A differenza della terza opzione sulla normativa di Meta, il Board osserva che anche in caso di riferimenti a persone designate accompagnati da tali segnali di violenza, questi potrebbero comunque non essere intesi a esaltare tali persone o le loro azioni. Nella sua richiesta (alle pagine 9-10), Meta chiarisce il potenziale di un'applicazione eccessiva, facendo riferimento alle pratiche di segnalazione delle notizie dei media in Pakistan. Secondo il Board, nei riferimenti alla morte di una persona designata, è comune che i media mostrino immagini della stessa con armi e/o della distruzione da essa causata, pur non esaltando tali azioni. Per tale motivo, è necessario che gli addetti al controllo su vasta scala vengano formati al fine di lasciare pubblicati i contenuti qualora l'intento sia chiaramente quello di riportare notizie sull'entità, condannarla o discuterne in modo neutro.
59. Inoltre, le modifiche alla normativa raccomandate dal Board non intaccherebbero un'ampia gamma di ulteriori normative sui contenuti volte a contrastare l'uso delle piattaforme di Meta da parte dei terroristi e dei loro sostenitori al fine di causare violenza nel mondo reale. I post che includono il termine "shaheed" in riferimento a una persona designata di livello 1 saranno rimossi nelle seguenti circostanze:
- Se accompagnati da uno o più dei tre segnali di violenza di cui sopra.
- Se il post comprende ulteriori violazioni della normativa in materia di organizzazioni e persone pericolose (ad es., la rappresentazione, il supporto o l'esaltazione di una persona designata). L'esaltazione, ad esempio, comprende la legittimazione o la difesa degli atti violenti o di odio di una persona designata o la celebrazione della loro violenza o odio come un traguardo.
- Se il post comprende una violazione di qualsiasi altra normativa, tra cui quelle in materia di incitamento all'odio o violenza e istigazione alla violenza.
- Se il post presenta riferimenti "poco chiari o privi di contesto". Ciò comprende "riferimenti umoristici poco chiari, senza didascalie o positivi che non esaltano manifestazioni di odio o violenza da parte di entità designate".
60. Le raccomandazioni del Board non impediranno dunque a Meta di richiedere agli utenti di garantire che l'intento dei loro post sia chiaro se si riferiscono a una persona designata di livello 1 come "shaheed", ma impediscono a Meta di fare unicamente affidamento sul termine "shaheed" per affermare che un post è in violazione. La partecipazione attiva di Meta nel Global Internet Forum to Counter Terrorism e l'utilizzo del suo database di corrispondenza degli hash garantiscono inoltre la rimozione di contenuti che potrebbero causare violenza nel mondo reale. Le raccomandazioni del Board garantiranno un'applicazione più chiara, maggiormente contestualizzata e proporzionata nei confronti dei contenuti che potrebbero aumentare il rischio di violenza, rafforzando al contempo il rispetto della libertà di espressione e della non discriminazione.
Valutazione di opzioni relative alla normativa alternative
61. Per tali motivazioni, il Board ritiene che la persistenza dello stato di fatto circa la normativa, presentata da Meta al Board come un'opzione da prendere in considerazione, consoliderebbe restrizioni ingiustificate alla libertà di espressione che colpiscono in modo sproporzionato gli utenti di lingua araba, le comunità linguistiche interessate e i musulmani. La seconda opzione sulla normativa proposta da Meta è simile alla terza, raccomandata dal Board, in quanto cerca di contestualizzare l'uso della parola "shaheed" e di consentirne l'utilizzo in relazione a persone pericolose in diversi modi. Infatti, secondo Meta, le modifiche alla normativa del 29 agosto 2023 garantiscono un maggiore dibattito sociale e politico in determinate circostanze, tra cui in relazione ad accordi di pace, elezioni, temi correlati ai diritti umani, segnalazione di notizie e dibattiti accademici, neutrali e di condanna. Ciò rende ancora più vicini i risultati della normativa perseguiti dalla seconda e dalla terza opzione. La differenza più significativa tra le opzioni riguarda la fattibilità tecnica e l'implementazione pratica su vasta scala. La seconda opzione prevede che Meta stabilisca innanzitutto l'applicazione di una delle eccezioni consentite, per poi esaminare l'eventuale presenza di violazioni della normativa o segnali di violenza; la terza opzione prevede direttamente l'esame della presenza di violazioni della normativa o segnali di violenza. Secondo Meta, la seconda opzione sarebbe molto più complicata da progettare e implementare dal punto di vista tecnico, poiché richiederebbe la presa in considerazione di una vasta serie di possibili eccezioni (ancora più ampia in seguito alle recenti modifiche alla normativa), ciascuna strettamente legata alla valutazione del contesto. La difficoltà di effettuare tali valutazioni in modo accurato e coerente comporta a sua volta la probabilità di un ricorso maggiore al controllo umano e di un conseguente maggior numero di errori di applicazione.
62. Il Board ritiene preferibile che Meta si avvalga di un approccio che esamini in modo più uniforme tutti gli usi del termine "shaheed" in relazione a persone designate, al di là delle eccezioni esistenti, e che rimuova tali usi se accompagnati da altre violazioni della normativa o da uno dei tre segnali di violenza di cui alla raccomandazione n. 1. Modificare la normativa al fine di adottare una posizione più vicina alla terza opzione proposta da Meta, che prevede di trattare il termine "shaheed" come riferimento vietato solo in presenza di altre violazioni della normativa o di specifici segnali di violenza, come raccomandato dal Board, contribuirà a ridurre i falsi positivi (rimozioni errate di contenuti non in violazione), tutelare meglio il dibattito di interesse pubblico, la libertà dei media e il dibattito civico e a ridurre l'effetto negativo sul diritto all'uguaglianza e alla non discriminazione tra i gruppi interessati. In risposta alle domande del Board in seguito agli attacchi di Hamas contro Israele dell'ottobre 2023 e al conflitto che ne è scaturito, Meta ha confermato che tali eventi non hanno modificato la sua analisi sulla scalabilità delle opzioni inizialmente presentate nella sua richiesta. A parere del Board, le raccomandazioni proposte, basate sulla terza opzione di Meta, sarebbero le meno inclini a potenziali errori in caso di crisi di questa portata, a condizione che rimangano disponibili le eccezioni della normativa relative a "riportare notizie, discussione in modo neutro e condanna". Il Board riconosce che la previsione di tali eccezioni alla normativa aggiunge una certa complessità alla scalabilità della stessa proposta dalla terza opzione di Meta, ma ritiene siano essenziali per un'adeguata protezione della libertà di espressione in relazione alla moderazione dei contenuti che utilizzano la parola "shaheed".
63. Una parte minoritaria del Board non condivide tale conclusione e preferirebbe raccomandare il mantenimento dello stato attuale o l'adozione da parte di Meta della seconda opzione proposta. Alcuni membri sottolineano che la parola "shaheed" è di fatto usata dalle organizzazioni terroristiche per elogiare ed esaltare persone che commettono atti violenti e ciò può incentivare la radicalizzazione e il reclutamento. Per questi membri del Board, tali circostanze costituiscono di per sé un pericolo abbastanza grave di violenza nel mondo reale da giustificare il mantenimento dell'attuale divieto categorico, anche a fronte di un riconosciuto sacrificio della libertà di espressione. Altri membri ritengono che l'assenza di dati adeguati sull'entità della violenza nel mondo reale ricollegabile all'uso del termine "shaheed" sulle piattaforme di Meta, e sulla prevalenza delle applicazioni eccessive della normativa, siano motivi sufficienti per adottare un approccio più cauto, preferendo privilegiare una maggiore sicurezza. Alcuni membri del Board ritengono inoltre che la seconda opzione, in cui Meta prenderebbe in considerazione il significato e l'uso del termine "shaheed" solo in caso di applicabilità fin dall'inizio delle eccezioni specifiche consentite, rappresenti una posizione di compromesso più mirata, nonostante le implicazioni legate alle difficoltà tecniche e alla fattibilità su vasta scala. Il Board ha valutato queste alternative, discutendone ampiamente in merito. Per le ragioni illustrate nelle sezioni precedenti, la maggioranza ritiene che le raccomandazioni basate sulla terza opzione di Meta rappresentino il bilanciamento ottimale.
Avvertimenti e sanzioni
64. Sebbene il mantenimento di altre restrizioni ai sensi della normativa su organizzazioni e persone pericolose possa essere giustificato, Meta deve garantire che queste e le eventuali sanzioni imposte per le violazioni siano proporzionate. Meta ha in precedenza comunicato al Board che applica sempre avvertimenti gravi per tutte le violazioni della sua normativa in materia di organizzazioni e persone pericolose, anche per il precedente divieto di "elogio". Gli avvertimenti gravi possono portare più rapidamente a sanzioni a livello di account, quali limitazioni temporanee delle funzioni, sospensione dell'account e disabilitazione permanente di profili o Pagine. Tali misure possono compromettere drasticamente i diritti degli utenti alla libertà di espressione (come sottolineato anche nei commenti pubblici, v. ad es., PC-11190 - Brennan Centre). Il Board ha raccomandato in passato a Meta di rendere più chiaro e trasparente il suo sistema degli avvertimenti ( Menzione dei talebani in un servizio giornalistico, raccomandazione n. 2; Sospensione dell'ex Presidente degli Stati Uniti Trump, raccomandazione n. 15). In risposta, Meta ha fornito informazioni sul sistema degli avvertimenti nel suo Centro sulla trasparenza e consente agli utenti di controllare le sanzioni applicate dall'azienda ai loro account. Di recente, Meta ha aggiornato il suo sistema per gli avvertimenti standard al fine di renderlo più proporzionato, ma ciò non chiarisce al pubblico se anche l'approccio dell'azienda agli "avvertimenti gravi" abbia subito modifiche.
65. Meta ha dichiarato di essere in procinto di apportare modifiche al sistema di applicazione della normativa in materia di organizzazioni e persone pericolose, tuttavia la sua spiegazione dell'aggiornamento della normativa di dicembre 2023 non indica se o come il suo sistema di applicazione sia cambiato o cambierà (ad es., in relazione agli avvertimenti gravi). Il Board accoglie con favore le modifiche al sistema di applicazione se comportano sanzioni più proporzionate per i contenuti identificati con precisione come in violazione, in linea con le sue precedenti raccomandazioni. Gli avvertimenti gravi sono sproporzionati per le violazioni più lievi e più ambigue dal punto di vista semantico della normativa in materia di organizzazioni e persone pericolose, con il risultato che la stessa continua a caratterizzarsi per un elevato tasso di applicazione eccessiva e un trattamento iniquo degli utenti.
6.2 Maggiore trasparenza e verifica della lista
Raccomandazione 4. Trasparenza: per una maggiore trasparenza circa la lista di entità ed eventi designati, Meta dovrebbe illustrare in maggiore dettaglio la relativa procedura di designazione. L'azienda dovrebbe inoltre pubblicare regolarmente informazioni aggregate sulla sua lista di designazione, compreso il numero totale di entità all'interno di ciascun livello della sua lista, nonché il numero delle stesse aggiunte e rimosse nell'ultimo anno.
Il Board considererà la presente raccomandazione implementata non appena Meta pubblicherà le informazioni richieste nel suo Centro sulla trasparenza.
Raccomandazione 5. Applicazione: affinché la lista di organizzazioni e persone pericolose sia aggiornata e non includa organizzazioni, persone ed eventi non più rientranti nella definizione di Meta per la designazione, l'azienda dovrebbe introdurre un processo chiaro ed efficace per verificare regolarmente le designazioni e rimuovere quelle che non soddisfano più i criteri pubblicati.
Il Board considererà la presente raccomandazione implementata non appena Meta creerà tale processo di verifica e ne darà spiegazione nel suo Centro sulla trasparenza.
66. Secondo la precedente normativa di Meta in materia di organizzazioni e persone pericolose, l'"elogio" e l'uso del termine "shaheed" erano vietati solo se riferiti a un'entità designata dall'azienda come persona pericolosa di livello 1 (compresi gli autori di "eventi violenti in violazione" designati). In seguito all'aggiornamento di dicembre 2023, la normativa oggi vieta "riferimenti poco chiari" e l'esaltazione di tutte le entità designate di livello 1. "Riferimenti poco chiari" può comprendere "riferimenti umoristici poco chiari, riferimenti senza contesto e positivi che non esaltano manifestazioni di odio o violenza da parte di entità designate". I potenziali risvolti negativi di tali divieti sulla libertà di espressione dipendono in larga misura dalle entità e dagli "eventi violenti in violazione" designati come di livello 1 da Meta. Nelle tavole rotonde e nei commenti pubblici, molti stakeholder hanno criticato la mancanza di trasparenza e di un giusto processo in relazione alla lista, sostenendo che Meta dovrebbe pubblicarla (v. i commenti pubblici, ad es., PC-11164 - SMEX, pag. 3; PC-11157 – Palestine Institute for Public Diplomacy). Uno stakeholder ha espresso preoccupazione circa la condivisione della lista su vasta scala, sostenendo che ciò potrebbe creare problemi di sicurezza. Dal momento che la lista è fondamentale per comprendere l'ambito di applicazione delle normative di Meta, l'azienda ha fornito al Board la lista delle organizzazioni e delle persone designate di livello 1, nonché una spiegazione dei suoi processi di designazione, che il Board ha esaminato in modo approfondito, come illustrato più avanti.
67. Come indicato in precedenza, molte delle liste da cui Meta attinge per le designazioni di livello 1 sono rese di pubblico dominio dal governo degli Stati Uniti. Tali liste comprendono "specially designated narcotics trafficking kingpins" (boss del narcotraffico con designazione speciale, SDNTK), "foreign terrorist organizations" (organizzazioni terroristiche straniere, FTO)" e "terroristi globali con designazione speciale". Tali liste sono vaste, includono entità (e i relativi membri) in contesti altamente politicizzati in diversi continenti e non sono limitate alle entità terroristiche. Questa ampiezza e diversità sono indicative della portata dei divieti della normativa in materia di organizzazioni e persone pericolose di Meta, compreso il divieto più categorico relativo al termine "shaheed" in riferimento alle persone designate, nonché del loro impatto.
68. Meta ha precisato che il suo processo di controllo e approvazione delle entità da aggiungere alla lista delle organizzazioni e persone pericolose "si basa sulla consultazione di una serie di esperti interni, sulla valutazione di dati interni e su ricerche esterne". Meta dispone altresì di un processo per documentare "ulteriori membri, pseudonimi, simboli, slogan, sottogruppi o media correlati a organizzazioni e persone già designate". Nel 2022, sulla base della valutazione di Meta delle organizzazioni e delle persone pericolose che costituiscono una minaccia sulle sue piattaforme, l'azienda ha designato meno di 1000 entità. Il maggior numero di designazioni riguardava entità criminali, subito seguite da quelle coinvolte nel terrorismo e nell'odio. Meta dispone di un processo di eliminazione dalla lista che in genere esamina se un'entità continua a soddisfare la soglia della normativa per la designazione come organizzazione o persona pericolosa e considera "le misure attive che un'entità ha adottato per cessare gli atti di violenza e perseguire la pace". Il processo è attualmente in fase di revisione, ma è stato applicato meno di 10 volte nel 2022. Meta ha precisato che sta verificando le designazioni precedenti nell'ambito di un impegno continuo per mantenerle il più possibile aggiornate e riflettere in modo preciso le minacce che organizzazioni e persone pericolose costituiscono.
69. Meta ha dichiarato che la condivisione pubblica della lista delle entità o degli eventi designati, o l'avvisare le entità una volta aggiunte alla lista, potrebbe comportare alcuni rischi per l'efficacia dell'applicazione e per la sicurezza di svariati dipendenti di Meta. Alcune entità, una volta designate e venute a conoscenza di tale circostanza, hanno intrapreso azioni legali contro Meta (v. il caso Facebook contro CasaPound , 29 aprile 2020, Tribunale di Roma, Italia e l'analisi qui). Il Board rileva che in alcuni casi Meta ha reso note le designazioni di alcuni gruppi in risposta alle richieste dei media e che le stesse sono state condivise mediante le decisioni del Board.
70. Il Board ha in precedenza raccomandato a Meta di rendere di dominio pubblico la sua lista di entità designate o quantomeno fornire esempi illustrativi ( Citazione nazista, raccomandazione n. 3). Meta non ha pubblicato la lista e non ha fornito ulteriori aggiornamenti su questa raccomandazione a seguito di una valutazione della fattibilità. Se Meta continuerà a non implementare tale raccomandazione, dovrà perlomeno adottare altre misure per garantire una maggiore trasparenza della lista. La pubblicazione di dati aggregati, una maggiore trasparenza circa il processo di designazione e l'ottimizzazione del processo di eliminazione delle designazioni potrebbero consentire agli utenti di conoscere meglio regole e processi di Meta. Ciò contribuirebbe altresì a un migliore controllo e a una maggiore responsabilità in merito alle designazioni di Meta e alle conseguenze per la libertà di espressione e gli altri diritti umani. Meta potrebbe anche prendere in considerazione la possibilità di agevolare l'accesso dei ricercatori ai dati per garantire una maggiore trasparenza, pur mantenendo la riservatezza della lista.
6.3 Dati per valutare la precisione delle applicazioni e test dei classificatori
Raccomandazione 6. Trasparenza: per garantire una maggiore trasparenza delle applicazioni di Meta, comprese le differenze a livello di aree geografiche tra i mercati e le lingue, l'azienda dovrebbe illustrare i metodi utilizzati per valutare l'accuratezza del controllo umano e le prestazioni dei sistemi automatizzati nell'applicazione della normativa in materia di organizzazioni e persone pericolose. Meta dovrebbe inoltre condividere periodicamente i risultati delle valutazioni delle prestazioni dei classificatori utilizzati nell'applicazione della medesima normativa, in modo da consentirne il confronto tra le lingue e/o le aree geografiche.
Il Board considererà tale raccomandazione implementata non appena Meta includerà tali informazioni nel suo Centro sulla trasparenza e nei Report sull'applicazione degli Standard della community.
Raccomandazione 7. Trasparenza: per informare gli stakeholder, Meta dovrebbe fornire spiegazioni formulate in modo chiaro sull'utilizzo dei classificatori per generare previsioni di violazioni delle normative. Meta dovrebbe anche chiarire come stabilisce le soglie per non intraprendere alcuna azione, per sottoporre i contenuti al controllo umano o per rimuoverli, illustrandone i processi di determinazione. Queste informazioni andrebbero fornite nel Centro sulla trasparenza dell'azienda.
Il Board considererà la presente raccomandazione implementata non appena Meta pubblicherà le informazioni richieste nel suo Centro sulla trasparenza.
71. Molti stakeholder, durante le tavole rotonde e nei commenti pubblici, hanno affermato che l'applicazione da parte di Meta della sua normativa in materia di organizzazioni e persone pericolose, nonché il trattamento della parola "shaheed" nei controlli sia umani sia automatizzati, hanno spesso comportato errori di applicazione con conseguenze sproporzionate nei confronti dei musulmani e delle comunità linguistiche interessate (v. i commenti pubblici, ad es., PC-11183 ECNL EFF, PC-11190 – Brennan Centre; PC-11188 – Digital Rights Foundation; PC-11196 – Integrity Institute; v. anche il report di BSR sull'impatto di Meta in Israele e Palestina). Anche Meta ha riconosciuto nella sua richiesta che ciò è una conseguenza della sua normativa sul termine "shaheed". Per una maggiore trasparenza, precisione ed equità dei processi di applicazione umani e automatizzati di Meta, il Board formula le due raccomandazioni di cui sopra.
72. Meta ha precisato che misura con regolarità la precisione delle applicazioni umane e automatizzate. Gli addetti al controllo umano sono soggetti a verifiche periodiche ad opera di partner esterni di Meta. Tali verifiche vengono ulteriormente valutate dal team Global Operations di Meta.
73. Il Board ha in passato raccomandato a Meta di migliorare i suoi report sulla trasparenza per fornire maggiori informazioni pubbliche sui tassi di errore, consentendo la visualizzazione di tali informazioni per Paese e lingua in relazione all'"elogio" e al "sostegno" di organizzazioni e persone pericolose ( Isolamento di Öcalan, raccomandazione n. 12) e per ciascun Standard della community ( Preoccupazioni dei punjabi in relazione alla RSS in India, raccomandazione n. 3). Dopo una valutazione di fattibilità, Meta ha dichiarato di aver rifiutato l'implementazione di tale raccomandazione ( Isolamento di Öcalan, raccomandazione n. 12; Meta Q4 2021 Quarterly Update on the Oversight Board (Aggiornamento trimestrale di Meta sull'Oversight Board, quarto trimestre 2021, pagina 21) e di aver spostato le sue iniziative a lungo termine nel definire metriche di accuratezza basate su restrizioni di profili, Pagine e account, nonché sul luogo anziché sulla lingua ( Preoccupazioni dei punjabi in relazione alla RSS in India, raccomandazione n. 3; Meta Q2 2023 Quarterly Update on the Oversight Board (Aggiornamento trimestrale di Meta sull'Oversight Board, secondo trimestre 2023, pagina 59.) Consapevole delle preoccupazioni diffuse sull'applicazione sproporzionata della normativa in materia di organizzazioni e persone pericolose, come dimostra la posizione di Meta sul termine "shaheed", e delle carenze dell'azienda nella divulgazione di dati utili sull'applicazione, il Board ribadisce le presenti raccomandazioni e l'importanza che l'azienda garantisca una maggiore trasparenza circa le applicazioni per luogo.
74. I dati attualmente condivisi da Meta nel suo Centro sulla trasparenza non forniscono indicazioni sufficienti sull'accuratezza del controllo umano e sulle prestazioni dei sistemi automatizzati. Per consentire la verifica dei suoi metodi, Meta deve illustrare in che modo valuta l'accuratezza del controllo umano e le prestazioni dei sistemi automatizzati nell'applicazione della normativa in materia di organizzazioni e persone pericolose. Per una maggiore trasparenza circa le prestazioni dei classificatori, Meta dovrebbe condividere metriche che includano la precisione (indicante la proporzione di contenuti correttamente identificati come in violazione rispetto a tutti i contenuti segnalati come tali) e il richiamo (indicante la percentuale di contenuti in violazione identificati dal classificatore come tali rispetto a tutti i contenuti in violazione esistenti). La pubblicazione di informazioni sull'accuratezza del controllo umano nelle varie aree geografiche e sulle prestazioni dei classificatori in diverse lingue può favorire l'assunzione di responsabilità in relazione agli obblighi di Meta in materia di diritti umani. Il Board ribadisce pertanto le sue precedenti raccomandazioni ed esorta Meta a implementare le modifiche proposte.
75. Meta si avvale di sistemi automatizzati, compresi i classificatori, per applicare gli Standard della comunità. I modelli dei classificatori classificano in automatico i dati in una o più "classi" (ad es., in violazione o non in violazione) sulla base di un insieme di dati di addestramento. Comprendere il funzionamento di tali sistemi e la loro accuratezza è essenziale per valutare il modo in cui Meta modera i contenuti su vasta scala. Meta fornisce alcune informazioni di base su come utilizza i sistemi automatizzati per individuare i contenuti in violazione nella sezione relativa all'applicazione del suo Centro sulla trasparenza, mentre nella sezione Funzioni l'azienda illustra come classifica e gestisce i contenuti. Meta pubblica già nei suoi Report sull'applicazione degli Standard della community informazioni sulla percentuale di contenuti che rimuove prima della loro segnalazione (sulla base di un rilevamento automatizzato). Tali dati indicano l'importanza del rilevamento automatizzato, ma non forniscono metriche dettagliate sull'uso e l'accuratezza dei sistemi automatizzati di Meta, in particolare sulle rimozioni automatizzate. La presente serie di raccomandazioni mira a garantire una maggiore trasparenza circa l'uso degli algoritmi da parte di Meta.
76. In risposta alle domande poste dal Board, Meta ha chiarito che il classificatore per le organizzazioni e persone pericolose per "Lingua generale - arabo" effettua un controllo iniziale per l'applicazione di provvedimenti in base alle normative di Meta. I classificatori mirano a rilevare i contenuti che potrebbero violare tali normative. Il Board ritiene che Meta debba illustrare in dettaglio ai suoi utenti tale ricorso ai classificatori nella sezione relativa all'applicazione del Centro sulla trasparenza, in linea con le sue precedenti decisioni (v. Sintomi del tumore al seno e nudo, raccomandazione n. 3; Vignetta sulla polizia colombiana, raccomandazione n. 3). In particolare, è importante garantire la trasparenza sulle soglie di sicurezza approssimative relative all'intervento o meno sui contenuti e all'inserimento in coda per il controllo umano, nonché alle considerazioni o ai fattori che determinano tali punteggi.
77. Meta ha precisato che i suoi test di accuratezza non si concentrano sui singoli tipi di violazione all'interno della normativa, ma invece sui tassi di accuratezza complessivi in un'intera area della normativa. Meta ha dichiarato che "effettua un monitoraggio regolare delle metriche e verifica i tassi di accuratezza su vasta scala". Il Board ha in precedenza chiarito che non è sufficiente valutare le prestazioni delle applicazioni degli Standard della community da parte di Meta nel suo complesso. (v. la decisione Cintura wampum). Un sistema caratterizzato da buone prestazioni medie potrebbe potenzialmente registrare prestazioni scarse in sottocategorie di contenuti, come quelli che usano il termine "shaheed", in cui decisioni non corrette hanno un impatto particolarmente evidente sui diritti umani. È dunque essenziale che Meta dimostri di adottare la due diligence per identificare e ridurre al minimo i potenziali effetti negativi dei suoi sistemi sui diritti umani e che condivida le informazioni necessarie per esaminare tali effetti.
78. Molti stakeholder hanno sostenuto che i sistemi di applicazione basati su algoritmi di Meta non tengono conto del contesto, sono più imprecisi nelle lingue diverse dall'inglese e hanno causato un impatto discriminatorio nei confronti delle comunità musulmane. (v. i commenti pubblici, ad es., PC-11190 – Brennan Centre).
79. Alcuni stakeholder hanno raccomandato a Meta di non utilizzare più l'automazione per moderare il termine "shaheed", in quanto generalmente incapace di tenere conto del contesto (v. i commenti pubblici, ad es., PC-11164 - SMEX, pag. 4; PC-11157 – Palestine Institute for Public Diplomacy). Altri stakeholder hanno sostenuto che, considerando le gravi sanzioni previste per i contenuti che violano la normativa in materia di organizzazioni e persone pericolose, l'automazione dovrebbe essere utilizzata solo per la coda dei contenuti da controllare, ma non per la loro rimozione in automatico (v. ad es., PC-11183 ECNL EFF, pag. 4f). Gli stakeholder hanno proposto che qualsiasi post contenente il termine "shaheed" riferito a una persona designata dovrebbe "idealmente essere controllato da moderatori umani che conoscano il contesto locale di provenienza del post" (v. PC-11188 - Digital Rights Foundation, pag. 2). Alcuni stakeholder hanno suggerito la georeferenziazione dei contenuti, in modo che il controllo umano e automatizzato possa tenere meglio conto del contesto (v., ad es., PC-11165 - Taraaz, pag. 1). Gli stakeholder hanno inoltre invitato Meta a fornire maggiori informazioni sull'accuratezza delle applicazioni automatizzate e a stanziare maggiori investimenti al fine di migliorare i propri sistemi automatizzati in lingue diverse dall'inglese (v. PC-11164 - SMEX, pag. 5; PC-11190 – Brennan Centre). Gli stakeholder hanno altresì sollecitato Meta a segnalare le sue attività di moderazione dei contenuti "in modo coerente in tutte le lingue, il che comprende dati completi sulle segnalazioni degli utenti, il tasso di azioni intraprese, i tipi di azione, l'efficacia delle tecniche di mitigazione, le informazioni sulla formazione e i tassi di ricorso" (v. PC-11196 - Integrity Institute).
80. Alcuni esperti non concordano sull'uso del termine "shaheed" in relazione a un'entità designata come punto di riferimento unico per i sistemi automatizzati per la rimozione dei contenuti dalla piattaforma, ma incoraggiano l'uso del termine come parte di un approccio più stratificato alla moderazione (ad es., come segnale per l'inserimento in coda dei contenuti per il controllo rispetto alle normative di Meta, ma non per rimuoverli per la sola presenza di tale riferimento).
81. Il Board riconosce la necessità di affidarsi a sistemi basati su algoritmi per la moderazione dei contenuti su vasta scala e che molti degli approcci proposti non sarebbero realizzabili su ampia scala e con l'uso dell'automazione. Tuttavia, il Board ritiene inoltre che Meta debba adottare ulteriori misure, tra cui quelle raccomandate in precedenza, per garantire la trasparenza e l'equità di tali sistemi.
*Nota procedurale:
I pareri consultivi sulle normative dell'Oversight Board sono predisposti da gruppi di 5 membri e devono essere approvati dalla maggioranza del Board. Le decisioni del Board non rappresentano necessariamente le opinioni personali di tutti i membri.
Per il presente parere consultivo sulle normative, sono state commissionate ricerche indipendenti per conto del Board. Il Board è stato assistito da un istituto di ricerca indipendente presso l'Università di Göteborg facente ricorso a un team di più di 50 esperti di social in sei continenti, nonché a più di 3200 esperti nazionali da tutto il mondo. Il Board ha ricevuto aiuto anche da Duco Advisors, una società di consulenza specializzata in geopolitica, fiducia e sicurezza e tecnologia. Ha fornito un'analisi anche Memetica, un'organizzazione che si occupa di ricerche open source sulle tendenze nei social media. Lionbridge Technologies LLC, i cui esperti vantano una conoscenza professionale in oltre 350 lingue e lavorano da più di 5000 città in tutto il mondo, ha messo a disposizione la propria competenza linguistica.
Volver a Decisiones de casos y opiniones consultivas sobre políticas