نشرت

Rimozione della disinformazione sul COVID-19

Il presente parere consultivo sulle normative esamina se Meta debba continuare a rimuovere determinate categorie di disinformazione sul COVID-19 o se invece un approccio meno restrittivo non sia più in linea con i valori e le responsabilità in materia di diritti umani dell'azienda.

منصة

منصة
Facebook

I. Riepilogo

A luglio 2022, l'Oversight Board ha accettato la richiesta di Meta di valutare se l'azienda debba continuare a rimuovere determinate categorie di disinformazione sul COVID-19 o se invece un approccio meno restrittivo non sia più in linea con i suoi valori e le sue responsabilità in materia di diritti umani. Il presente parere consultivo sulle normative costituisce la risposta del Board a tale richiesta.

Il Board ha condotto approfondite ricerche e consultazioni pubbliche. Data l'insistenza di Meta nell'adottare un approccio unificato e globale alla disinformazione sul COVID-19, il Board ha concluso che, fino a che l'Organizzazione mondiale della sanità (OMS) continuerà a dichiarare il COVID-19 un'emergenza sanitaria pubblica internazionale, Meta dovrà mantenere la sua normativa vigente. Ciò significa che dovrà continuare a rimuovere la disinformazione sul COVID-19 in grado di contribuire direttamente al rischio di violenza fisica imminente e grave. Tuttavia, il Board ritiene che Meta debba avviare un processo che coinvolga un numero maggiore di stakeholder per rivalutare tutte e 80 le affermazioni che rimuove attualmente. L'azienda dovrebbe inoltre predisporre misure per quando la dichiarazione dell'OMS verrà revocata, al fine di tutelare la libertà di espressione e altri diritti umani nelle nuove circostanze. Il Board raccomanda vivamente a Meta di pubblicare informazioni sulle richieste dei governi di rimuovere i contenuti sul COVID-19, di intraprendere azioni a supporto di indagini indipendenti sulle proprie piattaforme, di esaminare il collegamento tra l'architettura delle piattaforme e la disinformazione e di migliorare la comprensione della disinformazione sul COVID-19 a livello globale.

Contesto

Nei primi mesi del 2020, mentre si diffondeva la pandemia di COVID-19, Meta ha iniziato a rimuovere da Facebook e Instagram varie affermazioni che l'azienda ha identificato come disinformazione sul COVID-19. Nel corso della pandemia, la lista delle affermazioni sul COVID-19 rimosse dall'azienda si è ampliata. Oggi, Meta rimuove all'incirca 80 affermazioni di disinformazione sul COVID-19 secondo la normativa "Disinformazione sulla salute durante emergenze sanitarie pubbliche", una sottosezione dello Standard della community sulla disinformazione, creata in risposta alle raccomandazioni fornite dal Board nella decisione "Presunta cura per il COVID". Il presente parere consultivo sulle normative si focalizza esclusivamente sulle azioni intraprese da Meta durante la pandemia di COVID-19 ai sensi della normativa "Disinformazione sulla salute durante emergenze sanitarie pubbliche". Non affronta i provvedimenti presi da Meta durante la pandemia di COVID-19 nell'ambito di altre normative.

Ai sensi della normativa "Disinformazione sulla salute durante emergenze sanitarie pubbliche", Meta rimuove "i casi di disinformazione durante le emergenze sanitarie pubbliche quando le autorità sanitarie concludono che le informazioni sono false e in grado di alimentare il rischio imminente di violenza fisica". Meta ha fatto esclusivo affidamento su autorità sanitarie pubbliche per determinare se lo standard fosse stato rispettato. Tra le 80 affermazioni attualmente rimosse ci sono, ad esempio, quella secondo cui i vaccini anti COVID-19 causano magnetismo e la negazione dell'esistenza stessa del COVID-19. Tra marzo 2020 e luglio 2022, Meta ha rimosso da Facebook e Instagram 27 milioni di contenuti di disinformazione sul COVID-19, 1,3 milioni dei quali ripristinati in seguito a ricorso. La disinformazione sul COVID-19 per cui non è prevista la rimozione può essere sottoposta a fact-checking, etichettata o retrocessa. I fact-checker valutano un contenuto (ad esempio come "falso" o "privo di contesto"), Meta quindi lo etichetta come tale e lo collega a un articolo che contiene informazioni reali verificate sull'argomento. L'azienda può anche retrocedere i contenuti contrassegnati dai fact-checker, riducendone la visualizzazione sui feed degli utenti sulla base di una serie di fattori. Meta applica inoltre "etichette neutrali" ai contenuti correlati al COVID-19. Queste etichette includono affermazioni come "alcuni trattamenti non approvati per il COVID-19 potrebbero causare danni gravi" e rimandano le persone al Centro informazioni sul COVID-19 di Meta, che contiene informazioni su misure di prevenzione, vaccini e risorse delle autorità sanitarie pubbliche.

Nella sua richiesta al Board, Meta ha chiesto se dovesse continuare a rimuovere certi tipi di disinformazione sul COVID-19. L'azienda ha dichiarato che, come alternativa alla rimozione, potrebbe retrocedere i contenuti, inviarli a fact-checker indipendenti o etichettarli. Meta insiste affinché venga adottato un approccio unificato e globale alla disinformazione sul COVID-19, che non si differenzi in base al Paese o all'area geografica. Secondo l'azienda, l'adozione su vasta scala di un approccio localizzato alla normativa potrebbe generare confusione negli utenti e tradursi in un'applicazione errata della stessa. Meta ha dichiarato inoltre di non avere le capacità di adottare un approccio di questo tipo. Nel valutare la richiesta, il Board ha condotto approfondite consultazioni pubbliche, tra cui una serie di tavole rotonde virtuali con partecipanti da tutto il mondo, convocate in collaborazione con la società civile, per ascoltare le opinioni di un ampio ventaglio di esperti e stakeholder.

Conclusioni principali e raccomandazioni

Il Board ritiene che continuare a rimuovere la disinformazione sul COVID-19 "in grado di contribuire direttamente al rischio di violenza fisica imminente" durante un'emergenza sanitaria pubblica globale sia coerente con i valori e le responsabilità in materia di diritti umani di Meta. Inizialmente, il Board aveva esplorato la possibilità che, rispetto alla disinformazione sul COVID-19, potesse essere preferibile per Meta adottare un approccio localizzato su vasta scala. Meta ha tuttavia ribadito che questa soluzione non è realizzabile senza compromettere in modo significativo chiarezza e correttezza per gli utenti e senza aumentare notevolmente gli errori di applicazione della normativa. Le preoccupazioni di Meta potrebbero essere giustificate. Tuttavia, nell'escludere questa opzione, Meta ha vanificato gli sforzi del Board di conciliare punti di vista divergenti di stakeholder e membri del Board su come gestire al meglio la disinformazione pericolosa sul COVID-19 nel rispetto dei diritti umani, in particolar modo del diritto alla libertà di espressione. Le 18 raccomandazioni contenute in questo parere consultivo sulle normative, gran parte delle quali riassunte di seguito, hanno efficacia entro questi limiti.

Il Board raccomanda a Meta i seguenti provvedimenti:

Continuare a rimuovere i contenuti falsi sul COVID-19 "in grado di contribuire direttamente al rischio di violenza fisica imminente nell'attuale emergenza sanitaria pubblica globale" e avviare una rivalutazione trasparente e inclusiva delle 80 affermazioni che rimuove attualmente. Un'emergenza sanitaria pubblica rappresenta un pericolo grave e diretto per la salute. Data l'insistenza di Meta sulla necessità di un approccio unificato e globale alla disinformazione sul COVID-19, il Board ritiene giustificata la risposta dell'azienda con misure eccezionali di rimozione delle informazioni false in grado di contribuire direttamente al rischio di violenza fisica imminente, come stabilito dalle autorità sanitarie pubbliche. In particolare, Meta non ha interpellato le autorità sanitarie pertinenti per richiedere una nuova valutazione delle affermazioni che rimuove, né ha condotto consultazioni più ampie con stakeholder ed esperti per rivalutare le singole affermazioni o la normativa in generale. Dal momento che Meta non ha ancora avviato una procedura di due diligence per modificare la propria normativa (che è in primis responsabilità di Meta), il Board non è nella posizione di consigliare una modifica normativa che potrebbe colpire in modo sproporzionato i più vulnerabili.

Tuttavia, non essendo più nelle fasi iniziali della crisi, per adempiere le proprie responsabilità in materia di diritti umani, Meta dovrebbe valutare con regolarità se le soglie per la rimozione, stabilite nelle proprie normative, continuino a essere soddisfatte. L'azienda dovrebbe pertanto avviare un processo trasparente per valutare regolarmente le 80 affermazioni soggette a rimozione, coinvolgendo un ampio numero di stakeholder. Solo quando gli stakeholder forniscono evidenze chiare delle potenzialità di un'affermazione di causare violenza fisica imminente, è giustificabile includere la stessa nella lista delle affermazioni soggette a rimozione. Meta dovrebbe condividere pubblicamente gli esiti di queste valutazioni periodiche.

Esplorare la possibilità di localizzare il proprio approccio. Meta deve predisporre un piano d'azione per quando il COVID-19 non sarà più classificato dall'OMS come un'emergenza sanitaria globale, ma continuerà a essere ritenuto un'emergenza sanitaria pubblica dalle autorità sanitarie locali. Il Board raccomanda all'azienda di avviare una procedura di valutazione dei rischi per identificare le misure da adottare in questo scenario. Queste dovranno affrontare la disinformazione in grado di contribuire direttamente a violenza grave e imminente nella vita reale, senza compromettere la libertà di espressione a livello globale. La valutazione dei rischi deve includere una valutazione relativa alla fattibilità dell'applicazione delle proprie normative a livello locale.

Valutare l'impatto dell'architettura delle proprie piattaforme. Alcuni esperti hanno espresso timori riguardo al fatto che l'architettura delle piattaforme di Meta possa favorire la diffusione della disinformazione pericolosa per la salute. A seguito di ciò, il Board raccomanda a Meta di valutare l'impatto delle proprie scelte di progettazione sui diritti umani. L'azienda dovrebbe commissionare una valutazione dell'impatto sui diritti umani delle modalità con cui sezione Notizie, algoritmi legati ai consigli e altre funzioni diffondono la disinformazione dannosa per la salute e il relativo impatto.

Aumentare la trasparenza in merito alle richieste dei governi. Nel pieno della pandemia, sono state sollevate preoccupazioni circa i controlli di contenuti correlati al COVID-19 svolti da Meta dietro richiesta dei governi. Ciò è particolarmente problematico quando i governi richiedono di inasprire i controlli su manifestanti pacifici o difensori dei diritti umani, di controllare le conversazioni sulle origini della pandemia e di zittire coloro che criticano o mettono in discussione le risposte dei governi stessi all'emergenza sanitaria pubblica. Le Nazioni Unite hanno espresso timori circa la possibilità che alcuni governi abbiano usato la pandemia come pretesto per intaccare i principi democratici. Meta dovrebbe garantire trasparenza e segnalare con regolarità le richieste di controllo dei contenuti provenienti da attori statali nell'ambito della normativa "Disinformazione sulla salute durante emergenze sanitarie pubbliche".

Condurre ricerche indipendenti e migliorare la comprensione della disinformazione sul COVID-19. Il Board ha ascoltato i pareri di esperti secondo cui gli sforzi compiuti per comprendere la disinformazione sul COVID-19, nonché l'efficacia della risposta di Meta, siano vanificati dall'impossibilità di accedere ai dati e alle ricerche dell'azienda. La mancanza di dati ha inoltre reso difficoltoso per il Board valutare la fondatezza della richiesta di parere consultivo sulle normative. Il Board riconosce che, a differenza di altre aziende di social media, Meta ha adottato misure significative per la condivisione dei dati con i ricercatori esterni, molti dei quali hanno riferito al Board dell'importanza di strumenti come CrowdTangle e Facebook Open Research and Transparency (FORT). Al tempo stesso, i ricercatori hanno lamentato la difficoltà di accedere a strumenti come FORT. Meta dovrebbe continuare a rendere disponibili questi strumenti, migliorandone al contempo l'accessibilità e consentire l'accesso dei ricercatori esterni ai dati non di dominio pubblico. Il Board raccomanda anche all'azienda di condurre ricerche e pubblicare i dati relativi all'applicazione delle proprie normative sul COVID-19, oltre che di rendere pubblici i risultati della ricerca sulle "etichette neutrali" condivisi con il Board. Infine, il Board raccomanda a Meta di estendere l'accesso ai propri dati aziendali ai ricercatori e alle università della "maggioranza globale" (o "sud globale") e di promuovere in tutto il mondo programmi di alfabetizzazione digitale.

Aumentare l'equità, la chiarezza e la coerenza in merito alla rimozione della disinformazione sul COVID-19. Per adempiere le proprie responsabilità in materia di diritti umani, Meta deve assicurarsi che le proprie regole siano chiare per gli utenti. A tal fine, l'azienda dovrebbe spiegare in che modo le singole categorie di affermazioni sul COVID-19 soggette a rimozione contribuiscono direttamente al rischio di violenza fisica imminente. Dovrebbe inoltre chiarire su quali basi fonda la propria valutazione delle affermazioni false e creare un registro delle modifiche applicate alla lista delle affermazioni rimosse. Per garantire l'applicazione uniforme delle proprie regole in varie lingue e aree geografiche, l'azienda dovrebbe tradurre le proprie linee guida interne per i moderatori di contenuti in tutte le lingue in cui opera. Meta dovrebbe inoltre tutelare il diritto degli utenti al ricorso consentendo la possibilità di contestare le etichette dei fact-checker e assicurando che i ricorsi inviati non vengano controllati dallo stesso fact-checker responsabile della decisione iniziale.

II. Richiesta di Meta

1. La presente richiesta di parere consultivo sulle normative riguarda la normativa di Meta relativa alla disinformazione sul COVID-19, come delineata nella normativa dell'azienda in materia di disinformazione sulla salute durante emergenze sanitarie pubbliche. La normativa in questione rientra nello Standard della community sulla disinformazione. Meta ha inviato al Board una richiesta relativa al presente parere consultivo sulle normative a luglio 2022, chiedendo se dovesse continuare a rimuovere determinati contenuti sul COVID-19, come previsto da questa normativa, o se un approccio meno restrittivo non sia più in linea con i suoi valori e le responsabilità in materia di diritti umani.

2. Meta ha illustrato nella sua richiesta che ai sensi della normativa in materia di disinformazione sulla salute durante emergenze sanitarie pubbliche, l'azienda rimuove i casi di disinformazione "in grado di contribuire direttamente al rischio di violenza fisica imminente" durante le emergenze sanitarie pubbliche. La normativa è illustrata in maggiore dettaglio nella Sezione III più avanti. Nel determinare i casi di disinformazione che soddisfano lo standard in questione, l'azienda collabora con autorità sanitarie pubbliche competenti ed esperte per valutare la falsità di affermazioni specifiche, nonché la probabilità che queste contribuiscano direttamente al rischio di violenza fisica imminente. Questa valutazione avviene a livello globale. Meta ha ribadito al Board che un approccio su scala e localizzato all'applicazione della normativa non si è rivelato realizzabile senza compromettere in modo significativo chiarezza e correttezza per gli utenti e senza aumentare notevolmente gli errori di applicazione della normativa. Per i casi di disinformazione che non rientrano nella soglia più elevata, Meta usa altre misure, quali retrocessione, etichette e fact-checking.

3. Da gennaio 2020 a febbraio 2021 (vd. la Sezione III più avanti), nello sviluppo del suo approccio alla disinformazione sul COVID-19, Meta ha consultato più di 180 esperti di varie discipline, tra cui esperti di salute pubblica e malattie infettive, esperti di sicurezza nazionale e pubblica, ricercatori specializzati nella disinformazione, fact-checker, esperti di libertà di espressione e diritti digitali. Meta ha inoltre consultato stakeholder regionali. Meta ha ricevuto raccomandazioni e prospettive diverse e, talvolta, contrastanti da esperti di varie discipline e stakeholder provenienti da diverse regioni del mondo, come illustrato più avanti. Meta ha dichiarato che, nell'adozione dell'attuale normativa, ha stabilito che i rischi associati a determinati casi di disinformazione erano talmente gravi da renderne necessaria la rimozione, considerata l'emergenza sanitaria pubblica determinata dalla pandemia di COVID-19. Nella sua richiesta al Board, Meta ha sottolineato che le circostanze relative al COVID-19 sono mutate da quando l'azienda ha deciso di procedere alla rimozione di determinati casi di disinformazione sul COVID-19, oltre 2 anni fa. Questi mutamenti hanno spinto l'azienda a valutare se la rimozione di tali casi di disinformazione sia ancora necessaria. Meta ha segnalato 3 cambiamenti da sottoporre all'attenzione del Board.

4. In primo luogo, secondo Meta, l'ecosistema informativo legato al COVID-19 ha subito un mutamento. Nelle fasi iniziali della pandemia, la mancanza di indicazioni autorevoli ha creato un vuoto informativo tale da favorire la diffusione della disinformazione. Oggi, come sottolineato dall'azienda, la situazione è profondamente cambiata. Le persone hanno accesso a informazioni affidabili sul virus e sulle autorità sanitarie pubbliche che possono fornire informazioni e influenzare il comportamento delle persone a rischio.

5. In secondo luogo, Meta ha sottolineato che, grazie ai vaccini e all'evoluzione delle varianti della malattia, il COVID-19 risulta meno fatale rispetto all'inizio del 2020. Lo sviluppo e la distribuzione di vaccini efficaci hanno permesso di prevenire e ridurre la gravità dei sintomi del COVID-19. Inoltre, secondo gli esperti di sanità pubblica, le varianti attuali provocano sintomi meno gravi rispetto a quelle precedenti e i trattamenti terapeutici sono in rapida evoluzione.

6. In terzo luogo, Meta ha dichiarato che le autorità sanitarie pubbliche stanno valutando attivamente la possibilità che il COVID-19 si sia evoluto in uno stato meno grave e "alcune autorità sanitarie pubbliche rilevano che talune aree geografiche del mondo hanno iniziato la transizione verso uno stato meno grave della pandemia" (richiesta di parere consultivo sulle normative di Meta, pagina 14). A supporto di questa osservazione, Meta ha richiamato le dichiarazioni rese dal dott. Anthony Fauci negli Stati Uniti, dalla Commissione europea e dal Ministro della sanità della Thailandia.

7. Tuttavia, Meta ha riconosciuto che la pandemia ha avuto un decorso diverso nel mondo. Nella sua richiesta al Board, l'azienda ha scritto:

Nonostante la crescente disponibilità di vaccini, trattamenti medici e indicazioni autorevoli nei Paesi ad alto reddito, gli esperti prevedono un ritardo nell'accesso a tali elementi per le persone nei Paesi a basso reddito con sistemi sanitari meno sviluppati. La differenza più significativa al momento si riscontra tra le nazioni sviluppate, (...) e quelle meno sviluppate. (...). L'80% delle persone che vive in Paesi ad alto reddito ha ricevuto almeno una dose del vaccino, contro il solo 13% delle persone che vive nei Paesi a basso reddito. È più probabile inoltre che i Paesi a basso reddito presentino sistemi sanitari con capacità inferiori, economie meno solide e meno fiducia nelle indicazioni governative, tutti fattori che contribuiranno a rendere più difficile la vaccinazione delle persone e il trattamento dei soggetti affetti da COVID-19

(richiesta di parere consultivo sulle normative di Meta, pagina 3).

Domande di Meta rivolte al Board

8. Considerato quanto sopra, Meta ha presentato al Board le seguenti opzioni normative. La Sezione III più avanti fornisce ulteriori dettagli su tali misure:

  • Continuare a rimuovere determinate informazioni inesatte concernenti il COVID-19: questa opzione implicherebbe mantenere l'approccio attualmente applicato da Meta di rimuovere i contenuti falsi "in grado di contribuire direttamente al rischio di violenza fisica imminente durante le emergenze sanitarie pubbliche". Secondo Meta, adottando questa opzione, l'azienda cesserebbe di rimuovere i casi di disinformazione una volta che gli stessi non costituiscano più un rischio di violenza fisica imminente e, a tale proposito, l'azienda chiede al Board indicazioni su come dovrebbe adottare questa decisione.
  • Misure di riduzione temporanea di emergenza: adottando questa opzione, Meta cesserebbe di rimuovere i casi di disinformazione sul COVID-19 e provvederebbe piuttosto a ridurne la distribuzione. Tale misura avrebbe carattere provvisorio e, al riguardo, l'azienda chiede consiglio al Board su come stabilire quando cessarne l'applicazione, in caso venga adottata.
  • Fact-checking indipendente: con questa opzione, i contenuti attualmente rimossi verrebbero sottoposti alla valutazione di fact-checker indipendenti. Nella sua richiesta al Board, Meta fa rilevare che "il numero di fact-checker a disposizione per valutare i contenuti sarà comunque limitato. Qualora Meta implementasse tale opzione, i fact-checker non sarebbero in grado di esaminare tutti i contenuti sul COVID-19 sulle nostre piattaforme, per cui alcuni non verrebbero controllati, retrocessi ed etichettati" (richiesta di parere consultivo sulle normative di Meta, pagina 16).
  • Etichette: adottando questa opzione, Meta aggiungerebbe delle etichette che non impedirebbero agli utenti di vedere i contenuti, ma fornirebbero link diretti a informazioni autorevoli. Meta considera questa opzione come una misura temporanea e chiede al Board indicazioni sui fattori che dovrebbe considerare al fine di decidere quando cessare l'uso di tali etichette.

9. Meta ha dichiarato che ciascuna di queste opzioni presenta vantaggi e svantaggi, in particolare in termini di scalabilità, accuratezza e della quantità di contenuti interessati. L'azienda ha ribadito a gran voce che la normativa dovrebbe essere appropriata per tutte le aree geografiche, e al contempo coerente e attuabile a livello globale. In merito alle normative specifiche per Paese, Meta ha dichiarato: "Per motivazioni tecniche, consigliamo vivamente di mantenere normative globali in relazione al COVID-19, anziché normative specifiche per Paesi o aree geografiche". Nella sua richiesta al Board, Meta ha affermato: "L'applicazione di normative a livello dei singoli Paesi potrebbe comportare sia applicazioni eccessive, quando un gruppo di addetti al controllo del mercato è responsabile di più Paesi, sia applicazioni non sufficienti, poiché i contenuti possono diffondersi fra Paesi e aree geografiche" (richiesta di parere consultivo sulle normative di Meta, pagina 17, nota 37). Per maggiori informazioni sull'applicazione su scala e localizzata, vd. il paragrafo 61 più avanti.

III. Normativa in materia di disinformazione sulla salute durante emergenze sanitarie pubblichedi Meta

10. Sulla spinta della pandemia di COVID-19 e dell'aumento dei casi di disinformazione registrati sulle proprie piattaforme, Meta ha iniziato a rimuovere la disinformazione sul COVID-19 nel gennaio 2020. La normativa dell'azienda e i tipi di affermazioni soggette a rimozione si sono evoluti nei 2 anni successivi, per culminare nell'attuale sezione "Disinformazione sulla salute durante emergenze sanitarie pubbliche" dello Standard della community sulla disinformazione e nella pagina del Centro assistenza a corredo.

11. Lo Standard della community sulla disinformazione esordisce con i fondamenti della normativa, i quali illustrano l'approccio di Meta alla disinformazione, che comprende il ricorso alla rimozione, al fact-checking, alla retrocessione e alle etichette come misure di applicazione. Secondo l'azienda, vengono rimossi esclusivamente i casi di disinformazione "in grado di contribuire direttamente al rischio di violenza fisica imminente". La normativa identifica 4 tipi di disinformazione soggetta a rimozione: (1) violenza fisica o violenza; (2) disinformazione dannosa per la salute; (3) interferenze elettorali o sui censimenti e (4) contenuti multimediali manipolati (particolarmente enfatizzata).

12. La sezione "Disinformazione dannosa per la salute" dello Standard della community sulla disinformazione presenta 3 sottocategorie: (i) disinformazione sui vaccini; (ii) disinformazione sulla salute durante emergenze sanitarie pubbliche; e (iii) contenuti che promuovono o sostengono cure miracolose per problemi di salute nocive (particolarmente enfatizzata). Sebbene altri Standard della community siano potenzialmente applicabili alle affermazioni sul COVID-19, il presente parere consultivo sulle normative si sofferma unicamente sulla sezione "Disinformazione sulla salute durante emergenze sanitarie pubbliche" della normativa in materia di disinformazione, in quanto applicabile alla pandemia di COVID-19. Il parere non va inteso come in riferimento ad altre normative.

Rimozione di affermazioni legate alla disinformazione sul COVID-19

13. La normativa in materia di disinformazione sulla salute durante emergenze sanitarie pubbliche recita:

Rimuoviamo i casi di disinformazione durante le emergenze sanitarie pubbliche quando le autorità sanitarie concludono che le informazioni sono false e in grado di alimentare il rischio imminente di violenza fisica, anche contribuendo al rischio che le persone contraggano o diffondano una malattia pericolosa o rifiutino il vaccino associato. Identifichiamo le emergenze sanitarie pubbliche in collaborazione con autorità sanitarie locali e globali. Ciò comprende attualmente affermazione false correlate al COVID-19, verificate da autorità sanitarie esperte, circa l'esistenza o la gravità del virus, le modalità di cura o prevenzione, la trasmissione del virus e l'immunità delle persone, nonché false affermazione che disincentivano le buone pratiche sanitarie correlate al COVID-19 (come sottoporsi ai test, rispettare il distanziamento sociale, indossare una mascherina e sottoporsi al vaccino anti COVID-19). Clicca qui per un insieme completo di regole relative ai casi di disinformazione non ammessi in materia di COVID-19 e vaccini.

14. Ai sensi della normativa in questione, Meta rimuove i casi di disinformazione in presenza di 3 elementi: 1) un'emergenza sanitaria pubblica; 2) affermazioni false e 3) affermazioni in grado di contribuire direttamente al rischio di violenza fisica imminente. Applicando questo standard alla pandemia di COVID-19, Meta ha fatto affidamento sulle conclusioni delle autorità sanitarie pubbliche per identificare circa 80 affermazioni soggette a rimozione. Queste affermazioni, periodicamente aggiornate, e domande comuni sull'applicazione della normativa sono disponibili in questa pagina del Centro assistenza.

15. Come illustrato nella normativa, le 80 affermazioni sono classificate nelle seguenti 5 categorie: (1) affermazioni sull'esistenza o sulla gravità del COVID-19, ciò comprende affermazioni che negano l'esistenza della malattia o che ne sminuiscono la gravità (ad es., affermazioni secondo cui nessuno è morto di COVID-19); (2) immunità e trasmissione del COVID-19, comprese affermazioni secondo cui il COVID-19 è trasmesso dalla tecnologia 5G; (3) cure garantite o metodi di prevenzione per il COVID-19 (ad es., affermazioni secondo cui le creme topiche possono curare o prevenire l'infezione da coronavirus); (4) disincentivazione delle buone prassi sanitarie (ad es., affermazioni secondo cui le mascherine contengono microparticelle nocive o che i vaccini per il COVID-19 alterano il DNA delle persone o causano magnetismo); (5) accesso ai servizi sanitari essenziali, il che comprende affermazioni secondo cui gli ospedali uccidono i pazienti per guadagnare più denaro o vendere gli organi delle persone.

16. Nella sua richiesta, Meta ha spiegato che per valutare la sussistenza di un'emergenza sanitaria pubblica si basa su quanto segue: (1) eventuale dichiarazione di emergenza sanitaria pubblica da parte dell'Organizzazione mondiale della sanità (OMS); (2) eventuale classificazione da parte dell'OMS di una malattia come trasmissibile, fatale o ad alto rischio o (3) nel caso in cui la valutazione dell'OMS non sia disponibile, Meta si affida alla classificazione di un'emergenza sanitaria pubblica delle autorità sanitarie locali per un determinato Paese. Come illustrato da Meta, l'OMS ha avvisato l'azienda che, nel corso di un'emergenza dichiarata, "sussiste un elevato rischio di violenza fisica irreversibile nei confronti delle persone quando il tasso di esposizione, la velocità di trasmissione, l'associazione fra esposizione e rischio e i tassi di morbilità e mortalità sono insolitamente elevati" (richiesta di parere consultivo sulle normative di Meta, pagina 6). L'OMS ha dichiarato l'epidemia di COVID-19 "Emergenza di sanità pubblica di rilevanza internazionale" il 30 gennaio 2020.

17. In base alla sua normativa, nel contesto di emergenze sanitarie pubbliche, Meta fa affidamento su autorità sanitarie pubbliche competenti per determinare la falsità di un'affermazione e la possibilità che questa sia "in grado di contribuire direttamente al rischio di violenza fisica imminente". Meta ha comunicato al Board di fare affidamento su esperti sanitari pubblici, come l'OMS e i Centri per la prevenzione e il controllo delle malattie (CDC) statunitensi nella valutazione delle affermazioni attualmente soggette a rimozione. In passato, Meta ha consultato anche, ad esempio, i responsabili nazionali dell'UNICEF e il Ministro della Salute del Pakistan (richiesta di parere consultivo sulle normative di Meta, pagina 6). Sulla base di campioni di corrispondenza fra Meta e un'autorità sanitaria pubblica controllati dal Board, Meta identifica le affermazioni, in parte, attraverso il monitoraggio delle sue piattaforme e le sottopone alla valutazione di organismi sanitari pubblici, senza che siano le stesse autorità sanitarie pubbliche a identificare o definire le affermazioni che andrebbero rimosse. In un esempio di uno scambio con un'autorità sanitaria pubblica che ha fornito la valutazione in questione, Meta ha identificato un'affermazione (secondo cui i vaccini contro il COVID-19 causano attacchi cardiaci), chiedendo all'autorità sanitaria pubblica se questa fosse falsa e potesse portare al rifiuto dei vaccini. L'autorità sanitaria pubblica ha risposto fornendo fonti e analisi a sostegno della conclusione secondo cui "non esistono prove che i vaccini contro il COVID-19 causino attacchi cardiaci". Sono stati segnalati casi di miocardite (infiammazione del muscolo cardiaco) dopo la vaccinazione, soprattutto in adolescenti e giovani di sesso maschile. L'autorità sanitaria pubblica ha inoltre concluso che "i timori infondati circa la correlazione fra vaccini e attacchi cardiaci (infarto del miocardio) o altre condizioni cardiache potrebbero causare il rifiuto dei vaccini".

18. La normativa in materia di disinformazione di Meta prevede eccezioni, in base alle quali l'azienda esclude determinate forme di libertà di espressione dalla rimozione. Ad esempio, le dichiarazioni incentrate sulla politica o su decisioni politiche, come "gli obblighi vaccinali per il COVID non funzionano" o "le aziende che producono vaccini vogliono solo rimpinguare i loro portafogli" sono consentite. I contenuti condivisi con finalità umoristiche o satiriche esplicite, ad esempio "Solo il sangue di Brad Pitt può curare il COVID (con due emoji che ridono fino alle lacrime)" non violano la normativa. Le affermazioni contenenti aneddoti o esperienze personali sono consentite, purché: i contenuti condividano l'esperienza personale di una persona specifica; l'identità della persona sia esplicitamente menzionata nel post e il contenuto non presenti un'affermazione categorica o un invito ad agire. Anche i contenuti che presentano speculazioni, domande o che esprimono dubbi, ad esempio "I vaccini causano l'autismo?", sono consentiti.

19. Meta si avvale del suo normale sistema di applicazione su scala, composto da strumenti automatizzati (o classificatori), moderatori di contenuti e team di escalation interni, per rimuovere le affermazioni individuate dalla normativa sulla disinformazione. L'azienda ha segnalato al Board di aver addestrato classificatori in 19 lingue per identificare le possibili violazioni della normativa in esame. Ai moderatori dei contenuti che applicano la normativa sulla disinformazione vengono fornite linee guida interne, che comprendono indicazioni su come identificare i contenuti da lasciare pubblicati sulla piattaforma poiché di natura umoristica, satirica o contenenti aneddoti personali, come illustrato in questa pagina del Centro assistenza. In caso di rimozione di un contenuto, l'utente ha la possibilità di "contestare la decisione". Il controllo non è garantito, ma alcune decisioni vengono controllate in sede di ricorso, laddove possibile. Meta ha comunicato al Board che tra marzo 2020 e luglio 2022, l'azienda ha rimosso 27 milioni di contenuti legati alla disinformazione sul COVID-19 su Facebook e Instagram. Dei 27 milioni di contenuti rimossi, 1,3 milioni sono stati ripristinati grazie ai ricorsi che è stato possibile valutare.

Fact-checking indipendente e retrocessione dei casi di disinformazione

20. I contenuti che non rientrano nella lista delle affermazioni soggette a rimozione ma che potrebbero costituire disinformazione sul COVID-19 sono soggetti a fact-checking indipendente. La tecnologia di apprendimento automatico rileva i post che potrebbero costituire disinformazione e li invia ai fact-checker indipendenti. Meta collabora con organizzazioni di fact-checking indipendenti per controllare ed etichettare i contenuti. L'azienda non effettua valutazioni sulle prestazioni dei fact-checker, ma si affida all'International Fact Checking Network (IFCN) per valutare le organizzazioni e garantire la qualità. Le organizzazioni di fact-checking vengono valutate dall'IFCN in termini di conformità a un codice di principi, che prevede l'impegno all'imparzialità, la trasparenza delle fonti e dei finanziamenti, oltre a una normativa sulle correzioni aperta e trasparente.

21. I contenuti inviati alla coda di fact-checking potrebbero temporaneamente essere visualizzati più in basso nei feed degli utenti, specialmente se virali, prima del loro controllo. Meta utilizza un algoritmo di classificazione per assegnare la priorità ai contenuti da sottoporre ai fact-checker e i contenuti virali hanno la priorità nelle loro code. In risposta a una domanda del Board, Meta ha affermato che la stragrande maggioranza dei contenuti nelle code di fact-checking non vengono mai controllati dai fact-checker. Secondo Meta, la maggior parte dei contenuti nella coda non sono falsi, tuttavia l'azienda non ha fornito prove a sostegno di tale dichiarazione. Stando a quanto dichiarato da Meta, i partner di fact-checking danno la priorità ad affermazioni palesemente false o evidenti bufale, prive di alcun fondamento, attuali, di tendenza e pertinenti. I fact-checker possono altresì individuare contenuti da controllare di propria iniziativa, indipendentemente dalla coda fornita da Meta.

22. I post e le inserzioni dei personaggi politici non sono sottoposti a fact-checking. Meta definisce "personaggi politici" i "candidati alle elezioni, i titolari di cariche pubbliche (e, di conseguenza, molti dei loro collaboratori), i partiti politici e i rispettivi leader". Secondo Meta, tale normativa è in vigore poiché "il dibattito politico [nelle democrazie mature caratterizzate dalla libertà di stampa] è la forma di libertà di espressione più controllata [e] limitare il dibattito politico [...] ridurrebbe le informazioni sulle dichiarazioni dei candidati eletti a disposizione delle persone e la responsabilità dei personaggi politici in relazione alle loro affermazioni".

23. I fact-checker possono valutare un contenuto come "falso", "parzialmente falso" o "privo di contesto". Meta etichetterà il contenuto di conseguenza e fornirà un link all'articolo del fact-checker sull'argomento. Per consultare l'articolo, gli utenti devono uscire da Facebook e accedere a un'altra pagina, il che richiede l'uso di dati aggiuntivi. Ciò implica costi aggiuntivi per alcuni utenti nei Paesi in cui le piattaforme di Meta non prevedono tariffe sul traffico (gli utenti non pagano dati o altre tariffe per l'accesso mobile alle app di Meta). I contenuti etichettati come "falsi" e "alterati" sono coperti da una schermata di avviso che li oscura, richiedendo agli utenti di cliccare per vedere i contenuti. I contenuti etichettati come "parzialmente falsi" o "privi di contesto" non vengono oscurati. Meta ha riferito al Board che nei 90 giorni precedenti al 9 dicembre 2022, per i post etichettati come "falsi" o "alterati" e coperti da una schermata che li oscurava, il 10% degli utenti Facebook e il 43% degli utenti Instagram ha cliccato sul post per visualizzare i contenuti. Durante lo stesso periodo, Meta ha segnalato che per i post etichettati come "falsi", "alterati", "parzialmente falsi" o "privi di contesto", in media, il 3% degli utenti di Facebook e il 19% di quelli Instagram hanno cliccato su "Scopri perché". Questa operazione reindirizza gli utenti a una schermata separata che fornisce informazioni sul motivo per cui il contenuto è stato valutato e il link all'articolo del fact-checker.

24. Quando un contenuto viene etichettato dai fact-checker, Meta lo posiziona più in basso nei feed degli utenti. La retrocessione applicata ai contenuti legati alla disinformazione sul COVID-19 etichettati come "falsi", "alterati" e "parzialmente falsi" è più severa rispetto a quella applicata ai contenuti etichettati come "privi di contesto". Secondo Meta, l'effetto della retrocessione sulla posizione in cui un contenuto verrà visualizzato nei feed dei singoli utenti varia. I contenuti visualizzati da un utente sono personalizzati, con l'obiettivo, secondo Meta, di mostrare agli utenti i contenuti di loro maggiore interesse. La retrocessione di un contenuto comporta una riduzione del relativo punteggio di classificazione, ma non implica che questo avrà un numero specifico o una percentuale inferiore di visualizzazioni. La probabilità che un particolare utente visualizzi un contenuto retrocesso dipenderà dal punteggio di classificazione del contenuto in questione rispetto ad altri contenuti nel feed dell'utente. Di conseguenza, le retrocessioni influiscono sui contenuti in modo diverso, in base agli utenti e ai rispettivi inventari di contenuti. Quando un contenuto viene condiviso in un gruppo o da un utente con un vasto numero di follower, il suo punteggio di classificazione per i follower e le persone che interagiscono regolarmente con il gruppo o con la Pagina sarà probabilmente più alto, o simile, a quello di altri contenuti nei feed. Ciò implica che la retrocessione potrebbe non produrre gli effetti sperati.

25. Quando un fact-checker determina che un contenuto creato da una Pagina o da un gruppo viola la normativa in materia di disinformazione dell'azienda, i responsabili della Pagina o gli amministratori del gruppo possono inviare un ricorso. I profili Facebook non possono inviare un ricorso contro un'etichetta di fact-checking. È possibile inviare un ricorso per le violazioni dei gruppi tramite l'app Facebook su iOS e Android o su un browser web. Non è possibile inviare un ricorso per le violazioni delle Pagine tramite browser web. Secondo il Centro assistenza di Facebook, "al momento la funzione per inviare ricorsi nel prodotto è disponibile solo per gli amministratori del gruppo e per i gestori delle Pagine in alcuni Paesi. Le altre persone possono comunque inviare ricorsi ai fact-checker tramite e-mail".

26. Nella sua richiesta al Board, Meta ha dichiarato che il numero di fact-checker a disposizione per valutare i contenuti sarà comunque limitato. Nel richiedere al Board di valutare i vari approcci disponibili per gestire la disinformazione sul COVID-19, Meta ha affermato che se l'azienda dovesse affidarsi esclusivamente o prevalentemente al fact-checking, i fact-checker non sarebbero in grado di controllare tutti i contenuti relativi al COVID-19 sulle piattaforme. Pertanto, alcuni casi di disinformazione non verrebbero controllati in termini di accuratezza, retrocessi ed etichettati.

Applicazione di etichette

27. Meta applica anche 2 tipi di "suggerimenti di gestione neutrali" (NIT): etichette di trattamento neutrali e informazioni sui suggerimenti di gestione X, o FAXIT. Queste soluzioni sono applicate direttamente da Meta e non è previsto il coinvolgimento di fact-checker. I FAXIT forniscono dichiarazioni personalizzate sui contenuti condivisi nei post prima di reindirizzare l'utente al centro informazioni. Meta dispone di 2 etichette FAXIT: (1) "I vaccini anti COVID-19 vengono sottoposti a numerosi test di sicurezza ed efficacia e sono poi monitorati accuratamente" e (2) "Alcuni trattamenti non approvati per il COVID-19 potrebbero causare danni gravi". Un'etichetta viene apposta a qualsiasi contenuto che i classificatori identificano come relativo al COVID-19. I contenuti possono essere veri o falsi e l'etichetta non presta alcuna dichiarazione sui contenuti nello specifico. Tutti i NIT reindirizzano gli utenti al centro informazioni sul COVID-19 di Meta.

28. Durante la discussione relativa alla presente richiesta di parere consultivo sulle normative, Meta ha comunicato al Board l'intenzione di ridurre la portata dei NIT a partire dal 19 dicembre 2022. La decisione si è basata su un esperimento globale che i team Product e Integrity di Meta hanno condotto sull'efficacia dei NIT nel limitare la diffusione della disinformazione sul COVID-19 sulla piattaforma. Il test ha coinvolto un gruppo di controllo che ha continuato a visualizzare i NIT relativi al COVID-19 senza alcuna limitazione. Sono stati predisposti 3 ulteriori gruppi di test: un primo gruppo che poteva visualizzare uno dei NIT relativo al COVID-19 ogni 3 giorni; un secondo gruppo che poteva visualizzare uno dei NIT relativo al COVID-19 ogni 30 giorni e un terzo gruppo che non ha visualizzato alcuna etichetta. Secondo l'azienda, il secondo gruppo (quello che poteva visualizzare uno dei NIT ogni 30 giorni) presentava il CTR (tasso di clic) medio più elevato verso informazioni autorevoli fra tutti i gruppi, compreso quello di controllo. Il gruppo in questione ha anche fatto registrare il tempo medio di visualizzazione dei NIT più elevato. Inoltre, non si è verificata "alcuna regressione statisticamente significativa" nella diffusione della disinformazione sul COVID-19 fra il gruppo di controllo e i gruppi di test. In base ai risultati dell'esperimento, Meta ha segnalato al Board di aver limitato il numero di NIT relativi al COVID-19 che gli utenti possono visualizzare sulle piattaforme dell'azienda a uno per ciascun tipo di etichetta legata al COVID-19 ogni 30 giorni, a partire dal 19 dicembre 2022. In seguito, Meta ha comunicato al Board che l'azienda ha interrotto l'uso di tutti i NIT relativi al COVID-19, così da esporre gli utenti a un numero ridotto di etichette. In questo modo si vuole garantire l'efficacia dei NIT anche in altre emergenze sanitarie pubbliche.

Sanzioni

29. Meta applica sanzioni a livello di account e gruppi che influiscono sulla diffusione della disinformazione. Profili, Pagine o gruppi che pubblicano contenuti rimossi o etichettati come "falsi" o "alterati" ai sensi della normativa in esame ricevono un avvertimento, vengono rimossi dai consigli e non sono in grado di monetizzare. Inoltre, sono previsti pop-up che informano i visitatori della Pagina o del gruppo che la Pagina in questione ha condiviso disinformazione, una volta raggiunta una soglia di avvertimento. Secondo la pagina del Centro assistenza, Pagine, gruppi e account Instagram possono anche essere rimossi "se condividono contenuti contrari alle nostre normative sul COVID-19 e sui vaccini e se sono dedicati alla diffusione di informazioni che disincentivano i vaccini sulla piattaforma".

IV. Interazioni esterne

30. Nella predisposizione del presente parere consultivo sulle normative, l'Oversight Board ha interagito con stakeholder e Meta in diversi modi.

Commenti pubblici

31. L'Oversight Board ha ricevuto 181 commenti pubblici nell'agosto 2022 in relazione al presente parere consultivo sulle normative. 4 commenti provenivano dall'America Latina e dai Caraibi, 5 dall'Asia centrale e meridionale, 8 dall'Asia Pacifico e dall'Oceania, 81 dall'Europa e 83 da Stati Uniti e Canada. Il Board non ha ricevuto alcun commento pubblico dal Medio oriente e dal Nord Africa o dall'Africa subsahariana.

32. I temi trattati dagli invii includevano quanto segue:

  • Un invio del Khazanah Research Institute (PC-10703), un istituto di ricerca sulle normative con sede in Malesia, ha posto l'accento sui diversi livelli di accesso a informazioni sanitarie affidabili nei vari Paesi e sui differenti livelli di rischio derivanti dalla mancata applicazione della moderazione alla disinformazione. Se deve esistere un approccio globale, l'invio raccomanda a Meta di adottare un atteggiamento prudente e di continuare a rimuovere la disinformazione sul COVID-19 dannosa. L'invio inoltre si è soffermato sulla mancanza di una chiara definizione di "violenza fisica imminente" e sull'importanza della comprensione del contesto, del monitoraggio continuo e della trasparenza sull'applicazione per garantire un'efficace valutazione dell'uso di questo standard.
  • L'invio dell'American Civil Liberties Union (PC-10759) ha espresso il timore che le difficoltà nel distinguere, su vasta scala, tra realtà e finzione e tra opinioni, esperienza e dichiarazioni di fatto, determini una limitazione da parte di Meta di forme di libertà di espressione che andrebbero consentite.
  • L'invio da parte dell'organizzazione no profit statunitense Asian Americans Advancing Justice (PC-10751) ha evidenziato come gli asiatici americani siano stati considerati il "capro espiatorio" dell'introduzione del virus negli Stati Uniti.
  • Un invio del professore Simon Wood dell'Università di Edimburgo (PC-10713) ha espresso il timore che i fact-checker non dispongano di competenze tecniche adeguate per verificare efficacemente prove e documenti scientifici complessi.
  • L'invio di Media Matters for America (PC-10758) ha richiamato l'attenzione sull'impatto del sistema di controllo incrociato di Meta nel vanificare gli sforzi volti a contrastare la disinformazione. Le "applicazioni più lente o indulgenti" concesse a celebrità, personaggi politici, giornalisti e altri utenti per i contenuti in violazione, hanno consentito a casi di disinformazione di restare pubblicati sulla piattaforma.
  • Diversi invii hanno sottolineato la responsabilità di Meta nell'affrontare i rischi legati alla pubblica sicurezza in considerazione della copertura dell'azienda e del ruolo dei suoi sistemi nella diffusione della disinformazione. Sono stati sollevati timori circa l'adeguatezza di etichette e retrocessioni nell'affrontare il rischio di violenza. Ad esempio, nel suo invio, il vicepresidente senior del Center of Internet and International Studies (PC-10673) ha espresso il timore che le etichette non siano sufficienti a contrastare la disinformazione diffusa da personaggi politici e influencer di spicco. Questo perché "limitarsi ad applicare un'etichetta ai post non è sufficiente in considerazione dei rischi potenziali. Consentire la pubblicazione di informazioni false che aumentano le possibilità di decessi o malattie gravi costituisce una rinuncia alla responsabilità".
  • Molti invii hanno consigliato il ricorso a etichette e retrocessioni anziché alla rimozione della disinformazione. Un invio di Saiph Savage, professore associato della Northeastern University e della Universidad Nacional Autónoma de México (UNAM) (PC-10519), ha richiamato l'attenzione sull'impatto della normativa sulla rimozione e delle sanzioni associate nei confronti della libertà di espressione e delle comunità indigene, sottolineando come queste "si siano espresse in modo diverso circa le best practice per il trattamento del COVID-19 a causa delle loro convinzioni religiose".

33. Per leggere i commenti pubblici inviati per il presente parere consultivo sulle normative, clicca qui..

Tavole rotonde con stakeholder regionali

34. Il Board ha partecipato a ulteriori consultazioni con gli stakeholder tramite una serie di tavole rotonde con stakeholder regionali. Il Board, in collaborazione con le organizzazioni della società civile, ha indetto 6 tavole rotonde di discussione con stakeholder provenienti da Nord America, America Latina, Africa, Asia ed Europa. Grazie a queste tavole rotonde, il Board si è confrontato con circa 100 persone che rappresentano organizzazioni di fact-checking, enti ed esperti di salute pubblica, ricercatori in materia di disinformazione, esperti di alfabetizzazione digitale e comunicazioni e sostenitori dei diritti umani. Questi confronti si sono svolti ai sensi delle regole della Chatham House per garantire una discussione aperta e tutelare i partecipanti.

35. Nel corso di queste consultazioni, sono emersi i seguenti problemi e temi:

  • I problemi comuni fra le aree geografiche comprendono: mancanza di dati e difficoltà nel misurare la portata della disinformazione nei Paesi e l'impatto delle normative esistenti di Meta, in considerazione della mancanza di accesso a ricerche interne e dati dell'azienda; la notevole entità della disinformazione circa la gravità del virus, i rimedi casalinghi o i trattamenti alternativi (compresa la promozione della candeggina), il collegamento delle misure contro la pandemia alla tecnologia 5G e la disinformazione anti vaccini; timori secondo cui la normativa sulla rimozione potrebbe comportare applicazioni eccessive in grado di limitare la libertà di espressione; la necessità di affrontare l'architettura alla base di Facebook che promuove la disinformazione; i principali responsabili della diffusione della disinformazione che hanno motivi finanziari e/o politici per promuovere questi contenuti; il fatto che la disinformazione sul COVID-19 non solo aggrava le emergenze sanitarie pubbliche, ma mina la fiducia delle persone nei confronti delle istituzioni, della comunicazione scientifica e dei trattamenti scientifici e medici, come i vaccini.
  • I problemi identificati dagli stakeholder in America Latina includono: nonostante l'efficacia del fact-checking, i contenuti legati alla disinformazione vengono spesso etichettati dopo aver raggiunto il pubblico di destinazione; timori circa la possibilità di applicare su scala il fact-checking e che la copertura sia significativamente inferiori nelle lingue diverse dall'inglese; molestie organizzate contro gli scienziati che screditano i casi di disinformazione; violenze e minacce subite dai fact-checker che in alcuni casi sono fuggiti da Paesi o aree geografiche per timore della propria incolumità fisica; citazioni in giudizio delle organizzazioni di fact-checking per la loro attività, con conseguente obbligo di difesa in aula, a discapito delle loro già limitate risorse; mancata previsione del fact-checking per personaggi politici e figure di spicco; mancato possesso da parte degli esperti di sanità pubblica e del personale sanitario delle conoscenze o competenze per contrastare in modo efficace le campagne di disinformazione, specie quelle promosse da attori o influencer famosi con interessi economici o politici, come la promozione di cure alternative inefficaci contro il COVID-19.
  • I problemi identificati dagli stakeholder in Nord America comprendono: le segnalazioni dei professionisti del settore medico circa la notevole pressione esercitata sugli operatori sanitari nell'affrontare la disinformazione, che richiede tempo e risorse considerevoli e porta al burn out; la necessità di meccanismi di ricorso migliori e più equi per gli utenti i cui contenuti vengono rimossi; il timore secondo cui buona parte delle ricerche sulla diffusione della disinformazione e sull'efficacia dei vari interventi sia incentrata su Stati Uniti ed Europa occidentale; preoccupazioni sollevate circa la non applicabilità su scala del fact-checking e la copertura significativamente inferiore in lingue diverse dall'inglese; timori circa la possibilità che le incoerenze nelle rimozioni dei casi di disinformazione possano avvalorare le teorie cospirative esistenti; difficoltà nella moderazione dei contenuti per i formati video.
  • I problemi identificati dagli stakeholder in Asia comprendono: la disinformazione era molto estesa all'inizio della pandemia ed è stata diffusa nei social media e nei media tradizionali; la disinformazione in diversi Paesi ha preso di mira le minoranze o i gruppi vulnerabili, come i lavoratori migranti o le minoranze religiose, come responsabili della diffusione del virus; il fact-checking non è in grado di seguire la velocità della disinformazione e spesso interviene troppo tardi; i governi hanno usato le minacce della disinformazione per prendere di mira agenzie di stampa e mettere a tacere i dissensi; gli articoli sottoposti a fact-checking non sono accessibili o convincenti come quelli contenenti disinformazione; è necessario un maggiore coordinamento tra le organizzazioni di fact-checking dell'area geografica, dato che le stesse notizie o notizie simili si diffondono da un Paese all'altro; le organizzazioni di fact-checking non dispongono delle risorse per fornire articoli sottoposti a fact-checking nelle varie lingue parlate nella maggior parte dei Paesi.
  • I problemi identificati dagli stakeholder in Africa comprendono: la disinformazione è stata perlopiù diffusa dai leader religiosi in Africa; governi e partiti di opposizione hanno avuto un ruolo centrale nella diffusione della disinformazione sul COVID-19; la mancanza di fiducia nei governi e nelle pubbliche istituzioni ha creato un terreno fertile per la disinformazione; le autorità sanitarie pubbliche hanno affrontato grandi difficoltà nelle loro comunicazioni pubbliche e sussistono enormi differenze tra i Paesi in termini di efficacia delle autorità sanitarie pubbliche e disponibilità di risorse; il fact-checking non è disponibile in tutte le lingue e questo ne limita l'efficacia.
  • I problemi identificati dagli stakeholder in Europa comprendono: gli effetti della disinformazione variano in base al Paese, a seconda del livello di alfabetizzazione digitale, della fiducia nel governo e nelle istituzioni sanitarie pubbliche e della presenza di un ambiente mediatico aperto; secondo alcuni la rimozione della disinformazione pregiudicherà il dibattito aperto su questioni di pubblico interesse; secondo alcuni le persone più vulnerabili sono le più colpite dalla disinformazione, come i soggetti immunodepressi, i bambini, le persone con una scarsa alfabetizzazione digitale, uno scarso accesso a diversi media e che non hanno accesso a sistemi sanitari adeguati; gli effetti deterrenti della disinformazione sul processo decisionale delle persone; in alcuni casi è stata menzionata la necessità di adottare misure che consentano alle persone di discutere apertamente delle misure sanitarie pubbliche, come l'uso di mascherine o il distanziamento sociale; è stata fatta notare l'esigenza di un approccio coordinato dato che i contenuti di disinformazione rimossi da una piattaforma si spostano facilmente su un'altra; l'esigenza di ideare un approccio preventivo, e non responsivo, alla disinformazione; la necessità di promuovere informazioni di qualità e accurate sulle piattaforme di Meta.

Interazioni con Meta

36. Dopo l'invio da parte di Meta della sua richiesta relativa al presente parere consultivo sulle normative, tra luglio e dicembre 2022, il Board ha sottoposto 50 domande scritte all'azienda, alle quali Meta ha risposto in forma orale o scritta in 3 sessioni di domande e risposte. 40 domande hanno ricevuto una risposta completa, mentre 10 una risposta parziale. Le risposte parziali riguardavano le richieste di suddividere i dati per area geografica e lingua, la ricerca interna sull'efficacia delle varie misure di applicazione e il modo in cui l'azienda ha soppesato le considerazioni contrastanti e i pareri degli esperti nel definire la propria normativa. Il Board ha presentato domande in merito a: ricerche o dati interni di Meta circa la diffusione della disinformazione sul COVID-19 a livello globale sulle piattaforme di Meta e suddivisione per Paesi e lingue; il processo e le misure usati per applicare la normativa sulla rimozione e i dati sul numero di rimozioni; report pubblici sui dati relativi all'applicazione dello Standard della community in materia di disinformazione; il ruolo di autorità ed esperti di sanità pubblica nello sviluppo e nell'applicazione della normativa sulla rimozione; eventuali ricerche su efficacia e impatto della rimozione della disinformazione legata al COVID-19; eventuali ricerche su efficacia e impatto di altre misure, fra cui fact-checking, etichette neutrali e retrocessioni; il ruolo delle organizzazioni di fact-checking indipendente; le sanzioni applicate alla disinformazione sul COVID-19; le linee guida interne sull'implementazione della normativa in materia di disinformazione sul COVID-19; se l'azienda ha valutato l'effetto del programma di controllo incrociato sull'efficacia della normativa in materia di disinformazione sul COVID-19; il processo di coinvolgimento degli stakeholder e gli esperti consultati durante lo sviluppo della normativa in esame e le modalità con cui Meta ha valutato i contributi ricevuti; la fattibilità dell'adozione di un'applicazione diversificata della normativa, in cui la rimozione verrebbe applicata in alcuni Paesi ma non in altri; ulteriori misure alternative, compresi investimenti nell'alfabetizzazione digitale.

V. Quadro di riferimento per l'analisi e la valutazione da parte del Board della normativa in materia di disinformazione sulla salute durante emergenze sanitarie pubbliche

37. Nella sua richiesta, Meta ha chiesto al Board se ritiene che l'azienda debba continuare a rimuovere determinati contenuti sul COVID-19, come previsto dalla normativa in materia di disinformazione sulla salute durante emergenze sanitarie pubbliche o se un approccio meno restrittivo non sia più in linea con i suoi valori e le responsabilità in fatto di diritti umani. Per rispondere a questa domanda, il Board ha valutato se la normativa è coerente con gli impegni in termini di diritti umani e i valori di Meta, se è necessaria e proporzionata in considerazione del momento attuale o se l'azienda dovrebbe adottare un approccio meno restrittivo nel contrastare la disinformazione sul COVID-19. Le raccomandazioni frutto di tale analisi sono riportate nella sezione finale del presente parere consultivo sulle normative.

38. Nell'illustrare la sua strategia nello sviluppo della normativa in materia di disinformazione sul COVID-19, Meta ha richiamato l'attenzione sulle significative differenze nella valutazione dei rischi e delle misure di attenuazione fra gli esperti di varie discipline e gli stakeholder di diverse aree geografiche. Anche il Board, nelle sue ricerche e nelle interazioni con gli stakeholder, ha ascoltato posizioni contrarie e contrastanti sui rischi del lasciare pubblicati sulla piattaforma contenuti legati alla disinformazione sul COVID-19 e sull'efficacia delle varie misure per affrontare i rischi.

39. Non sussiste un'unica soluzione condivisa al problema della disinformazione sul COVID-19 e ai rischi che questa comporta per i diritti umani, la vita e la salute, specie dei soggetti più vulnerabili. Un approccio più radicato a livello regionale permetterebbe di stabilire meglio il legame necessario fra disinformazione e violenza fisica imminente. Tuttavia, il Board ha dovuto prendere in considerazione le dichiarazioni di Meta circa i limiti attuali dei suoi sistemi esistenti e il modo in cui la disinformazione sul COVID-19 si diffonde nel mondo. I membri del Board hanno fornito risposte diverse a tali preoccupazioni e il presente parere consultivo sulle normative si propone di riconciliare, nella misura possibile, le varie prospettive del Board. Si tratta del risultato di un attento compromesso sulla difficile necessità di tenere conto dei diversi approcci alla disinformazione sul COVID-19 in tutto il mondo nel corso di un'emergenza sanitaria pubblica, anche in considerazione dei presunti limiti tecnici di Meta. Pertanto, questo parere consultivo sulle normative potrebbe non rappresentare le opinioni personali di ciascun membro del Board.

Valori di Meta

40. I valori di Meta sono indicati nell'introduzione agli Standard della community di Facebook, in cui il valore della "libertà di espressione" è "essenziale". Meta limita la "libertà di espressione" per tutelare altri 4 valori, 2 dei quali sono pertinenti in questo caso: "sicurezza" e "dignità". Per proteggere il valore della "sicurezza", Meta "rimuove i contenuti in grado di contribuire a un rischio di violenza per la sicurezza fisica delle persone". Nell'ambito della "dignità", l'azienda descrive il valore in questo modo: "crediamo che tutte le persone abbiano pari dignità e diritti," e ci aspettiamo che gli utenti "rispettino la dignità altrui e non minaccino o denigrino gli altri".

41. Il Board ritiene che la normativa di Meta in materia di disinformazione sulla salute durante emergenze sanitarie pubbliche sia conforme ai valori di "libertà di espressione", "sicurezza" e "dignità" dell'azienda. Durante un'emergenza sanitaria pubblica, il rischio di violenza è considerevole e il valore della "libertà di espressione" può essere limitato a vantaggio del valore della "sicurezza" nell'ambito dei casi di disinformazione sulla salute "in grado di contribuire direttamente al rischio di violenza fisica imminente". La violenza imminente riconducibile alla disinformazione sul COVID-19 interesserà in maniera sproporzionata i soggetti più vulnerabili, comprese le persone immunodepresse e quelle affette da altre condizioni sottostanti o disabilità, le comunità più povere, gli anziani e gli operatori sanitari.

Responsabilità di Meta in materia di diritti umani

42. Il 16 marzo 2021 Meta ha annunciato la sua Normativa aziendale sui diritti umani, la quale sottolinea l'impegno dell'azienda a rispettare i diritti dell'uomo in conformità ai Principi guida delle Nazioni Unite su imprese e diritti umani ("Principi guida"). I Principi guida, promossi nel 2011 dal Consiglio per i diritti umani delle Nazioni Unite, stabiliscono un quadro normativo volontario per le responsabilità delle aziende private in materia di diritti umani.

43. Ai sensi del Principio 12 dei Principi guida, la responsabilità delle aziende di rispettare i diritti umani si riferisce ai diritti umani riconosciuti a livello internazionale, intendendo, come minimo, quelli citati nella Carta internazionale dei diritti umani. Questa si compone della Dichiarazione universale dei diritti umani, della Convenzione internazionale sui diritti civili e politici (ICCPR) e della Convenzione internazionale sui diritti economici, sociali e culturali (ICESCR). Questa responsabilità implica che le aziende "dovrebbero evitare di violare i diritti umani di altri e intervenire sugli impatti negativi sui diritti umani in cui esse siano coinvolte" (Principio 11). Le aziende sono tenute a: "(a) [evitare] di causare o contribuire agli impatti negativi sui diritti umani attraverso le proprie attività, e intervenire su tali impatti quando si verificano; (b) [cercare] di prevenire o mitigare gli impatti negativi sui diritti umani direttamente collegati alle loro operazioni, ai loro prodotti o ai loro servizi in virtù di un rapporto commerciale, anche se esse non abbiano contribuito a tali impatti" (Principio 13).

44. Il Principio 17 recita inoltre che al fine di "identificare, prevenire e mitigare i propri impatti negativi e per rendere conto del modo in cui tali impatti vengono affrontati", le aziende dovrebbero "fare uso di due diligence sui diritti umani". Questo processo dovrebbe prevedere la valutazione degli impatti effettivi e potenziali sui diritti umani, l'integrazione e l'intervento sui risultati, il monitoraggio delle risposte e la comunicazione delle misure adottate per contrastare tali impatti. La responsabilità in termini di due diligence per i diritti umani è continua, poiché si riconosce che i rischi per i diritti umani potrebbero cambiare nel corso del tempo con l'evolversi delle operazioni e del contesto operativo delle aziende. Infine, il Principio 20 stabilisce che le aziende dovrebbero monitorare l'efficacia delle loro risposte, in base a indicatori qualitativi e quantitativi appropriati, e attingere ai feedback provenienti da fonti interne ed esterne, compresi gli stakeholder interessati.

45. L'analisi del Board per il presente parere consultivo sulle normative si è basata sui seguenti standard per i diritti umani:

  • Il diritto alla libertà di espressione, come tutelato dall'articolo 19, paragrafo 2, dell'ICCPR. L'articolo in questione fornisce un'ampia tutela alla libertà di espressione attraverso qualunque canale mediatico e indipendentemente dalle frontiere. La libertà di espressione si estende al diritto di ricercare, ricevere e diffondere informazioni di tutti i tipi.
  • Il diritto alla vita (art. 6, ICCPR): ogni essere umano ha il diritto innato alla vita.
  • Il diritto alla salute (art. 2 e 12, ICESCR): il diritto di ogni individuo a godere delle migliori condizioni di salute fisica e mentale che sia in grado di conseguire. L'art. 12, punto 2, dichiara che l'attuazione di questo diritto include la "creazione di condizioni che assicurino a tutti servizi medici e assistenza medica in caso di malattia". Ciò comprende i "fattori determinanti per la salute", come l'accesso all'istruzione e alle informazioni correlate alla salute, nonché la "partecipazione della popolazione in tutte le decisioni correlate alla salute a livello comunitario, nazionale e internazionale" (Commento generale n. 14, ICESCR, par. 11). L'accessibilità delle informazioni comprende il diritto di ricercare, ricevere e diffondere informazioni e idee relative alle tematiche sanitarie. Il rispetto del diritto alla salute implica la tutela del legittimo dibattito sulle questioni legate alla sanità pubblica.
  • Il diritto di godere dei benefici del progresso scientifico e delle sue applicazioni (art. 15, punto 1, lettera b, ICESCR).
  • Il diritto alla non discriminazione (art. 26, ICCPR): l'art. 26 vieta la discriminazione e garantisce a tutte le persone una protezione equa ed efficace contro la discriminazione fondata su qualsiasi caratteristica protetta.
  • Il diritto a un ricorso effettivo (art. 2, ICCPR).

46. Il Relatore speciale delle Nazioni Unite sulla libertà di opinione ed espressione ha enfatizzato l'importanza del diritto alla libertà di espressione nel contesto della pandemia di COVID-19, osservando che "la promozione dell'accesso alle informazioni favorisce la valorizzazione di salute, vita, autonomia e buon governo" e "mette in guardia contro la discriminazione delle opinioni" (A/HRC/44/49, par. 2, 52). La disinformazione durante un'emergenza sanitaria pubblica può seriamente pregiudicare il diritto delle persone di accedere a informazioni, risorse e indicazioni sanitarie affidabili , essenziali per la protezione del diritto alla salute e alla vita. Secondo il Relatore speciale delle Nazioni Unite, "le menzogne e la propaganda privano le persone dell'autonomia, della capacità di pensiero critico o della fiducia in se stesse e nelle fonti di informazione e del diritto di partecipare a dibattiti in grado di migliorare le condizioni sociali" (A/HRC/44/49, par. 60). Il Relatore speciale ha inoltre segnalato che "le informazioni false vengono amplificate da algoritmi e modelli aziendali concepiti per la promozione di contenuti sensazionalistici che spingano gli utenti a interagire con le piattaforme" e ha invitato le aziende a "rispondere a questi timori, non limitandosi a migliorare la moderazione dei contenuti, ma rivedendo i loro modelli aziendali" (A/HRC/47/25, par. 16, 95).

47. L'articolo 19 consente di limitare il diritto alla libertà di espressione in presenza di particolari circostanze ristrette e limitate, che rientrano nel cosiddetto test in 3 parti su legalità (chiarezza), legittimità e necessità, che include anche una valutazione sulla proporzionalità. Il Relatore speciale delle Nazioni Unite sulla libertà di opinione ed espressione ha indicato come l'articolo 19, paragrafo 3 dell'ICCPR fornisca un utile quadro normativo per le pratiche di moderazione dei contenuti sulle piattaforme e che le aziende dovrebbero vincolare le loro normative sui contenuti ai diritti umani (A/HRC/38/35, par. 10-11, A/74/486, par. 58). Il Board ha riconosciuto che, sebbene l'ICCPR non preveda obblighi nei confronti Meta, al contrario di quanto fa per gli Stati, l'azienda si è impegnata a rispettare i diritti umani, come definiti nei Principi guida (A/74/486, par. 47-48). Pertanto, quando le normative dell'azienda differiscono dagli elevati standard che gli Stati devono rispettare per giustificare le restrizioni alla libertà di espressione, Meta ha l'obbligo di fornire una spiegazione fondata circa le differenze delle normative, in linea con gli standard in materia di diritti umani che l'azienda si è impegnata a rispettare (par. 47-48).

Legalità (chiarezza e accessibilità delle regole)

48. Qualsiasi restrizione alla libertà di espressione deve essere accessibile e abbastanza chiara, in termini di portata, significato ed effetto, da fornire agli utenti e ai responsabili del controllo dei contenuti indicazioni su ciò che è consentito sulla piattaforma e ciò che non lo è. La mancanza di chiarezza o precisione può provocare un'applicazione delle normative incoerente e arbitraria (A/HRC/47/25, par. 40).

49. Nella sua decisione "Presunta cura per il COVID" (2020-006-FB-FBR), il Board ha raccomandato a Meta di "definire uno Standard della community chiaro e accessibile in merito alla disinformazione sulla salute, chiarendo le regole esistenti e accorpandole in un'unica sede (compresa la definizione di termini chiave come "disinformazione")". L'elaborazione di tali regole dovrebbe essere corredata da "ipotesi dettagliate che illustrano le sfumature di interpretazione e applicazione di [queste] regole per garantire maggiore chiarezza agli utenti". In risposta alla raccomandazione del Board, Meta ha creato lo Standard della community sulla disinformazione. Meta ha inoltre pubblicato un articolo nel suo Centro assistenza che fornisce una lista di affermazioni soggette a rimozione, nonché domande comuni circa l'applicazione della normativa, compreso il modo in cui l'azienda tratta l'umorismo, la satira e gli aneddoti personali ai sensi della normativa. Il Board apprezza l'adozione di queste misure da parte dell'azienda.

50. Le affermazioni rimosse ai sensi della normativa presentano uno spettro in termini di ampiezza e specificità. Ad esempio, diverse affermazioni attualmente oggetto di rimozione sono definite in modo stringente da Meta (ad es., "le affermazioni secondo cui gli ordini di distanziamento sociale per il COVID-19 sono solo un modo per installare le infrastrutture per la tecnologia di comunicazione senza fili 5G"), mentre altre presentano formulazioni più ampie (ad es., "affermazioni secondo cui il distanziamento sociale/interpersonale non aiuta a impedire la diffusione del COVID-19"). Il Board non ha analizzato se la restrizione in ciascuna di queste affermazioni sia sufficientemente chiara, poiché la responsabilità di garantire la precisione e la chiarezza ricade in primo luogo su Meta. Il Board rileva come Meta dovrebbe essere in possesso di informazioni su quali affermazioni hanno sistematicamente dato luogo a problemi di applicazione insufficiente o eccessiva, il che potrebbe indicare problemi di rilievo in termini di vaghezza. Il Board rileva inoltre che le affermazioni specifiche soggette a rimozione ai sensi della normativa sulla disinformazione sul COVID-19 sono indicate in una pagina del Centro assistenza. La pagina non presenta un registro delle modifiche, che consentirebbe agli utenti di vedere quando un'affermazione viene aggiunta, rimossa o modificata.

51. Al fine di armonizzare ulteriormente la normativa in materia di disinformazione sulla salute durante emergenze sanitarie pubbliche con gli standard di legalità, il Board formula le raccomandazioni 1, 2, 3, 4 e 11, illustrate in dettaglio nella Sezione VI più avanti.

Fine legittimo

52. Le limitazioni alla libertà di espressione devono perseguire un fine legittimo, che includa, tra le altre cose, la protezione dei diritti altrui e della salute pubblica. Secondo l'interpretazione del Comitato per i Diritti Umani, il termine "diritti" include i diritti umani riconosciuti dall'ICCPR e più in generale dal diritto internazionale dei diritti umani (Commento generale 34, par. 28).

53. La normativa di Meta in materia di disinformazione sulla salute durante emergenze sanitarie pubbliche persegue l'obiettivo legittimo di proteggere la salute pubblica durante un'emergenza sanitaria, oltre a proteggere il diritto delle persone di accedere alle informazioni, il diritto alla vita, il diritto alla salute, il diritto di godere dei benefici del progresso scientifico e delle sue applicazioni e il diritto alla non discriminazione.

Necessità e proporzionalità

Panoramica

54. Qualsiasi limitazione alla libertà di espressione "deve essere appropriata per svolgere la propria funzione protettiva; deve essere lo strumento meno invasivo tra quelli che potrebbero svolgere la loro funzione protettiva; deve essere proporzionata all'interesse da tutelare" (Commento generale n. 34, par. 34).

55. Per le ragioni illustrate di seguito, il Board ritiene che la normativa che autorizza Meta a rimuovere i casi di disinformazione sul COVID-19 "in grado di contribuire direttamente al rischio di violenza fisica imminente" durante un'emergenza sanitaria pubblica sia necessaria e proporzionata. È pertanto, in linea di principio, compatibile con i valori e le responsabilità in termini di diritti umani dell'azienda. Dichiarando un'emergenza di salute pubblica, l'autorità sanitaria pubblica delle Nazioni Unite stabilisce la sussistenza di un evento straordinario, che costituisce un rischio per la salute pubblica o la vita delle persone, attraverso la diffusione internazionale di una malattia che presenta "un pericolo serio e diretto" (Regolamento sanitario internazionale del 2005 dell'OMS). Alla luce della dichiarazione di emergenza di salute pubblica globale dell'OMS relativa al COVID-19, una malattia che presentava conseguenze estremamente incerte, variabili e letali, il Board ritiene che la risposta di Meta sia stata proporzionata. L'Oversight Board riconosce che in circostanze di emergenza del genere, determinati casi di disinformazione dannosa per la salute, specie se distribuiti su vasta scala o da influencer di spicco, possano causare seri pericoli per la salute pubblica e pregiudicare i diritti delle persone all'interno e all'esterno delle piattaforme di Meta. Il Board riconosce che, nelle fasi più acute di un'emergenza sanitaria pubblica, potrebbe non essere possibile svolgere consultazioni preventive approfondite con numerosi esperti in merito alle singole affermazioni legate alla disinformazione. Nel valutare la proporzionalità dell'approccio di Meta, il Board ha anche preso in considerazione la posizione dell'azienda secondo cui un approccio localizzato alla disinformazione sul COVID-19 non fosse possibile.

56. Tuttavia, con il mutare delle circostanze legate al COVID-19, cambia necessariamente anche la valutazione della necessità e della proporzionalità. Il Board riconosce che l'impatto del COVID-19 è diverso in tutto il mondo per via, ad esempio, delle diffusione del virus, dei sistemi sanitari dei Paesi e della qualità dello spazio civico che consente alle persone di ricevere e condividere informazioni sul virus. Nonostante la dichiarazione relativa all'emergenza COVID-19 dell'OMS sia ancora in vigore (e sia stata ribadita nel gennaio 2023), in molte parti del mondo i casi di COVID-19 sono diminuiti e le misure di emergenza sono state drasticamente ridotte. Questa circostanza contribuisce alle difficoltà di implementare un approccio globale che soddisfi il test di proporzionalità. Come sottolineato nella raccomandazione 1 più avanti, Meta dovrebbe adottare un processo trasparente e inclusivo per determinare se qualcuna delle 80 affermazioni soggette a rimozione non sia più falsa o "in grado di contribuire direttamente al rischio di violenza fisica imminente". Il processo dovrebbe comprendere un meccanismo che consenta di tenere conto delle opinioni contrarie provenienti dalla comunità scientifica, da esperti in materia di libertà di espressione e da soggetti esperti in materia di circolazione online della disinformazione e relativo impatto. Il Board invita inoltre Meta, alla raccomandazione 4 più avanti, ad adottare un processo volto a identificare i rischi per i diritti umani che potrebbero persistere in alcuni Paesi e a predisporre un approccio più localizzato per mitigare questi rischi, una volta conclusasi l'emergenza sanitaria globale.

Contributi degli stakeholder

57. Gli stakeholder di diverse aree geografiche del mondo hanno riferito al Board che politici, leader religiosi, influencer e autorità mediche hanno promosso la disinformazione con grande visibilità, senza che fact-checker, esperti scientifici e autorità pubbliche sanitarie fossero in grado di contrastarli. Gli stakeholder di ciascuna area geografica hanno inoltre segnalato l'impatto della disinformazione sulle persone che si rivolgono a trattamenti alternativi o sulla loro volontà di vaccinarsi. Gli stakeholder hanno evidenziato come la disinformazione abbia influito sulla volontà delle persone di seguire le indicazioni sanitarie o di adottare misure preventive. Gli stakeholder hanno classificato questo tipo di disinformazione come un ostacolo alle misure di prevenzione e alla gestione dei rischi, con ripercussioni sulla popolazione generale e un impatto sproporzionato nei confronti dei gruppi vulnerabili, come i soggetti immunodepressi, le persone affette da disabilità e condizioni pre-esistenti, gli anziani e le comunità povere ed emarginate (per maggiori dati sul COVID-19, vd. la Dashboard dell'OMS). Studi approfonditi sull'impatto della disinformazione online evidenziano un maggiore rifiuto delle indicazioni sanitarie pubbliche e una minore probabilità di accettare futuri esami diagnostici o vaccini. Il Board prende atto degli altri danni segnalati riconducibili alla disinformazione sul COVID-19, fra cui l'erosione della fiducia nei confronti delle autorità sanitarie pubbliche e scientifiche. Ciò vanifica l'efficace attuazione delle misure sanitarie pubbliche contro il COVID-19 e altre emergenze di salute pubblica. Altri danni segnalati della disinformazione sul COVID-19 includono attacchi diretti, molestie e azioni legali mirate contro organizzazioni di fact-checking e singoli fact-checker.

58. Gli esperti sostengono inoltre che, dopo che Meta ha iniziato a rimuovere i casi di disinformazione sul COVID-19, la quantità generale di disinformazione sulla piattaforma si è ridotta in modo sostanziale e che senza queste misure, la disinformazione aumenterà di nuovo e i contenuti anti vaccini sulle piattaforme social, come Facebook, domineranno il dibattito. Questi esperti hanno segnalato che la mancanza di trasparenza e accesso alle ricerche interne o ai dati di Meta vanifica gli sforzi volti a individuare prove chiare circa l'efficacia delle misure contro la disinformazione, compresa la rimozione. Tuttavia, gli stakeholder di tutto il mondo hanno sostenuto di fronte al Board che, finché continuerà a sussistere il rischio per la salute e la vita di innumerevoli persone, l'azienda debba continuare ad adottare misure urgenti e accettare eventuali errori per salvare le vite a rischio, specie quelle delle persone più vulnerabili. Nonostante la disponibilità di informazioni scientifiche affidabili sul COVID-19 sia drasticamente migliorata dall'inizio della pandemia, l'accesso alle informazioni varia fra Paesi e comunità. Inoltre, la diffusione su scala di informazioni false e fuorvianti ha reso difficile l'accesso e la valutazione delle informazioni scientifiche esistenti per le persone di tutto il mondo, compromettendo i benefici dell'accesso. A tal proposito, ad esempio, un invio del Khazanah Research Institute (PC-10703), un istituto di ricerca sulle normative con sede in Malesia, ha evidenziato i diversi livelli di accesso a informazioni sanitarie affidabili nei vari Paesi e i differenti livelli di rischio derivanti dalla mancata applicazione della moderazione alla disinformazione. La stessa posizione è stata sostenuta da altri esperti e stakeholder provenienti da altre parti del mondo, specie da Paesi con livelli di reddito più bassi. Se deve esistere un approccio globale, secondo l'invio del Khazanah Research Institute, Meta dovrebbe adottare un atteggiamento prudente e continuare a rimuovere la disinformazione sul COVID-19 dannosa.

59. Come riconosciuto da Meta nella sua richiesta al Board, il decorso della pandemia varia e continuerà a variare in tutto il mondo. Esistono notevoli differenze nei tassi di vaccinazione, nelle risorse e nelle capacità dei sistemi sanitari e nella fiducia nelle indicazioni autorevoli. Queste differenze contribuiscono agli effetti sproporzionati del virus sulle persone più vulnerabili in diversi Paesi. Nonostante lo sviluppo dei vaccini e la loro elevata disponibilità negli Stati Uniti e in altri Paesi del mondo, ciò non riflette le tendenze globali. Citando Meta: "L'80% delle persone che vive in Paesi ad alto reddito ha ricevuto almeno una dose del vaccino, contro il solo 13% delle persone che vive nei Paesi a basso reddito. È più probabile inoltre che i Paesi a basso reddito presentino sistemi sanitari con capacità inferiori, economie meno solide e meno fiducia nelle indicazioni governative, tutti fattori che contribuiranno a rendere più difficile la vaccinazione delle persone e il trattamento dei soggetti affetti da COVID-19" (richiesta di parere consultivo sulle normative di Meta, pagina 15, luglio 2022). Per citare solo alcuni casi che dimostrano la significativa differenza nei tassi di vaccinazione, a febbraio 2023, meno del 20% della popolazione irachena ha completato la serie primaria e meno dell'1% ha ricevuto un richiamo. In Bulgaria, circa il 30% della popolazione ha completato la serie primaria. Il dato scende al 13% in Siria e sotto il 5% in Papua Nuova Guinea e Haiti. Diversi esperti consultati dal Board hanno segnalato il pericolo di affidarsi a informazioni e dati incentrati prevalentemente sui Paesi occidentali ai fini di un approccio e una normativa globali. Questi esperti hanno anche sottolineato la prospettiva geografica limitata della maggior parte degli studi empirici sulla disinformazione.

60. Nel gennaio 2023, l'OMS ha rilevato che "il mondo è in una posizione migliore rispetto al picco della trasmissione della variante Omicron di un anno fa. Nelle ultime 8 settimane, sono stati segnalati a livello globale più di 170 000 decessi correlati al COVID-19" e che i sistemi sanitari "sono attualmente in difficoltà a causa del COVID-19 e dell'assistenza ai pazienti affetti da influenza e virus respiratorio sinciziale (RSV), della carenza di personale sanitario e del sovraccarico di lavoro a cui questo è sottoposto". L'OMS ha inoltre sottolineato che "la risposta al COVID-19 rimane limitata in troppi Paesi e non in grado di fornire [vaccini, cure e diagnosi] alle persone più bisognose, agli anziani e agli operatori sanitari". Il Comitato dell'OMS ha osservato che "lo scetticismo nei confronti dei [v]accini e la costante diffusione di disinformazione continuano a rappresentare ulteriori ostacoli nell'implementazione di misure cruciali per la salute pubblica".

Insistenza di Meta su un approccio globale

61. Meta riconosce che il decorso della pandemia è stato diverso in tutto il mondo, soprattutto tra le nazioni "sviluppate" e quelle "meno sviluppate". Nel richiedere indicazioni al Board, l'azienda ha escluso del tutto un approccio localizzato, affermando che l'adozione di tali misure di applicazione "creerebbe serie preoccupazioni in termini di trasparenza ed equità, comporterebbe un'esperienza utente negativa e sarebbe irrealizzabile dal punto di vista operativo". Secondo Meta, l'adozione di misure di applicazione regionali o specifiche per Paese su vasta scala comporterebbe una mancanza di chiarezza nei confronti degli utenti in merito a quali normative e sanzioni troverebbero applicazione nei confronti dei contenuti, considerati gli spostamenti fra le frontiere di utenti e informazioni. Questo approccio richiederebbe una normativa ancora più complessa e lunga "che delinei dove e in quali circostanze le varie affermazioni vengono rimosse, retrocesse o sottoposte ad altri tipi di applicazione". L'azienda sostiene di non disporre attualmente della capacità per adottare un approccio localizzato e svilupparne uno richiederebbe molte risorse e tempo, il che rende questo approccio irrealizzabile per l'immediato futuro. Meta ha affermato che "l'[a]pplicazione di normative a livello dei singoli Paesi potrebbe comportare sia applicazioni eccessive, quando un gruppo di addetti al controllo del mercato è responsabile di più Paesi, sia applicazioni non sufficienti, poiché i contenuti possono diffondersi fra Paesi e aree geografiche". Alla luce di ciò, Meta ha sottolineato che la normativa proposta dovrebbe essere appropriata per tutte le aree geografiche, "e al contempo coerente e attuabile a livello globale".

Analisi

62. Nel giungere alla sua decisione in merito al problema della proporzionalità, il Board ha preso in considerazione diversi fattori, fra cui: (i) potenziali lesioni dei diritti umani in un'emergenza sanitaria pubblica in corso; (ii) gli effetti sulla libertà di espressione; (iii) il requisito dello Standard della community pertinente secondo cui i contenuti soggetti a rimozione devono essere considerati falsi e in grado di contribuire direttamente al rischio di violenza fisica imminente; (iv) l'architettura della piattaforma che, secondo alcuni esperti, potrebbe contribuire alla diffusione di contenuti violenti (vd. la raccomandazione 10 sulla necessità di effettuare una valutazione dell'impatto sui diritti umani in merito alle scelte di progettazione della piattaforma); (v) le notevoli preoccupazioni sollevate circa la scalabilità e l'efficacia delle misure di moderazione dei contenuti al di fuori delle rimozioni (come illustrato nei successivi paragrafi in merito a fact-checking, retrocessioni ed etichettatura); (vi) la dichiarazione di Meta secondo cui un approccio su scala e localizzato non fosse fattibile al momento dell'implementazione della normativa.

63. Considerata l'insistenza di Meta in merito a un approccio globale, e nonostante il COVID-19 continui a essere considerato un'"Emergenza di salute pubblica di rilevanza internazionale" dall'OMS, il Board non può raccomandare una modifica al modo in cui Meta implementa la sua normativa globale senza ulteriori controlli di due diligence e una valutazione da parte dell'azienda circa l'impatto delle sue normative e dei vari strumenti di applicazione. Raccomandare una modifica in queste circostanze potrebbe colpire in modo sproporzionato le persone più vulnerabili in tutto il mondo. Ciò comprende gli anziani, le persone immunodepresse e affette da condizioni pre-esistenti, nonché le comunità povere ed emarginate con meno risorse, spazi civici più fragili, nessun'altra fonte affidabile di informazione e sistemi sanitari inadeguati o scarso accesso agli stessi. Come sottolineato in precedenza, il Board riconosce che, nella fase più acuta di un'emergenza sanitaria pubblica, Meta abbia usato misure eccezionali. Il Board comprende che l'azienda ha dovuto adottare misure eccezionali durante un'emergenza sanitaria pubblica dichiarata, come in questo caso, rimuovendo intere categorie di contenuti di disinformazione sulla base di una valutazione fornita esclusivamente da un'autorità sanitaria pubblica, allo scopo di evitare probabili episodi di violenza fisica imminente. Il Board ritiene che le misure siano state proporzionate considerate le circostanze straordinarie della pandemia.

64. Tuttavia, misure eccezionali di questo tipo devono essere temporanee, strettamente calibrate sulle esigenze del caso e indicate pubblicamente. Con il mutare delle circostanze cambia anche l'analisi della necessità e della proporzionalità. Alla luce della natura mutevole delle pandemie, Meta deve avviare, non appena possibile, un processo di consultazione più approfondito nel tentativo di garantire che la rimozione automatizzata di affermazioni specifiche non pregiudichi il dibattito su temi di pubblico interesse o comporti un'indebita ingerenza dei governi sulla moderazione dei contenuti di Meta. Il processo di consultazione dovrebbe avvalersi dell'esperienza di un ventaglio più diversificato di stakeholder, che comprenda anche opinioni contrarie (come indicato nella raccomandazione 1). Il Board rileva che secondo il Principio 17 dei Principi guida, "per poter identificare, prevenire e mitigare i propri impatti negativi e per rendere conto del modo in cui tali impatti vengono affrontati," le aziende dovrebbero effettuare continui controlli di due diligence sui diritti umani, che consistano "nel valutare gli impatti effettivi e potenziali su tali diritti, nell'integrare i risultati di tale valutazione e darvi un seguito, nel monitorare le misure adottate e nel comunicare le misure adottate per contrastare tali impatti". Inoltre, come indicato nel Principio 20 dei Principi guida, le aziende dovrebbero monitorare l'efficacia delle loro risposte, "[sulla base di] indicatori qualitativi e quantitativi appropriati e [utilizzando] le informazioni e le valutazioni provenienti da fonti sia interne sia esterne, incluse le parti in causa interessate".

65. Come rilevato in precedenza, nel giungere alla sua conclusione, il Board ha valutato se misure meno restrittive rispetto alla rimozione dei contenuti siano idonee ad affrontare la diffusione su vasta scala della disinformazione e proteggere la salute pubblica durante un'emergenza sanitaria pubblica, nonché i diritti delle persone dentro e fuori la piattaforma. In primo luogo, sebbene l'aggiunta di etichette di fact-checking costituisca un mezzo per correggere le informazioni senza rimuoverle, diversi stakeholder, così come le informazioni fornite da Meta, evidenziano la limitata capacità di questo strumento in relazione alla velocità e alla portata della disinformazione potenzialmente dannosa per la salute durante un'emergenza sanitaria pubblica. Meta ha riferito al Board che i fact-checker non sono in grado di controllare la stragrande maggioranza dei contenuti nelle loro code. Meta ha anche dichiarato di non essere in grado di ampliare il programma di fact-checking, poiché le organizzazioni di terzi interessate non sono controllate o gestite da Meta. Inoltre, i limiti insiti nel programma rendono questa misura meno efficace. Meta non permette ai suoi fact-checker di controllare i contenuti condivisi da personaggi politici, che comprendono candidati in corsa per una carica, attuali titolari di una carica e i loro delegati, partiti politici e rispettivi leader. Come ampiamente segnalato e confermato dagli stakeholder di ogni area geografica, questi tipi di utenti sono stati tra i principali responsabili della diffusione della disinformazione. La verifica da parte di fact-checker richiede più tempo rispetto alla rimozione automatizzata su scala, il che può essere un fattore determinante nella gestione della disinformazione dannosa nel contesto di un'emergenza sanitaria di pubblica. Questa misura rimanda inoltre l'utente a un articolo di solito esterno alla piattaforma (e quindi meno accessibile a chi non ha le risorse per l'uso di dati aggiuntivi). Il linguaggio di questi articoli è spesso particolarmente tecnico e, in alcuni casi, complesso, a differenza dei messaggi brevi e sensazionalistici con cui viene diffusa la disinformazione. Un invio del professore Simon Wood dell'Università di Edimburgo (PC-10713) ha espresso il timore che i fact-checker non dispongano di competenze tecniche sufficienti a verificare in modo efficace prove e documenti scientifici complessi.

66. In secondo luogo, sebbene le retrocessioni incidano sulla posizione dei contenuti nel feed di un utente, la natura individuale dei feed degli utenti implica che l'impatto di questa misura sulla diffusione o sulla copertura dei contenuti sia difficile da determinare. Il punteggio di classificazione dei contenuti mira a mostrare agli utenti quelli "che potrebbero essere di loro interesse". I contenuti condivisi da Pagine o in gruppi seguiti dagli utenti saranno probabilmente classificati in alto. Di conseguenza, non è chiaro se la retrocessione sia una misura efficace per contrastare la copertura dei contenuti condivisi da utenti con un importante seguito o di quelli condivisi nei gruppi. È probabile che la retrocessione abbia un impatto minimo sugli utenti che seguono più account, Pagine o gruppi che condividono regolarmente disinformazione sul COVID-19, dato l'inventario complessivo di contenuti nella loro sezione Notizie. Sembra inoltre che l'azienda non disponga di dati sul numero di utenti con minori probabilità di accedere ai contenuti retrocessi, anche in modo significativo. Le sole retrocessioni non sono accompagnate da avvertimenti e sanzioni. Infine, dal momento che gli utenti non possono inviare ricorsi contro le retrocessioni dei loro contenuti, questa opzione solleverebbe notevoli timori in merito al trattamento equo degli utenti.

67. In terzo luogo, secondo la ricerca interna dell'azienda, non sussistono prove circa l'efficacia delle etichette neutrali nella copertura degli utenti su vasta scala e la loro capacità di influenzarne conoscenze o atteggiamenti. Meta applica le NIT (o etichette neutrali) attraverso un sistema automatizzato che rileva gli argomenti correlati al COVID-19 nei post. Queste etichette forniscono un link al Centro informazioni sul COVID-19, che offre informazioni autorevoli sul COVID-19. Secondo Meta, la ricerca preliminare dell'azienda su queste etichette ha evidenziato che il "CTR (il tasso con cui gli utenti cliccano sull'etichetta per vedere le informazioni autorevoli) diminuisce all'aumentare del numero di NIT visualizzate dagli utenti". Meta ha inoltre riferito al Board di aver interrotto l'uso dei NIT relativi al COVID-19. Secondo Meta, queste etichette non hanno effetti rilevabili sulla probabilità che un utente legga, crei o ricondivida contenuti di disinformazione sottoposti a fact-checking o contro i vaccini. Infine, l'azienda ha segnalato che la ricerca iniziale ha evidenziato che queste etichette potrebbero non avere effetti circa le conoscenze o l'atteggiamento degli utenti in merito ai vaccini.

68. In sintesi, il Board conclude che, alla luce dell'insistenza di Meta su un approccio globale alla disinformazione sul COVID-19 e al perdurare della dichiarazione di emergenza dell'OMS, Meta dovrebbe continuare ad applicare la sua normativa in materia di disinformazione sul COVID-19 in grado di contribuire direttamente al rischio di violenza fisica imminente. Allo stesso tempo, l'azienda dovrebbe avviare un processo di revisione di due diligence approfondito e inclusivo in merito alle affermazioni attualmente rimosse. Al fine di armonizzare ulteriormente la normativa in materia di disinformazione sulla salute durante emergenze sanitarie pubbliche con gli standard di necessità e proporzionalità, il Board formula le raccomandazioni 1, 4, 5, 9, 10, 12, 13, 14, 15 e 18, illustrate in dettaglio nella Sezione VI qui sotto.

VI. Raccomandazioni

Raccomandazioni in merito alla normativa sui contenuti

69. Raccomandazione 1:alla luce della dichiarazione dell'Organizzazione mondiale della sanità secondo cui il COVID-19 costituisce un'emergenza di salute globale e dell'insistenza di Meta circa un approccio globale, l'azienda dovrebbe proseguire con il suo attuale approccio che prevede la rimozione a livello globale dei contenuti falsi sul COVID-19 "in grado di contribuire direttamente al rischio di violenza fisica imminente". Allo stesso tempo, Meta dovrebbe avviare un processo trasparente e inclusivo per una rivalutazione approfondita e periodica di ciascuna delle 80 affermazioni soggette a rimozione al fine di garantire che: (1) ciascuna di queste affermazioni specifiche sul COVID-19 soggetta a rimozione sia falsa e "in grado di contribuire direttamente al rischio di violenza fisica imminente"; (2) gli impegni in materia di diritti umani di Meta siano adeguatamente implementati (ad es., i principi di legalità e necessità). Sulla base di questo processo di rivalutazione, Meta dovrebbe determinare se eventuali affermazioni non siano più false o "in grado di contribuire direttamente al rischio di violenza fisica imminente". Qualora Meta dovesse individuare eventuali affermazioni non più false o "in grado di contribuire direttamente al rischio di violenza fisica imminente", queste non dovrebbero essere più soggette alla rimozione ai sensi della normativa in esame. Il Board considererà attuata questa raccomandazione non appena Meta darà annuncio di un processo di rivalutazione e di eventuali modifiche alle 80 affermazioni nella pagina del Centro assistenza.

70. Le sottoparti che seguono illustrano le raccomandazioni del Board sulle best practice per l'esecuzione della rivalutazione delle affermazioni soggette a rimozione ai sensi della normativa in materia di disinformazione sulla salute durante emergenze sanitarie pubbliche. Le singole raccomandazioni secondarie verranno considerate separate dalla raccomandazione 1, il che significa che il Board controllerà le azioni di Meta per l'attuazione delle raccomandazioni in modo separato.

Raccomandazione 1A: consultazioni più ampie con esperti e stakeholder

71. L'azienda deve predisporre, non appena possibile, un processo volto a prendere in considerazione una gamma più ampia di prospettive nel valutare se sia necessario rimuovere ciascuna affermazione in base alle esigenze della situazione. Organizzazioni ed esperti consultati dovrebbero comprendere esperti di sanità pubblica, immunologi, virologi, ricercatori in materia di malattie infettive e disinformazione, esperti di normative nel settore tecnologico, organizzazioni sui diritti umani, fact-checker ed esperti nell'ambito della libertà di espressione. Il Board riterrà attuata questa raccomandazione non appena Meta pubblicherà informazioni sul processo di consultazione con un gruppo eterogeneo di esperti nella sua normativa in materia di disinformazione sulla salute durante emergenze sanitarie pubbliche e sull'impatto di tali consultazioni sulla sua normativa.

72. Come evidenziato in precedenza, Il Board riconosce che l'azienda ha dovuto adottare misure eccezionali durante un'emergenza sanitaria pubblica dichiarata, come in questo caso, rimuovendo intere categorie di contenuti di disinformazione sulla base di una valutazione fornita da una singola autorità sanitaria pubblica. Il Board riconosce che, nel corso di un'emergenza sanitaria pubblica, non è possibile svolgere immediatamente consultazioni preventive approfondite con numerosi esperti in merito alle singole affermazioni. Tuttavia, non appena possibile, sarà necessario consultare un gruppo più ampio di esperti e stakeholder alla luce della continua evoluzione delle informazioni sulla nuova pandemia e delle varie opinioni in merito al migliore approccio per contrastare la disinformazione correlata alla pandemia. In base alle sue dichiarazioni, l'azienda ha dovuto modificare la sua posizione su almeno 2 affermazioni soggette in precedenza alla rimozione, una relativa all'origine del virus e l'altra al tasso di mortalità del COVID-19. Consultazioni più ampie e una maggiore trasparenza su tali contributi sono essenziali per migliorare il processo decisionale e scongiurare forme di censura ingiustificate.

73. Il Board ha chiesto a Meta se le affermazioni incluse nella sua lista di contenuti da non pubblicare (poiché considerate false e "in grado di contribuire direttamente al rischio di violenza fisica imminente) siano state oggetto di una nuova valutazione per tenere conto dell'impatto delle 3 modifiche indicate nella richiesta dell'azienda. Meta ha riferito al Board di non disporre di informazioni a supporto della conclusione secondo cui le attuali affermazioni oggetto di rimozione non siano più false o in grado di contribuire direttamente al rischio di violenza fisica imminente. Tuttavia, l'azienda non ha interpellato le autorità sanitarie pertinenti per richiedere una nuova valutazione delle affermazioni, né ha condotto consultazioni con stakeholder ed esperti per rivalutare le singole affermazioni o la normativa in generale. Secondo Meta, l'azienda ha scelto di rivolgersi al Board con una richiesta di parere consultivo sulle normative, anziché coinvolgere gli stakeholder esterni per modificare la propria normativa, al fine di non rimandare la richiesta. Il Board apprezza il fatto che Meta abbia cercato contributi esterni nello sviluppo della normativa durante un'emergenza globale e abbia riconosciuto l'esigenza di una nuova valutazione. Tuttavia, la responsabilità dell'azienda di rispettare i diritti umani non si ferma qui. Predisporre un processo per valutare se proseguire nella rimozione di ciascuna affermazione sia necessario garantirebbe l'effettuazione da parte dell'azienda dei controlli di due diligence pertinenti, come previsto dai Principi guida.

Raccomandazione 1B: tempistiche del controllo

74. Meta dovrebbe stabilire le tempistiche di questo controllo (ad es., ogni 3 o 6 mesi) e rendere questa informazione pubblica per garantire un preavviso ed eventuali contributi. Il Board riterrà attuata questa raccomandazione non appena Meta renderà pubblici i verbali della sua riunione di controllo, in modo analogo ai verbali del Policy Forum nel Centro sulla trasparenza.

Raccomandazione 1C: procedure per la raccolta dei contributi pubblici

75. Meta dovrebbe definire un chiaro processo per il controllo regolare, che comprenda mezzi per le persone e le organizzazioni interessate per contestare la valutazione di un'affermazione specifica (ad es., fornendo un link nella pagina del Centro assistenza per i commenti pubblici e le consultazioni virtuali). Il Board riterrà attuata questa raccomandazione non appena Meta creerà un meccanismo per i feedback pubblici e condividerà le informazioni sull'impatto di tali feedback nei suoi processi interni con il Board.

Raccomandazione 1D: indicazioni sul tipo di informazioni da prendere in considerazione e valutare

76. Il controllo delle affermazioni da parte di Meta dovrebbe includere le ricerche più recenti sulla diffusione e sull'impatto della disinformazione sanitaria online. Ciò dovrebbe comprendere ricerche interne sull'efficacia relativa delle varie misure a disposizione di Meta, fra cui rimozioni, fact-checking, retrocessioni ed etichette neutrali. L'azienda dovrebbe prendere in considerazione lo stato della pandemia in tutte le aree geografiche in cui opera, specie in quelle in cui la piattaforma costituisce una fonte principale di informazioni e in cui esistono meno comunità con un'alfabetizzazione digitale, spazi civici più deboli, una mancanza di fonti di informazioni affidabili e sistemi sanitari fragili. Meta dovrebbe altresì valutare l'efficacia dei provvedimenti di applicazione per queste affermazioni. Meta dovrebbe raccogliere, se non ne è già in possesso, informazioni su quali affermazioni hanno sistematicamente dato luogo a problemi di applicazione insufficiente o eccessiva. Queste informazioni dovrebbero indicare se un'affermazione debba continuare a essere rimossa o debba essere gestita mediante altri mezzi. Il Board considererà attuata tale raccomandazione non appena Meta condividerà i dati sul controllo dell'applicazione della normativa e renderà pubbliche queste informazioni.

Raccomandazione 1E: indicazioni sul garantire la trasparenza nel processo decisionale

77. Per garantire la trasparenza sui tipi di esperti consultati, sui loro contributi, sulle ricerche interne ed esterne prese in considerazione e sull'impatto delle informazioni sull'esito dell'analisi, Meta dovrebbe fornire al Board un riepilogo delle basi delle decisioni adottate per ciascuna affermazione. Il riepilogo dovrebbe includere nello specifico le basi sui cui si fonda la decisione dell'azienda di proseguire nella rimozione di un'affermazione. Meta dovrebbe anche divulgare l'eventuale ruolo assunto dalle entità o dal personale governativo nel suo processo decisionale. Se decide di interrompere la rimozione di una specifica affermazione, l'azienda dovrebbe spiegare le basi di tale decisione, specificando: (a) quali contributi hanno portato l'azienda a determinare che l'affermazione non è più falsa; (b) quali contributi, e le relative fonti, hanno portato l'azienda a determinare che l'affermazione non è più in grado di contribuire direttamente al rischio di violenza fisica imminente, e se tale valutazione è valida nei Paesi con tassi di vaccinazione più bassi e infrastrutture sanitarie pubbliche insufficienti; (c) se l'azienda ha determinato che il suo sistema di applicazione ha comportato un'applicazione eccessiva nei confronti dell'affermazione specifica; (d) se l'azienda ha stabilito che l'affermazione non è più diffusa nella sua piattaforma. Il Board riterrà attuata questa raccomandazione non appena Meta condividerà le valutazioni del suo processo di valutazione della normativa. Queste informazioni dovrebbero essere in linea con i motivi elencati pubblicamente nel post del Centro assistenza per eventuali modifiche apportate alla normativa, come indicato nel primo paragrafo di questa raccomandazione.

78. Raccomandazione 2:Meta dovrebbe immediatamente fornire una chiara spiegazione dei motivi per cui ciascuna categoria di affermazioni sottoposte a rimozione sia "in grado di contribuire direttamente al rischio di violenza fisica imminente". Il Board riterrà attuata questa raccomandazione non appena Meta modificherà la pagina del Centro assistenza per fornire tale spiegazione.

79. Attualmente, la pagina del Centro assistenza fornisce un esempio del collegamento fra un'affermazione specifica e il motivo e il modo in cui contribuisce al rischio di violenza fisica "facendo aumentare la probabilità di esposizione o trasmissione del virus o influenzando negativamente la capacità del sistema sanitario pubblico di far fronte alla pandemia". La stessa pagina identifica quindi 5 categorie di informazioni false che, secondo Meta, soddisfano lo standard di essere "in grado di contribuire direttamente al rischio di violenza fisica imminente". Tuttavia, la pagina del Centro assistenza non illustra in modo sistematico in che modo ciascuna categoria di affermazioni soggette a rimozione soddisfi lo standard stabilito. Meta dovrebbe illustrare in modo esplicito in che modo ciascuna categoria di affermazioni sia in grado di contribuire direttamente al rischio di violenza fisica imminente e le fonti di informazioni di cui l'azienda si è avvalsa per giungere a tale conclusione.

80. Raccomandazione 3: Meta dovrebbe chiarire la sua normativa in materia di disinformazione sulla salute durante emergenze sanitarie pubbliche spiegando che il requisito secondo cui le informazioni devono essere "false" fa riferimento alle informazioni false secondo le migliori prove possibili al momento della più recente rivalutazione della normativa. Il Board riterrà attuata questa raccomandazione non appena Meta chiarirà la normativa nella pagina pertinente del Centro assistenza.

81. Almeno due volte, Meta ha dovuto modificare le affermazioni soggette a rimozione quando le informazioni note sono cambiate o l'evoluzione della malattia ha reso un'affermazione imprecisa o incompleta. È possibile che si commettano errori, che nuovi dati o ricerche mettano in discussione le conclusioni esistenti o che la definizione di un'affermazione debba essere perfezionata. Alla luce di questa situazione, e per affermare chiaramente che Meta è consapevole di avere la responsabilità di rivalutare in modo continuo la valutazione secondo cui un'affermazione soddisfa lo standard più ampio nella sua normativa, l'azienda dovrebbe rendere più chiara la normativa al fine di precisare che la valutazione si basa sulle migliori prove disponibili al momento e che potrebbe evolvere.

Raccomandazioni sull'applicazione

82. Raccomandazione 4: Meta dovrebbe immediatamente avviare un processo di valutazione dei rischi per identificare le misure necessarie e proporzionate da adottare, in linea con questa decisione sulla normativa e con altre raccomandazioni formulate nel presente parere consultivo sulle normative, laddove l'OMS revochi l'emergenza di salute globale per il COVID-19, ma altre autorità sanitarie pubbliche locali continuino a classificare il COVID-19 come emergenza sanitaria pubblica. Questo processo deve essere finalizzato all'adozione di misure volte ad affrontare la disinformazione in grado di contribuire direttamente a violenza grave e imminente nella vita reale, senza compromettere il diritto generale alla libertà di espressione a livello globale. La valutazione dei rischi dovrebbe includere: (1) una valutazione approfondita delle decisioni di progettazione e delle varie alternative in termini di normativa e implementazione; (2) i rispettivi impatti sulla libertà di espressione, sul diritto alla salute e alla vita e su altri diritti umani; (3) una valutazione della fattibilità di un approccio localizzato all'applicazione. Il Board riterrà attuata questa raccomandazione non appena Meta comunicherà pubblicamente i suoi piani per l'esecuzione della valutazione dei rischi, illustrerà il processo di valutazione volto a individuare e mitigare i rischi e aggiornerà la pagina del Centro assistenza con queste informazioni.

83. Raccomandazione 5: Meta dovrebbe tradurre le sue linee guida interne sull'implementazione nelle lingue utilizzate dalle piattaforme dell'azienda. Il Board riterrà attuata questa raccomandazione non appena Meta tradurrà le sue linee guida interne sull'implementazione e aggiornerà il Board in merito.

84. I moderatori dei contenuti hanno accesso a dettagliate linee guida interne sull'implementazione che forniscono ulteriori informazioni su come identificare i contenuti in violazione e quelli da lasciare pubblicati sulla piattaforma ai sensi di una delle eccezioni stabilite (ad es., umorismo, satira, aneddoti personali, opinioni). Per garantire un'applicazione coerente nelle varie parti del mondo, Meta deve garantire che queste linee guida vengano fornite e siano accessibili ai moderatori nelle lingue in cui operano.

85. Il Board ha già raccomandato in passato a Meta di tradurre le sue linee guida interne sull'implementazione fornite ai moderatori nella lingua in cui questi ultimi controllano i contenuti (vd. le decisioni sui casi "Rivendicazione di parole in arabo", 2022-003-IG-UA e "Bot in Myanmar", 2021-007-FB-UA). Nella sua risposta al Board, Meta ha affermato che "per garantire l'applicazione globale standardizzata delle nostre normative in rapida evoluzione, il modo migliore consista nel [mantenere] una serie di linee guida sulle normative interne in tutte le lingue parlate correntemente dai nostri responsabili del controllo dei contenuti [...] Poiché questa guida si evolve rapidamente (viene costantemente aggiornata con nuovi chiarimenti, definizioni e linguaggio comprensivo di insulti specifici per mercato), fare affidamento sulle traduzioni potrebbe comportare ritardi e interpretazioni inaffidabili".

86. Dopo che Meta ha fornito la spiegazione di cui sopra, una valutazione indipendente dell'applicazione dell'azienda delle sue normative in Israele e Palestina ha individuato nella mancanza di capacità linguistiche dei moderatori dei contenuti una delle cause delle applicazioni eccessive delle normative di Meta in arabo (vd. "Human Rights Due Diligence of Meta's Impacts in Israel and Palestine in May 2021", Due diligence dell'impatto di Meta in Israele e Palestina di maggio 2021, della Business for Social Responsibility). Alla luce di questa constatazione e in considerazione della complessità delle linee guida interne e delle interpretazioni non univoche che esse forniscono ai moderatori dei contenuti, il Board ritiene concreto il pericolo di applicazioni eccessive o insufficienti della normativa in materia di disinformazione sulla salute durante emergenze sanitarie pubbliche. Meta dovrebbe mitigare questi rischi per garantire un'applicazione coerente della sua normativa in tutte le lingue e le aree geografiche.

87. Raccomandazione 6: i ricorsi degli utenti relativi alle etichette di fact-checking dovrebbero essere controllati da un fact-checker diverso rispetto a quello che ha condotto la prima valutazione. Per garantire l'equità e promuovere l'accesso a un rimedio per gli utenti i cui contenuti sono stati sottoposti a fact-checking, Meta dovrebbe modificare il suo processo per garantire che un fact-checker diverso, che non abbia già valutato l'affermazione interessata, valuti la decisione di applicare un'etichetta.Il Board riterrà attuata questa raccomandazione non appena Meta fornirà un meccanismo agli utenti per inviare un ricorso a un fact-checker diverso e aggiornerà le sue normative in materia di fact-checking con questo nuovo meccanismo di ricorso.

88. Raccomandazione 7: Meta dovrebbe consentire ai profili (non solo alle Pagine e ai gruppi) i cui contenuti sono stati etichettati da fact-checker indipendenti che applicano la normativa sulla disinformazione di Meta di inviare un ricorso contro l'etichetta a un altro fact-checker attraverso un'apposita funzione all'interno del prodotto. Il Board riterrà attuata questa raccomandazione non appena Meta implementerà la funzione relativa ai ricorsi ai profili in tutti i mercati e dimostrerà che gli utenti possono inviare un ricorso contro le etichette di fact-checking mediante i dati sull'applicazione.

89. I ricorsi degli utenti sono una funzione chiave per la correzione degli errori e per garantire l'accesso degli utenti a un rimedio. I fact-checker controllano contenuti notevolmente variabili in termini di complessità, contenuto tecnico e contesto. Alcuni errori sono inevitabili. Secondo un timore espresso da un commento pubblico, i fact-checker non possiedono le conoscenze scientifiche e tecniche per verificare articoli scientifici complessi condivisi sulla piattaforma. Le etichette di fact-checking comportano delle conseguenze per gli utenti. Quando un fact-checker applica un'etichetta a un contenuto, questa può portare a un avvertimento se il contenuto viene etichettato come "falso" o "alterato". Più avvertimenti porteranno alla limitazione delle funzioni e alla retrocessione dei contenuti condivisi dal profilo interessato. L'attuazione di questa raccomandazione consentirebbe agli utenti di avvisare i fact-checker qualora ritengano che sia stato commesso un errore e di condividere ulteriori informazioni per agevolare il controllo.

90. Raccomandazione 8: Meta dovrebbe incrementare gli investimenti nei programmi di alfabetizzazione digitale nel mondo, dando la priorità ai Paesi con indicatori di scarsa libertà dei media (ad es., il punteggio sulla libertà di stampa della Freedom House) ed elevata penetrazione dei social media. Questi investimenti dovrebbero includere corsi di formazione mirati sull'alfabetizzazione. Il Board riterrà attuata questa raccomandazione non appena Meta pubblicherà un articolo sull'incremento degli investimenti, che specifichi l'importo investito, la natura dei programmi e i Paesi interessati, nonché le informazioni a sua disposizione circa l'impatto di tali programmi.

91. In risposta a una domanda, Meta ha riferito al Board che negli ultimi 3 anni, l'azienda ha investito oltre 7 milioni di dollari statunitensi "per migliorare le competenze in termini di alfabetizzazione mediatica delle persone e ridurre in modo proattivo la diffusione della disinformazione". Secondo le fontifornite da Meta, questi investimenti si sono concentrati soprattutto sugli Stati Uniti. Meta ha collaborato con organizzazioni in altri Paesi per la diffusione di campagne sui social media o pubblicità incentrate sull'alfabetizzazione mediatica.

92. Gli studirelativi all'impatto degli investimenti di Meta nei programmi di alfabetizzazione mediatica negli Stati Uniti (un programma in collaborazione con PEN America e l'altro con Poynter Institute) hanno rilevato significativi miglioramenti nella capacità dei partecipanti di valutare le informazioni online. Ad esempio, la capacità dei partecipanti di individuare casi di disinformazione sul COVID-19 è migliorata da una media pre-intervento del 53% a una media post-intervento dell'82%. Un programma di alfabetizzazione mediatica per anziani ha prodotto un miglioramento del 22% nella capacità dei partecipanti di giudicare in modo preciso i titoli delle notizie come veri o falsi dopo il corso.

93. Raccomandazione 9: per quanto riguarda i singoli account e le reti di entità di Meta che violano in modo ripetuto la normativa sulla disinformazione, Meta dovrebbe condurre una ricerca sugli effetti del suo sistema di sanzioni recentemente pubblicizzato o condividere quelle esistenti, inserendo eventuali dati sul modo in cui questo sistema è progettato per impedire tali violazioni. Questa ricerca dovrebbe includere l'analisi degli account che diffondono o coordinano campagne di disinformazione sulla salute. La valutazione dovrebbe esaminare l'efficacia delle sanzioni relative alla demonetizzazione attualmente usate da Meta per contrastare le motivazioni/i vantaggi finanziari della condivisione di informazioni pericolose, false o fuorvianti. Il Board riterrà attuata questa raccomandazione non appena Meta condividerà i risultati di questa ricerca con il Board e pubblicherà un riepilogo degli stessi nel Centro sulla trasparenza.

Raccomandazioni sulla trasparenza

94. Raccomandazione 10: Meta dovrebbecommissionare una valutazione dell'impatto sui diritti umani delle modalità con cui sezione Notizie, algoritmi legati ai consigli e altre funzioni di progettazione di Meta diffondono la disinformazione dannosa per la salute e il relativo impatto. Questa valutazione dovrebbe fornire informazioni sui fattori chiave nell'algoritmo di classificazione dei feed che contribuiscono alla diffusione della disinformazione dannosa per la salute, su quali tipi di disinformazione possono essere diffusi dagli algoritmi di Meta e su quali gruppi sono più suscettibili a questo tipo di disinformazione (e se questi sono particolarmente presi di mira dalle scelte di progettazione di Meta). La valutazione dovrebbe inoltre rendere di dominio pubblico eventuali ricerche precedenti svolte da Meta circa gli effetti dei suoi algoritmi e delle sue decisioni di progettazione nella diffusione della disinformazione sulla salute. Il Board riterrà attuata questa raccomandazione non appena Meta pubblicherà la valutazione dell'impatto sui diritti umani contenente le analisi in questione.

95. Il Relatore speciale delle Nazioni Unite sulla libertà di espressione ha definito le risposte delle piattaforme di social media alla disinformazione sul COVID-19, fra cui la rimozione dei casi di disinformazione e il programma di fact-checking indipendente di Meta, "generalmente positive" ma "insufficienti" a contrastare le sfide poste dalla disinformazione. Il Relatore speciale ha evidenziato la necessità di intraprendere una "seria revisione dei modelli aziendali alla base dei fattori legati alla disinformazione" (A/HRC/47/25, par. 65-67).

96. Il Board teme che Meta non abbia svolto una valutazione dell'impatto sui diritti umani in merito agli effetti delle misure attuali e delle funzioni di progettazione delle sue piattaforme sulla salute pubblica e sui diritti umani, quali i diritti alla vita, alla salute, all'accesso alle informazioni, alla libertà di espressione di idee e opinioni sulla pandemia e sulle misure sanitarie pubbliche correlate. Meta dovrebbe assicurarsi di avere accesso a tutte le informazioni necessarie per valutare correttamente i potenziali impatti sui diritti umani. Alla luce delle disparità nell'accesso a informazioni adeguate e accessibili, vaccini essenziali, medicine e trattamenti e risorse per la moderazione dei contenuti in tutto il mondo, una valutazione dell'impatto sui diritti umani è fondamentale per analizzare i rischi derivanti dalla diffusione della disinformazione sul COVID-19 in grado di causare violenza fisica imminente nei prodotti di Meta a livello globale.

97. Raccomandazione 11: Meta dovrebbe aggiungere un registro delle modifiche alla pagina del Centro assistenza contenente la lista completa di affermazioni soggette a rimozione ai sensi della normativa in materia di disinformazione sulla salute durante emergenze sanitarie pubbliche dell'azienda.Il Board riterrà attuata questa raccomandazione non appena verrà aggiunto un registro delle modifiche alla pagina del Centro assistenza.

98. Gli Standard della community prevedono un registro delle modifiche per avvisare gli utenti delle modifiche alle normative applicate. Tuttavia, la pagina del Centro assistenza contenente le affermazioni specifiche soggette a rimozione ai sensi della normativa in materia di disinformazione sulla salute durante emergenze sanitarie pubblichenon presenta un registro delle modifiche o qualsiasi altro mezzo che consenta agli utenti di determinare quando la lista delle affermazioni viene aggiornata o modificata. Pertanto, è difficile tenere traccia di eventuali aggiunte o modifiche alle affermazioni soggette a rimozione.

99. Meta ha riferito al Board che, tra marzo 2020 e ottobre 2022, sono state effettuate diverse aggiunte alla lista delle affermazioni rimosse ai sensi della normativa in materia di disinformazione sulla salute durante emergenze sanitarie pubblichee che alcune affermazioni sono state rimosse o modificate.

100. Il Relatore speciale delle Nazioni Unite sulla libertà di opinione ed espressione ha affermato che tutte le persone dovrebbero avere "un vero accesso agli strumenti di comunicazione necessari a informarsi sulla crisi sanitaria pubblica" (A/HRC/44/49, par. 63, punto b). L'aggiunta di un registro delle modifiche al Centro assistenza sarebbe coerente con il principio di legalità, in quanto informerebbe chiaramente gli utenti del momento in cui un'affermazione specifica viene rimossa. Una maggiore trasparenza sull'evoluzione della lista delle affermazioni sarebbe utile agli utenti, considerato che il consenso scientifico e la comprensione dell'impatto sulla salute pubblica della pandemia di COVID-19 sono in continua evoluzione.

101. L'aggiunta di un registro delle modifiche nel Centro assistenza aiuterebbe inoltre gli utenti con opinioni diverse a contestare le valutazioni espresse dall'autorità sanitaria pubblica sulla falsità o sulla probabilità di contribuire direttamente al rischio di violenza fisica imminente, in relazione alle raccomandazioni 1 e 2. Questo approccio risponderebbe alle responsabilità di Meta in materia di diritti umani rispetto alla salute pubblica, consentendo al contempo alle persone in disaccordo di contestare le affermazioni che non condividono.

102. Raccomandazione 12: Meta dovrebbe fornire a cadenza trimestrale dati sull'applicazione in materia di disinformazione all'interno dei report sull'applicazione trimestrali, suddivisi per tipo di disinformazione (ad es., violenza fisica o violenza, disinformazione dannosa per la salute, interferenza elettorale o sui censimenti o contenuti multimediali manipolati), Paese e lingua. Questi dati dovrebbero includere informazioni sul numero di ricorsi e di contenuti ripristinati. Il Board riterrà attuata questa raccomandazione non appena Meta inizierà a includere i dati sull'applicazione relativi alla normativa in materia di disinformazione nei report sull'applicazione dell'azienda.

103. I Report sull'applicazione degli Standard della community (CSER) pubblicati da Meta ogni trimestre indicano quanti contenuti sono stati oggetto di provvedimenti ai sensi dei vari Standard della community. Tuttavia, questi report non contengono dati sull'applicazione della normativa in materia di disinformazione dell'azienda. Il Board riconosce che questo è in parte dovuto al fatto che lo Standard della community sulla disinformazione sia stato formalmente istituito nel marzo 2022. Meta ha riferito al Board che l'azienda non dispone di dati sulla diffusione della disinformazione sul COVID-19 sulle proprie piattaforme. Secondo Meta, questo è dovuto alla continua evoluzione di ciò che costituisce disinformazione sul COVID-19 e alla difficoltà di stabilire un confronto significativo tra la diffusione precedente e successiva alla normativa.

104. Meta, tuttavia, ha potuto misurare la diffusione per brevi periodi di tempo in relazione a sottoinsiemi più piccoli. Secondo l'azienda, fra il 1° marzo 2022 e il 21 marzo dello stesso anno, i contenuti correlati al COVID-19 hanno rappresentato l'1-2% delle visualizzazioni di post di Facebook negli Stati Uniti. Tra queste visualizzazioni, Meta stima che circa lo 0,1% riguardi contenuti contrari alle normative in materia di disinformazione e violenza.

105. Il Board ha ricevuto molti commenti da stakeholder di tutto il mondo che hanno evidenziato come l'assenza di informazioni pubbliche sul numero di contenuti oggetto di provvedimenti ai sensi della normativa in materia di disinformazione, oltre ad altri punti dati pertinenti, comprometta la capacità di ricercatori e stakeholder di valutare l'efficacia delle risposte esistenti di Meta alla disinformazione sul COVID-19. Meta deve fornire dati per valutare se l'applicazione della normativa comporti un numero eccessivo di falsi positivi e la necessità di modifiche per ridurre il rischio di applicazioni eccessive. A tal proposito, il Relatore speciale delle Nazioni Unite sulla libertà di opinione ed espressione ha sottolineato come la "mancanza di trasparenza e accesso ai dati impedisca una valutazione oggettiva dell'efficacia delle misure" adottate per contrastare la disinformazione online. Questo inoltre impedisce agli stakeholder di sapere se le normative sono state applicate in modo coerente in tutto il mondo (A/HRC/47/25, par. 65).

106. Il Board ha raccomandato in passato a Meta di articolare i dati dei suoi Report sull'applicazione degli Standard della Community per Paese e lingua (decisione sul caso "Preoccupazioni dei punjabi in relazione alla RSS in India", 2021-003-FB-UA, raccomandazione 1). In risposta, Meta ha assunto l'impegno di modificare le sue metriche, con l'obiettivo di lanciarle entro la fine del 2023. Articolare i dati sull'applicazione per Paese o lingua è fondamentale per comprendere l'ambito del problema in diverse parti del mondo e la relativa efficacia delle misure di applicazione dell'azienda. Il Board e, soprattutto, gli stakeholder di Meta non sono nella posizione di comprendere appieno e in modo significativo l'efficacia dell'attuale normativa globale e dell'approccio all'applicazione dell'azienda per contrastare la disinformazione sul COVID-19, in assenza di dati pertinenti che consentirebbero a ricercatori e società civile di valutare gli sforzi dell'azienda.

107. Raccomandazione 13:Meta dovrebbe creare una sezione nei suoi "Report sull'applicazione degli Standard della community" per segnalare le richieste di controllo dei contenuti di attori statali in merito a violazioni dellanormativa in materia didisinformazione sulla salute durante emergenze sanitarie pubbliche. Il report dovrebbe includere i dettagli sul numero di richieste di controllo e rimozione per Paese e agenzia governativa e il numero di rifiuti e approvazioni di Meta. Il Board riterrà attuata questa raccomandazione non appena Meta pubblicherà una sezione separata nelle informazioni del suo "Report sull'applicazione degli Standard della community" in merito alle richieste di attori statali che hanno portato alla rimozione per questo tipo di violazione della normativa.

108. Nel caso "Drill music nel Regno Unito" (2022-007-IG-MR), il Board ha raccomandato a Meta di "pubblicare dati sui controlli dei contenuti e sulle richieste di rimozione da parte di attori statali per violazioni degli Standard della community". Nel pieno della pandemia, sono state sollevate preoccupazioni circa i controlli di contenuti correlati al COVID-19 svolti da Meta dietro richiesta dei governi. Questa tendenza potrebbe essere esacerbata nei Paesi in cui i governi avanzano tali richieste per mettere a tacere i manifestanti pacifici o i difensori dei diritti umani che criticano le politiche del governo o per impedire il dibattito pubblico. Nel corso della pandemia, il Relatore speciale delle Nazioni Unite sui diritti alla libertà di riunione e associazione pacifica ha sollevato timori sul fatto che i governi di tutto il mondo abbiano usato la pandemia come pretesto per imporre uno stato di emergenza o per eludere in altro modo i requisiti relativi al giusto processo e i controlli e contrappesi istituzionali inerenti a una società democratica. Ciò ha influito sui diritti umani fondamentali, come il diritto alle proteste pacifiche (A/HRC/50/42, par. 18; (A/77/171, par. 40, 67). Un report dettagliato sulle richieste di controllo dei contenuti degli attori statali ai sensi della normativa in materia di disinformazione sulla salute durante emergenze sanitarie pubbliche garantirebbe un giusto processo agli utenti, in linea con il principio di legalità, in particolare a quelli che si trovano in Paesi a rischio con spazi civici deboli.

109. Il Relatore speciale delle Nazioni Unite sui diritti alla libertà di riunione e associazione pacifica ha raccomandato alle aziende tecnologiche di garantire che i loro prodotti non vengano usati dai governi per sorvegliare o controllare "gli attivisti dei movimenti sociali che sostengono i diritti" (A/77/171, par. 71). Il Board apprezza l'impegno di Meta nel sostenere i difensori dei diritti umani contro le molestie online, la sorveglianza e le richieste di censura dei governi, come indicato nella Normativa aziendale sui diritti umani dell'azienda. La trasparenza sulle richieste dei governi di controllare e/o rimuovere contenuti ai sensi dello Standard della community in materia di disinformazione di Meta testimonierebbe questo impegno.

110. Raccomandazione 14: Meta dovrebbe garantire che gli strumenti di ricerca esistenti, come CrowdTangle e Facebook Open Research and Transparency (FORT), continuino a essere messi a disposizione dei ricercatori. Il Board riterrà attuata questa raccomandazione non appena Meta dichiarerà pubblicamente il proprio impegno a condividere con i ricercatori i dati attraverso questi strumenti.

111. Raccomandazione 15: Meta dovrebbe istituire un percorso che consenta ai ricercatori esterni di ottenere l'accesso ai dati non di dominio pubblico per studiare in modo indipendente gli effetti dei provvedimenti della normativa relativi alla rimozione e alla riduzione della distribuzione della disinformazione sul COVID-19, garantendo al contempo che tale percorso protegga il diritto alla privacy degli utenti di Meta e i diritti umani delle persone dentro e fuori la piattaforma. Questi dati dovrebbero includere metriche non rese disponibili in precedenza, fra cui il tasso di recidività nell'ambito dei provvedimenti relativi alla disinformazione sul COVID-19. Il Board riterrà attuata questa raccomandazione non appena Meta metterà a disposizione dei ricercatori esterni questi dataset e ne darà conferma al Board.

112. Il Relatore speciale delle Nazioni Unite sulla libertà di opinione ed espressione ha sottolineato le difficoltà nel contrastare la disinformazione, in parte dovute alla mancanza di informazioni pubbliche sufficienti a consentire a utenti, ricercatori e attivisti di comprendere e analizzare la natura del problema (A/HRC/47/25, par. 3, 67, 81). A tal fine, il Relatore speciale delle Nazioni Unite sulla libertà di opinione ed espressione suggerisce di rendere i dati disponibili per "la ricerca, il processo di sviluppo delle normative, il monitoraggio e la valutazione" (A/HRC/47/25, par. 104).

113. CrowdTangle è uno strumento esterno che i ricercatori possono usare per monitorare "gruppi e account pubblici influenti su Facebook e Instagram" e analizzare tendenze pertinenti, anche sulla disinformazione. Il database dello strumento include tutti gli utenti, i profili e gli account verificati/pubblici, come quelli dei personaggi politici, dei giornalisti, dei media e degli editori, delle celebrità, delle squadre sportive e di altre figure pubbliche. Include inoltre Pagine e gruppi pubblici che superano una certa soglia di grandezza a seconda del Paese. Lo strumento condivide dati sulla data e sul tipo di contenuti pubblicati, quali Pagine, account o gruppi hanno condiviso i contenuti, il numero e il tipo di interazioni con i contenuti e quali altri account o Pagine pubblici hanno condiviso i contenuti. Non monitora la copertura dei contenuti, i dati o i contenuti pubblicati da account privati, i contenuti a pagamento o in evidenza o le informazioni demografiche degli utenti che hanno interagito con i contenuti. CrowdTangle presenta dati su oltre 7 milioni di Pagine, gruppi e profili verificati di Facebook e su oltre 2 milioni di account Instagram pubblici.

114. Nel 2022, alcune notizie riportavano l'intenzione di Meta di chiudere CrowdTangle. Nonostante Meta non abbia confermato pubblicamente queste notizie, il Board sottolinea come gli strumenti di ricerca andrebbero rafforzati anziché abbandonati dall'azienda. In questo modo i ricercatori esterni potrebbero capire l'impatto dei prodotti di Meta, anche nell'ambito della disinformazione sul COVID-19.

115. Il Board prende atto dell'impegno di Meta nella creazione dello strumento Facebook Open Research and Transparency (FORT), che fornisce vari dataset protetti in termini di privacy ad accademici e ricercatori. Secondo l'azienda, la piattaforma per ricercatori di FORT offre ai ricercatori nel campo social l'accesso in un ambiente controllato a informazioni sensibili riguardanti "dati comportamentali su vasta scala, al fine di studiare e spiegare i fenomeni social". Tuttavia, sono emerse segnalazioni in merito alle carenze dello strumento per i ricercatori accademici, come le "restrittive condizioni d'uso" di Meta o l'insufficienza delle informazioni fornite ai ricercatori per svolgere analisi significative. In ogni caso, il Board riconosce che nel contesto di altre aziende di social media, Meta ha adottato misure significative per condividere dati con ricercatori esterni e incoraggia l'azienda a fare ancora di più.

116. Nel corso delle attività di interazione con gli stakeholder effettuate per il presente parere consultivo sulle normative, i ricercatori hanno più volte ribadito la centralità di questi strumenti per monitorare le tendenze correlate alla disinformazione sul COVID-19. La mancanza di accesso a dati pertinenti ha inoltre reso difficoltoso per il Board valutare la fondatezza della richiesta di parere consultivo sulle normative. A quanto risulta al Board, alcuni di questi dati non sono a disposizione dell'azienda stessa, mentre altri sono disponibili ma non possono essere condivisi con gli stakeholder esterni, compreso il Board. Meta dovrebbe fornire ai ricercatori l'accesso a dati pertinenti al fine di monitorare la diffusione della disinformazione sul COVID-19 sulla piattaforma e l'efficacia delle specifiche misure di risposta. Tali informazioni sono altresì fondamentali per effettuare la valutazione dell'impatto sui diritti umani di cui sopra.

117. Raccomandazione 16: Meta dovrebbe pubblicare i risultati della sua ricerca sulle etichette neutrali e di fact-checking condivisi con il Board nel corso del processo relativo al parere consultivo sulle normative in materia di COVID-19. Il Board riterrà attuata questa raccomandazione non appena Meta renderà pubblica questa ricerca nel Centro sulla trasparenza.

118. Il Board apprezza le informazioni ricevute da Meta in merito all'efficacia di NIT e retrocessione dei contenuti, come i risultati degli esperimenti condotti dall'azienda per valutare l'efficacia continua dei NIT. Il Board ritiene che i risultati di questi esperimenti andrebbero condivisi più ampiamente con i ricercatori esterni che cercano di capire l'impatto delle risposte dell'azienda sulla disinformazione sul COVID-19.

119. Raccomandazione 17: Meta dovrebbe garantire ai ricercatori di tutto il mondo un accesso equo ai dati. Se da un lato i ricercatori europei avranno la possibilità di richiedere l'accesso ai dati tramite la legge sui servizi digitali (Digital Services Act, DSA), Meta non dovrebbe concentrarsi eccessivamente sui ricercatori universitari del nord globale. Le ricerche sulla diffusione della disinformazione sul COVID-19 e sull'impatto delle normative di Meta plasmeranno la comprensione generale della disinformazione dannosa per la salute e le relative risposte future in questa e nelle emergenze a venire. Se queste ricerche saranno sproporzionatamente incentrate sul nord globale, lo saranno anche le risposte. Il Board riterrà attuata questa raccomandazione non appena Meta condividerà pubblicamente i suoi piani per fornire ai ricercatori di tutto il mondo un accesso ai dati simile a quello fornito ai Paesi dell'UE ai sensi del DSA.

120. La maggior parte delle ricerche sui flussi di disinformazione riflette in modo sproporzionato le tendenze e i modelli presenti negli Stati Uniti e in Europa occidentale. Questo potrebbe portare a interventi sulla normativa sui contenuti strutturati in funzione dei problemi specifici di queste aree geografiche. Il Relatore speciale delle Nazioni Unite sulla libertà di opinione ed espressione ha preso atto delle richieste della società civile di ulteriori ricerche sull'impatto delle disinformazione sulle "comunità vulnerabili e minoritarie", citando le campagne di disinformazione basate sull'identità che hanno alimentato il conflitto etnico in Etiopia e Myanmar (A/HRC/47/25, par. 26). Non appena Meta espanderà l'accesso ai ricercatori esterni in conformità alla legge sui servizi digitali e manterrà il proprio strumento FORT, l'azienda dovrà garantire la rappresentanza di accademici e ricercatori di tutto il mondo.

121. Raccomandazione 18: Meta dovrebbe valutare l'impatto del sistema di controllo incrociato "Controllo secondario di risposta rapida" (ERSR) sull'efficacia dell'applicazione della normativa sulla disinformazione e garantire che le raccomandazioni 16 e 17 del parere consultivo sulle normative del Board in merito al programma di controllo incrociato vengano applicate alle entità che pubblicano contenuti in violazione della normativa in materia di disinformazione sulla salute durante emergenze sanitarie pubbliche. Il Board riterrà attuata questa raccomandazione non appena Meta condividerà i suoi risultati con il Board e li pubblicherà.

122. Secondo Meta, il programma di controllo incrociato è stato implementato per ridurre al minimo gli errori di moderazione a più alto rischio di falsi positivi. La prima parte del programma di controllo incrociato è composta dal sistema "Controllo secondario di risposta rapida" (ERSR), che garantisce un ulteriore controllo umano dei contenuti potenzialmente in violazione pubblicati da specifiche entità qualificate. Meta gestisce liste di entità qualificate in base ai soggetti che l'azienda ritiene qualificati a ricevere i vantaggi offerti dall'ERSR. Le entità possono essere Pagine Facebook, profili Facebook e account Instagram e possono rappresentare persone singole e gruppi o organizzazioni. Molti degli utenti inseriti in queste liste sono celebrità, aziende di grandi dimensioni, leader governativi e personaggi politici.

123. Nel suo parere consultivo sulle normative in merito al programma di controllo incrociato di Meta, il Board aveva raccomandato a Meta di stabilire "criteri chiari e pubblici per l'idoneità alla prevenzione degli errori basata sulle entità", in modo da distinguere "gli utenti la cui libertà di espressione merita un'ulteriore protezione dal punto di vista dei diritti umani" e quelli "inseriti per ragioni aziendali".

124. I personaggi politici sono esenti dal programma di fact-checking indipendente dell'azienda. Questo significa che le informazioni false condivise dai personaggi politici, non rimosse in altro modo ai sensi della normativa in materia di disinformazione dannosa per la salute, non possono essere controllate ed etichettate da fact-checker indipendenti. Meta ha inoltre affermato di non aver valutato l'impatto del sistema ERSR sull'efficacia della normativa in materia di disinformazione sul COVID-19 poiché l'ERSR è stato predisposto al fine di prevenire errori nell'applicazione e non per valutare l'efficacia di uno specifico Standard della community. Pertanto, i team interni dell'azienda non monitorano né analizzano i dati relativi al suo impatto sulla normativa in materia di disinformazione sul COVID-19.

125. In base alle ricerche interne e alle interazioni con gli stakeholder per il presente parere consultivo sulle normative in materia di COVID-19, il Board ha rilevato che molti responsabili della diffusione della disinformazione sono personalità di spicco, quali celebrità, personaggi politici, attori di stato e figure religiose, che potrebbero essere entità qualificate per i vantaggi del programma ERSR. Ad esempio, l'invio di Media Matters for America (PC-10758) ha richiamato l'attenzione sull'impatto del sistema di controllo incrociato di Meta nel vanificare gli sforzi volti a contrastare la disinformazione. Le "applicazioni più lente o indulgenti" concesse a celebrità, personaggi politici, giornalisti e altri utenti di spicco per i contenuti in violazione hanno consentito a casi di disinformazione di restare pubblicati sulla piattaforma. Il Relatore speciale delle Nazioni Unite sulla libertà di opinione ed espressione ha sollevato analoghi timori in relazione a "informazioni non affidabili" divulgate da "persone con piattaforme significative", osservando come queste "possano causare gravi danni, in modo intenzionale o meno". Gli attori statali hanno anche diffuso, ad esempio, "affermazioni spesso avventate" sulle origini del virus, sulla disponibilità di farmaci per contrastare i sintomi e sullo stato del COVID-19 nel loro Paese. Il Relatore speciale delle Nazioni Unite ha raccomandato di ritenere responsabili i pubblici ufficiali per le loro dichiarazioni e le loro azioni (A/HRC/44/49, par. 41, 45, 63, lettera c); vd. anche A/HRC/47/25, par. 18, che identifica le celebrità come responsabili della diffusione della disinformazione più in generale).

126. Se pubblicati da entità qualificate nell'ambito del programma ERSR, i contenuti di disinformazione in grado di contribuire direttamente al rischio di violenza fisica imminente nei confronti della sicurezza e salute pubblica vengono rimossi in conformità alla normativa sulla disinformazione dannosa per la salute. Tuttavia, i casi di disinformazione che normalmente sarebbero oggetto di fact-checking o etichette, essendo pubblicati da entità qualificate come i personaggi politici, non solo sono esenti dal fact-checking indipendente, ma beneficiano anche di un'applicazione ritardata a causa dell'ulteriore controllo umano dei contenuti potenzialmente in violazione previsto dal sistema ERSR. Ciò implica che i contenuti di disinformazione sul COVID-19 che non rientrano nelle 80 affermazioni definite e pubblicati da entità qualificate possono restare sulla piattaforma senza un'etichetta di fact-checking e potrebbero non essere controllati affatto.

*Nota procedurale:

I pareri consultivi sulle normative dell'Oversight Board sono predisposti da gruppi di 5 membri e devono essere approvati dalla maggioranza del Board. Le decisioni del Board non rappresentano necessariamente le opinioni personali di tutti i membri.

Per il presente parere consultivo sulle normative, sono state commissionate ricerche indipendenti per conto del Board. Il Board è stato assistito da un istituto di ricerca indipendente presso l'Università di Göteborg facente ricorso a un team di oltre 50 esperti di social in 6 continenti, nonché a più di 3200 esperti nazionali da tutto il mondo. Il Board ha ricevuto aiuto anche da Duco Advisors, una società di consulenza specializzata in geopolitica, fiducia e sicurezza e tecnologia. Il Board ha ricevuto aiuto anche da Memetica, un'organizzazione che si occupa di ricerche open source sulle tendenze nei social media.

العودة إلى قرارات الحالة والآراء الاستشارية المتعلقة بالسياسة