قرار قضية متعددة
Campagna elettorale 2023 in Grecia
تم النشر بتاريخ 28 آذار 2024
L'Oversight Board ha controllato i due post di Facebook insieme, entrambi condivisi durante le elezioni generali in Grecia nel giugno 2023. Il Board ha confermato le decisioni di Meta di rimuovere i contenuti in entrambi i casi per violazione della normativa aziendale in materia di organizzazioni e persone pericolose.
2 تم تضمين من الحالات في هذه الحزمة
FB-368KE54E
Caso di persone e organizzazioni pericolose su Facebook
FB-3SNBY3Q2
Caso di persone e organizzazioni pericolose su Facebook
Per leggere la decisione in lingua greca, clicca qui.
Για να διαβάσετε αυτήν την απόφαση στα ελληνικά, κάντε κλικ εδώ.
Riepilogo
Analizzando due casi su contenuti di Facebook pubblicati durante le elezioni generali di giugno 2023 in Grecia, il Board ha confermato la decisione di Meta di rimuovere entrambi i post. I post sono stati rimossi per aver violato la normativa in materia di Organizzazioni e persone pericolose dell'azienda. Il primo caso riguardava un volantino elettorale che riportava un'affermazione in cui un candidato legittimo si allineava con una figura che incita all'odio, mentre nel secondo caso veniva condivisa un'immagine di un logo di un'entità che incita all'odio. La maggioranza del Board ritiene che la rimozione di questi contenuti sia coerente con le responsabilità di Meta in materia di diritti umani. Tuttavia, il Board raccomanda a Meta di chiarire l'ambito dell'eccezione della normativa che permette la condivisione di contenuti nel contesto di "dibattito sociale e politico" durante le elezioni.
Informazioni sui casi
Questi due casi riguardano contenuti pubblicati su Facebook da utenti diversi durante le elezioni generali di giugno 2023 in Grecia.
Nel primo caso, un candidato per il partito degli Spartani in Grecia ha pubblicato un'immagine del suo volantino elettorale, su cui è presente un'affermazione secondo cui Ilias Kasidiaris, politico greco condannato a 13 anni di carcere per essere stato a capo delle attività criminali e dei crimini d'odio di Alba Dorata, sostiene il partito degli Spartani.
Kasidiaris e altri membri del partito di estrema destra di Alba Dorata perseguitavano migranti, rifugiati e altre minoranze in Grecia prima che il partito venisse riconosciuto come organizzazione criminale nel 2020. Prima della condanna nel 2020, Kasidiaris aveva fondato un nuovo partito politico denominato Partito Nazionale – Greci. Più tardi, a maggio 2023, la Corte Suprema greca ha escluso il Partito Nazionale – Greci dalla candidatura alle elezioni del 2023 dato che, ai sensi delle leggi greche, i partiti con leader condannati non possono partecipare. Sebbene Kasidiaris fosse stato bannato da Facebook nel 2013 per incitamento all'odio, utilizza altri social media in carcere ed è così che ha dimostrato il proprio sostengo agli Spartani un paio di settimane prime delle elezioni di giugno. Gli Spartani, che hanno vinto 12 seggi, hanno riconosciuto il ruolo svolto da Kasidiaris per raggiungere il successo del partito.
Nel secondo caso, un altro utente di Facebook ha pubblicato un'immagine del logo del Partito Nazionale – Greci, che includeva anche la parola greca per "Spartani".
Alba Dorata, Partito Nazionale – Greci e Kasidiaris sono designati rispettivamente come "organizzazioni che incitano all'odio" di livello 1 e come "persona che incita all'odio" di livello 1, conformemente alla normativa su organizzazioni e persone pericolose di Meta.
Entrambi i post erano stati segnalati a Meta. L'azienda ha determinato separatamente che i post violavano lo Standard della community in materia di organizzazioni e persone pericolose, ha rimosso i contenuti e applicato un avvertimento grave e una limitazione di 30 giorni per entrambi gli account. I due diversi utenti di Facebook che avevano pubblicato i contenuti hanno inviato un ricorso a Meta ma l'azienda ha riscontrato nuovamente la violazione. Entrambi gli utenti hanno poi inviato un ricorso separatamente al Board.
Conclusioni principali
Primo caso
Secondo la maggioranza del Board, il post violava la normativa in materia di organizzazioni e persone pericolose (come scritta a giugno 2023) in quanto l'utente ha infranto la regola che vieta di "elogiare" un'entità designata. L'utente si è infatti "allineato ideologicamente" a Kasidiaris, designato da Meta come figura che incita all'odio. Poiché questa regola includeva un esempio esplicito di allineamento ideologico, sarebbe stato sufficientemente chiaro a utenti e moderatori di contenuti. Anche in seguito all'aggiornamento più recente della normativa, il post sarebbe comunque rientrato nel divieto di pubblicare "riferimenti positivi" a Kasidiaris.
Inoltre, secondo la maggioranza dei membri del Board la rimozione del post non viola il diritto del pubblico di conoscere questo sostegno. Il pubblico ha avuto molte occasioni, tra cui i media locali e regionali, per conoscere questa espressione di supporto di Kasidiaris nei confronti del partito degli Spartani.
Una minoranza, invece, ritiene che la violazione della regola sull'allineamento ideologico non era direttamente logica perché era Kasidiaris a sostenere il candidato legittimo e non il contrario. Questi membri del Board ritengono inoltre che l'eccezione per "rilevanza informativa" sarebbe dovuta essere applicata per mantenere i contenuti su Facebook cosicché gli elettori potessero accedere alle informazioni più complete possibili in base a cui poi prendere decisioni.
Secondo caso
La maggioranza del Board ritiene che l'immagine violasse la normativa in materia di organizzazioni e persone pericolose poiché condivideva un simbolo del Partito Nazionale – Greci, un'organizzazione designata, e andava rimossa. L'utente non aveva fornito contesto per poter applicare le eccezioni di "riportare notizie in merito, discutere in modo neutro ed esprimere condanna".
Tuttavia, ci sono anche membri del Board nella minoranza che ritengono che andrebbe consentita la condivisione di loghi associati a un'entità designata, nei casi in cui non siano presenti altre violazioni o contesti di contenuti pericolosi.
Preoccupazioni generali
Secondo il Board, l'eccezione alla normativa per il "dibattito sociale e politico" relativa alle entità designate durante le elezioni andrebbe resa più chiara pubblicamente. Il Board inoltre continua a essere preoccupato riguardo la mancanza di trasparenza sulla classificazione di Meta relativa alle entità che incitano all'odio: in questo modo, è difficile per gli utenti capire con quali organizzazioni o persone possono allinearsi ideologicamente o quali simboli possono condividere.
La decisione dell'Oversight Board
L'Oversight Board ha confermato le decisioni di Meta di rimuovere entrambi i post.
Il Board raccomanda a Meta i seguenti provvedimenti:
- Chiarendo l'ambito dell'eccezione allo Standard della community in materia di organizzazioni e persone pericolose che consente la condivisione di contenuti "che riportano notizie in merito, discutono in modo neutro o esprimono condanna su persone e organizzazioni pericolose o sulle loro attività" nel contesto del "dibattito sociale e politico". In particolare, Meta dovrebbe chiarire in che modo l'eccezione si applica a contenuti relativi alle elezioni.
*I riepiloghi forniscono una panoramica dei casi e non costituiscono un precedente.
Decisione completa sul caso
1. Riepilogo della decisione
L'Oversight Board ha controllato insieme due post di Facebook che riguardavano le elezioni generali di giugno 2023 in Grecia. Il primo caso riguarda il post di un candidato elettorale greco, nel quale condivideva dettagli sulla sua campagna elettorale e un'immagine del volantino elettorale che mostrava il sostegno di un politico designato come figura che incita all'odio ai sensi dello standard della community in materia di organizzazioni e persone pericolose. Il secondo caso riguarda un post che condivide il logo di un partito greco, Partito Nazionale – Greci, anch'esso un'entità designata, con la parola "Spartani" in lingua greca come parte dell'immagine. Meta ha rimosso i due post perché violavano lo Standard della community in materia di organizzazioni e persone pericolose.
La maggioranza del Board ha confermato le decisioni di Meta di rimuovere i contenuti di entrambi i post, stabilendo che queste rimozioni erano conformi alle normative e alla responsabilità di Meta in materia di diritti umani. Il Board consiglia a Meta di chiarire l'ambito della nuova eccezione relativa al "dibattito sociale e politico" allo Standard della community in materia di organizzazioni e persone pericolose durante le elezioni.
2. Descrizione e contesto del caso
I casi riguardano contenuti pubblicati su Facebook da utenti diversi in Grecia durante le elezioni generali di giugno 2023. Si tratta della seconda tornata elettorale che si tiene nel Paese quest'anno dopo che nessun partito è riuscito a formare una maggioranza a maggio.
Nel primo caso, un utente di Facebook, che era un candidato per il partito degli Spartani in Grecia, ha pubblicato un'immagine del proprio volantino elettorale con nome e foto e una didascalia in lingua greca che descriveva i progressi della campagna prima delle elezioni, tra cui la preparazione e l'interazione con il pubblico. Il volantino includeva un'affermazione secondo la quale Ilias Kasidiaris sostiene gli Spartani.
Kasidiaris, politico greco, era stato condannato a 13 di carcere per essere stato a capo delle attività di Alba Dorata. Alba Dorata era stata decretata un'organizzazione criminale nel 2020 per la responsabilità in crimini dell'odio, tra cui l'assassinio di un rapper greco. Nel 2013, due membri di Alba Dorata erano stati dichiarati colpevoli dell'assassinio di un lavoratore migrante pakistano. Kasidiaris e gli altri membri di Alba Dorata avevano partecipato attivamente alle persecuzioni di migranti, rifugiati e altri gruppi di minoranza e vulnerabili. Durante il rally di Alba Dorata nel 2012, Kasidiaris chiamò la comunità rom "spazzatura umana" e chiese ai suoi sostenitori di "combattere [...] se desideravano un'area pulita", (v. i commenti pubblici, ad es. PC-20008 da ACTROM - Action for and from the Roma).
Prima della condanna nel 2020, Kasidiaris aveva fondato un nuovo partito politico denominato Partito Nazionale – Greci. Il 2 maggio 2023, la Corte Suprema greca ha escluso il Partito Nazionale – Greci dalla candidatura alle elezioni del 2023 alla luce delle modifiche adottate di recente alla costituzione greca che banna i partiti con leader condannati dalla partecipazione alle elezioni. Molti mezzi di comunicazioneinternazionali e regionali riportano che prima delle elezioni di giugno 2023, Kasidiaris aveva dichiarato il suo supporto agli Spartani dal carcere usando i social media. Kasidiaris, che era stato bannato da Facebook nel 2013 per incitamento all'odio, usa principalmente altre piattaforme social ora.
Nel secondo caso, un altro utente di Facebook ha pubblicato un'immagine del logo del Partito Nazionale – Greci, che includeva anche la parola greca per "Spartani".
Il partito degli Spartani era stato fondato nel 2017 da Vasilis Stigkas e, secondo il Centro europeo per lo studio del populismo, promuove un'ideologia di estrema destra ed è un successore del partito di Alba dorata. Gli Spartani non hanno partecipato alle elezioni di maggio 2023 ma il partito non chiese di partecipare alla seconda serie di elezioni a giugno dello stesso anno. La legge greca richiede che i partiti politici inviino le candidature per poter partecipare alle elezioni parlamentari nazionali, che successivamente devono essere certificate da un tribunale. L'8 giugno 2023, la Corte Suprema greca ha emesso una decisione con la quale permetteva a 26 partiti, quattro alleanze e due candidati indipendenti di partecipare alle elezioni di giugno 2023, inclusi gli Spartani. Stigkas, che vinse uno dei 12 seggi per il partito degli Spartani (4,65%), disse che il supporto di Kasidiaris "portò al loro successo".
Lo spazio civico in Grecia è stato segnato da un maggior numero di minacce e attacchi perpetrati da gruppi estremisti e individui privati, che prendono di mira i diritti umani di rifugiati, migranti, comunità LGBTQIA+ e minoranza religiose. Gli studiosi di politica greca, i difensori dei diritti umani e ONG locali temono che i gruppi di estrema destra, anche quelli affiliati ad Alba Dorata, possano usare le piattaforma social di tendenza per diffondere disinformazione e incitamento all'odio, operando attivamente online e offline, con un impatto che si estende al di fuori da ciò che è visibile sulle piattaforme come Facebook (v. i commenti pubblici, ad es. PC-20017 da Far Right Analysis Network)
Il report Freedom in the World (2023) annuale di Freedom House ha classificato la Grecia come Libera con un punteggio di 86/100, con un ambiente mediatico altamente libero e organizzazioni non governative che operano tipicamente senza interferenze da parte delle autorità. In ogni caso, studi recenti pubblicati da Reuters Institute for the Study of Journalism, International Press Institute e Incubator for Media Education and Development evidenziano un declino importante della fiducia nei media greci, in particolare nei giornalisti e nei mezzi di trasmissione. Ciò è in parte motivato dalle preoccupazioni dell'influenza politica e aziendale sul giornalismo, associata alla diffusione sempre maggiore dei media. Questi studi hanno rivelato inoltre preoccupazioni relative alla manipolazione delle informazioni, censura e riduzione dell'indipendenza dei media.
I due post sono stati segnalati a Meta, che dopo un controllo umano ha stabilito che in entrambi i casi i contenuti violavano lo Standard della community di Facebook in materia di organizzazioni e persone pericolose. Ha applicato un avvertimento grave e una limitazione di 30 giorni per entrambi gli account, vietando loro l'uso di video in diretta e prodotti pubblicitari, senza sospendere gli account. Entrambi gli utenti di Facebook che hanno pubblicato i contenuti hanno inviato un ricorso ma Meta ha riscontrato nuovamente una violazione dei contenuti. I due utenti hanno quindi inviato distintamente un ricorso al Board.
3. Ambito e autorità dell'Oversight Board
Il Board ha l'autorità di controllare la decisione di Meta dando seguito al ricorso della persona il cui contenuto è stato rimosso (articolo 2, sezione 1 dell'Atto costitutivo; articolo 3, sezione 1 dello Statuto). Quando il Board identifica casi che sollevano problemi simili, questi potrebbero essere assegnati tutti insieme a un comitato che rifletterà in merito e verrà presa una decisione vincolante su ciascun contenuto.
Il Board può confermare o revocare la decisione di Meta (articolo 3, sezione 5 dell'Atto costitutivo) e la sua decisione è vincolante per l'azienda (articolo 4 dell'Atto costitutivo). Meta deve anche valutare la fattibilità dell'applicazione della sua decisione nel caso di contenuti identici in un contesto parallelo (articolo 4 dell'Atto costitutivo). Le decisioni del Board possono comprendere raccomandazioni non vincolanti cui Meta deve rispondere (articolo 3, sezione 4 dell'Atto costitutivo; articolo 4). Quando Meta si impegna ad adottare misure a seguito di raccomandazioni, il Board ne monitora l'implementazione.
4. Fonti di autorità e indicazioni
L'analisi del Board del caso in questione si è basata sui seguenti standard e precedenti:
I. Decisioni dell'Oversight Board
- Discorso del generale brasiliano
- Menzione dei talebani in un servizio giornalistico
- Post di Al Jazeera condiviso
- Preoccupazioni dei punjabi in relazione alla RSS in India
- Citazione nazista
II. Normative sui contenuti di Meta
I fondamenti della normativa per lo standard della community su persone e organizzazioni pericolose spiega che "per impedire e interrompere atti di violenza reali", Meta non "permette la presenza sulle piattaforme di organizzazioni e individui che proclamano o sono coinvolti in azioni violente". Meta valuta queste entità in base al loro comportamento online e offline, in particolare per quanto riguarda i legami con la violenza.
Secondo i fondamenti della normativa, le organizzazioni e gli individui designati nel Livello 1 dello Standard della community in materia di organizzazioni e persone pericolose rientrano in tre categorie: organizzazioni terroristiche, organizzazioni criminali e entità dell'odio. Il livello 1 si concentra sulle entità che commettono gravi atti di violenza offline, tra cui "organizzare o sostenere azioni violente contro i civili, disumanizzare o sostenere ripetutamente atti di violenza contro le persone in base a caratteristiche protette o prendere parte a operazioni criminali sistematiche". I fondamenti della normativa sostengono che le designazioni del Livello 1 corrispondono all'applicazione più ampia poiché Meta ritiene che queste entità abbiano legami più diretti con la violenza offline".
Per "entità dell'odio", Meta intende un'"organizzazione o una persona che diffonde e incoraggia l'odio verso gli altri sulla base delle loro caratteristiche protette". Meta dichiara che le attività dell'entità sono caratterizzate "da almeno uno dei seguenti comportamenti: violenza, retorica che include minacce o forme pericolose di molestia, che prendono di mira le persone sulla base delle loro caratteristiche protette; uso ripetuto di incitamento all'odio; rappresentazione di ideologie di odio o altre entità dell'odio designate; e/o esaltazione o supporto significativo di altre entità dell'odio o ideologie di odio designate".
Nel Livello 1 della normativa in materia di organizzazioni e persone pericolose in vigore a giugno 2023, Meta non consente la presenza di "leader o membri di spicco delle suddette organizzazioni sulla piattaforma, l'utilizzo di simboli che li rappresentino, né la pubblicazione di contenuti che elogino tali individui o i loro atti". In quel momento, il concetto di "elogio" era definito come: "parlare in modo positivo di entità o eventi designati" o "allinearsi ideologicamente con entità o eventi designati". In seguito agli aggiornamenti di dicembre 2023 alla normativa in materia di organizzazioni e persone pericolose, l'azienda ora rimuove i casi di "esaltazione, supporto e rappresentazione delle entità di livello 1, dei loro leader, fondatori o membri di spicco, inclusi i riferimenti poco chiari ad essi". Ciò include "riferimenti umoristici poco chiari, senza didascalie o positivi che non esaltano manifestazioni di odio o violenza da parte di entità designate".
Meta richiede agli utenti di dichiarare il proprio intento in modo esplicito quando condividono contenuti che parlano di entità designate o relative attività. La normativa Organizzazioni e persone pericolose consente agli utenti di segnalare, trattare in modo neutrale o condannare organizzazioni o persone pericolose o le loro attività. Meta ha aggiornato l'eccezione ad agosto 2023 per chiarire che gli utenti potrebbero condividere contenuti con riferimenti a organizzazioni o persone pericolose o alle loro attività nel contesto del "dibattito sociale e politico". Come annunciato pubblicamente da Meta in un post sul blog su Newsroom, l'eccezione aggiornata relativa al "dibattito sociale e politico" include i contenuti condivisi nel contesto delle elezioni.
L'analisi del Board delle normative sui contenuti si è ispirata anche al valore di Meta di "Libertà di espressione", che l'azienda descrive come "essenziale", e ai suoi valori di sicurezza.
Principio di rilevanza informativa
Meta definisce il principio di rilevanza informativa rappresenta un'eccezione alla normativa generale applicabile a tutte le aree della normativa all'interno degli Standard della community, compresa la normativa in materia di organizzazioni e persone pericolose. Fa in modo che i contenuti altrimenti in violazione possano rimanere sulla piattaforma se il valore dell'interesse pubblico supera il rischio di danno. Secondo Meta, tali valutazioni vengono fatte solo in "rari casi", in seguito al processo di escalation per il team addetto alle normative sui contenuti. Questo team afferma di valutare se il contenuto in questione pone minacce imminenti per la salute o la sicurezza pubblica o se dà voce a punti di vista che al momento costituiscono oggetto di discussione nel quadro del processo politico. Tale valutazione prende in considerazione circostanze specifiche per i paesi, compresa l'eventualità che le elezioni siano in corso. L'identità di chi parla è una considerazione rilevante, ma la rilevanza informativa non si limita ai contenuti pubblicati dalle testate giornalistiche.
III. Responsabilità di Meta in materia di diritti umani
I principi guida delle Nazioni Unite (UNGP) su imprese e diritti umani, promossi nel 2011 dal Consiglio per i diritti umani delle Nazioni Unite, stabiliscono un quadro normativo volontario per le responsabilità delle aziende private in materia di diritti umani. Nel 2021, Meta ha annunciato la sua Normativa aziendale sui diritti umani, che ribadisce il suo impegno nel rispettare i diritti dell'uomo ai sensi dei Principi guida delle Nazioni Unite. L'analisi del Board sulle responsabilità di Meta in materia di diritti umani per il caso in oggetto si è basata sui seguenti standard internazionali:
- Il diritto alla libertà di opinione ed espressione: articoli 19 e 20 della Convenzione internazionale sui diritti civili e politici ( ICCPR), Commento generale n. 34, Comitato per i Diritti Umani (2011); La Dichiarazione congiunta sulla libertà di espressione e sulle elezioni nell'era digitale, Relatore speciale delle Nazioni Unite sulla libertà di opinione ed espressione, Rappresentante dell'OSCE sulla libertà dei media e del Relatore speciale dell'OSA sulla libertà di espressione (2022), report del Relatore speciale sulla libertà di opinione ed espressione, A/HRC/28/25 (2018).
- Il diritto alla libertà di associazione: articolo 22 dell'ICCPR. report A/68/299 (2013), A/HRC/26/30 (2014) del Relatore speciale delle Nazioni Unite sulla libertà di riunione pacifica e di associazione.
- Il diritto alla vita: articolo 6 dell'ICCPR.
- Il diritto di partecipazione agli affari pubblici e il diritto al voto: articolo 25 dell'ICCPR.
- Il diritto alla non discriminazione: articolo 2 e 26 dell'ICCPR.
- Il diritto a non essere sottoposti a tortura o trattamenti inumani e degradanti: articolo 7 dell'ICCPR.
- Il divieto della distruzione dei diritti: articolo 5 dell'ICCPR. articolo 30 dell'UDHR.
5. Osservazioni degli utenti
L'autore di ogni post in questi due casi ha inviato al Board un ricorso contro la decisione di Meta di rimuovere i contenuti.
All'interno del ricorso, l'utente del primo caso ha dichiarato di essere un candidato di un partito politico greco legittimo, che stava partecipando alle elezioni parlamentari in Grecia, e ha sottolineato che a causa dell'avvertimento applicato al suo account, non è riuscito a gestire la sua pagina Facebook.
L'utente del secondo caso ha affermato di aver condiviso il logo del partito degli Spartani e di essere rimasto sorpreso quando hanno rimosso il suo post.
6. Osservazioni di Meta
Meta ha comunicato al Board che le decisione relative alla rimozione dei contenuti nei due casi si basavano sullo Standard della community in materia di organizzazioni e persone pericolose.
Meta ha informato il Board che Alba Dorata, Partito Nazionale – Greci e Kasidiaris sono designati rispettivamente come organizzazioni che incitano all'odio di livello 1 e come persona che incita all'odio di livello 1. La designazione del Partito Nazionale – Greci è avvenuta il 5 maggio 2023. In risposta alle domande del Board, Meta ha affermato che l'azienda designa le entità secondo un processo indipendente basato su una serie di segnale di designazione.
Meta ha dichiarato che nel primo caso l'utente Facebook ha elogiato un'entità designata parlando positivamente di Kasidiaris. Esprimere un "allineamento ideologico" faceva parte dell'elenco di elogi vietati. Meta ha spiegato che la didascalia del post indicava che l'utente stava distribuendo volantini a sostegno della propria campagna parlamentare e del proprio partito, gli Spartani. Tuttavia, il volantino riportava anche che Kasidiaris "supports the party Spartans" (sostiene il partito degli Spartani), sottolineando in modo esplicito che Kasidiaris, persona designata, appoggiava il partito politico dell'utente. Per Meta, l'utente si allineava pubblicamente con Kasidiaris, di cui promuoveva il sostegno. Meta ha informato il Board che a seguito dell'aggiornamento di dicembre 2023 alla normativa in materia di organizzazioni e persone pericolose, il post del primo caso violerebbe la regola che vieta "riferimenti positivi che non esaltano manifestazioni di odio o violenza da parte di entità designate". Il post non includeva esaltazioni esplicite di Kasidiaris o delle sue attività violente o di incitamento all'odio.
Nel secondo caso, Meta ha considerato la condivisione del logo del Partito Nazionale – Greci come un elogio per il partito, che è un'entità designata, senza alcuna didascalia chiara di accompagnamento. Ha quindi rimosso i contenuti. Meta ha informato il Board che a seguito dell'aggiornamento di dicembre 2023 alla normativa in materia di organizzazioni e persone pericolose, il post del secondo caso sarebbe stato rimosso in quanto l'utente ha condiviso un riferimento (un simbolo) del Partito Nazionale – Greci senza alcuna didascalia chiara di accompagnamento, sebbene non includesse un'esaltazione esplicita di Kasidiaris o delle sue attività violente o di incitamento all'odio.
Meta ha stabilito che nessun post avrebbero beneficiato dell'eccezione in materia di organizzazioni e persone pericolose in vigore a giungo 2023 dato che gli utenti non indicavano in modo chiaro l'intento di "segnalare, trattare in modo neutrale o condannare" un'entità designata o le loro attività.
Secondo Meta, la situazione non è cambiata dopo le modifiche di agosto 2023 all'eccezione, che è stata adattata per permettere i "dibattiti sociali e politici". In risposta alle domande del Board, Meta ha dichiarato che l'eccezione relativa al "dibattito sociale e politico" era stata introdotta per consentire alcuni tipi di "contenuti che includono contesti espliciti relativi a una serie di categorie come le elezioni", che prima sarebbero stati rimossi in base alla normativa. Quando un'entità designata è registrata e iscritta ufficialmente in un processo elettorale formale, Meta temeva che la rimozione di tutti gli elogi o i riferimenti all'entità avrebbe limitato indebitamente la possibilità delle persone di parlare delle elezioni e dei candidati. Tuttavia, l'eccezione non aveva l'obiettivo di includere un sostegno significativo come fornire un vantaggio operativo o strategico concreto a un'entità designata, distribuendo materiale ufficiale della campagna, facendo propaganda ufficiale o consentendo canali di comunicazione ufficiali per suo conto.
In risposta a una domanda del Board, Meta ha spiegato che l'eccezione relativa al dibattito sociale e politico vuole trovare un equilibrio tra la possibilità di parlare di entità designate che partecipano a un'elezione e la garanzia della sicurezza, rimuovendo il sostengo significativo verso le entità o la loro esaltazione. Meta ha sottolineato che ha concentrato intenzionalmente la rilevanza su entità registrate e iscritte formalmente al processo elettorale, perché questa rilevanza vuole consentire la discussione su candidati in corsa per una carica, rimuovendo al contempo l'esaltazione dell'odio o della violenza di un'entità designata o fornendole sostengo significativo. Meta ha aggiunto che "lo scopo della creazione della rilevanza era di consentire agli utenti di esprimere le propria opinione sulle preferenze elettorali se l'entità designata era candidata alle elezioni, non di consentire alle entità designate di eludere i processi elettorali e l'applicazione dell'azienda per condividere i loro programmi".
Per il secondo caso, Meta ha concluso che l'eccezione relativa al dibattito sociale e politico ai sensi della normativa aggiornata non avrebbe trovato applicazione perché la condivisione di un simbolo o un logo del Partito Nazionale – Greci con un testo che identifica gli Spartani, senza commenti aggiuntivi (ad es. una didascalia che condanna o discute in modo neutro il partito), non indica chiaramente lo scopo dell'utente. Inoltre, l'eccezione non si sarebbe applicata nemmeno al secondo caso poiché il Partito Nazionale – Greci, un'entità designata, era stata squalificata dalla partecipazione alle elezioni in Grecia.
Il Board ha posto cinque domande a Meta per iscritto. Domande relative all'applicazione della rilevanza del "dibattito sociale e politico" di Meta ai sensi della normativa in materia di organizzazioni e persone pericolose; la trasparenza del processo di designazione e la lista delle entità designate ai sensi della normativa. Meta ha risposto alle cinque domande.
7. Commenti pubblici
L'Oversight Board ha ricevuto 15 commenti pubblici conformi ai termini di presentazione. 13 dall'Europa, 2 da Stati Uniti e Canada. Per consultare i commenti pubblici inviati con il consenso alla pubblicazione, cliccare qui.
La presentazione riguardava i seguenti temi: il contesto politico in Grecia, inclusa una discussione sui partiti politici greci; le elezioni del 2023 in Grecia e l'impatto dei social media sui loro risultati; gruppi di estrema destra ed estremisti in Grecia e in altri Paesi europei e come usano le piattaforme social; le recenti modifiche legislative in Grecia e il relativo impatto sulle elezioni del 2023; e l'importanza della trasparenza nelle liste delle entità ai sensi della normativa in materia di organizzazioni e persone pericolose.
8. Analisi dell'Oversight Board
Il Board ha selezionato questi casi per valutare l'impatto dello Standard della community di Meta in materia di organizzazioni e persone pericolose sulla libertà di espressione e di partecipazione politica, in particolare durante le elezioni quando entità designate o persone ad esse associate possono essere attive nel dibattito politico. Questi casi rientrano nelle priorità strategiche del Board "Elezioni e spazio civico" e "Incitamento all'odio contro gruppi emarginati". Il Board ha esaminato l'opportunità di ripristinare il contenuto in oggetto analizzando le normative sui contenuti, le responsabilità in materia di diritti umani e i valori di Meta.
8.1 Conformità con le normative sui contenuti di Meta
Il Board conferma le decisioni di Meta di rimuovere i contenuti in entrambi i casi.
Primo caso: il volantino della campagna di un candidato alle elezioni
Il Board ritiene che l'impegno di Meta per la libertà di espressione è fondamentale ed è estremamente importante nei contesti elettorali. Il Board sottolinea che per fornire agli elettori l'accesso a tutte le informazioni per votare, Meta deve consentire il dibattito pubblico tra elettori, candidati e partiti sulle attività delle entità designate.
Il Board ritiene che il post rientri nel divieto di Meta di "elogiare" un'entità designata che era in vigore a giugno 2023, dato che l'utente si è allineato ideologicamente a Kasidiaris, una figura designata che incita all'odio in base al Livello 1 della normativa in materia di organizzazioni e persone pericolose. È stato chiaramente descritto nello Standard della community relativo come condotta considerata da Meta come un esempio di "elogio" vietato. In seguito alle modifiche alla normativa del 30 dicembre 2023, i contenuti rientrerebbero nel divieto relativo ai riferimenti positivi nei confronti di un'entità designata che non esaltano la violenza o l'odio di tale entità.
Una minoranza dei membri del Board ritiene che l'applicazione della regola relativa all'allineamento ideologico non era direttamente logica perché era Kasidiaris a sostenere (ossia a "elogiare" o "fare riferimento") l'utente e non il contrario. Bisognerebbe quindi dedurre che l'utente stesse ricambiando il sostegno e quindi non rispettando la normativa di Meta in materia di allineamento ideologico.
Un minoranza del Board considera che sebbene il post violasse la normativa in materia di Organizzazioni e persone pericolose e non rientrasse nell'eccezione in vigore a giugno 2023, Meta avrebbe dovuto applicare il principio di rilevanza informativa per mantenere i contenuti sulla piattaforma, considerando che l'interesse pubblico nel post superava il rischio di violenza. Il post informava direttamente gli elettori del sostegno di un criminale condannato per un candidato elettorale, informazione rilevante e utile in un contesto elettorale, in particolare durante la seconda serie di elezioni in cui ha partecipato anche un nuovo partito. Questi membri del Board ritengono che a seguito degli aggiornamenti di agosto 2023 alla normativa in materia di Organizzazioni e persone pericolose, ai sensi dell'eccezione relativa al "dibattito sociale e politico", Meta dovrebbe consentire ai candidati legittimi alle elezioni di esprimere in modo neutrale i loro allineamenti ideologici alle entità designate, senza includere incitamento all'odio o di violenza specifica. In questo modo, gli elettori avranno le informazioni complete per poter prendere una decisione.
Secondo caso: Il logo del Partito Nazionale – Greci e lo slogan "Spartani"
La maggioranza del Board ritiene che i contenuti violassero lo Standard della community in materia di organizzazioni e persone pericolose poiché condivideva un simbolo del Partito Nazionale – Greci, un'organizzazione che incita all'odio designata.
Il post non rientra nell'eccezione della normativa, in vigore a giugno 2023, in quanto non sono presenti indicazioni contestuali secondo cui l'utente desiderava utilizzare il logo del Partito Nazionale – Greci con il nome di un partito legittimo, gli Spartani, per"segnalare, trattare in modo neutrale o condannare" il Partito Nazionale – Greci o le sue attività. La maggioranza del Board ha distinto questi post dai contenuti del caso Citazione nazista in cui, grazie a indizi contestuali, il Board è riuscito a concludere che il post dell'utente discuteva in modo neutrale di un'entità che incita all'odio designata. In quel caso, l'utente aveva fatto riferimenti a una citazione di una figura storica nota senza mostrare allineamenti ideologici con essa ma cercando di mettere "a confronto la presidenza di Donald Trump e il regime nazista". Il contesto non era presente nel caso in esame. In seguito alle modifiche alla normativa del 30 dicembre 2023, i contenuti di questo caso sarebbero stati rimossi per aver condiviso un riferimento (simbolo) di un'entità designata senza didascalie illustrative.
Un minoranza del Board considera che il post non dovrebbe essere ritenuto in violazione della normativa in materia di Organizzazioni e persone pericolose, poiché la semplice condivisione di loghi associati a un'entità designata, senza altre violazioni o contesto di intenti dannosi, andrebbe consentita sulla piattaforma.
8.2 Conformità con le responsabilità di Meta in materia di diritti umani
Il Board ritiene che la decisione di Meta di rimuovere i contenuti in entrambi i casi fosse coerente con le responsabilità dell'azienda in materia di diritti umani.
Libertà di espressione (articolo 19 dell'ICCPR)
L'articolo 19 (2) dell'ICCPR fornisce un'ampia protezione alla libertà di espressione, inclusa la "libertà di cercare, ricevere e dare informazioni e idee di ogni tipo". Espressione protetta include "dibattito politico", "commenti sugli affari pubblici" ed espressioni che potrebbero essere considerate "profondamente offensive" ( Commento generale n. 34 (2011), paragrafo 11). In un contesto elettorale, il diritto alla libertà di espressione include anche l'accesso alle risorse di commenti politici, tra cui i contenuti multimediali locali e internazionale e "l'accesso ai mezzi di comunicazione per partiti e politici dell'opposizione" ( Commento generale n. 34 (2011), paragrafo 37).
Quando le limitazioni alla libertà di espressione sono imposte da uno Stato, devono soddisfare i requisiti di legalità, fine legittimo, necessità e proporzionalità (articolo 19, par. 3 dell'ICCPR). Questi requisiti vengono spesso definiti "test in tre fasi". Il Board utilizza questo framework per interpretare gli impegni volontari di Meta in materia di diritti, sia per quanto riguarda la singola decisione sul contenuto oggetto di controllo sia per quanto riguarda il più ampio approccio di Meta alla governance dei contenuti. Come ha dichiarato il Relatore speciale delle Nazioni Unite sulla libertà di espressione, sebbene "le aziende non abbiano gli stessi obblighi dei governi, hanno un impatto che richiede loro di valutare lo stesso tipo di domande sulla protezione del diritto alla libertà di espressione dei propri utenti" (report A/74/486, paragrafo 41).
I. Legalità (chiarezza e accessibilità delle norme)
Il principio di legalità stabilito dal Diritto internazionale dei diritti umani sancisce la necessità di regole che garantiscano la chiarezza e l'accessibilità delle informazioni condivise (Commento generale n. 34, paragrafo 25). Le limitazioni alla libertà di espressione vanno formulate con precisione sufficiente a far sì che le persone possano regolare la loro condotta di conseguenza (Ibid). Con riferimento a Meta, l'azienda dovrebbe fornire linee guida agli utenti relative ai tipi di contenuti consentiti sulla piattaforma. Inoltre, le regole che limitano la libertà di espressione "non dovrebbero conferire una discrezionalità illimitata nella limitazione della libertà di espressione ai responsabili della (relativa) applicazione" e "devono fornire indicazioni sufficienti ai responsabili della relativa applicazione per consentire loro di accertare quali forme di libertà di espressione sono correttamente limitate e quali non lo sono" ( A/HRC/38/35, paragrafo 46).
Per il primo caso, il Board ritiene che gli esempi di "elogio" siano stati aggiunti al linguaggio rivolto al pubblico della normativa in materia di organizzazioni e persone pericolose in risposta al consiglio del Board n. 3 del caso Citazione nazista. L'esempio esplicito del divieto di "allinearsi ideologicamente con entità o eventi designati" ha reso la regola di Meta sufficientemente chiara e accessibile per l'utente del primo caso e i responsabili del controllo dei contenuti che implementano la regola. Il Board rileva che l'esempio in questione era stato rimosso nell'aggiornamento del dicembre 2023.
In relazione al secondo caso, il Board concorda sul fatto che la normativa di Meta contro la condivisione di simboli di entità designate a meno che l'utente non dichiari in modo chiaro l'intento di segnalarle, trattarle in modo neutrale o condannarle sia sufficientemente chiaro e rispetti la verifica di legalità. Con riferimento al secondo caso, il Board inoltre ritiene che l'eccezione della normativa in materia di organizzazioni e persone pericolose prima e dopo le revisioni di agosto 2023 rispetti la verifica di legalità.
Il Board è comunque preoccupato per la mancanza di trasparenza relativa alla designazione delle entità che incitano all'odio e a quali entità rientrino nel Livello 1 della normativa in materia di organizzazioni e persone pericolose, rendendo difficile per gli utenti capire nei confronti di quali entità possono esprimere allineamenti ideologici e quali simboli possono condividere.
Le organizzazioni terroristiche di Livello 1 includono entità e persone designate dal governo degli Stati Uniti come Foreign Terrorist Organizations (organizzazioni terroristiche straniere, FTO) o Specially Designated Global Terrorists (terroristi globali con designazione speciale, SDGT) e le organizzazioni criminali includono quelle designate dal governo degli Stati Uniti come Specially Designated Global Terrorists (terroristi globali con designazione speciale, SDNTK). Il governo degli Stati Uniti pubblica liste di designazioni FTO, SDGT e SDNTK che corrispondono almeno ad alcune delle designazioni di organizzazioni e persone pericolose di Meta. Tuttavia, la lista completa di Meta relativa alle designazioni di "entità che incitano all'odio" del Livello 1 non si basa su una lista equivalente pubblica degli Stati Uniti. Il Board ha richiesto la trasparenza della lista relativa alle entità di Livello 1 nel caso della Citazione nazista, che Meta ha negato per "ragioni di sicurezza".
In risposta al consiglio n. 1 del caso Post di Al Jazeera condiviso, in seguito all'aggiornamento di agosto 2023, il linguaggio rivolto al pubblico sulla normativa in materia di organizzazioni e persone pericolose è stato integrato con diversi esempi dell'applicazione dell'eccezione. Il Board ritiene che l'ambito completo dell'eccezione aggiornata non sia chiaro per gli utenti, poiché nessuno degli esempi mostra l'applicazione dell'eccezione della normativa nel contesto delle elezioni. In caso di riduzione di spazio civico e minacce alla libertà mediatica globale, le piattaforme social costituiscono una fonte di informazioni inestimabile. Data l'incertezza dell'ambito dell'eccezione della normativa aggiornata durante i periodi elettorali, gli utenti in questi contesti potrebbero avere dei dubbi sui tipi di discussione a cui possono partecipare riguardo i candidati elettorali e i loro sostenitori, che potrebbero essere a loro volta entità designate di Livello 1.
Il Board ritiene che il divieto di Meta di "elogio" come allineamento ideologico e divieto di condivisone di simboli di entità designate in vigore a giugno 2023 rispetti lo standard di legalità. Tuttavia, l'ambito del "dibattito sociale e politico" sulle entità designate consentite in un contesto elettorale richiede maggiore chiarezza.
II. Fine legittimo
Le limitazioni alla libertà di espressione devono perseguire un fine legittimo, che includa, tra le altre cose, la protezione dei diritti degli altri e la protezione dell'ordine pubblico e della sicurezza nazionale.
Secondo i fondamenti della normativa, la normativa in materia di organizzazioni e persone pericolose ha lo scopo di "impedire e interrompere atti di violenza reali". In diverse decisioni, il Board ha ritenuto che la normativa in materia di organizzazioni e persone pericolose di Meta persegue il fine legittimo di proteggere i diritti degli altri (v. Citazione nazista; Menzione dei talebani in un servizio giornalistico;Preoccupazioni dei punjabi in relazione alla RSS in India). Il Board ritiene che in questi due casi, la normativa di Meta abbia un fine legittimo di proteggere i diritti degli altri, come il diritto alla non discriminazione e uguaglianza (articoli 2 e 26 dell'ICCPR), il diritto alla vita (articolo 6 dell'ICCPR), il divieto alla tortura, a trattamenti inumani o degradanti (articolo 7 dell'ICCPR) e il diritto di partecipazione agli affari pubblici e il diritto al voto (articolo 5 dell'ICCPR).
III. Necessità e proporzionalità
Il principio di necessità e proporzionalità prevede che le limitazioni alla libertà di espressione "debbano corrispondere allo strumento meno invasivo tra quelli che potrebbero svolgere la funzione protettiva e debbano essere proporzionate alla relativa funzione protettiva e all'interesse da tutelare" (Commento generale n. 34, paragrafi 33-34).
Le elezioni sono fondamentali per la democrazia e il Board è consapevole che le piattaforme di Meta sono diventate un mezzo virtualmente fondamentale nella maggior parte del mondo per il dibattito politico, in particolare durante le elezioni. Dato il legame stretto con la democrazia, il dibattito politico "gode di un elevato livello di protezione" (commento generale n. 37, paragrafo 19 e 32). Le normative sulla libertà di espressione internazionale ritengono che "i media e le piattaforme digitali devono fare un tentativo ragionevole di adottare misure che permettano agli utenti di accedere a orientamenti politici e prospettive diversi", (Dichiarazione congiunta 2022). Il report del Relatore speciale delle Nazioni Unite sulla libertà di riunione pacifica e di associazione dice che "la libertà dei partiti politici di espressione e opinione, soprattutto tramite le campagne elettorali, tra cui il diritto di ricercare, ricevere e diffondere informazioni è essenziale all'integrità delle elezioni", ( A/68/299, paragrafo 38 (2013)).
Tuttavia, per mitigare gli impatti negativi sui diritti umani, è fondamentale la distinzione tra dibattito politico protetto ed espressione politica, che può essere limitata perhé potrebbe causare danni. A tale proposito, come evidenziato dal Board, Meta ha la responsabilità di individuare, prevenire, mitigare e rendere conto di eventuali conseguenze negative per i diritti umani per l'uso delle sue piattaforme (Principio 17 dei Principi guida delle Nazioni Unite).
Il report del Relatore speciale delle Nazioni Unite sulla libertà di riunione pacifica e di associazione sottolinea che un partito politico o uno dei suoi candidati possono essere legalmente vietati se "usano la violenza o sostengono la violenza o l'odio nazionale, razziale o religioso portando all'incitamento alla discriminazione, all'ostilità o alla violenza" (ICCPR, articolo 20, ICERD, articolo 5). Le limitazioni ai sensi dell'articolo 20 dell'ICCPR e dell'articolo 5 dell'ICERD devono rispettare gli standard di necessità e proporzionalità ai sensi dell'articolo 19, paragrafo 3 dell'ICCPR (commento generale n. 34, paragrafi 50-52; CERD/C/GC/35, paragrafi 24-25).
Primo caso: il volantino della campagna di un candidato alle elezioni
La maggioranza del Board ritiene che la decisione di Meta di rimuovere il primo post ai sensi della normativa in materia di organizzazioni e persone pericolose soddisfi i principi di necessità e proporzionalità. La maggioranza è consapevole dell'importanza della libertà di espressione durante le elezioni, tra cui i diritti degli utenti di condividere e ricevere informazioni. Tuttavia, questi membri del Board ritengono che Meta fosse giustificata a rimuovere il post di un candidato elettorale che esprimeva l'allineamento ideologico con una figura designata che incita all'odio. Questo divieto è in linea con l'impegno di Meta in materia di diritti umani, insieme alla rilevanza degli utenti di "segnalare, trattare in modo neutrale o condannare" entità designate o le loro attività, tra cui il sostegno di questo tipo durante le elezioni.
In questo caso, questi membri del Board hanno compreso che la rimozione del post dalla piattaforma di Meta non limitava in modo sproporzionato il diritto del pubblico di conoscere le informazioni in esso contenute. Il pubblico aveva altri modi per scoprire questa espressione di sostegno al partito del candidato, grazie ai numerosi report dei media locali e regionali che parlavano del sostegno dell'entità designata, condannata per essere stata a capo di un'organizzazione criminale collegata a crimini dell'odio. Questi report dei media sarebbero potuti rientrare nell'eccezione della normativa, che consente discussioni legali in contesti elettorali, senza promuovere alcun pericolo reale.
L'accresciuta responsabilità di Meta di prevenire, mitigare e contrastare gli impatti negativi sui diritti umani in contesti elettorali e in altri contesti a rischio elevato richiede all'azienda di stabilire barriere efficaci. Meta ha la responsabilità di consentire l'espressione politica e di evitare che altri diritti umani vengano messi in pericolo. Dato il rischio potenziale che le piattaforme vengano usate per incitare alla violenza nel contesto delle elezioni, Meta dovrebbe continuamente garantire l'efficacia degli sforzi per l'integrità delle elezioni (v. Discorso del generale brasiliano). In vista delle numerose elezioni globali, l'applicazione attenta di Meta della normativa in materia di organizzazioni e persone pericolose è fondamentale, in particolare l'eccezione aggiornata della normativa nei contesti elettorali.
Per alcuni dei membri del Board, il post di un candidato legittimo che pubblicizza il sostengo offerto da un'entità designata di Livello 1 non costituisce informazioni sul programma del candidato ma è un atto di associazione con un partito vietato. Queste pubblicazioni possono essere usate per eludere il divieto di Meta che le entità designate di Livello 1 usino i suoi servizi e compromettano il processo democratico (articolo 5 dell'ICCPR). Inoltre, nel caso attuale in cui il pubblico aveva occasioni sufficienti per scoprire le alleanze esistenti, la rimozione del post del candidato non era sproporzionata.
Per una minoranza, la rimozione dei contenuti nel primo caso interferiva in modo sproporzionato con il diritto degli utenti di condividere e ricevere informazioni durante un'elezione. Questi membri del Board sottolineano che per Meta l'"impegno verso la libertà di espressione è essenziale" e in questo caso l'azienda ha commesso un errore dando priorità alla sicurezza rispetto alla voce. Gli elettori dovrebbero avere accesso alle informazioni sui candidati e le loro attività e un partito che può partecipare alle elezione secondo la Corte Suprema greca dovrebbe avere una più ampia latitudine sulle informazioni che possono pubblicare i suoi candidati. In questo caso, le informazioni note agli elettori potrebbero essere poche dato che gli Spartani erano un partito nuovo.
Al tempo stesso, visti i report relativi al calo della fiducia nei confronti dei media in Grecia (v. sezione 2 sopra), gli elettori dovrebbero avere la possibilità di ascoltare direttamente i candidati legittimi, soprattutto quando i candidati o i loro partiti ricevono sostegno o alleanza da entità squalificate dalle elezioni o designate ai sensi della normativa in materia di organizzazioni e persone pericolose.
Questi membri del Board ritengono che la piattaforma social non debba decidere le informazioni che gli elettori possono conoscere su un candidato o un partito. Ritengono che data l'importanza del contesto elettorale, la rimozione dei contenuti nel primo caso non costituiva il mezzo meno invasivo e era una limitazione sproporzionata del discorso del candidato e del diritto degli elettori di avere accesso alle informazioni. L'azienda avrebbe invece dovuto mantenere il post ai sensi del principio di rilevanza informativa, in linea con i valori e gli impegni per i diritti umani di Meta. Dato che il contesto era un post elettorale di un candidato legittimo che informava direttamente gli elettori sulla propria campagna e sul sostegno di Kasidiaris, pubblicato durante le elezioni in Grecia, l'interesse del pubblico nell'avere maggiori informazioni sui partiti e sui candidati era maggiore del rischio di danni.
Secondo caso: Il logo del Partito Nazionale – Greci e lo slogan "Spartani"
Nel secondo caso, la maggioranza del Board ritiene che la rimozione da parte di Meta dei contenuti fosse necessaria e proporzionata dato che il post condivideva un simbolo di un'entità designata che incita all'odio. Senza indizi contestuali secondo cui i contenuti erano stati condivisi per segnalare, trattare in modo neutrale o condannare un'entità designata, la rimozione era giustificata.
Una minoranza del Board ritiene che Meta abbia sbagliato a rimuovere i contenuti, poiché è necessario svolgere un'analisi del contesto per determinare se i contenuti sono dannosi. La rimozione di un post che condivide semplicemente un simbolo di un'entità designata, senza indicazioni di incitamento alla violenza o ad azioni illecite, è sproporzionata e non può essere il mezzo meno intrusivo di protezione dalla violenza.
9. Decisione dell'Oversight Board
L'Oversight Board conferma le decisioni di Meta di rimuovere post in entrambi i casi.
10. Raccomandazioni
Normativa sui contenuti
1. Per fornire una maggiore chiarezza agli utenti, Meta deve specificare l'ambito dell'eccezione della normativa ai sensi dello Standard della community in materia di organizzazioni e persone pericolose che consente la condivisione di contenuti "che riportano notizie in merito, discutono in modo neutro o esprimono condanna su persone e organizzazioni pericolose o sulle loro attività" nel contesto del "dibattito sociale e politico". In particolare, Meta dovrebbe chiarire in che modo l'eccezione della normativa si applica a contenuti relativi alle elezioni.
Il Board riterrà questa raccomandazione implementata non appena Meta apporterà la modifica al chiarimento nello Standard della community.
*Nota procedurale:
Le decisioni dell'Oversight Board sono predisposte da gruppi di cinque Membri e devono essere approvate dalla maggioranza del Board. Le decisioni del Board non rappresentano necessariamente le opinioni personali di tutti i membri.
Per questa decisione sono state commissionate ricerche indipendenti per conto del Board. Il Board è stato assistito da un istituto di ricerca indipendente presso l'Università di Göteborg facente ricorso a un team di oltre 50 esperti di social in 6 continenti, nonché a più di 3200 esperti nazionali da tutto il mondo. Il Board ha ricevuto aiuto anche da Duco Advisors, una società di consulenza specializzata in geopolitica, fiducia e sicurezza e tecnologia. Ha fornito un'analisi anche Memetica, un'organizzazione che si occupa di ricerche open source sulle tendenze nei social media.
العودة إلى قرارات الحالة والآراء الاستشارية المتعلقة بالسياسة