Multiple Case Decision

Regole di voto della Commissione elettorale australiana

L'Oversight Board ha confermato le decisioni di Meta di rimuovere due post di Facebook separati che contengono lo stesso screenshot relativo a informazioni pubblicate su X dalla Commissione elettorale australiana, prima del referendum dell'Indigenous Voice to Parliament.

2 cases included in this bundle

Upheld

FB-0TGD816L

Caso di organizzazione di atti di violenza e pubblicizzazione di crimini su Facebook

Platform
Facebook
Topic
Elezioni,Governi,Disinformazione
Standard
Organizzazione di atti di violenza e pubblicizzazione di crimini
Location
Australia
Date
Published on May 9, 2024
Upheld

FB-8ZQ78FZG

Caso di organizzazione di atti di violenza e pubblicizzazione di crimini su Facebook

Platform
Facebook
Topic
Elezioni,Governi,Disinformazione
Standard
Organizzazione di atti di violenza e pubblicizzazione di crimini
Location
Australia
Date
Published on May 9, 2024

Riepilogo

L'Oversight Board ha confermato le decisioni di Meta di rimuovere due post di Facebook separati che contengono lo stesso screenshot relativo a informazioni pubblicate su X dalla Commissione elettorale australiana (AEC), prima del referendum dell'Indigenous Voice to Parliament. Entrambi i post violavano la regola nello Standard della community in materia di organizzazione di atti di violenza e promozione di attività criminali che vieta contenuti che invocano alla partecipazione illegale durante il processo di votazione. Questi casi mostrano in che modo le informazioni fuori contesto possono avere ripercussioni sul diritto di votare delle persone. Il Board consiglia a Meta di spiegare più chiaramente le regole relative a frodi elettorali e/o censimento fornendo pubblicamente la definizione di "voto illegale".

Informazioni sui casi

Il 14 ottobre 2023, si è tenuto il referendum dell'Indigenous Voice to Parliament in Australia. Giorni prima, un utente di Facebook ha pubblicato in un gruppo uno screenshot di un posti di X proveniente dall'account ufficiale della Commissione elettorale australiana (AEC). Le informazioni mostrate includevano: "If someone votes at two different polling places within their electorate, and places their formal vote in the ballot box at each polling place, their vote is counted" (Se una persona vota in due diversi seggi elettorali nell'ambito del proprio elettorato e deposita il proprio voto formale nelle urne di ciascun seggio, il suo voto viene conteggiato). Inoltre, un ulteriore commento, che l'utente ha preso dalla stessa serie di post di X, spiegava che la segretezza del voto impedisce all'AEC di "knowing which ballot paper belongs to which person" (scoprire a chi appartiene una determinata scheda elettorale), dichiarando anche che "the number of double votes received is incredibly low" (il numero di voti doppi ricevuti è incredibilmente basso). Tuttavia, lo screenshot non mostra la totalità delle informazioni condivise dall'AEC, compreso il fatto che il voto multiplo è considerato un reato. La didascalia del post riportava: "vote early, vote often, and vote NO" (votate in anticipo, votate spesso e votate NO).

Un secondo post condiviso da un utente diverso di Facebook includeva lo stesso screenshot ma con un overlay di test che diceva: "so you can vote Multiple times. They are setting us up for a "Rigging" … smash the voting centres … it's a NO, NO, NO, NO, NO" (così potete votare più volte... ci stanno preparando per una 'truffa'... distruggete i seggi elettorali... è un No, NO, NO, NO, NO).

Il referendum di Voice ha chiesto alle persone australiane se la costituzione dovesse essere modificata per dare una maggiore rappresentanza nel parlamento alle popolazioni aborigene e agli isolani dello Stretto di Torres.

Votare è obbligatorio in Australia, con l'AEC che riporta un'affluenza del 90% a ogni elezione e referendum dal 1924. Il voto multiplo è illegale e un tipo di broglio elettorale.

Dopo il rilevamento di entrambi i post da parte dei sistemi automatizzati di Meta, gli addetti al controllo umano li hanno rimossi per violazione della normativa in materia di organizzazione di atti di violenza e promozione della criminalità di Meta. Entrambi gli utenti hanno inviato un ricorso.

Conclusioni principali

Il Board ritiene che entrambi i post violino la regola in materia di organizzazione di atti di violenza e promozione della criminalità che vieta i contenuti relativi a "supporto, fornitura di istruzioni su come o dimostrazione dell'intento esplicito di partecipare illegalmente a un processo di voto o censimento". Nel primo caso, la frase "vote often" (votate in anticipo), con le informazioni dell'AEC relative al conteggio di voti multipli è una chiamata chiara al voto illegale. Votare due volte è un tipo di "voto illegale", secondo le linee guida interne di Meta. Nel secondo caso, l'uso della frase "smash the voting centres" (distruggete i seggi elettorali), oltre al resto dell'overlay di testo, può essere intesa come un incitamento a riempire i seggi di voti multipli. Nessuno dei port trae vantaggio dalle eccezioni alla normativa relative a condanna, sensibilizzazione, informazione o in contesti umoristici o satirici. In particolare, riguardo alla sensibilizzazione, i post non rientravano nell'eccezione in quanto non parlano solo del post su X di AEC ma decontestualizzano invece le informazioni per implicare che AEC afferma che è consentito votare più di una volta.

Impedire agli utenti di invitare altre persone a partecipare a una frode elettorale è un obiettivo legittimo per la protezione del diritto al voto. IL Board considera il discorso politico un componente fondamentale dei processi democratici. In questi casi, entrambi gli utenti erano coinvolti direttamente nel dibattito pubblico alimentato dal referendum ma i loro incitamenti per far partecipare altre persone al comportamento illegale hanno avuto un impatto sui diritti politici di chi vive in Australia, in particolare sul diritto al voto. Quindi, sebbene gli inviti a "vote No" (votare No) sono discorsi politici protetti, le frasi "vote often" (votate spesso) e "smash the voting centres" (distruggete i seggi elettorali) sono un'altra questione. Il Board ritiene che Meta avesse ragione a proteggere i processi democratici, impedendo che i tentativi di frode elettorale circolassero sulle piattaforme, date le dichiarazioni frequenti secondo cui il referendum di Voice fosse truccato.

Il Board riconosce l'impegno di Meta relativo al referendum di Voice. L'azienda ha identificato in modo proattivo i contenuti potenzialmente in violazione ai sensi delle regole sull'interferenza nel voto degli Standard della community in materia di organizzazione di atti di violenza e promozione della criminalità e disinformazione. Le frasi "double vote" (voto doppio) e "vote multiple times" (votare più volte) sono state le parole chiave che hanno attivato il sistema di individuazione basato su parole chiave dell'azienda, in questo caso. Secondo Meta, il sistema è adattato per contesti locali. Sulla base delle informazioni condivise, il Board nota che le iniziative come questa dovrebbero essere applicate in tutto il mondo, nei Paesi in fase di elezione, sebbene si consigli a Meta di sviluppare metriche del successo per valutare l'efficacia dell'individuazione basata su parole chiave.

Infine, il Board ritiene che le regole rivolte al pubblico dello Standard della community su organizzazione di atti di violenza e promozione di attività criminali non siano abbastanza chiare. Non includono ciò che è disponibile per gli addetti al controllo nelle linee guida interne di Meta, in particolare le definizioni aziendali di "voto illegale". Meta deve informare in modo chiaro gli utenti sulle regole, data la loro necessità di interagire sui social media e parlare di questioni di interesse pubblico su eventi democratici.

La decisione dell'Oversight Board

L'Oversight Board conferma la decisione di Meta in entrambi i casi di rimuovere il contenuto.

Il Board raccomanda a Meta i seguenti provvedimenti:

  • Incorporare la definizione del termine "voto illegale" nel linguaggio disponibile per il pubblico del divieto della normativa in materia di organizzazione di atti di violenza e promozione della criminalità su contenuti relativi a "supporto, fornitura di istruzioni su come o dimostrazione dell'intento esplicito di partecipare illegalmente a un processo di voto o censimento, eccetto se condivisi a scopo di condanna, sensibilizzazione, informazione o in contesti umoristici o satirici".

* I riepiloghi forniscono una panoramica dei casi e non costituiscono un precedente.

Decisione completa sul caso

1. Riepilogo della decisione

L'Oversight Board conferma la decisione di Meta di rimuovere i due post separati su Facebook che contengono uno screenshot di un post della Commissione elettorale australiana (AEC) su X, conosciuto precedentemente come Twitter. Gli screenshot dell'AEC pubblicati dagli utenti Facebook riportavano quanto segue: "If someone votes at two different polling places within their electorate, and places their formal vote in the ballot box at each polling place, their vote is counted" (Se una persona vota in due diversi seggi elettorali nell'ambito del proprio elettorato e deposita il proprio voto formale nelle urne di ciascun seggio, il suo voto viene conteggiato). Nel primo post di Facebook, lo screenshot era accompagnato da una didascalia che diceva "“vote early, vote often, and vote NO" (votate in anticipo, votate spesso e votate NO). Nel secondo post di Facebook, lo screenshot era accompagnato da un overlay di testo, che includeva queste frasi: "so you can vote multiple times … they are setting us up for a 'rigging' … smash the voting centres … it’s aNO, NO, NO, NO, NO" (così potete votare più volte... ci stanno preparando per una 'truffa'... distruggete i seggi elettorali... è un NO, NO, NO, NO, NO). La didascalia includeva anche un'emoji con "stop" seguita dalle parole "Australian Electoral Commission" (Commissione elettorale australiana).

Il Board ritiene che entrambi i post fossero in violazione allo Standard della community su organizzazione di atti di violenza e promozione di attività criminali, che vieta contenuti relativi a "supporto, fornitura di istruzioni su come o dimostrazione dell'intento esplicito di partecipare illegalmente a un processo di voto o censimento, eccetto se condivisi a scopo di condanna, sensibilizzazione, informazione o in contesti umoristici o satirici". Il Board ritiene che nessuna eccezione trovi applicazione.

Questi casi avanzano preoccupazioni più ampie relative alla condivisione di informazioni decontestualizzate in relazione ai processi democratici, come le elezioni e i referendum, con il potenziale di influire il diritto al voto delle persone. Il Board consiglia a Meta di spiegare più chiaramente i riferimenti normativi relativi a frodi elettorali e/o censimento ai sensi dello Standard della community su organizzazione di atti di violenza e promozione di attività criminali per spiegare cosa viene considerata come "partecipazione illegale in un processo elettorale o di censimento".

2. Descrizione e contesto del caso

Il 14 ottobre 2023, si è tenuto il referendum dell'Indigenous Voice to Parliament in Australia (di seguito, "referendum di Voice"). Giorni prima del voto, un utente di Facebook ha condiviso in un gruppo che amministrava un post con uno screenshot di un post di X dall'account ufficiale della Commissione elettorale australiana (AEC). Il post dell'AEC su X includeva il seguente linguaggio: "If someone votes at two different polling places within their electorate, and places their formal vote in the ballot box at each polling place, their vote is counted" (Se una persona vota in due diversi seggi elettorali nell'ambito del proprio elettorato e deposita il proprio voto formale nelle urne di ciascun seggio, il suo voto viene conteggiato). Lo screenshot mostra anche un ulteriore commento proveniente dalla stessa serie di post su X, in cui si spiega che la segretezza del voto impedisce all'AEC di "knowing which ballot paper belongs to which person" (scoprire a chi appartiene una determinata scheda elettorale), rassicurando anche le persone in merito al fatto che "the number of double votes received is incredibly low" (il numero di voti doppi ricevuti è incredibilmente basso). Tuttavia, lo screenshot non mostra la totalità delle informazioni condivise dall'AEC, compreso il fatto che il voto multiplo è considerato un reato in Australia. Una didascalia accompagnava il primo post di Facebook, che diceva "vote early, vote often, and vote NO" (votate in anticipo, votate spesso e votate NO).

Un altro post contenente lo stesso screenshot del post dell'AEC su X era stato condiviso un giorno prima da un utente diverso di Facebook sul profilo. Era accompagnato da un overlay di testo, che includeva la seguente dichiarazione: "so you can vote Multiple times. They are setting us up for a "Rigging" … smash the voting centres … it's a NO, NO, NO, NO, NO" (così potete votare più volte... ci stanno preparando per una 'truffa'... distruggete i seggi elettorali... è un No, NO, NO, NO, NO). La didascalia includeva anche un'emoji con "stop" seguita dalle parole "Australian Electoral Commission" (Commissione elettorale australiana).

Entrambi i post sono stati individuati da Meta in modo proattivo. Le frasi "double vote" (voto doppio) e "vote multiple times" (votare più volte) sono state le parole chiave che hanno attivato il "l'iniziativa della pipeline basata su parole chiave", in questo caso. L'approccio di individuazione basato su parole chiave è una procedura sistematica distribuita da Meta per identificare in modo proattivo "i contenuti potenzialmente in violazione che includono, a titolo esemplificativo e non esaustivo, i contenuti relativi all'interferenza elettorale e sul censimento". Entrambi i post Sono stati automaticamente programmati per un controllo umano. A seguito del controllo, i post sono stati rimossi per aver violato la normativa in materia di organizzazione di atti di violenza e promozione della criminalità. Meta ha anche applicato un avvertimento standard e una limitazione alle funzioni di 30 giorni a entrambi i profili utente, che hanno impedito agli utenti di pubblicare o commentare nei gruppi Facebook, creando nuovi gruppi o unendosi a Messenger Rooms.

Il Board ha preso atto del seguente contesto nel giungere alle decisioni per i casi in esame:

Il referendum di Voice ha chiesto se la costituzione australiana dovesse essere modificata per riconoscere le popolazioni indigene australiane "istituendo un organo chiamato Aboriginal and Torres Strait Islander Voice", che avrebbero potuto "intervenire presso il Parlamento e il governo esecutivo del Commonwealth su questioni relative alle loro popolazioni". Informazioni di base pertinenti sul referendum di Voice includono il fatto che le popolazioni aborigene e agli isolani dello Stretto di Torres in Australia siano tra i gruppi più svantaggiati dal punto di vista economico e sociale nel Paese, con alti livelli di disoccupazione, bassa partecipazione all'istruzione superiore, scarsi risultati per la salute ( salute fisica e mentale), aspettativa di vita inferiore di molto rispetto alle altre persone australiane e alti livelli di incarcerazione. Le popolazioni aborigene e agli isolani dello Stretto di Torres affrontano anche discriminazione e sono penalizzate in modo sproporzionato dalla violenza di genere e della polizia.

Il Primo ministro Anthony Albanese ha sostenuto una campagna a favore dell'emendamento costituzionale (supportando il "Sì"), mentre la principale coalizione dell'opposizione ne ha sostenuto una contro di esso (supportando il "No"). La proposta venne rifiutata a livello nazionale e da una maggioranza in tutti i sei stati, non riuscendo così ad assicurare la doppia maggioranza necessaria per modificare la costituzione australiana.

Votare è obbligatorio in Australia e l'AEC riporta che l'affluenza elettorale è stata di circa il 90% durante ogni elezione e referendum generale dal 1924. Il voto multiplo è un tipo frode elettorale a livello statale e federale, sulla base dell'Electoral Act 1918 del Commonwealth e del Referendum (Machinery Provisions) Act 1984. In risposta alle accuse di voto multiplo nel referendum di Voice, l'AEC ha pubblicato un lungo thread su X, in cui dichiara che il voto multiplo è "molto raro" e ha definito le misure implementate per evitare quest'azione. L'AEC spiega sul sito web che ogni seggio elettorale riceve elenchi certificati identici di tutti gli elettori per una divisione per contrastare il voto doppio. Quando agli elettori vengono date le schede elettorali, i loro nomi vengono contrassegnati sull'elenco certificato relativo a quel punto di emissione. Se un elettore si reca a un punto di emissione per votare nuovamente, risulterà che un'altra copia dell'elenco certificato per quella divisione verrà contrassegnata per indicare che alla persona sono state date le schede elettorali. Subito dopo la giornata elettorale, ogni elenco certificato identico per ogni divisione viene scansionato per controllare i casi di contrassegni multipli associati a un nome. L'AEC poi analizza e scrive a ogni elettore sospettato di aver votato più volte. La risposta porta alla risoluzione del problema per motivi come "errore delle persone addette allo scrutinio" o spiegazioni di"difficoltà linguistiche o alfabetizzazione" o che la persona è "anziana e confusa e ha votato più volte perché si era dimenticata di aver già votato". Quando non vengono trovate soluzioni, l'AEC conduce ulteriori indagini sui casi rimanenti che potrebbero essere inoltrati alla polizia federale australiana da esaminare.

Nel 2019, l'AEC ha testimoniato che il voto multiplo è un "problema molto piccolo", solo lo 0,03% dell'affluenza del 91,9% era stato contrassegnato come voto multiplo e la maggioranza delle situazioni era dovuta a errori di elettori anziani, con poche abilità di alfabetizzazione o con poca comprensione del processo elettorale. L'AEC ha ribadito il tasso "insignificante" di occorrenza di voti multipli in Australia nella sua presentazione del commento pubblico al Board. Secondo l'AEC, solo 13 casi di voto multiplo apparente su un totale di 15,5 milioni di voti erano stati inviati alla polizia federale australiana per ulteriori indagini nel contesto delle elezioni federali nel 2022 (PC-25006; si veda anche PC-25007).

Secondo gli esperti consultati dal Board, le dichiarazioni secondo cui il referendum di Voice fosse truccato erano frequenti, con alcuni post accompagnati dagli hashtag #StopTheSteal e #RiggedReferendum. Analogamente, l'informazione giornalistica ha evidenziato che le dichiarazioni di frode elettorale nel contesto del referendum di Voice erano comuni. Sulla base degli strumenti di monitoraggio dei social media distribuiti dagli esperti consultati dal Board, a febbraio 2024, gli screenshot dei posti di AWC su X erano stati condivisi sulle piattaforme di Meta oltre 475 volte, ricevendo migliaia di reazione e almeno 30.000 visualizzazioni.

3. Ambito e autorità dell'Oversight Board

Il Board ha l'autorità di controllare la decisione di Meta dando seguito al ricorso della persona il cui contenuto è stato rimosso (articolo 2, sezione 1 dell'Atto costitutivo; articolo 3, sezione 1 dello Statuto).

Il Board può confermare o revocare la decisione di Meta (articolo 3, sezione 5 dell'Atto costitutivo) e la sua decisione è vincolante per l'azienda (articolo 4 dell'Atto costitutivo). Meta deve anche valutare la fattibilità dell'applicazione della sua decisione nel caso di contenuti identici in un contesto parallelo (articolo 4 dell'Atto costitutivo). Le decisioni del Board possono comprendere raccomandazioni non vincolanti cui Meta deve rispondere (articolo 3, sezione 4 dell'Atto costitutivo; articolo 4). Quando Meta si impegna ad adottare misure a seguito di raccomandazioni, il Board ne monitora l'implementazione. Quando il Board identifica casi che sollevano problemi simili, questi potrebbero essere assegnati tutti insieme a un comitato che rifletterà in merito e verrà presa una decisione vincolante su ciascun contenuto.

4. Fonti di autorità e indicazioni

L'analisi del Board dei casi in questione si è basata sui seguenti standard e precedenti:

I. Decisioni dell'Oversight Board

II. Normative sui contenuti di Meta

I fondamenti della normativa in materia di organizzazione di atti di violenza e promozione della criminalità di Meta dichiarano che tale normativa mira a "contrastare la violenza offline e i comportamenti emulativi" vietando ai contenuti di "agevolare, organizzare, promuovere o tollerare determinate attività criminali o lesive che prendono di mira persone, aziende, proprietà o animali". La normativa vieta agli utenti di postare contenuti relativi a "supporto, fornitura di istruzioni su come o dimostrazione dell'intento esplicito di partecipare illegalmente a un processo di voto o censimento, eccetto se condivisi a scopo di condanna, sensibilizzazione, informazione o in contesti umoristici o satirici".

Esistono anche tipi di contenuti di interferenza elettorale o sui censimenti che possono essere rimossi ai sensi della normativa se sussiste un contesto aggiuntivo che lo giustifichi, tra cui "inviti a interferenze coordinate che inciderebbero sulla possibilità di partecipazione a un'elezione o un censimento ufficiale", nonché "minacce a chi si reca al voto per monitorare o osservare gli elettori o le attività dei funzionari delle procedure elettorali se combinate a un riferimento a un'intimidazione".

La normativa in materia di violenza e istigazione alla violenza di Meta ha lo scopo di evitare "potential offline harm" (potenziali violenze offline) collegate con i contenuti sulle piattaforme di Meta. Se vieta "minacce che potrebbero portare alla morte (e altri tipi di violenza molto grave)" nonché "minacce di impugnare le armi o portare le armi in un luogo o entrare con la forza in un luogo" come "seggi elettorali o luoghi usati per scrutini o amministrare un'elezione". Vieta anche minacce di violenza "correlate al voto, alla registrazione per il voto o all'amministrazione o al risultato delle elezioni, anche se non vi è un destinatario".

La normativa in materia di disinformazione di Meta articola in che modo l'azienda tratta le diverse categorie di disinformazione. In una di queste categorie, Meta rimuove, "al fine di tutelare l'integrità dei processi elettorali e censuari", "i casi di disinformazione in grado di contribuire direttamente al rischio di ingerenza nella capacità delle persone di partecipare a tali processi [politici]". Include "disinformazione in merito a chi può accedere al voto, ai requisiti di partecipazione al voto, al conteggio dei voti e a quali informazioni o materiali occorre fornire per poter votare".

III. Responsabilità di Meta in materia di diritti umani

I principi guida delle Nazioni Unite (UNGP) su imprese e diritti umani, promossi nel 2011 dal Consiglio per i diritti umani delle Nazioni Unite, stabiliscono un quadro normativo volontario per le responsabilità delle aziende private in materia di diritti umani. Nel 2021, Meta ha annunciato la sua Normativa aziendale sui diritti umani, che ribadisce il suo impegno nel rispettare i diritti dell'uomo ai sensi dei Principi guida delle Nazioni Unite. L'analisi del Board sulle responsabilità di Meta in materia di diritti umani per il caso in oggetto si è basata sui seguenti standard internazionali:

  • Il diritto alla libertà di espressione: articolo 19 della Convenzione internazionale sui diritti civili e politici (ICCPR); Commento generale n. 34, del Comitato per i Diritti Umani delle Nazioni Unite (2011); i report del Relatore speciale delle Nazioni Unite sulla libertà di opinione ed espressione: A/HRC/38/35 (2018) e A/74/486 (2019).
  • Il diritto al voto e alla partecipazione agli affari pubblici: articolo 25 dell'ICCPR. Commento generale n. 25 del Comitato per i Diritti Umani, 1996.

5. Osservazioni degli utenti

Nelle dichiarazioni al Board, entrambi gli utenti hanno affermato che stavano solo condividendo informazioni pubblicate dall'AEC. Il secondo utente ha affermato che il suo post serviva da "avvertimento per gli altri" visto che "le elezioni potrebbero essere illegali" poiché consentono il voto multiplo dato che le persone "non devono mostrare il proprio documento di identità" per essere contrassegnati sull'elenco.

6. Osservazioni di Meta

Meta ha determinato che entrambi i post violino la disposizione della normativa su "supporto, fornitura di istruzioni su come o dimostrazione dell'intento esplicito di partecipare illegalmente a un processo di voto o censimento" dello Standard della community su organizzazione di atti di violenza e promozione di attività criminali. Sulla base delle linee guida interne di Meta per gli addetti al controllo dei contenuti, le normative in materia di interferenza nel voto di Meta si applicano alle elezioni e ai "referendum ufficiali organizzati da un'autorità designata a livello nazionale". Il termine "voto illegale" include "a titolo esemplificativo" i seguenti casi: "(a) votare due volte; (b) fabbricare informazioni elettorali per votare in un luogo in cui non si hanno i requisiti; (c) fabbricare l'idoneità alla votazione; e (d) rubare le schede elettorali".

In merito al primo post, Meta ha sottolineato che la frase "vote often" (votate spesso) è "solitamente intesa come votate in modo illegale più di una volta durante un'elezione". L'azienda ritiene inoltre che la frase non servisse a fare umorismo o satira, dato che l'utente stava incitando le persone a votare "NO" che, dal punto di vista di Meta, costituiva un tentativo serio di promuovere le preferenze politiche dell'utente. L'azienda ha anche condiviso con il Board che durante la revisione dei contenuti sulle elezioni su larga scala, non è sempre in grado di valutare l'intenzione degli utenti che pubblicano una potenziale satira.

In relazione al secondo post, Meta ha ritenuto che la frase "smash the voting centres" (distruggete i seggi elettorali) fosse in violazione. L'azienda ha spiegato che l'invito dell'utente "potrebbe essere letto come un incitamento a riempire i seggi di voti duplicati", che è vietato dalla disposizione della normativa in materia di organizzazione di atti di violenza e promozione della criminalità contro l'"incitamento ... a partecipare illegalmente a un processo elettorale o di censimento".

Secondo Meta, se interpretata letteralmente per significare un invito a distruggere gli edifici dei centri elettorali, la frase violerebbe la normativa in materia di violenza e istigazione alla violenza, che vieta: (i) minacce di atti di violenza molto grave contro un edificio che potrebbero portare alla morte o a lesioni gravi di una delle persone presenti sul luogo preso di mira; e (ii) minacce di violenza "correlate al voto, alla registrazione al voto, o all'amministrazione o ai risultati di un'elezione; anche se non esiste un bersaglio". Sulla base delle linee guida interne di Meta per gli addetti al controllo dei contenuti, le minacce ai luoghi devono essere indicate in "termini espliciti", come "blow up" (far saltare in aria), "burn down" (bruciare), "shoot up" (sparare) e anche in termini generici come "attack" (attaccare), "ambush" (tendere un agguato) e "destroy" (distruggere) per considerare i contenuti in violazione ai sensi della presente normativa.

Meta ha pubblicato le misure aziendali per l'integrità per il referendum di Voice in un post sul blog a luglio 2023. Meta ha inoltre riferito al Board che ha formato un team interfunzionale per iniziare i preparativi per il referendum di aprile 2023. Il team era composto da team situati nell'Asia Pacifico, come da prassi per le elezioni nazionali. Meta ha anche predisposto un Integrity Product Operations Center (IPOC) durante la settimana finale delle campagne prima del voto, per concentrarsi sul referendum durante un momento di probabili aumentate tensioni. L'IPOC includeva team aggiuntivi operativi per rispondere in modo tempestivo alle escalation e ai rischi critici durante i giorni che portano al giorno della votazione. Meta non ha applicato il protocollo normativo per le situazioni di emergenza né altre leve delle normative per il referendum di Voice.

Meta ha anche spiegato l'"iniziativa della pipeline basata su parole chiave" dell'azienda che identifica e accoda automaticamente i contenuti potenzialmente in violazione che contengono le parole chiave, nei testi o nelle immagini come screenshot, per il controllo umano attraverso "una pipeline digitale specializzata che ricerca parole chiave specifiche". Meta ha informato il Board che l'elenco include molte parole e frasi sviluppate dalla disinformazione di Meta e team regionali. La funzione primaria del sistema di individuazione basato su parole chiave è di "garantire l'integrità" di elezioni e referendum "identificando in modo sistematico e controllando in modo manuale i contenuti pertinenti". Nel presente caso, il sistema di individuazione basato su parole chiave dell'azienda era stato attivato a causa dell'IPOC virtuale configurato per il referendum di Voice. Meta implementa l'iniziativa a livello globale. No è limitato a Paesi o regioni specifici ma è adattato per contesti locali. Secondo Meta, l'elenco delle parole chiave è "dinamico", soggetto alle modifiche e "specifico per la natura di ogni evento":

L'iniziativa vuole rafforzare attivamente le seguenti aree degli Standard della community di Meta: (i) la normativa in materia di organizzazione di atti di violenza e promozione della criminalità relativa a "frodi elettorali e/o sul censimento, tra cui le offerti di comprare o vendere voti in contanti e le dichiarazioni che incitano o danno informazioni sulla partecipazione illegale ai processi elettorali o di censimento;" e (ii) la normativa in materia di disinformazione che si concentra sull'interferenza elettorale o sui censimenti, tra cui "disinformazione sulle date di elezioni o censimenti, luoghi, orari, metodi, qualifiche dell'elettore, conteggio dei voti e materiali elettorali richiesti". Il sistema di individuazione basato su parole chiave per il referendum di Voice non era progettato per far rispettare attivamente altre normative in materie di contenuti relative alle elezioni o ai voti, come quelle ai sensi dello standard della community in materia di violenza e istigazione alla violenza. Tuttavia, se i contenuti contrassegnati dall'iniziativa violano altri Standard della community, vengono sottoposti anche all'applicazione del controllo umano.

In relazione ai coi del presente caso, le frasi "double vote" (voto doppio) e "vote multiple times" (votare più volte) sono state le parole chiave che hanno attivato il sistema di individuazione di Meta. Il termine "double vote" (voto doppio) non era stato usato direttamente nei post di Facebook ma appariva nello screenshot del post dell'AEC su X. I contenuti con queste parole chiave, che siano nel testo o in immagini come screenshot, vengono "automaticamente contrassegnati e messi in coda per il controllo umano per monitorare proattivamente i discorsi relativi alla soppressione degli elettori".

Il Board ha posto 12 domande a Meta per iscritto. Le domande erano relative alle normative in materia di contenuti in interferenza con le elezioni di Meta, al sistema di individuazione basato su parole chiave e ai protocolli che Meta ha adottato per la moderazione dei contenuti correlati al referendum di Voice. Meta ha risposto a tutte le domande.

7. Commenti pubblici

L'Oversight Board ha ricevuto cinque commenti pubblici conformi ai termini di presentazione. Tre provenivano da Asia Pacifico e Oceania (tutti dall'Australia), uno dagli Stati Uniti e Canada e uno dall'Europa. Per consultare i commenti pubblici inviati con il consenso alla pubblicazione, cliccare qui.

Gli invii riguardavano i seguenti temi: contesto socio-storico che ha portato al referendum di Voice, la storia di frode elettorale in Australia, la divulgazione di informazioni fuorvianti e decontestualizzate durante il referendum di Voice e le normative sui contenuti di Meta e i procedimenti esecutivi sulla disinformazione a livello più generale.

8. Analisi dell'Oversight Board

Il Board ha esaminato se questi post dovevano essere rimossi analizzando le normative sui contenuti, le responsabilità in materia di diritti umani e i valori di Meta. Il Board ha anche valutato le implicazioni del caso in oggetto per il più ampio approccio di Meta nei confronti della governance dei contenuti.

Il Board ha selezionato questi casi per esaminare le normative di Meta sulla moderazione dei contenuti e le procedure di applicazione per le informazioni di voto fuorvianti o decontestualizzate e le frodi elettorali, considerando il rilevante numero di elezioni nel 2024. Questi casi rientrano nella priorità strategica del Board Elezioni e spazio civico.

8.1 Conformità con le normative sui contenuti di Meta

I. Regole sui contenuti

Il Board ritiene che entrambi i post violino la normativa in materia di organizzazione di atti di violenza e promozione della criminalità che vieta l'incitamento alla partecipazione illegale nei processi elettorali o di censimento. La frase "vote often" (votate spesso) nel primo post, condivisa con il post dell'AEC su X relativo al conteggio di voti multipli è una chiamata chiara a eseguire tale azione. Ai sensi delle linee guida interne di Meta per gli addetti al controllo dei contenuti, la "votazione doppia" è una forma di "voto illegale".

Il secondo post viola anche a normativa in materia di organizzazione di atti di violenza e promozione della criminalità. Conteneva uno screenshot del post di X ed era accompagnato da un overlay di testo che diceva: "so you can vote multiple times" (allora potete votare più volte). Invita le persone a "smash the voting centres" (distruggere i seggi elettorali). L'utente potrebbe semplicemente star provando a esprimere la propria frustrazione nei confronti dell'AECV per aver permesso presumibilmente alle persone di "vote multiple times" (votare più volte). La frase, tuttavia, letta insieme al resto dell'overlay di testo nello screenshot, affermando che l'AEC stesse giustificando la votazione multipla e accusandolo di preparare le persone per "rigging" (truffa), può essere ragionevolmente inteso come incitamento affinché le persone inondino i seggi elettorali con voti multipli. All'interno del contesto delle elezioni australiane, in cui il voto è obbligatorio e l'affluenza supera il 90%, un invito affinché le persone votino una volta è un'interpretazione improbabile per "smash the voting centres" (distruggete i seggi elettorali), soprattutto quando questo invito segue una dichiarazione secondo cui le persone "can vote multiple times" (possono votare più volte). Questo trova un ulteriore supporto con la richiesta dell'utente di votare ripetutamente "No" ("NO, NO, NO, NO, NO"). Letto interamente e nel contesto delle elezioni australiane, il post rappresenta quindi una chiamata a votare due volte, che equivale a un "voto illegale", vietato dalla normativa in materia di organizzazione di atti di violenza e promozione della criminalità.

Il Board riconosce che sebbene esista una possibilità che i post avessero scopi satirici, queste intenzioni non sono esplicite. Il Board non ritiene che i post fossero implicitamente satirici in base al linguaggio delle didascalie e all'overlay di testo sulle immagini. Sebbene i post riportino un livello di sicurezza nella call to action diverso, includono entrambi una richiesta di coinvolgimento in voti multipli, quindi "illegali". Dati i rischi legati ai tentativi di frode elettorale nei contesti elettorali, il Board ritiene che l'eccezione prevista da Meta per l'umorismo e la satira deve essere applicata solo ai contenuti divertenti in modo esplicito, in tali circostanze. Quindi nessuno di questi post rientra nell'eccezione.

I post non rientrano nemmeno per nell'eccezione legata a sensibilizzazione della normativa in materia di organizzazione di atti di violenza e promozione della criminalità. Gli screenshot e molti dei contenuti creati dagli utenti sono stati progettati per richiamare l'attenzione verso la possibilità di frode elettorale in base alla dichiarazione dell'AEC. Tuttavia, sono andati oltre e hanno attivamente incoraggiato le altre persone a partecipare illegalmente nel referendum di Voice con voti multipli, piuttosto che discutere i post dell'AEC su X. I post non contenevano alcun contesto aggiuntivo fornito dall'AEC, nello stesso thread su X, secondo cui votare più volte sia considerato un reato in Australia. Pertanto, invece di sensibilizzare sulla possibilità del voto multiplo, entrambi i post hanno decontestualizzato la comunicazione dell'AEC per far sembrare che stesse consentendo di votare più di una volta.

Diversamente da Meta, il Board non ritiene che una lettura più letterale della parola "smash" (distruggere), che indica la distruzione di edifici, sia applicabile al presente caso, data la mancanza di indicatori verso quella direzione (ad es. il contesto di conflitto o l'aumento di tensioni con grande diffusione di contenuti che incitano in modo diretto alla violenza). Per cui, il Board conclude che il secondo post non viole la normativa di Meta in materia di violenza e istigazione alla violenza.

Il Board ha anche valutato entrambi i contenuti rispetto alla normativa in materia di disinformazione di Meta, dato che hanno decontestualizzato la comunicazione dell'AEC. Il Board ha concluso però che lo Standard della community su organizzazione di atti di violenza e promozione di attività criminali è la normativa applicabile al caso perché gli utenti stanno incoraggiando altre persone a partecipare a una frode elettorale.

II. Provvedimento

Il Board riconosce le iniziative per l'integrità di Meta per il referendum di Voice, tra cui il sistema di individuazione basato su parole chiave adottato da Meta. L'azienda ha spiegato che il sistema era stato distribuito per un'identificazione proattiva di contenuti potenzialmente in violazione ai sensi delle direttive della normativa sull'interferenza nel voto degli Standard della community in materia di organizzazione di atti di violenza e promozione della criminalità e disinformazione. Secondo Meta, il sistema di individuazione basato su parole chiave è adattato a contesti locali e include termini specifici del mercato. Sulla base delle informazioni condivise da Meta con il Board sulle modalità di funzionamento dell'iniziativa, il Board apprezza che il sistema di individuazione basato su parole chiave fosse stato distribuito e sembra che abbia funzionato nel presente caso. Iniziative come questa devono essere applicate in modo costante in tutto il mondo, in tutti i Paesi in fase di elezione e altri processi democratici. Il Board ritiene anche l'iniziativa debba inglobare le normative in materia di interferenza nel voto e simili ai sensi dello Standard della community in materia di violenza e istigazione alla violenza.

Date le limitazioni degli approcci basati su parole chiave all'individuazione di contenuti pericolosi, il Board continuerà a valutare l'efficacia del sistema di Meta in altri casi legati alle elezioni. A tal proposito, il Board incoraggia Meta a sviluppare metriche del successo per valutare l'efficacia del sistema di individuazione basato su parole chiave, oltre ad altre iniziative per l'integrità delle elezioni, nell'individuare contenuti potenzialmente in violazione ai sensi delle normative pertinenti alle elezioni. Questo sarebbe coerente con il consiglio del Board nella decisione Discorso del generale brasiliano affinché Meta "sviluppi una struttura per valutare le iniziative di integrità delle elezioni dell'azienda".

8.2 Conformità con le responsabilità di Meta in materia di diritti umani

Libertà di espressione (articolo 19 dell'ICCPR)

L'articolo 19 della Convenzione internazionale sui diritti civili e politici (ICCPR) prevede una protezione ampia per l'espressione di "tutti i generi". Tale diritto include la "libertà di cercare, ricevere e dare informazioni e idee di ogni tipo". Il Comitato per i diritti umani delle Nazioni Unite ha sottolineato che il valore della libertà di espressione è particolarmente importante quando discute di questioni politiche, di candidati e di candidati eletti (Commento generale n. 34, paragrafo 13). Questo include espressioni "profondamente offensive", critiche nei confronti di istituzioni pubbliche e opinioni che potrebbero essere errate (Commento generale n. 34, paragrafi 11, 38 e 49).

Il Comitato per i Diritti umani delle Nazioni Unite ha sottolineato che la libertà di espressione è fondamentale per la gestione degli affari pubblici e dell'esercizio effettivo del diritto al voto (Commento generale n. 34,paragrafo 20). Il Comitato dichiara inoltre che la comunicazione libera di informazioni e idee su questioni pubbliche e politiche tra i cittadini è fondamentale per il godimento del diritto di prendere parte alla gestione degli affari pubblici e al diritto al voto, articolo 25 dell'ICCPR (Commento generale n. 35, paragrafo 25). Nel presente caso, entrambi gli utenti erano coinvolti nel referendum, una questione di interesse pubblico, per condividere le proprie opinioni su quali dovessero essere i risultati, partecipando quindi in modo diretto al dibattito pubblico nato dal processo del referendum.

Quando le limitazioni alla libertà di espressione sono imposte da uno Stato, devono soddisfare i requisiti di legalità, fine legittimo, necessità e proporzionalità (articolo 19, par. 3 dell'ICCPR). Questi requisiti vengono spesso definiti "test in tre fasi". Il Board utilizza questo framework per interpretare gli impegni volontari di Meta in materia di diritti, sia per quanto riguarda la singola decisione sul contenuto oggetto di controllo sia per quanto riguarda il più ampio approccio di Meta alla governance dei contenuti. Come nei casi precedenti (ad esempio, Armeni in Azerbaigian, Video di prigionieri di guerra armeni), il Board concorda con il Relatore speciale delle Nazioni Unite sulla libertà di espressione che, sebbene "companies do not have the obligations of Governments, their impact is of a sort that requires them to assess the same kind of questions about protecting their users’ right to freedom of expression" (le aziende non abbiano gli stessi obblighi dei governi, hanno un impatto che richiede loro di valutare lo stesso tipo di domande sulla protezione del diritto alla libertà di espressione dei propri utenti) (A/74/486, paragrafo 41). In virtù di ciò, il Board tenta di fare distinzione in modo ragionevole tra le responsabilità di un'azienda di social media privata e gli obblighi dei governi in materia di diritti umani.

I. Legalità (chiarezza e accessibilità delle norme)

Le regole che limitano l'espressione dovrebbero essere definite e comunicate chiaramente a chi applica le regole e a chi ne è interessato (Commento generale n. 34, paragrafo 25). Gli utenti dovrebbero essere in grado di prevedere le conseguenze della pubblicazione di contenuti su Facebook e Instagram. Il Relatore speciale delle Nazioni Unite sulla libertà di espressione ha evidenziato la necessità di "clarity and specificity" (chiarezza e specificità) nelle normative per la moderazione dei contenuti (A/HRC/38/35, paragrafo 46).

Il linguaggio disponibile per il pubblico dello Standard della community su organizzazione di atti di violenza e promozione di attività criminali non è abbastanza chiaro per gli utenti. Data l'importanza dell'interazione degli utenti sui social media per parlare dei problemi di interesse pubblico nel contesto di eventi democratici, Meta deve garantire agli utenti informazioni chiare sulle regole applicabili. In questo modo, gli utenti potranno prevedere se i contenuti che stanno pubblicando sono potenzialmente in violazione. A tal riguardo, il Board ritiene che il chiarimento nelle linee guida interne di ciò che costituisce un "voto illegale" debba essere incorporato nello Standard della community su organizzazione di atti di violenza e promozione di attività criminali rivolto al pubblico.

II. Fine legittimo

Le limitazioni alla libertà di espressione devono perseguire un fine legittimo (articolo 19, paragrafo 3 dell'ICCPR), che include la tutela dell'"ordine pubblico" e dei "diritti altrui".

La normativa in materia di organizzazione di atti di violenza e promozione della criminalità dichiara che tale normativa mira a "contrastare la violenza offline e i comportamenti emulativi" rimuovendo i contenuti di "agevolare, organizzare, promuovere o tollerare determinate attività criminali o lesive.

Proteggere il diritto di voto e prendere parte alla gestione degli affari pubblici è un obiettivo che la normativa in materia di organizzazione di atti di violenza e promozione della criminalità può perseguire in modo legittimo, soprattutto nel contesto delle elezioni (articolo 25 dell'ICCPR). Il Board ritiene che impedire agli utenti di invitare altre persone a partecipare a una frode elettorale sia un obiettivo legittimo per la protezione del diritto al voto. Il Commento generale n. 25 sul diritto al voto stabilisce che "dovrebbe esserci un controllo indipendente del processo elettorale e di conteggio" cosicché "gli elettori abbiano la sicurezza nel controllo del ballottaggio e del conteggio dei voti", (paragrafo 20). Inoltre, esiste "il principio di una persona, un voto deve essere applicato", che significa che "il voto di un elettore deve essere uguale al voto di un altro" (paragrafo 21). Il Board nota anche che la normativa aiuta a mantenere l'"ordine pubblico" proteggendo i seggi e i processi democratici dall'interferenza elettorale, in modo più ampio.

III. Necessità e proporzionalità

Ai sensi dell'articolo 19, paragrafo 3 dell'ICCPR, la necessità e la proporzionalità prevedono che le limitazioni alla libertà di espressione "devono essere appropriate per raggiungere la funzione protettiva; devono essere proporzionate all'interesse da tutelare" ( Commento generale n. 34, paragrafo 34). Nell'ambito delle responsabilità sui diritti umani, le aziende di social media devono considerare una serie di possibili risposte a un contenuto problematico a parte l'eliminazione per garantire che le limitazioni siano altamente specifiche ( A/74/486, paragrafo 51).

Il Board ritiene che la rimozione dei post da Facebook da parte di Meta fosse conforme ai requisiti di necessità e proporzionalità. Il Board nota che i contenuti erano stati pubblicati giorni prima del referendum imminente che ha segnato un momento costituzionale significativo in Australia, soprattutto per le popolazioni aborigene e agli isolani dello Stretto di Torres. D'altro canto, il discorso politico è un componente fondamentale dei processi democratici e gli utenti hanno interagito direttamente nel dibattito pubblico alimentato dal referendum. Gli incitamenti degli utenti, invece, che invitavano gli altri a partecipare al comportamento illegale nel contesto del referendum hanno avuto un impatto sui diritti politici di chi vive in Australia, in particolare sul diritto al voto e sulla partecipazione nella gestione degli affari pubblici.

Applicando questi standard ai contenuti del caso, gli inviti a "vote No" (votare No) nei post sono chiaramente protetti dal discorso politico. Tuttavia, la frase "vote often" (votate spesso) nel primo post e la frase "smash the voting centres" (distruggete i seggi elettorali) nel secondo sono un'altra questione, dato che incoraggiano in modo attivo le altre persone a partecipare illegalmente al referendum di Voice con più voti, come illustrato in maggiore dettaglio alla sezione 8.1 sopra. Gli esperti consultati dal Board hanno notato che le dichiarazioni secondo cui il Referendum fosse truccato erano frequenti, mentre l'informazione giornalistica ha evidenziato che le dichiarazioni di truffa elettorale erano comuni. Il Board ritiene quindi che Meta avesse ragione a scegliere di proteggere i processi democratici, impedendo che i tentativi di frode elettorale circolassero sulle piattaforme di Meta ( Commento generale n. 25). La diffusione di contenuti relativi alla truffa elettorale potrebbe creare un ambiente in cui l'integrità dei processi elettorali è a rischio. Tuttavia, una minoranza del Board ritiene che la rimozione del post che incita a "smash the voting centres" (distruggere i seggi elettorali) non supera il test di necessità e proporzionalità, data la mancata definizione da parte di Meta di una "connessione diretta e immediata tra espressione e minaccia" (Commento generale n. 34, paragrafo 35). Per questa minoranza, la connessione con la frode elettorale non era diretta e immediata, data l'ambiguità della chiamata a votare più volte da parte dell'utente usando "smash the voting centres" (distruggete i seggi elettorali).

Il Board ritiene che l'approccio di Meta per aspettarsi chiarezza dagli utenti durante l'applicazione delle eccezioni sia ragionevole per valutare se i contenuti siano stati condivisi in un contesto di condanna, di sensibilizzazione, di servizi giornalistici, o di umorismo o satira. Non c'è una chiara indicazione nei post analizzati dal Board che le frasi "vote often" (votate spesso) e "smash the voting centres" (distruggete i seggi elettorali) avessero un significato retorico invece di incitare chiaramente a votare più volte, azione che ha messo a rischio l'integrità del referendum di Voice. Entrambe le rimozioni erano quindi necessarie e costituivano risposte proporzionate da parte di Meta.

Inoltre, una minoranza del Board non ritiene che la rimozione dei contenuti sia lo strumento meno intrusivo a disposizione di Meta in caso di discorso relativo alla truffa elettorale e crede che il fatto che Meta non abbia potuto dimostrare un quadro diverso non soddisfi i requisiti di necessità e proporzionalità. Il Relatore speciale ha dichiarato che "così come gli Stati dovrebbero valutare se una restrizione sulla parola rappresenta l'approccio meno restrittivo, allo stesso modo le aziende dovrebbero svolgere questo tipo di valutazione. E, durante lo svolgimento della valutazione, le aziende dovrebbero sostenere l'onere di dimostrare pubblicamente la necessità e la proporzionalità" ( A/74/486, paragrafo 51). Per questa minoranza, Meta avrebbe dovuto dimostrare pubblicamente i motivi secondo cui la rimozione dei due post fosse il metodo meno intrusivo rispetto agli altri strumenti a disposizione per evitare danni possibili a breve termine, come la frode elettorale. Se non è in grado di fornire tale giustificazione, Meta dovrebbe essere trasparenze nel riconoscere che le proprie regole inerenti al discorso sono diverse dagli standard per i diritti umani delle Nazioni Unite e fornire un motivo pubblico relativo. La minoranza ritiene che il Board si troverebbe così nella posizione per considerare la giustificazione pubblica di Meta e un dialogo pubblico seguirebbe senza il rischio di alterazione degli standard esistenti per i diritti umani delle Nazioni Unite.

9. Decisione dell'Oversight Board

L'Oversight Board conferma le decisioni di Meta di rimuovere entrambi i contenuti.

10. Raccomandazioni

Normativa sui contenuti

1. Per garantire agli utenti informazioni complete sui tipi di contenuti vietati ai sensi della sezione "Frode elettorale e/o sul censimento" dello Standard della community su organizzazione di atti di violenza e promozione di attività criminali, Meta dovrebbe incorporare la definizione del termine "voto illegale" nel linguaggio disponibile per il pubblico della normativa che vieta: "supporto, fornitura di istruzioni su come o dimostrazione dell'intento esplicito di partecipare illegalmente a un processo di voto o censimento, eccetto se condivisi a scopo di condanna, sensibilizzazione, informazione o in contesti umoristici o satirici".

Il Board considererà questa raccomandazione implementata non appena Meta aggiornerà lo Standard della community su organizzazione di atti di violenza e promozione di attività criminali disponibile per il pubblico per riflettere la modifica.

*Nota procedurale:

Le decisioni dell'Oversight Board sono predisposte da gruppi di cinque Membri e devono essere approvate dalla maggioranza del Board. Le decisioni del Board non rappresentano necessariamente le opinioni personali di tutti i membri.

Per la decisione su questo caso sono state commissionate ricerche indipendenti per conto del Board. Il Board ha ricevuto assistenza da Duco Advisors, una società di consulenza specializzata in geopolitica, fiducia e sicurezza e tecnologia. Ha fornito un'analisi anche Memetica, un'organizzazione che si occupa di ricerche open source sulle tendenze nei social media.

Return to Case Decisions and Policy Advisory Opinions