एकाधिक मामले का निर्णय

Stemmereglene til Australian Electoral Commission

Tilsynsrådet har opprettholdt Metas avgjørelse om å fjerne to separate Facebook-innlegg som inneholder det samme skjermbildet av informasjon som ble lagt ut på X av Australian Electoral Commission i forkant av folkeavstemningen i Australia om å gi urfolk en stemme i nasjonalforsamlingen.

2 इस बंडल में केस शामिल हैं

सही ठहराया

FB-0TGD816L

Sak om koordinering av skade og offentliggjøring av kriminalitet på Facebook

प्लैटफ़ॉर्म
Facebook
विषय
valg,myndigheter,feilinformasjon
मानक
koordinering av skade og offentliggjøring av kriminalitet
जगह
Australia
Date
पर प्रकाशित 9 मई 2024
सही ठहराया

FB-8ZQ78FZG

Sak om koordinering av skade og offentliggjøring av kriminalitet på Facebook

प्लैटफ़ॉर्म
Facebook
विषय
valg,myndigheter,feilinformasjon
मानक
koordinering av skade og offentliggjøring av kriminalitet
जगह
Australia
Date
पर प्रकाशित 9 मई 2024

Sammendrag

Tilsynsrådet har opprettholdt Metas avgjørelse om å fjerne to separate Facebook-innlegg som inneholder det samme skjermbildet av informasjon som ble lagt ut på X av Australian Electoral Commission (AEC) i forkant av folkeavstemningen i Australia om å gi urfolk en stemme i nasjonalforsamlingen. Begge innleggene brøt regelen i standarden om koordinering av skade og promotering av kriminalitet som forbyr innhold der noen oppfordrer til ulovlig inngripen i en stemmeprosess. Disse sakene viser hvordan informasjon utenfor kontekst kan påvirke folks rett til å stemme. Rådet anbefaler at Meta tydeligere forklarer reglene sine rundt svindel ved valg og/eller folkeavstemninger ved å dele offentlig sin definisjon av «ulovlig stemmegivning».

Om sakene

Den 14. oktober 2023 holdt Australia en folkeavstemning om å gi urfolk en stemme i nasjonalforsamlingen. Noen dager i forkant la en Facebook-bruker ut et skjermbilde i en gruppe av et X-innlegg fra AECs offisielle konto. X-innlegget inneholdt blant annet følgende informasjon: «Hvis noen stemmer ved to ulike valglokaler innenfor valgkretsen sin og legger den formelle stemmen sin i stemmeurnen i begge valglokalene, er stemmen deres gyldig.» I tillegg forklarte en annen kommentar som brukeren har hentet fra den samme X-tråden at hemmeligholdet rundt avstemningen forhindrer AEC fra å «vite hvilken stemmeseddel som tilhører hvilken person», samtidig som brukeren skrev at «antallet dobbeltstemmer er utrolig lavt». Skjermbildet viste imidlertid ikke all informasjonen som ble delt av AEC, som at det er straffbart å stemme flere ganger. Bildeteksten til innlegget sa: «Stem tidlig, stem ofte og stem NEI».

Et annet innlegg som ble delt av en annen Facebook-bruker inneholdt det samme skjermbildet, men hadde et tekstoverlegg med utsagnet: «så du kan stemme flere ganger. De prøver å "rigge" valget ... knus stemmesentrene ... det er NEI, NEI, NEI, NEI, NEI.»

I folkeavstemningen ble australierne spurt om grunnloven burde endres for å gi bedre representasjon i nasjonalforsamlingen til aboriginene og øyfolket i Torresstredet.

Stemmegivning er obligatorisk i Australia, og AEC rapporterer om en valgdeltakelse på rundt 90 % ved hvert valg og hver folkeavstemning siden 1924. Det regnes som forsøk på valgfusk å avgi mer enn én stemme, og det er dermed ulovlig.

Etter at Metas automatiserte systemer flagget begge innleggene, fjernet moderatorer dem for brudd på Metas retningslinjer om koordinering av skade og promotering av kriminalitet. Begge brukerne anket.

Viktige funn

Rådet konkluderer med at begge innleggene brøt regelen om koordinering av skade og promotering av kriminalitet, som forbyr innhold som kan «oppfordre til, gi instruksjoner for eller utvise en eksplisitt hensikt om å delta ulovlig i valg eller folkeavstemninger». I den første saken utgjør utsagnet «stem ofte» i kombinasjon med AECs informasjon om telling av flere stemmer en klar oppfordring til å delta i ulovlig stemmegivning. Det å stemme to ganger er en type «ulovlig stemmegivning» i henhold til Metas interne retningslinjer. I det andre tilfellet kan bruken av utsagnet «knus stemmesentrene» sammen med resten av tekstoverlegget, forstås som at folk burde oversvømme valglokalene med flere stemmer. Ingen av innleggene er kvalifisert for unntakene om fordømmelse, bevisstgjøring, nyhetsrapportering eller humor/satire. Når det gjelder bevisstgjøring mer spesifikt, faller ikke innleggene inn under dette unntaket, siden de i stedet for å diskutere AECs X-innlegg trekker informasjon ut av sin kontekst for å antyde at AEC sier at det er tillatt å stemme mer enn én gang.

Det å forhindre brukere fra å oppfordre andre til å delta i valgfusk er et legitimt mål for å beskytte stemmeretten. Rådet ser på politiske ytringer som en viktig del av den demokratiske prosessen. I disse sakene deltok begge brukerne direkte i den offentlige debatten rundt folkeavstemningen, men oppfordringene deres om at andre burde delta i ulovlig atferd, påvirket de politiske rettighetene til folket i Australia – mer spesifikt stemmeretten. Selv om oppfordringen om å «stemme nei» er en beskyttet politisk ytring, er setningene «stem ofte» og «knus stemmesentrene» noe helt annet. Rådet konkluderer med at Meta korrekt beskyttet de demokratiske prosessene ved å forhindre forsøk på valgjuks fra å sirkulere på selskapets plattformer, gitt de hyppige påstandene om at den aktuelle avstemningen var «rigget».

Rådet anerkjenner Metas innsats i forbindelse med denne avstemningen. Selskapet identifiserte proaktivt potensielt ulovlig innhold i henhold til reglene om stemmepåvirkning i standarden om koordinering av skade og promotering av kriminalitet og standarden om feilinformasjon. Utsagnene «dobbel stemme» og «stemme flere ganger» var nøkkelordene som aktiverte selskapets nøkkelordbaserte deteksjonssystem i dette tilfellet. Ifølge Meta er systemet tilpasset lokale kontekster. Basert på denne informasjonen, bemerker rådet at initiativer som dette bør brukes konsekvent over hele verden i land som gjennomfører valg, men Meta oppfordres til å utvikle måletall som viser hvor effektivt det er med nøkkelordbasert deteksjon.

Rådet mener også at de offentlige reglene i standarden om koordinering av skade og promotering av kriminalitet ikke er klare nok. De inneholder ikke samme ordlyd som den som er tilgjengelig for moderatorer i Metas interne retningslinjer, nemlig selskapets definisjoner av «ulovlig stemmegivning». Siden det er avgjørende at brukerne kan engasjere seg på sosiale medier for å diskutere spørsmål av allmenn interesse om demokratiske arrangementer, må Meta tydelig informere brukerne sine om hvilke regler som gjelder.

Tilsynsrådets avgjørelse

Tilsynsrådet opprettholder Metas vedtak om å fjerne innholdet i begge sakene.

Rådet anbefaler at Meta gjør følgende:

  • Meta bør innlemme definisjonen sin av begrepet «ulovlig stemmegivning» i de offentlig tilgjengelige retningslinjene om koordinering av skade og promotering av kriminalitet, som forbyr innhold som kan «oppfordre til, gi instruksjoner for eller utvise en eksplisitt hensikt om å delta ulovlig i valg eller folkeavstemninger, unntatt hvis informasjonen deles i sammenheng med fordømmelse, bevisstgjøring, nyhetsrapportering eller humor/satire.»

* Sakssammendrag gir en oversikt over sakene og medfører ingen presedens.

Fullstendig saksavgjørelse

1. Sammendrag av avgjørelsen

Tilsynsrådet opprettholder Metas beslutninger om å fjerne to separate innlegg på Facebook som inneholder et skjermbilde av et innlegg fra Australian Electoral Commission (AEC) på X, tidligere kjent som Twitter. Skjermbildene fra AEC som ble publisert av Facebook-brukerne, inneholdt følgende ordlyd: «Hvis noen stemmer ved to ulike valglokaler innenfor valgkretsen sin og legger den formelle stemmen sin i stemmeurnen i begge valglokalene, er stemmen deres gyldig.» I det første Facebook-innlegget var skjermbildet ledsaget av en bildetekst som sa: «stem tidlig, stem ofte og stem NEI». I det andre Facebook-innlegget var skjermbildet ledsaget av et tekstoverlegg, der det blant annet sto: «så du kan stemme flere ganger … de prøver å "rigge" valget … knus stemmesentrene … det er NEI, NEI, NEI, NEI, NEI». Bildeteksten inneholdt også en «stopp»-emoji, etterfulgt av ordene «Australian Electoral Commission».

Rådet konkluderer med at begge innleggene brøt standarden om koordinering av skade og promotering av kriminalitet, som forbyr å «oppfordre til, gi instruksjoner for eller utvise en eksplisitt hensikt om å delta ulovlig i valg eller folkeavstemninger, unntatt hvis informasjonen deles i sammenheng med fordømmelse, bevisstgjøring, nyhetsrapportering eller humor/satire. Rådet konkluderer med at ingen av unntakene gjelder.

Disse sakene viser en bredere problematikk knyttet til deling av informasjon utenfor kontekst, noe som kan påvirke demokratiske prosesser som valg og folkeavstemninger, med potensial til å påvirke folks stemmerett. Rådet anbefaler at Meta tydeligere forklarer retningslinjene knyttet til juks ved valg og/eller folkeavstemninger i standarden om koordinering av skade og promotering av kriminalitet for å klargjøre hva som utgjør «ulovlig deltakelse i valg eller folkeavstemninger».

2. Saksbeskrivelse og -bakgrunn

Den 14. oktober 2023 holdt Australia en folkeavstemning om å gi urfolk en stemme i nasjonalforsamlingen (kalt «Voice Referendum»). Noen dager før avstemningen delte en Facebook-bruker i en gruppe brukeren administrerte et innlegg med et skjermbilde av et X-innlegg fra den offisielle kontoen til Australian Electoral Commission (AEC). AECs innlegg på X inneholdt følgende ordlyd: «Hvis noen stemmer ved to ulike valglokaler innenfor valgkretsen sin og legger den formelle stemmen sin i stemmeurnen i begge valglokalene, er stemmen deres gyldig.» Skjermbildet viser også en annen kommentar fra samme tråd på X, som forklarer at fordi avstemningen er hemmelig, kan ikke AEC vite «hvilken stemmeseddel som tilhører hvilken person», samtidig som folk forsikres om at «antall dobbeltstemmer som mottas, er utrolig lavt». Skjermbildet viser imidlertid ikke all informasjonen som ble delt av AEC, som at det er ulovlig å stemme flere ganger i Australia. En bildetekst fulgte med det første Facebook-innlegget, som sa: «stem tidlig, stem ofte og stem NEI».

Et annet innlegg, med det samme skjermbildet av AECs innlegg på X, ble delt dagen etter av en annen Facebook-bruker på brukerens profil. Det var ledsaget av et tekstoverlegg med følgende uttalelse: «så du kan stemme flere ganger. De prøver å "rigge" valget ... knus stemmesentrene ... det er NEI, NEI, NEI, NEI, NEI.» Bildeteksten inneholdt også en «stopp»-emoji, etterfulgt av ordene «Australian Electoral Commission».

Begge innleggene ble proaktivt oppdaget av Meta. Utsagnene «dobbel stemme» og «stemme flere ganger» var nøkkelordene som aktiverte selskapets nøkkelordbaserte system i dette tilfellet. Denne nøkkelordbaserte deteksjonen er en systematisk prosedyre som Meta bruker for proaktivt å identifisere «potensielt ulovlig innhold, inkludert, men ikke begrenset til, innhold relatert til inngripen i valg og folkeavstemninger». Begge innleggene ble deretter automatisk lagt i kø for manuell vurdering. Etter en manuell gjennomgang ble begge innleggene fjernet for brudd på retningslinjene om koordinering av skade og promotering av kriminalitet. Meta ila også en standardadvarsel og en 30-dagers funksjonsbegrensning på begge brukerprofilene, noe som hindret brukerne fra å legge ut eller kommentere i Facebook-grupper, opprette nyhetsgrupper eller bli med i Messenger-rom.

Rådet så på følgende kontekst for å nå en avgjørelse i disse sakene:

Voice-folkeavstemningen handlet om hvorvidt Australias grunnlov skulle endres for å anerkjenne urfolkene i Australia «ved å etablere et organ kalt Aboriginal and Torres Strait Islander Voice». Grunnlovsforslaget ville blant annet gitt aboriginene og øyfolket i Torresstredet en stemme i nasjonalforsamlingen for å gi myndighetene råd i saker som berører urfolket i Australia. Relevant bakgrunnsinformasjon om avstemningen er blant annet at aboriginene og øyfolket i Torresstredet i Australia er blant de mest vanskeligstilte gruppene sosialt og økonomisk i landet, med høye nivåer av arbeidsledighet, lavere deltakelse i høyere utdanning, dårligere helse (både fysisk og mental), langt kortere forventet levealder enn andre australiere og overrepresentasjon i fengslene. Aboriginene og øyfolket i Torresstredet opplever også diskriminering og blir i uforholdsmessig grad utsatt for kjønnsbasert vold og politivold.

Statsminister Anthony Albanese støttet grunnlovsendringen (stemte «ja»), mens Australias viktigste opposisjonskoalisjon ikke gjorde det (stemte «nei»). Forslaget ble avvist nasjonalt og av et flertall i alle de seks delstatene. Dermed oppnådde ikke forslaget det doble flertallet som skulle til for å endre den australske grunnloven.

Stemmegivning er obligatorisk i Australia, og AEC rapporter at valgdeltakelsen har ligget på omtrent 90 % ved alle parlamentsvalg og folkeavstemninger siden 1924. Forsøk på å avgi flere stemmer regnes som valgjuks både på statlig og føderalt nivå, basert på Commonwealth Electoral Act av 1918 og Referendum (Machinery Provisions) Act av 1984. Som svar på påstander om at folk ville avlegge flere stemmer i Voice-folkeavstemningen, la AEC ut en lang tråd på X. Der uttalte de at det er «svært sjelden» at noen stemmer flere ganger, og de delte hvilke tiltak de hadde iverksatt for å forhindre dette. AEC forklarer på nettstedet sitt at for å motvirke dobbel stemmegivning, utstedes det identiske sertifiserte lister til alle valgstedene over alle velgere innenfor et område. Når velgerne får utstedt et sett med stemmesedler, krysses navnene deres av på den sertifiserte listen de har i det aktuelle valglokalet. Hvis en velger da går til et annet lokale for å avgi en ny ordinær stemme, vil det bli krysset av på den sertifiserte listen for dette området for å markere at personen har fått utstedt stemmesedler. Umiddelbart etter avstemningsdagen skannes de identiske sertifiserte listene for hvert område for å sjekke om noen navn er avmerket på flere lister. AEC undersøker i så fall saken og skriver til hver velger som mistenkes for å ha stemt flere ganger. Saken blir løst på grunnlag av for eksempel «offisiell feil i avstemningen», «språkvansker», «lese- og skrivevansker» eller at personen er «eldre og forvirret og stemte mer enn én gang på grunn av de hadde glemt at de allerede hadde avgitt stemme.» Gjenstående saker som ikke kan løses, undersøkes videre av AEC og kan bli oversendt til det australske føderale politiet for vurdering.

I 2019 vitnet AEC om at forsøk på å stemme flere ganger var et «veldig lite problem» som gjaldt bare 0,03 % av valgdeltakelsen på 91,9 %, og flertallet av disse var feil fra velgere som enten var eldre, hadde dårlige leseferdigheter eller ikke hadde forstått valgprosessen. AEC gjentok den «ubetydelige» forekomsten av at noen stemmer flere ganger i Australia i sin offentlige kommentar til rådet. Ifølge AEC ble bare 13 tilfeller av tilsynelatende forsøk på å stemme flere ganger – av totalt 15,5 millioner stemmer – henvist til det australske føderale politiet for videre etterforskning i forbindelse med det føderale valget i 2022 (PC-25006; se også PC-25007).

Ifølge eksperter rådet har konsultert, kom det hyppige påstander om at Voice-avstemningen var rigget, der noen innlegg hadde emneknaggen #StopTheSteal eller #RiggedReferendum. Journalister trakk også fram at det var vanlig med påstander om valgjuks i forbindelse med avstemningen. Basert på kontrollverktøy for sosiale medier som brukes av ekspertene rådet har konsultert, hadde skjermbilder av AECs innlegg på X blitt delt på Metas plattformer over 475 ganger per februar 2024, og de hadde mottatt tusenvis av reaksjoner og minst 30 000 visninger.

3. Tilsynsrådets myndighet og virkeområde

Rådet er bemyndiget til å vurdere Metas avgjørelse etter en anke fra personen som har fått innhold fjernet (artikkel 2, del 1 i reglementet; artikkel 3, del 1 i vedtektene).

Rådet kan opprettholde eller omgjøre Metas avgjørelse (artikkel 3, del 5 i vedtektene), og rådets avgjørelse er bindende for selskapet (artikkel 4 i vedtektene). Meta må også vurdere gjennomførbarheten av å iverksette avgjørelsen sin når det gjelder identisk innhold i tilsvarende sammenhenger (artikkel 4 i vedtektene). Rådets beslutninger kan omfatte ikke-bindende anbefalinger som Meta må svare på (vedtektenes artikkel 3, del 4; artikkel 4). Når Meta forplikter seg til å følge anbefalingene, vil rådet overvåke implementeringen av dem. Når rådet identifiserer saker med lignende problemstillinger, kan de bli tildelt til et panel for samlet drøfting. Det vil bli fattet en bindende beslutning for hvert innlegg.

4. Ekspertkilder og -veiledning

Følgende standarder og presedenser dannet grunnlag for rådets analyse i disse sakene:

I. Tilsynsrådets beslutninger

II. Metas retningslinjer for innhold

Metas begrunnelse bak retningslinjene om koordinering av skade og promotering av kriminalitet sier at målet med retningslinjene er å «forhindre skade utenfor nettet, og at andre kopierer en slik atferd» ved å forby folk å «tilrettelegge for, organisere, promotere eller innrømme visse kriminelle eller skadelige aktiviteter rettet mot mennesker, bedrifter, eiendom eller dyr». Retningslinjene forbyr brukere å legge ut innhold som kan «oppfordre til, gi instruksjoner for eller utvise en eksplisitt hensikt om å delta ulovlig i valg eller folkeavstemninger, unntatt hvis informasjonen deles i sammenheng med fordømmelse, bevisstgjøring, nyhetsrapportering eller humor/satire.»

Det finnes også bestemte typer innhold som gjelder valg eller folkeavstemninger som kan fjernes i henhold til retningslinjene hvis ytterlige kontekst tilsier det. Dette inkluderer «oppfordringer til koordinert innblanding som vil påvirke en persons mulighet til å delta i et offisielt valg eller en folkeavstemning», samt «trusler om å gå til et valgsted for å overvåke eller se velgernes eller valgfunksjonærenes aktiviteter hvis de kombineres med trusler.»

Metas retningslinjer om vold og oppfordring til vold tar sikte på å forhindre «potensiell skade utenfor Internett» som kan henge sammen med innhold som er lagt ut på Metas plattformer. De forbyr «trusler som kan føre til dødsfall (og andre former for grov vold)» samt «trusler om å ta med våpen til et sted eller tvinge seg inn på et sted» som for eksempel «valglokaler eller steder som brukes til å telle stemmer eller administrere et valg». De forbyr også trusler om vold «relatert til stemmegivning, velgerregistrering, administrasjon av et valg eller resultatet av et valg», også om det ikke er angitt noe konkret mål.

Metas retningslinjer om feilinformasjon sier hvordan selskapet behandler ulike kategorier av feilinformasjon. I henhold til disse kategoriene, fjerner Meta – for å «fremme integriteten ved valg og folkeavstemninger» feilinformasjon som har direkte potensial til å «bidra til påvirkning av folks mulighet til å delta i slike (politiske) prosesser». Dette inkluderer «feilinformasjon om hvem som har stemmerett, stemmekrav, tellende stemmer eller om informasjonen, legitimasjonen eller materiellet som må medbringes for å kunne stemme».

III. Metas menneskerettighetsansvar

FNs veiledende prinsipper for næringsliv og menneskerettigheter (UNGP) ble godkjent av FNs menneskerettighetsråd i 2011 og etablerte et frivillig rammeverk for private bedrifters menneskerettighetsansvar. I 2021 publiserte Meta sine bedriftsretningslinjer for menneskerettigheter, der selskapet på nytt forpliktet seg til å respektere menneskerettighetene i henhold til UNGP-ene. Rådets analyse av Metas menneskerettighetsansvar i denne saken ble basert på følgende internasjonale standarder:

  • Retten til ytringsfrihet: artikkel 19 i FNs konvensjon om sivile og politiske rettigheter (ICCPR), generell kommentar 34, menneskerettighetskomiteen, 2011; Disse rapportene fra FNs spesialrapportør for menings- og ytringsfrihet: A/HRC/38/35 (2018) og A/74/486 (2019).
  • Retten til å stemme og delta i offentlige diskusjoner: Artikkel 25 i ICCPR; Generell kommentar 25, menneskerettighetskomiteen, 1996.

5. Brukeruttalelser

I uttalelsene sine til rådet hevdet begge brukerne at de bare delte informasjon som var lagt ut av AEC. Brukeren som la ut det andre innlegget, hevdet i tillegg at innlegget fungerte som en «advarsel til andre» om at «valget kan være uredelig» fordi det tillates flere stemmer, ettersom folk «ikke trenger å vise legitimasjon» for å få navnet sitt krysset av på listene.

6. Metas uttalelser

Meta fastslo at begge innleggene brøt retningslinjene om å «oppfordre til, gi instruksjoner for eller utvise en eksplisitt hensikt om å delta ulovlig i valg eller folkeavstemninger» i standarden om koordinering av skade og promotering av kriminalitet. Basert på Metas interne retningslinjer for innholdsmoderatorer, gjelder Metas retningslinjer om inngripen i stemmeprosesser både ved valg og «offisielle folkeavstemninger som er organisert av en instans utpekt av myndighetene». Ulovlig stemmegivning inkluderer «men er ikke begrenset til» følgende: «(a) stemme to ganger; (b) fabrikkere stemmeinformasjon for å prøve å stemme på et sted du ikke er berettiget til; (c) fabrikkere stemmeberettigelse; og (d) stjele stemmesedler.»

Med hensyn til det første innlegget, understreket Meta at utsagnet «stem ofte» vanligvis betyr «ulovlig stemmegivning ved å avlegge mer enn én stemme ved et valg». Selskapet fant også ut at utsagnet ikke var ment som humor eller satire, siden brukeren ba folk om å stemme «NEI», noe som etter Metas syn utgjorde et seriøst forsøk på å fremme brukerens politiske preferanse. Selskapet fortalte også rådet at når de gjennomgår innhold som gjelder valg på storskalanivå, er de ikke alltid i stand til å forstå intensjonen til brukere som legger ut potensiell satire.

Når det gjelder det andre innlegget, fant Meta at utsagnet om å knuse stemmesentrene var ulovlig. Selskapet forklarte brukerens oppfordring «kan leses som en oppfordring til å oversvømme valget med doble stemmer», noe som er forbudt i henhold til retningslinjene om koordinering av skade og promotering av kriminalitet som sier at man ikke kan oppfordre til ulovlig deltagelse i valg eller folkeavstemninger.

Ifølge Meta kan utsagnet, hvis det tolkes bokstavelig, bety at det oppfordres til å ødelegge stemmelokalet. Da vil setningen bryte retningslinjene om vold og oppfordring til vold, gitt at retningslinjene forbyr: (i) trusler om skadeverk mot en bygning som kan føre til dødsfall eller alvorlig personskade på noen som er til stede; og (ii) trusler om vold «relatert til stemmegivning, velgerregistrering, administrasjon av et valg eller resultatet av et valg», også om det ikke er angitt noe konkret mål. Basert på Metas interne veiledning til innholdsmoderatorer, må trusler mot et sted eller lokale angis eksplisitt, ved at man bruker uttrykk som «sprenge», «brenne» eller «skyte» – eller eventuelt generelle begreper som «angrep», «bakholdsangrep» eller «ødelegge» – for at innholdet skal kunne anses som et regelbrudd i henhold til disse retningslinjene.

Meta fortalte om selskapets integritetsinnsats rundt Voice-avstemningen i et blogginnlegg i juli 2023. Meta sa i tillegg til rådet at de dannet et tverrfaglig team som begynte forberedelsene til folkeavstemningen i april 2023. Teamet besto av grupper basert i Asia med stillehavsregionen, i henhold til de vanlige rutinene for nasjonale valg. Meta dannet også et virtuelt Integrity Product Operations Center (IPOC) i løpet av den siste uken av valgkampen for å øke fokuset på folkeavstemningen i en periode med potensielt økte spenninger. IPOC omfattet flere team med ansvar for raskt å reagere på eskaleringer og kritiske risikoer i forkant av valgdagen. Meta brukte ikke protokollen for krisehåndtering og tok ingen andre grep rundt retningslinjene sine når det gjaldt denne avstemningen.

Meta forklarte også selskapets nøkkelordbaserte system. Dette systemet identifiserer potensielt ulovlig innhold og setter det automatisk i kø for manuell vurdering når det inneholder konkrete nøkkelord, enten det er i form av tekst eller bilder (inkludert skjermbilder). Dette skjer gjennom en spesialisert digital prosess som skanner etter spesifikke nøkkelord. Meta fortalte rådet at listen inneholder mange ord og uttrykk som er utviklet av Metas team med ekspertise rundt feilinformasjon og selskapets regionale team. Hovedfunksjonen til dette nøkkelordbaserte deteksjonssystemet er å «sikre integritet» ved valg og folkeavstemninger ved «systematisk å identifisere og manuelt gjennomgå relevant innhold». Det nøkkelordbaserte deteksjonssystemet ble aktivert i dette tilfellet på grunn av den virtuelle IPOC-en som hadde blitt iverksatt før avstemningen. Meta implementerer initiativet globalt. Det er ikke begrenset til bestemte land eller regioner, men tilpasses lokale kontekster. Ifølge Meta er nøkkelordlisten «dynamisk», med forbehold om endringer og «spesifikk for arten av hver situasjon».

Initiativet tar sikte på aktivt å håndheve følgende områder av Metas standarder: (i) retningslinjene om koordinering av skade og promotering av kriminalitet som tar for seg «valg og/eller folkeavstemninger, inkludert tilbud om å kjøpe eller selge stemmer med pengegaver, og uttalelser som tar til orde for eller instruerer ulovlig deltakelse i valg eller folkeavstemninger;» og (ii) retningslinjene om feilinformasjon som fokuserer på inngripen i valg eller folkeavstemninger, inkludert «feilinformasjon om datoen, valglokalene, klokkeslettet, metodene, velgerkvalifikasjonene, stemmetellingen og nødvendig stemmemateriell for et valg eller en folkeavstemning.» Det nøkkelordbaserte deteksjonssystemet for avstemningen var ikke designet for aktivt å håndheve andre innholdsretningslinjer angående valg eller stemmegivning, for eksempel de man finner under standarden om vold og oppfordring til vold. Hvis innhold som flagges av systemet bryter andre standarder, blir det imidlertid også gjenstand for manuell vurdering.

Når det gjelder dette saksinnholdet, var utsagnene om «dobbel stemme» og «stemme flere ganger» de nøkkelordene som aktiverte Metas deteksjonssystem. Begrepet «dobbel stemme» ble ikke brukt direkte i Facebook-innleggene, men dukket opp i skjermbildet av AECs innlegg på X. Alt innhold som inneholder disse nøkkelordene, enten det er i form av tekst eller bilder (også skjermbilder), blir automatisk flagget og satt i kø for manuell vurdering for proaktivt å overvåke ytringer som potensielt kan forstyrre et demokratisk valg.

Rådet stilte Meta 12 skriftlige spørsmål. Spørsmålene handlet om Metas retningslinjer om inngripen i valg og avstemninger, det nøkkelordbaserte deteksjonssystemet og protokollene som Meta tok i bruk for å moderere innhold knyttet til Voice-avstemningen. Meta besvarte alle spørsmålene.

7. Offentlige kommentarer

Tilsynsrådet mottok fem offentlige kommentarer som oppfylte vilkårene. Tre kom fra Asia og stillehavsområdet med Oseania (alle fra Australia), én fra USA og Canada, og én fra Europa. Du kan lese de offentlige kommentarene som ble sendt inn med samtykke til publisering ved å trykke her.

Kommentarene dekket følgende temaer: den sosiohistoriske konteksten som førte til Voice-avstemningen, historikken med valgjuks i Australia, spredningen av villedende og dekontekstualisert informasjon under Voice-avstemningen, og Metas retningslinjer for innhold og håndhevelse av feilinformasjon på mer generelt nivå.

8. Tilsynsrådets analyse

Rådet undersøkte om disse innleggene burde fjernes ved å analysere Metas innholdsretningslinjer, menneskerettighetsansvar og verdier. Rådet vurderte også implikasjonene denne saken kan ha for Metas bredere tilnærming til innholdsstyring.

Rådet valgte disse sakene for å undersøke Metas retningslinjer for innholdsmoderering og håndhevelse av villedende eller dekontekstualisert stemmeinformasjon og stemmejuks, med tanke på det historisk høye antallet valg i 2024. Disse sakene faller innenfor rådets strategiske prioritering som omhandler valg og borgerdeltakelse.

8.1 Overholdelse av Metas retningslinjer for innhold

I. Innholdsregler

Rådet konkluderer med at begge innleggene brøt retningslinjene om koordinering av skade og promotering av kriminalitet, som forbyr å oppfordre til ulovlig deltakelse i valg eller folkeavstemninger. Utsagnet «stem ofte» i det første innlegget, når det ble delt sammen med AECs innlegg på X om telling av flere stemmer, er en klar oppfordring til å delta i slik praksis. I henhold til Metas interne retningslinjer om innholdsmoderatorer, er «stemme to ganger» en form for «ulovlig stemmegivning».

Det andre innlegget bryter også retningslinjene om koordinering av skade og promotering av kriminalitet. Det inneholdt et skjermbilde av X-innlegget og var ledsaget av et tekstoverlegg som sa: «så du kan stemme flere ganger». Det oppfordrer også folk til å «knuse stemmesentrene». Brukeren kan ganske enkelt ha forsøkt å uttrykke sin frustrasjon over at AEC angivelig tillater folk å «stemme flere ganger». Når utsagnet leses sammen med resten av tekstoverlegget på skjermbildet, som hevder at AEC godtar at noen stemmer flere ganger og anklager dem for å «rigge» avstemningen, kan innlegget imidlertid med rimelighet forstås som å oppfordre folk til å oversvømme valglokalene med flere stemmer. I forbindelse med det australske valget, der stemmegivning er obligatorisk og valgdeltakelsen over 90 %, er en oppfordring til folk om å stemme én gang en usannsynlig tolkning av «knus stemmesentrene», spesielt når denne oppfordringen følger en påstand om at folk «kan stemme flere ganger». Antagelsen støttes videre av brukerens ønske om at folk gjentatte ganger skal stemme «nei» («NEI, NEI, NEI, NEI, NEI»). Lest i sin helhet og i konteksten av det australske valget, utgjør innlegget dermed en oppfordring til å stemme to ganger, noe som utgjør «ulovlig stemmegivning», noe som er forbudt i retningslinjene om koordinering av skade og promotering av kriminalitet.

Rådet erkjenner at selv om det er en mulighet for at innleggene kunne ha vært satirisk ment, er det ikke eksplisitt angitt at dette er tilfelle. Rådet mener at innleggene heller ikke implisitt var satiriske, basert på ordlyden i bildetekstene og tekstoverlegget på bildene. Selv om graden av oppfordring til handling er forskjellig for innleggene, inneholder de begge et ønske om at folk skal stemme flere ganger altså delta i «ulovlig stemmegivning». Gitt risikoen forbundet med forsøk på juks i valgsammenheng, mener rådet at Metas unntak for humor eller satire under slike omstendigheter kun bør gjelde for innhold som eksplisitt er humoristisk. Derfor kvalifiserer ingen av innleggene for dette unntaket.

Innleggene kvalifiserer heller ikke for unntaket for bevisstgjøring under retningslinjene om koordinering av skade og promotering av kriminalitet. Skjermbildene og mye av det brukerskapte innholdet ble opprettet for å rette oppmerksomheten mot muligheten for valgjuks basert på AECs uttalelse. Imidlertid gikk de så langt at de aktivt oppmuntret andre til ulovlig å delta i avstemningen gjennom å stemme flere ganger, i stedet for bare å diskutere AECs innlegg på X. Innleggene inneholdt ikke ytterligere kontekst fra AECs tråd på X, som at det å stemme flere ganger er straffbart i Australia. I stedet for å øke bevisstheten rundt muligheten for å stemme flere ganger, tok begge innleggene informasjon fra AEC ut av sin kontekst for å antyde at AEC påstår at det er tillatt å stemme mer enn én gang.

I motsetning til Meta, mener ikke rådet at man skal tolke ordet «knus» bokstavelig (som ødeleggelse av bygninger) i dette tilfellet, gitt mangelen på signaler som peker i denne retningen (for eksempel en konfliktsituasjon eller økte spenninger med utbredt sirkulasjon av innhold som direkte oppfordrer til vold). Derfor konkluderer rådet med at det andre innlegget ikke bryter Metas retningslinjer om vold og oppfordring til vold.

Rådet vurderte også begge deler innhold opp mot Metas retningslinjer om feilinformasjon, gitt at de dekontekstualiserer AECs kommunikasjon. Rådet konkluderte imidlertid med at standarden om koordinering av skade og promotering av kriminalitet er de gjeldende retningslinjene i denne saken, fordi begge brukerne oppmuntret andre til å delta i valgjuks.

II. Tiltak

Rådet anerkjenner Metas integritetsinnsats for Voice-avstemningen, inkludert det nøkkelordbaserte deteksjonssystemet selskapet bruker. Selskapet har forklart at systemet ble innført for proaktivt å identifisere potensielt ulovlig innhold i henhold til reglene om stemmepåvirkning i standarden om koordinering av skade og promotering av kriminalitet og standarden om feilinformasjon. Ifølge Meta er det nøkkelordbaserte deteksjonssystemet tilpasset lokale kontekster og inneholder markedsspesifikke begreper. Basert på informasjonen Meta delte med rådet om hvordan det nøkkelordbaserte deteksjonssystemet fungerer, støtter rådet at det ble lansert, og det ser ut til å ha fungert i dette tilfellet. Initiativer som dette må brukes konsekvent over hele verden, i alle land som avholder valg og andre demokratiske prosesser. Rådet mener også at dette initiativet bør omfatte de relaterte retningslinjene om innblanding i valg og avstemninger under standarden om vold og oppfordring til vold.

Gitt at nøkkelordbaserte systemer for påvisning av skadelig innhold har sine begrensninger, vil rådet fortsette med å evaluere effektiviteten til Metas system i andre valgrelaterte saker. I denne forbindelse oppfordrer rådet Meta til å utvikle måletall for å vurdere hvor effektivt det nøkkelordbaserte systemet og andre initiativer for å sikre valgintegritet er når det gjelder å identifisere potensielt ulovlig innhold i forbindelse med valg. Dette vil være i tråd med rådets innstilling i saken «Tale fra brasiliansk general» om at Meta burde «utvikle et rammeverk for å evaluere selskapets innsats for å sikre integritet ved valg».

8.2 Overholdelse av Metas menneskerettighetsansvar

Ytringsfrihet (artikkel 19 ICCPR)

Artikkel 19 i den internasjonale konvensjonen om sivile og politiske rettigheter (ICCPR) gir bred beskyttelse for «alle typer ytringer». Denne retten omfatter en «frihet til å søke, motta og meddele informasjon og tanker av alle slag». FNs menneskerettighetskomité har framhevet at ytringsfriheten skal settes spesielt høyt når det er snakk om å diskutere politiske saker, politikere og politiske kandidater (generell kommentar 34, § 13). Dette inkluderer ytringer som kan være «dypt krenkende» eller kritiske til offentlige institusjoner samt meninger som kan være feilaktige (generell kommentar 34, § 11, 38 og 49).

FNs menneskerettighetskomité har understreket at ytringsfriheten er avgjørende for å kunne utføre offentlige anliggender og effektivt utøve stemmeretten (generell kommentar 34, § 20). Komiteen har videre uttalt at fri formidling av informasjon og tanker rundt offentlige og politiske spørsmål blant innbyggerne er avgjørende for å kunne delta i offentlige anliggender og for stemmeretten, jamfør artikkel 25 i ICCPR (generell kommentar 25, § 25). I denne saken engasjerte begge brukerne seg i den aktuelle folkeavstemningen, som var et spørsmål av offentlig interesse. De delte synspunktene sine på hva utfallet burde bli, og de deltok derfor direkte i den offentlige debatten.

Når restriksjoner av ytringer pålegges av en stat, skal de oppfylle kravene til legalitet, legitimt formål, nødvendighet og proporsjonalitet (artikkel 19, § 3 i ICCPR). Disse kravene blir ofte referert til som en «tredelt test.» Rådet bruker dette rammeverket til å tolke Metas frivillige menneskerettighetsforpliktelser, både når det gjelder den enkelte innholdsbeslutningen som vurderes og hva denne sier om Metas bredere tilnærming til innholdskontroll. Som i tidligere saker (for eksempel «Armenere i Aserbajdsjan» og «Video med armenske krigsfanger»), er rådet enig med FNs spesialrapportør om ytringsfrihet i at selv om «selskaper ikke har samme forpliktelser som offentlige myndigheter, har de en påvirkningskraft som krever at de foretar vurderinger for å beskytte brukernes ytringsfrihet» (A/74/486, § 41). Rådet forsøker å ta hensyn til at ansvaret til et privat selskap på sosiale medier kan avvike fra en regjerings forpliktelser når det gjelder menneskerettighetene.

I. Legalitet (tydelige og tilgjengelige regler)

Regler som begrenser ytringer må defineres og kommuniseres tydelig, både til de som håndhever reglene og de som påvirkes av dem (generell kommentar 34, § 25). Brukerne skal kunne forutse konsekvensene av å legge ut et gitt innhold på Facebook og Instagram. FNs spesialrapportør for ytringsfrihet har trukket fram behovet for «klarhet og spesifisitet» i retningslinjer for moderering av innhold (A/HRC/38/35, § 46).

Ordlyden i den offentlig tilgjengelige standarden om koordinering av skade og promotering av kriminalitet er ikke tilstrekkelig tydelig for brukerne. Gitt viktigheten av at brukerne kan engasjere seg på sosiale medier for å diskutere spørsmål av offentlig interesse i sammenheng med demokratiske prosesser, må Meta sørge for at de tydelig er informert om hvilke regler som gjelder. Dette vil hjelpe brukerne med å forstå om innhold de legger ut potensielt kan utgjøre et regelbrudd. Rådet konkluderer i denne forbindelse med at presiseringen i de interne retningslinjene av hva som utgjør «ulovlig stemmegivning» også bør innarbeides i den offentlig tilgjengelige standarden om koordinering av skade og promotering av kriminalitet.

II. Legitime mål

Begrensninger av ytringsfriheten skal ha et legitimt mål (artikkel 19, § 3 i ICCPR), som for eksempel å beskytte «offentlig ro og orden» eller «andres rettigheter».

Retningslinjene om koordinering av skade og promotering av kriminalitet tar sikte på å «forhindre skade utenfor nettet, og at andre kopierer en slik atferd» ved å fjerne innhold som kan «tilrettelegge for, organisere, promotere eller innrømme visse kriminelle eller skadelige aktiviteter».

Metas retningslinjer om koordinering av skade og promotering av kriminalitet kan rettmessig ha som mål å beskytte stemmeretten og retten til delta i offentlige anliggender, spesielt i forbindelse med valg (artikkel 25 i ICCPR). Rådet konkluderer med at det å hindre brukere fra å oppfordre andre til valgfusk, er et legitimt mål for å beskytte stemmeretten. Generell kommentar 25 om stemmerett sier at «stemme- og telleprosessen bør granskes av uavhengige», slik at «velgerne har tillit til valgsikkerheten og opptellingen av stemmer» (§ 20). I tillegg skal «prinsippet om én person, én stemme gjelde», noe som betyr at «én velgers stemme skal veie like mye som en annens» (§ 21). Rådet bemerker også at retningslinjene bidrar til å bevare «offentlig orden» ved å beskytte valglokaler og demokratiske prosesser fra velgerinnblanding på mer generelt plan.

III. Nødvendighet og proporsjonalitet

I henhold til ICCPR-artikkel 19, § 3 krever prinsippet om nødvendighet og proporsjonalitet at restriksjoner av ytringer «må være hensiktsmessige for å oppnå sin beskyttende funksjon; de må være proporsjonale med interessen som skal beskyttes» (generell kommentar 34, § 34). Sosiale medieselskaper bør, som en del av menneskerettighetsansvaret sitt, vurdere ulike potensielle reaksjoner på problematisk innhold, ikke bare sletting, for å sikre at restriksjonene er konkrete og mest mulig skreddersydde (A/74/486 § 51).

Rådet konkluderer med at Metas fjerning av begge innleggene fra Facebook var i samsvar med kravene til nødvendighet og proporsjonalitet. Rådet bemerker at innholdet ble lagt ut noen dager før en folkeavstemning som utgjorde et betydelig konstitusjonelt øyeblikk i Australia, spesielt for aboriginene og øyfolket i Torresstredet. På den ene siden er politiske ytringer en viktig komponent i demokratiske prosesser, og begge brukerne deltok direkte i den offentlige debatten som ble utløst av folkeavstemningen. På den annen side oppfordret brukerne andre til å delta i ulovligheter i forbindelse med folkeavstemningen, noe som påvirket de politiske rettighetene til befolkningen i Australia, spesielt retten til å stemme og delta i offentlige anliggender.

Hvis man ser saksinnholdet opp mot disse standardene, er oppfordringene til å «stemme nei» i begge innleggene helt klart beskyttede politiske ytringer. Imidlertid er utsagnet «stem ofte» i det første innlegget og utsagnet «knus stemmesentrene» i det andre innlegget noe helt annet, gitt at brukerne aktivt oppmuntret andre til å delta ulovlig i avstemningen gjennom å avgi flere stemmer, som forklart i mer detalj under punkt 8.1 ovenfor. Eksperter rådet har konsultert, bemerket at det var hyppige påstander om at folkeavstemningen var manipulert, mens journalister nevnte at det var vanlig med påstander om valgjuks. Rådet konkluderer derfor med at Meta gjorde rett i å helle mot å beskytte demokratiske prosesser ved å forhindre at forsøk på valgjuks fikk sirkulere på plattformene deres (generell kommentar 25). Sirkulering av innhold relatert til valgjuks kan skape et miljø der integriteten til valgprosessene settes i fare. Et mindretall i rådet konkluderer imidlertid med at fjerningen av innlegget som oppfordret folk til å «knuse stemmesentrene» ikke består testen av nødvendighet og proporsjonalitet, ettersom Meta ikke klarer å etablere en «direkte og umiddelbar sammenheng mellom utsagnet og trusselen» (generell kommentar 34, § 35). Dette mindretallet mener at brukerens oppfordring om å «knuse stemmesentrene» er en uklar oppfordring til å stemme flere ganger, men det er ingen direkte og umiddelbar sammenheng med trusler om valgjuks.

Rådet mener at Meta gjorde riktig i å forvente at brukerne var tydelige med intensjonen sin for å kunne gi et unntak, slik at de kunne vurdert hvorvidt innholdet ble delt som fordømmelse, bevisstgjøring, nyhetsrapportering eller humoristisk/satirisk. Det fantes ingen klar indikasjon i innleggene som ble analysert av rådet om at utsagnene «stem ofte» og «knus stemmesentrene» var ment retorisk og ikke tydelig oppfordret folk til å avlegge flere stemmer – en handling som kunne satt integriteten til avstemningen i fare. Derfor var fjerning av begge innleggene en nødvendig og proporsjonal reaksjon fra Meta.

Et mindretall av rådet er ikke overbevist om at fjerning av innhold er det minst påtrengende middelet som Meta har til rådighet for å håndtere ytringer relatert til valgjuks. De mener at Metas unnlatelse av å motbevise dette, ikke tilfredsstiller kravet til nødvendighet og proporsjonalitet. Spesialrapportøren har uttalt: «På samme måte som stater bør vurdere om en begrensning på ytringer er den minst restriktive tilnærmingen, bør også selskaper utføre denne typen evaluering. Og når de utfører evalueringen, bør selskapene bære byrden med å demonstrere nødvendighet og proporsjonalitet for offentligheten.» (A/74/486, § 51). Mindretallet mener at Meta offentlig burde bevist at fjerning av innleggene var det minst påtrengende middelet av de mange verktøyene de har til disposisjon for å avverge potensielle kortsiktige skader, for eksempel valgjuks. Hvis de ikke klarer å komme med en slik begrunnelse, burde Meta åpent erkjenne at reglene deres rundt ytringer avviker fra FNs menneskerettighetsstandarder og offentlig begrunne dette. Mindretallet mener at rådet da vil kunne vurdere denne offentlige begrunnelsen, og man kan ha en offentlig dialog uten å risikere å komme på kant med FNs eksisterende menneskerettighetsstandarder.

9. Tilsynsrådets vedtak

Tilsynsrådet opprettholder Metas vedtak om å fjerne begge innleggene.

10. Anbefalinger

Retningslinjer for innhold

1. Meta må sikre at brukerne er fullt ut informert om hva slags typer innhold som er forbudt i henhold til den delen av standarden om koordinering av skade og promotering av kriminalitet som handler om juks ved valg og avstemninger. De bør innlemme definisjonen sin av begrepet «ulovlig stemmegivning» i de offentlig tilgjengelige retningslinjene som forbyr innhold som kan «oppfordre til, gi instruksjoner for eller utvise en eksplisitt hensikt om å delta ulovlig i valg eller folkeavstemninger, unntatt hvis informasjonen deles i sammenheng med fordømmelse, bevisstgjøring, nyhetsrapportering eller humor/satire.»

Rådet vil anse denne anbefalingen som implementert når Meta har oppdatert ordlyden i den offentlig tilgjengelige standarden om koordinering av skade og promotering av kriminalitet så endringen gjenspeiles.

*Prosedyremerknad:

Tilsynsrådets avgjørelser utarbeides av et panel på fem medlemmer og godkjennes av rådets flertall. Rådets avgjørelser gjenspeiler ikke nødvendigvis alle medlemmenes personlige meninger.

I denne konkrete saken ble det bestilt uavhengige undersøkelser på vegne av rådet. Rådet ble assistert av Duco Advisors, et rådgivningsfirma som fokuserer på skjæringspunktet mellom geopolitikk, tillit, sikkerhet og teknologi. Memetica, en organisasjon som driver med åpen kildekodeforskning på trender på sosiale medier, leverte også analyser.

मामले के निर्णयों और नीति सलाहकार राय पर लौटें