أسقط
Tale fra brasiliansk general
تم النشر بتاريخ 22 حَزِيران 2023
Tilsynsrådet omgjør Metas opprinnelige beslutning om å tillate en Facebook-video som viser en brasiliansk general som ber folk om å «gå til nasjonalkongressen og høyesterett».
Sakssammendrag
Tilsynsrådet har omgjort Metas opprinnelige beslutning om å tillate en Facebook-video som viser en brasiliansk general som ber folk «ta til gatene» og «gå til nasjonalkongressen og høyesterett». Rådet vet at Meta utførte flere risikoevalueringer og iverksatte avbøtende tiltak under og etter valget i landet – gitt den potensielle risikoen for at plattformene deres kan bli brukt til å oppfordre til vold i forbindelse med valg – men Meta må kontinuerlig øke innsatsen sin for å forebygge, redusere og adressere ugunstige utfall. Rådet anbefaler at Meta utvikler et rammeverk for å evaluere tiltakene sine, slik at integriteten i valgsituasjoner blir ivaretatt og klare å forhindre at plattformene deres brukes til å fremme politisk motivert vold.
Om saken
Presidentvalget i Brasil i oktober 2022 var sterkt polarisert, med en rekke koordinerte påstander både på og utenfor Internett som stilte spørsmål ved valgets legitimitet. Blant disse var det oppfordringer til militær inngripen og okkupasjon av regjeringsbygninger for å hindre overgangen til en ny regjering. Den forhøyede risikoen for politisk vold avtok ikke etter at den nyvalgte presidenten Luiz Inácio Lula da Silva tiltrådte embetet 1. januar 2023. I etterkant oppsto det sivile uroligheter og protester, og leirer ble oppslått utenfor militærbaser.
To dager senere, den 3. januar 2023, la en Facebook-bruker ut en video relatert til det brasilianske valget i 2022. Undertekstene var på portugisisk og inneholdt en oppfordring om å «beleire» den brasilianske kongressen som «det siste alternativet». Videoen viser også et utdrag fra en tale av en framtredende brasiliansk general som støtter gjenvalg av tidligere president Jair Bolsonaro. I videoen ber den uniformerte generalen folk om å «ta til gatene» og «gå til nasjonalkongressen ... [og] høyesterett.» Etterpå blir det vist en rekke bilder, inkludert et bilde av at parlamentsbygningen i Brasília, hvor Brasils president, kongress og høyesterett holder til, står i brann. Teksten som ligger over bildene er på portugisisk og sier: «Kom til Brasília! La oss storme bygningen! La oss beleire de tre statsmaktene.» Teksten over et annet bilde sier: «Vi krever å få kildekoden», et slagord som ble brukt av demonstranter for å stille spørsmål ved påliteligheten til Brasils elektroniske stemmemaskiner.
Den dagen innholdet ble lagt ut, rapporterte en bruker det for brudd på Metas standard om vold og oppfordring til vold, som forbyr oppfordringer til å ta seg inn med makt på steder med høy risiko. Totalt fire brukere rapporterte innholdet sju ganger mellom 3. og 4. januar. Innholdet ble gjennomgått av en moderator etter den første rapporten, og det ble slått fast at innholdet ikke var i strid med Metas retningslinjer. Brukeren anket avgjørelsen, men den ble opprettholdt av en annen moderator. Dagen etter ble seks andre rapporter gjennomgått av fem forskjellige moderatorer, og alle slo fast at innholdet ikke var i strid med Metas retningslinjer.
Den 8. januar brøt tilhengere av tidligere president Bolsonaro seg inn i lokalene til kongressen, høyesterett og presidenten på Praça dos Três Poderes i Brasília, hvor de truet politiet og gjorde materielle skader. Den 9. januar flagget Meta opprøret den 8. januar i henhold til selskapets retningslinjer for farlige personer og organisasjoner, og de erklærte at de ville fjerne «innhold som støtter eller berømmer disse handlingene.» Selskapet kunngjorde også at de midlertidig hadde «utpekt Brasil som et sted med høy risiko», og at de hadde «fjernet innhold som ber folk om å ta til våpen eller storme kongressen, presidentpalasset og andre offentlige bygninger.»
Som følge av at rådet har valgt ut denne saken, har Meta slått fast at de gjentatte avgjørelsene om å la innholdet bli værende på Facebook, var feilaktige. Den 20. januar 2023, etter at rådet hadde satt opp denne saken på listen sin, fjernet Meta innholdet.
Viktige funn
Denne saken vekker bekymring rundt hvor effektive Metas tiltak har vært i forbindelse med det brasilianske valget i 2022, og også ved valg i andre land. Generelt sett anses det som en beskyttet ytring å utfordre integriteten til et valg, men i noen tilfeller kan noen forsøke å undergrave et valg ved å komme med uriktige påstander. Disse kan spre seg langt og føre til vold. I dette tilfellet var det mye som rettferdiggjorde å fjerne innlegget. Ytringen var vidtrekkende, og selve innholdet og hensikten bak skapte en overhengende fare for skadevirkninger, gitt den politiske situasjonen i Brasil.
For at et innlegg skal bryte Metas regler mot å oppfordre folk til å tvinge seg inn på steder med høy risiko, må stedet være definert som «høyrisiko», og det må ligge i et område som spesifikt er utpekt som «midlertidig høyrisiko». Innlegget var en utvetydig oppfordring om å ta seg inn i regjeringsbygningene i Praça dos Três Poderes i Brasília («høyrisikosteder» på et sted – Brasil – som var definert som «midlertidig høyrisiko»). Derfor representerte Metas opprinnelige beslutninger om å la dette innholdet få ligge ute i en situasjon med økt politisk vold et klart avvik fra selskapets egne regler.
Rådet er dypt bekymret over at Metas moderatorer gjentatte ganger tillot dette innholdet og unnlot å eskalere det til videre vurdering, til tross for at de burde være kjent med den sivile uroen i Brasil på det aktuelle tidspunktet og den utbredte spredningen av lignende innhold i ukene og månedene før opptøyene den 8. januar. Da rådet ba Meta om mer informasjon om spesifikke valgrelaterte påstander på plattformene deres før, under og etter det brasilianske valget, forklarte selskapet at de ikke sitter med data om hvor utbredt det er med slike påstander. Innholdet i denne saken ble til slutt fjernet, men mer enn to uker senere, etter at rådet hadde gjort Meta oppmerksomme på saken. Da hadde de nevnte opptøyene allerede skjedd.
Som svar på spørsmål fra rådet, sa Meta at de ikke har noen spesielle tall på hvor vellykkede tiltakene deres er i valgsituasjoner generelt. Rådet konkluderer derfor med at Meta bør utvikle et rammeverk for å kunne evaluere selskapets valgtiltak, og at de gjør rapporter om temaet offentlig tilgjengelig. Målet med dette er at selskapet skal få data som er relevante for å kunne forbedre modereringssystemet som helhet, og at de kan avgjøre hvordan ressursene deres kan brukes på best mulig måte i valgsammenheng. Uten denne informasjonen kan hverken rådet eller offentligheten vurdere hvor effektive Metas valgtiltak generelt sett er.
Tilsynsrådets avgjørelse
Tilsynsrådet omgjør Metas opprinnelige avgjørelse om å la innlegget bli liggende på plattformen.
Rådet anbefaler også at Meta gjør følgende:
- De bør utvikle et rammeverk som gjør det mulig å evaluere selskapets tiltak for å sikre integritet ved valg. Dette betyr at de også må opprette og dele måletall som kan underbygge konklusjonene deres, inkludert statistikk knyttet til håndhevelse av selskapets retningslinjer for innhold og annonser.
- De må forklare i åpenhetssenteret sitt at selskapet, i tillegg til å bruke protokollen for krisehåndtering, følger ytterligere prosedyrer for å kunne forhindre og adressere potensiell skaderisiko i valgsammenheng og ved andre situasjoner med økt risiko.
* Sakssammendrag gir en oversikt over saken og medfører ingen presedens.
Fullstendig saksavgjørelse
1. Sammendrag av avgjørelsen
Tilsynsrådet omgjør Metas opprinnelige beslutning om å tillate en Facebook-video som viser en brasiliansk general som ber folk «ta til gatene» og «gå til nasjonalkongressen og høyesterett». Sammen med disse oppfordringene var det et bilde av Praça dos Três Poderes i Brasília, der disse regjeringsbygningene ligger, som står i brann. Teksten som ligger på bildene lyder: «Kom til Brasília! La oss storme bygningen! La oss beleire de tre statsmaktene.» Rådet konkluderer med at disse uttalelsene utgjør klare og utvetydige oppfordringer om å storme og ta kontroll over disse bygningene. Konteksten er Bolsonaro-tilhengere som bestrider valgresultater og ber om militær intervensjon for å forhindre overgangen til en ny regjering. Etter at rådet merket dette innlegget for gjennomgang, omgjorde Meta sin opprinnelige beslutning og fjernet det fra Facebook.
Denne saken vekker en generell bekymring rundt hvor effektive Metas tiltak har vært i forbindelse med det brasilianske valget i 2022, og også ved valg i andre land. Det betraktes generelt sett som beskyttede ytringer om man stiller spørsmålstegn ved integriteten til et valg, men ved enkelte omstendigheter kan utbredte påstander på og utenfor Internett som forsøker å undergrave et valgresultat, slik som i dette tilfellet, føre til fysiske voldshandlinger. I Brasil var alle varselsignaler til stede om at det kunne endre med voldshandlinger. Rådet vet at Meta utførte flere risikoevalueringer og iverksatte avbøtende tiltak under og etter valget i landet – gitt den potensielle risikoen for at plattformene deres kan bli brukt til å oppfordre til vold i forbindelse med valg – men Meta må kontinuerlig øke innsatsen sin for å forebygge, redusere og adressere ugunstige utfall. Meta må også fokusere på fasen etter selve valget, ettersom det i mange land er økt risiko for voldshandlinger ved regjeringsskifter.
Rådet anbefaler derfor at Meta utvikler et rammeverk for å kunne evaluere selskapets valgtiltak, og at de gjør alle rapporter om temaet offentlig tilgjengelig. I et slikt rammeverk må det finnes måletall for de mest relevante aspektene ved Metas valgtiltak, slik at selskapet ikke bare kan identifisere og reversere feil, men også ha oversikt over hvor effektive tiltakene deres er i kritiske situasjoner. Rådet anbefaler også at Meta er åpne og tydelige på de ulike protokollene og tiltakene selskapet bruker for å forhindre og adressere potensiell skaderisiko i valgsammenheng og andre situasjoner med forhøyet risiko. Dette betyr at de også må beskrive disse protokollene, inkludert formålet med dem, kontaktpunktene mellom dem og hvordan de skiller seg ut fra hverandre. Disse protokollene må være mer effektive og ha en klar kommandolinje, og de krever at det finnes tilstrekkelig bemanning, spesielt i perioder med valg, der det er forhøyet risiko for politisk motivert vold. Ved å følge disse anbefalingene vil selskapets modereringssystem som helhet kunne forbedres. Meta vil være i en bedre posisjon til å forhindre at plattformene deres brukes til å fremme politisk motivert vold og på generelt grunnlag respondere mer effektivt på hendelser som kan føre til voldshandlinger i forbindelse med politiske valg.
2. Saksbeskrivelse og bakgrunn
Den 3. januar 2023 la en Facebook-bruker ut en video relatert til det brasilianske valget i 2022. Undertekstene var på portugisisk og inneholdt en oppfordring om å «beleire» den brasilianske kongressen som «det siste alternativet». Videoen var ett minutt og 32 sekunder lang og viste ut utdrag fra en tale av en framtredende brasiliansk general som støttet gjenvalg av tidligere president Jair Bolsonaro. I videoen ber den uniformerte generalen folk om å «ta til gatene» og «gå til nasjonalkongressen ... [og] høyesterett.» Etterpå blir det vist en rekke bilder, inkludert et bilde av at parlamentsbygningen i Brasília, hvor Brasils president, kongress og høyesterett holder til, står i brann. Teksten som ligger over bildene er på portugisisk og sier: «Kom til Brasília! La oss storme bygningen! La oss beleire de tre statsmaktene.» Teksten over et annet bilde sier: «Vi krever å få kildekoden», et slagord som ble brukt av demonstranter for å stille spørsmål ved påliteligheten til Brasils elektroniske stemmemaskiner. Videoen ble avspilt over 18 000 ganger, men ble ikke delt.
To dager før innholdet ble lagt ut, hadde Bolsonaros valgmotstander Luiz Inácio Lula da Silva blitt sverget inn som president i Brasil etter å ha vunnet presidentvalget den 30. oktober 2022 med 50,9 prosent av stemmene. Perioden før, mellom og etter de to valgrundene var preget av forhøyet risiko for politisk motivert vold, ansporet av påstander om forestående valgfusk. Bakgrunnen var at Brasils elektroniske stemmemaskiner etter sigende kunne være sårbare for hacking. I forkant av valget signaliserte daværende president Bolsonaro mistillit til valgsystemet ved å påstå fusk, men uten å kunne legge fram bevis på at de elektroniske stemmeautomatene ikke var til å stole på. Noen militæroffiserer kom også med tilsvarende påstander om valgjuks og argumentert for at militæret burde brukes for å avgjøre eventuelle valgkonflikter. Det ble rapportert flere tilfeller av politiske annonser som angrep legitimiteten til valget på Metas plattformer. Blant disse var innlegg og videoer som angrep rettsvesenet og tok til orde for militærkupp. Global Witness publiserte dessuten en rapport om Brasil, der de beskrev hvordan politiske annonser som brøt med Metas standarder hadde blitt godkjent av selskapet og ble sirkulert på Metas plattformer. Funnene ansporet flere tilsvarende rapporter fra organisasjonen om andre land, som Myanmar og Kenya.
Perioden etter valget var preget av sivile uroligheter – inkludert demonstrasjoner, veisperringer og oppsetting av leirer utenfor militærbaser – for å egge de væpnede styrkene til å utfordre valgresultatet. Ifølge eksperter rådet har konsultert, dukket videoen i denne saken først opp på nettet i oktober 2022, kort tid etter at valgresultatet var kjent. Lignende innhold lå også ute på ulike sosiale medieplattformer i forkant av opptøyene den 8. januar. Den 12. desember 2022, samme dag som Lulas seier ble anerkjent av den høyeste valgdomstolen, forsøkte en gruppe Bolsonaro-tilhengere å bryte seg inn i hovedkvarteret til det føderale politiet i Brasília. Her ble det begått flere tilfeller av hærverk. Den 24. desember 2022 var det et feilslått bombeattentat i nærheten av landets internasjonale flyplass i Brasília. Mannen bak angrepet ble arrestert og tilsto at målet hans var å trekke oppmerksomhet mot kuppet de ønsket å utføre.
Den forhøyede risikoen for politisk vold i Brasil avtok ikke etter at den nyvalgte presidenten tiltrådte embetet den 1. januar 2023. Basert på analyser bestilt av rådet, toppet antallet falske påstander om stemmemaskinene seg på Meta-plattformene etter første og andre valgomgang, og igjen i ukene etter Lulas valgseier. I dagene fram mot 8. januar, brukte dessuten Bolsonaro-tilhengere flere kodede slagord for å oppfordre til protestaksjoner i Brasília, og da spesielt rettet mot regjeringsbygninger. Den logistiske organiseringen så for det meste ut til å bli utført via andre kommunikasjonskanaler enn Facebook.
Internasjonale valgobservatører, blant annet Organization of American States og Carter Center, rapporterte at det ikke forelå vesentlige bevis for valgfusk, og at valget hadde blitt gjennomført på en demokratisk og rettferdig måte, til tross for presset fra en sterkt polarisert velgermasse. Det brasilianske forsvarsdepartementet observerte også valget formelt og fant ingen bevis på uregelmessigheter eller valgfusk, selv om de senere kom med en motstridende erklæring om at de væpnede styrkene «ikke utelukker muligheten for juks». I Brasil fører forsvarsdepartementet tilsyn med arbeidet til de væpnede styrkene.
Spenningene kulminerte den 8. januar, da tilhengere av tidligere president Bolsonaro brøt seg inn i lokalene til nasjonalkongressen, høyesterett og presidenten på Praça dos Três Poderes i Brasília, som angitt i saksmappen, der de truet politiet og gjorde materielle skader. Rundt 1400 personer ble arrestert for å ha deltatt i opptøyene den 8. januar, og rundt 600 sitter fortsatt i varetekt.
I kjølvannet av hendelsene den 8. januar, gikk FN ut og fordømte bruken av vold. De uttalte at det var «aktører på politisk, sosialt og økonomisk plan som avviste resultatet av de demokratiske valgene, der forvrengninger av fakta og oppfordringer til vold og hat ga næring til mistillit, splittelse og ødeleggelser.» De gjentok at de hadde tillit til Brasils demokratiske institusjoner. Både offentlige kommentarer og eksperter rådet har konsultert, tyder på at påstander som sådde tvil om integriteten til Brasils valgsystem har gitt store skadevirkninger, som politisk polarisering og politisk motivert vold (se offentlige kommentarer fra Dangerous Speech Project [PC-11010], LARDEM – Clínica de Direitos Humanos da Pontifícia Universidade Católica do Paraná [PC-11011], Instituto Vero [PC-11015], ModeraLab [PC-11016], Campaign Legal Center [PC-11017], Center for Democracy & Technology [PC- 11018], InternetLab [PC-11019] og Coalizão Direitos na Rede [PC-11020]).
Den 9. januar 2023 flagget Meta opprøret den 8. januar i henhold til selskapets retningslinjer for farlige personer og organisasjoner, og de erklærte at de ville fjerne «innhold som støtter eller berømmer disse handlingene.» Selskapet kunngjorde også at de «i forkant av valget» midlertidig hadde «utpekt Brasil som et sted med høy risiko», og at de hadde «fjernet innhold som ber folk om å ta til våpen eller storme kongressen, presidentpalasset og andre offentlige bygninger.»
Den 3. januar, samme dag som innholdet ble publisert, ble det rapportert av en bruker på grunn av brudd på Metas standard om vold og oppfordring til vold, som forbyr oppfordringer til å «bruke makt til å komme seg inn på steder … hvor det er midlertidige signaler om forhøyet risiko for vold eller skade i det virkelige liv». Totalt fire brukere rapporterte innholdet sju ganger mellom 3. og 4. januar. Innholdet ble gjennomgått av en moderator etter at den første rapporten ble mottatt, og det ble slått fast at innholdet ikke var i strid med Metas retningslinjer. Brukeren anket avgjørelsen, men den ble opprettholdt i en ny gjennomgang av en moderator. Dagen etter ble seks andre rapporter gjennomgått av fem forskjellige moderatorer, og alle slo fast at innholdet ikke var i strid med Metas retningslinjer. Innholdet ble ikke eskalert til eksperter på retningslinjer eller det aktuelle temaet for ytterligere gjennomgang. Som svar på et spørsmål fra rådet, kom Meta med en klargjøring om at de sju personene som hadde vurdert innholdet var basert i Europa. Ifølge Meta snakket alle flytende portugisisk og hadde tilstrekkelig språk- og kulturekspertise til å kunne vurdere brasiliansk innhold.
Som følge av at rådet har valgt ut denne saken, har Meta slått fast at de gjentatte avgjørelsene om å la innholdet bli værende på Facebook, var feilaktige. Den 20. januar 2023, etter at rådet hadde valgt ut denne saken, fjernet Meta innholdet, utstedte en advarsel mot kontoen til den som opprettet innholdet og ila en funksjonsbegrensning som forhindret denne kontoen fra å opprette nytt innhold i 24 timer. Til tross for Metas tiltak, understreket sivilsamfunnsgruppen Ekō i sin offentlige kommentar til rådet, og også andre rapporter, at lignende innhold fortsatt lå ute på Facebook, selv etter at rådet hadde gjort Meta oppmerksomme på denne saken (PC-11000).
3. Tilsynsrådets myndighet og virkeområde
Rådet har myndighet til å omgjøre Metas avgjørelse som følge av en klage fra en person som har rapportert innhold som ikke ble fjernet (vedtektenes artikkel 2, del 1; artikkel 3, del 1 i vedtektene). Rådet kan opprettholde eller omgjøre Metas avgjørelse (artikkel 3, del 5 i vedtektene), og rådets avgjørelse er bindende for selskapet (artikkel 4 i vedtektene). Meta må også vurdere gjennomførbarheten av å iverksette avgjørelsen sin når det gjelder identisk innhold i tilsvarende sammenhenger (artikkel 4 i vedtektene). Rådets beslutninger kan omfatte ikke-bindende anbefalinger som Meta må svare på (vedtektenes artikkel 3, del 4; artikkel 4). Meta forplikter seg til å følge anbefalingene, og rådet overvåker implementeringen av dem.
Når rådet velger ut saker som denne, der Meta i ettertid erkjenner at de har gjort en feil, går rådet gjennom den opprinnelige beslutningen for å bidra til å øke forståelsen av parameterne i retningslinjene og modereringsprosessene som bidro til at feilen skjedde. Rådet vil deretter ta opp problemer de har identifisert og se dem opp mot Metas underliggende retningslinjer og prosedyrer. Rådet har også som mål å komme med anbefalinger til Meta, slik at selskapet kan forbedre rutinene og nøyaktigheten sin og behandle brukere enda mer rettferdig.
4. Ekspertkilder og -veiledning
Følgende standarder og presedenser dannet grunnlag for rådets analyse i denne saken:
I. Tilsynsrådets beslutninger:
De mest relevante tidligere beslutningene fra tilsynsrådet inkluderer følgende:
- «Tidligere president Trumps suspensjon» (saksavgjørelse 2021-001-FB-FBR): Rådet bemerket at i valgsammenheng krever Metas menneskerettighetsansvar at politiske ytringer tillates, men samtidig må man unngå alvorlige trusler mot de andre menneskerettighetene.
- «Myanmar-bot» (saksavgjørelse 2021-007-FB-UA): Rådet poengterte at det er viktig å beskytte politiske ytringer i perioder med politisk krise.
- «Tigray Communication Affairs Bureau» (saksavgjørelse 2022-006-FB-MR): Rådet bemerket at Meta har et ansvar for å etablere et prinsipielt og åpent system for å moderere innhold i konfliktsoner, slik at de klarer å redusere risikoen for at plattformene deres blir brukt til å oppfordre til vold.
- «Knin-tegnefilm» (saksavgjørelse 2022-001-FB-UA): Rådet oppfordret Meta til å våre tydeligere på hvordan innhold blir eskalert til fageksperter.
II.Metas retningslinjer for innhold:
Standard om vold og oppfordring til vold
I henhold til standarden om vold og oppfordring til vold tillater ikke Meta «intensjons- eller støtteerklæringer, oppfordringer til handling og aspirerende eller betingede erklæringer om å bruke makt til å komme seg inn på steder (inkludert, men ikke begrenset til, lokaler for religiøs tilbedelse, utdanningsinstitusjoner, valglokaler eller steder som blir brukt til å telle opp stemmer eller administrere valg) hvor det foreligger signaler om at risikoen for vold eller skade i det virkelige liv midlertidig er til stede.» Begrunnelsen bak denne standarden er å «forhindre potensielle skadevirkninger utenfor Internett som kan være relatert til innhold» som vises på Metas plattformer. Samtidig erkjenner Meta at «folk ofte kan uttrykke forakt eller uenigheter ved å true eller oppfordre til vold, uten at det ligger alvor bak.» Meta fjerner derfor innhold når selskapet mener «det er en reell risiko for fysisk skade eller direkte trusler mot offentlig sikkerhet.» Når Meta skal avgjøre om en trussel er troverdig, vurderer de også «språk og kontekst.»
Rådets analyse var også basert på Meta-verdien «stemme», som selskapet beskriver som overordnet, og verdien «sikkerhet».
III. Metas menneskerettighetsansvar
FNs veiledende prinsipper for næringsliv og menneskerettigheter (UNGP) ble godkjent av FNs menneskerettighetsråd i 2011 og etablerte et frivillig rammeverk for bedrifters menneskerettighetsansvar. I 2021 publiserte Meta sine bedriftsretningslinjer for menneskerettigheter, der selskapet på nytt forpliktet seg til å respektere menneskerettighetene i henhold til UNGP-ene.
Rådets analyse av Metas menneskerettighetsansvar i denne saken ble basert på følgende internasjonale standarder:
- Retten til menings- og ytringsfrihet: Artikkel 19 og 20, Den internasjonale konvensjonen om sivile og politiske rettigheter (ICCPR), generell kommentar nr. 34 fra menneskerettighetskomiteen, 2011; Research Paper 1/2019 on Elections in the Digital Age (2019): FNs spesialrapportør for menings- og ytringsfrihet, rapportene: A/HRC/38/35 (2018) og A/74/486 (2019); Rabat-handlingsplanen, rapport fra FNs høykommissær for menneskerettigheter: A/HRC/22/17/Add.4 (2013).
- Retten til å delta i fredelige forsamlinger: Artikkel 21, ICCPR; Generell kommentar nr. 37, Menneskerettighetskomiteen, 2020.
- Retten til liv: Artikkel 6 i ICCPR.
- Stemmeretten og retten til deltagelse i offentlige diskusjoner: Artikkel 25 i ICCPR.
5. Brukeruttalelser
I anken sin til rådet uttalte brukeren som rapporterte innholdet at vedkommende «allerede har rapportert dette og utallige andre videoer til Facebook, og svaret er alltid det samme, at det ikke bryter med standardene deres.» Brukeren koblet også innholdets potensial til å bidra til voldshandlinger opp mot reelle handlinger utført av personer i Brasil «som ikke godtar valgresultatet.»
6. Metas uttalelser
Da rådet gjorde Meta oppmerksomme på denne saken, slo selskapet fast at den opprinnelige beslutningen om å la innholdet bli liggende ute, var feil. Meta la fram en bred analyse av Brasils sosiale og politiske kontekst før, under og etter presidentvalget for rådet for å rettferdiggjøre – om enn for sent – at de hadde fjernet innholdet i denne saken. De oppga senere faktorer for rådet som de mente «kan ha bidratt til» at den aktuelle håndhevingsfeilen skjedde flere ganger.
Meta uttalte at «de mange referansene i bildeteksten og videoen til å beleire steder som var merket med høy risiko ikke i seg selv dekker definisjonen av å "ta seg inn med makt" som er angitt i retningslinjene for vold og oppfordring til vold.» Imidlertid gjør «kombinasjonen av oppfordringene: “Kom til Brasília! La oss storme bygningen! La oss beleire de tre statsmaktene" med et bakgrunnsbilde av Praça dos Três Poderes i brann, at det er en tydelig intensjon om å innta disse framtredende stedene med tvang.»
Ifølge Meta kvalifiserte ikke innholdet for en tillatelse ut fra prinsippet om nyhetsverdi, selv om de erkjente at plattformene deres er «viktige for politisk diskurs, spesielt rundt valg.» I dette tilfellet oppveide ikke innholdets offentlige interesse risikoen for skadevirkninger, gitt den «eksplisitte oppfordringen til vold» og den «forhøyede risikoen for fysisk skade etter det brasilianske presidentvalget og innsettelsen av Lula». Meta fant ingen indikasjoner på at innholdet ble delt for å fordømme eller øke bevisstheten rundt oppfordringer til vold. Selskapet fastholder at beslutningen de tok til slutt om å fjerne innholdet er i samsvar med deres verdier og internasjonale menneskerettighetsstandarder.
For å håndtere valg- og krisesituasjoner har Meta gjort flere risikoevalueringer og iverksatt avbøtende tiltak, der ulike team har ansvaret, og disse kan gjelde enten samtidig eller uavhengig av hverandre. Hver har forskjellige «nivåer» av intensitet, avhengig av deres respektive risikoevaluering:
- ICP-retningslinjene (Integrity Country Prioritization), det nivåbaserte systemet for risikosituasjoner, håndteres av produktteamet i Meta og er et rammeverk for den langsiktige prioriteringen av investering i produktressurser. Meta angir at denne prosessen ikke gjelder for kortsiktige krisesituasjoner, men alle land evalueres to ganger per år for nye risikoer/trusler.
- Integrity Product Operations Center (IPOC) er et tverrfunksjonelt team av fageksperter fra hele selskapet som skal «reagere umiddelbart på potensielle problemer og trender.» IPOC-er skal raskt kunne vurdere et stort antall problemer, identifisere risikoer og avgjøre hvordan de skal løses ved krise- og høyrisikosituasjoner. IPOC-er kalles Election Operation Centers (valgoperasjonssentre) når de spesifikt fokuserer på valg.
- Valgoperasjonssentre skal «fortløpende overvåke viktige valgspørsmål, for eksempel forsøk på å hindre folk fra å stemme, økning i spam, potensiell utenlandsk innblanding og rapporter om innhold som bryter mot [Metas] retningslinjer», og de skal «overvåke nyhetsdekning og valgrelatert aktivitet også på andre sosiale nettverk og tradisjonelle medier.» Sentrene gir Meta «kollektiv oversikt og hjelper til med å se hvilken type innhold som kan gå viralt» for at selskapet skal få raskere responstid på disse truslene. En del av forberedelsene til valgoperasjonssenteret handler om «omfattende scenarioplanlegging for å spille ut potensielle trusler – fra trakassering til velgerundertrykkelse – og utvikle systemer og prosedyrer i forkant for å kunne reagere effektivt.»
- Crisis Policy Protocol er rammeverket som Meta har tatt i bruk for å utvikle tidsbestemte, retningslinjespesifikke svar på en krise under opprulling. Meta utarbeidet denne protokollen som svar på tilsynsrådets anbefaling i saken om suspensjon av tidligere president Trump. I denne protokollen har Meta etablert tre krisekategorier, og basert på disse bruker selskapet et gitt sett med tiltak for å avbøte risiko. En kategori 1-krise utløses for eksempel av «økt aktivitet fra politiet eller militæret» eller ved «forestående høyrisikovalg eller potensielle krisesituasjoner.»
Valgoperasjonssenteret som dekket det brasilianske valget i 2022, var i aksjon på ulike tidspunkter fra september til november 2022, inkludert ved den første og andre valgrunden. Det var imidlertid ikke noe valgoperasjonssenter (eller IPOC) i virksomhet da innholdet ble lagt ut den 3. januar 2023. Meta hadde utpekt «uroen etter valget» som en krise i henhold til kriseprotokollen for å hjelpe selskapet med å vurdere hvordan de på best mulig måte kunne redusere risikoene rundt innhold som ble lagt ut.
Som svar på et spørsmål fra rådet angående digitale trender på Metas plattformer før, under og etter det brasilianske valget, uttalte selskapet at en rekke av teamene deres «som en del av arbeidet med valgforberedelse og respons hadde identifisert innholdstrender relatert til valget og inkorporerte disse i strategien [deres] for risikoreduksjon.» Disse inkluderte: «(i) risiko forbundet med oppfordringer til vold eller spredning av voldstrusler; (ii) feilinformasjon; og (iii) bedriftsintegritet, som dekker risiko forbundet med potensielt misbruk av annonser med skadelig innhold ... eller forsøk på å gjennomføre kampanjer på måter som manipulerer eller korrumperer den offentlige debatten.» Meta uttalte at «resultatene, og også andre faktorer, bidro til å skape et grunnlag for en rekke tiltak rundt produkter og retningslinjer.» Meta har imidlertid ikke «data om utbredelsen» til spesifikke påstander (for eksempel om valgfusk, oppfordringer om å dra til Brasília, okkupere offentlige bygninger og militære intervensjoner), fordi selskapets håndhevingssystemer generelt sett «er laget for å overvåke og følge med på situasjonen basert på retningslinjene som brytes.»
Rådet stilte Meta 15 spørsmål skriftlig, inkludert fem som oppfølging av en muntlig orientering om hvordan valgoperasjonssentrene fungerer. Spørsmålene var knyttet til hvilke retningslinjer som kan brukes for å adressere koordinert atferd på Metas plattformer; risikoer selskapet hadde identifisert før det brasilianske valget i 2022; forholdet mellom valgoperasjonssenteret for det brasilianske valget og kriseprotokollen; hvor og hvordan Meta trekker linjen når de skiller mellom legitim politisk organisering og skadelig koordinert handling; digitale trender på Metas plattformer i Brasil før, under og etter valget; og språkkunnskapene til moderatorene som gjennomgikk sakens innhold.
Meta svarte på 13 spørsmål. Det var to spørsmål Meta ikke svarte på. Det ene gjaldt forholdet mellom politiske annonser og feilinformasjon, og det andre handlet om antall fjerninger av sider og kontoer så lenge valgoperasjonssenteret for valget i Brasil i 2022 var operativt. Meta informerte også tilsynsrådet om at selskapet ikke hadde mer generelle data lett tilgjengelig om innholdsmoderering i sammenheng med valget i Brasil i 2022, utover hvor mye innhold de hadde fjernet, noe de allerede hadde delt offentlig. Meta forklarte videre at de ikke vurderer tiltak de har utført i forbindelse med valg opp mot gitte referansepunkter og måletall for suksess. Da de besvarte rådets spørsmål, viste Meta til at de er nødt til å prioritere ressursene sine, og de mente at det ikke ville være mulig å legge fram alle dataene som ble etterspurt før saken skulle avgjøres.
7. Offentlige kommentarer
Tilsynsrådet mottok 18 offentlige kommentarer som er relevante for denne saken. Elleve av kommentarene kom fra Latin-Amerika med Karibia, tre fra USA og Canada, to fra Midtøsten og Nord-Afrika, én fra Stillehavsasia og Oseania, og én fra Sentral- og Sør-Asia. I februar 2023 arrangerte rådet i tillegg en konferanse med interessenter fra Brasil og Latin-Amerika, der temaet var: «Moderering av innhold og politiske endringer».
Kommentarene dekket følgende temaer: akkumulering av skadelige påstander om valgjuks og oppfordringer til militærkupp på sosiale medieplattformer før, under og etter valget i Brasil i 2022; valgrelatert desinformasjon; Metas tiltak i valgsammenheng; Metas ansvar for å beskytte brukernes rettigheter i sammenheng med et demokratisk maktskifte; forholdet mellom valgfornektelse og politisk vold; og viktigheten av at moderatorene har kunnskap om den lokale politiske konteksten.
Du kan lese de offentlige kommentarene som er sendt inn angående denne saken ved å klikke her.
8. Tilsynsrådets analyse
Rådet undersøkte om dette innholdet burde fjernes ved å analysere Metas innholdsretningslinjer, menneskerettighetsansvar og verdier. Rådet valgte seg denne saken fordi den ga dem muligheten til å vurdere hvordan Meta skiller fredelig organisering på plattformene fra oppfordringer til eller koordinering av voldelige handlinger, og da spesielt der konteksten er et maktskifte. I tillegg kunne rådet granske Metas valgtiltak mer generelt, og i Brasil mer spesifikt, med tanke på at perioden etter et valg er avgjørende både for folk som ønsker å bestride integriteten til valgprosessen og for dem som skal sikre at legitime valgresultater blir respektert. Rådet konkluderer derfor med at Metas valgtiltak må dekke både selve valgprosessen og perioden etter et valg, ettersom man i etterkant av valget også kan oppleve forsøk på manipulasjon, valgrelatert feilinformasjon og trusler om vold. Saken faller innenfor rådets strategiske prioritering: «Valg og borgerdeltakelse».
8.1 Overholdelse av Metas retningslinjer for innhold
I. Innholdsregler
Vold og oppfordring til vold
Rådet mener at innholdet i denne saken bryter med forbudet mot å legge ut innhold som ansporer folk til å ta seg inn med makt på steder med høy risiko i standarden om vold og oppfordring til vold. Rådet understreker at selv om Meta-verdien «stemme» er spesielt relevant i valgprosesser, inkludert perioden etter et valg, var det riktig å fjerne innholdet i dette tilfellet for å ivareta Meta-verdien «sikkerhet».
Det kreves to «høyrisiko»-merkinger for at et innhold skal bryte retningslinjene mot å oppfordre andre til å ta seg inn med makt på steder med høy risiko. For det første må stedet være definert som «høyrisiko», og for det andre må stedet ligge i et område som spesifikt er utpekt som «midlertidig høyrisiko». Metas spesifikke instruksjon til moderatorer er at de skal «fjerne oppfordringer, intensjonserklæringer, støtteuttalelser og ambisjonsuttalelser om å ta seg inn med makt på steder med høy risiko på et sted som er angitt som midlertidig høyrisiko.»
Meta definerer «høyrisikosted» som et «sted som permanent eller midlertidig anses å ha økt sannsynlighet for å bli et mål for voldshandlinger.» Permanente høyrisikosteder inkluderer «arbeids- eller oppholdssteder for høyrisikopersoner og familiene deres (for eksempel hovedkvarteret til en nyhetsorganisasjon, legesentre, laboratorier, politistasjoner, regjeringskontorer osv.); fasiliteter som ved lokale, regionale og nasjonale valg brukes som sentre for velgerregistrering, valglokaler, bygg der det utføres opptelling av stemmer (for eksempel lokale biblioteker, regjeringsbygg, samfunnshus osv.) og alle steder som brukes for å administrere valget.» Ifølge Meta er lokalene til den brasilianske kongressen, høyesterett og presidenten permanente «høyrisikosteder», i kraft av at de er arbeids- eller bosted for høyrisikopersoner eller familiene deres.
Kravet om å bli betegnet som «midlertidig høyrisiko» for området eller nærområdet som helhet gjelder «ethvert sted som midlertidig er utpekt [som dette av Meta] for en tidsbegrenset periode.» Et sted kan bli utpekt som midlertidig høyrisiko basert på mange faktorer, inkludert «om det har oppstått alvorlige voldshandlinger på grunn av demonstrasjoner på stedet i løpet av de siste 7 dagene»; «bevis på økt risiko for vold forbundet med sivile uroligheter eller en omstridt rettsavgjørelse på stedet»; «en vurdering fra politiet, interne sikkerhetsrapporter eller en pålitelig partner om at det er stor sjanse for at vold vil forekomme på stedet»; «bevis på planlagte eller aktive demonstrasjoner på stedet, eller en planlagt eller aktiv demonstrasjon på stedet der arrangøren har bedt om bevæpnet vakthold»; og «en vurdering fra interne team om at utfordringer med sikkerheten veier tyngre enn retten til selvforsvar og medbestemmelse gjennom deltakelse i demonstrasjoner.» Når et sted er midlertidig utpekt som høyrisiko, deles denne informasjonen med Metas interne team. Selv om slike betegnelser er tidsbegrensede, forlenger selskapet av og til perioden de gjelder for. Ifølge Meta fører en midlertidig angivelse som høyrisiko til en proaktiv gjennomgang av innhold, altså «før brukerne rapporterer [det].»
Før valget i 2022 valgte Meta å betegne hele landet Brasil som et midlertidig høyrisikosted. Betegnelsen ble opprinnelig satt den 1. september 2022, basert på Metas vurdering av forhøyet risiko for vold knyttet til pågående sivil og valgrelatert uro. Betegnelsen ble utvidet til å dekke valget i oktober 2022 og etterspillet av valget, fram til 22. februar 2023. Betegnelsen var i effekt da innholdet i denne saken ble lagt ut.
Ifølge Meta må begge betegnelsene være til stede for at innhold skal bryte retningslinjene, noe som var tilfellet for innlegget som ble analysert her. Ifølge Meta bidrar det todelte kravet til å sikre at oppfordringer til protester og demonstrasjoner ikke blir bredt undertrykt, og at bare innhold som kan føre til vold vil bli fjernet.
På bakgrunn av det ovenstående, anser rådet at det var et klart avvik fra Metas egen standard da de fattet sitt opprinnelige vedtak om å tillate innholdet på plattformen i en tid med forhøyet risiko for politisk motivert vold. Innlegget var en utvetydig oppfordring om å ta seg inn i regjeringsbygningene i Praça dos Três Poderes i Brasília, som er «høyrisikosteder» på et sted som er definert som «midlertidig høyrisiko» (dvs. Brasil).
II. Tiltak
Ifølge Meta har sju moderatorer med den nødvendige språklige og kulturelle ekspertisen gjennomgått innholdet. Meta instruerer ikke moderatorer i stor skala om å registrere begrunnelser for avgjørelsene de tar. Da rådet valgte denne saken, gjennomførte Metas interne team en analyse som konkluderte med at det var tre sannsynlige faktorer som «kan ha bidratt» til at den aktuelle håndhevingsfeilen ble begått flere ganger: (1) moderatorene kan ha misforstått brukerens hensikt (oppfordring til handling), muligens på grunn av at manglende tegnsetting førte til at innholdet feilaktig ble tolket som en nøytral kommentar om hendelsen; eller (2) moderatorene tok en feilaktig avgjørelse, til tross for at de riktige retningslinjene var på plass, på grunn av en rekke oppdateringer fra forskjellige kilder om hvordan de skulle håndtere innhold relatert til situasjoner med høy risiko; eller (3) moderatorene kan ha oversett at videoen utgjorde et brudd på retningslinjene.
Faktor 1 og 3 tyder på at moderatorene ikke gjennomgikk dette innholdet nøye nok, eller at de ikke så gjennom hele videoen, sett i lys av at det potensielle bruddet på Metas retningslinjer var såpass tydelig. Meta har imidlertid ikke kommet med noen forklaring på hvorfor innholdet ikke ble eskalert til eksperter på temaet og retningslinjene for videre analyse. Innholdet ble ikke eskalert, til tross for at det kom fra et land som på det tidspunktet innholdet ble lagt ut og rapportert var utpekt som «midlertidig høyrisiko», der bestemte retningslinjer bare aktiveres når denne betegnelsen er satt. Innholdet ble heller ikke eskalert på grunnlag av de generelle omstendighetene både på Internett og fysisk i Brasil (se del 2).
Meta har allerede informert rådet om at moderatorene ikke alltid kan se alle videoer i sin helhet. Ikke desto mindre, i situasjoner med forhøyet risiko for vold, der spesifikke retningslinjer har blitt utløst, forventer rådet at moderatorene er orientert om at de skal se alle videoer i sin helhet, samt at de må eskalere potensielt krenkende innhold.
Når det gjelder faktor 2, har Meta uttalt at de informerer moderatorer i stor skala om midlertidige betegnelser av steder som høyrisiko, men selskapet erkjenner at det potensielt finnes mangler i sosialiseringen av dette og andre valgspesifikke tiltak. Sosialiseringen av denne typen informasjon gjør det mulig for moderatorer å oppdage, fjerne eller eskalere problematisk innhold, som videoen i denne saken. Ulike typer evaluering og avbøtende tiltak var på plass for Brasil da innlegget ble lagt ut, men denne typen valgtiltak må sannsynligvis artikuleres bedre og ha en tydeligere kommandolinje for å bli mer effektive.
Til tross for Metas endelige beslutning om å fjerne innholdet, er rådet dypt bekymret over at Metas moderatorer gjentatte ganger tillot dette innholdet og unnlot å eskalere det til videre vurdering, til tross for de kontekstuelle signalene det inneholdt. Moderatorene burde være kjent med den sivile uroen i Brasil på det aktuelle tidspunktet og den utbredte spredningen av lignende innhold på Internett i månedene og ukene før opptøyene den 8. januar. Disse bekymringene forsterkes av at da rådet ba Meta om informasjon om spesifikke valgrelaterte påstander på selskapets plattformer før, under og etter det brasilianske valget, forklarte de at de ikke har slike prevalensdata (se del 6). Innholdet i denne saken ble til slutt fjernet, men mer enn to uker senere, og først etter at rådet hadde gjort Meta oppmerksomme på saken. Da hadde opptøyene det ble oppfordret til allerede skjedd.
Meta erkjente at det forelå økt risiko for vold i Brasil, først ved at de innførte ulike risikoevalueringstiltak før, under og etter at innholdet ble lagt ut, og også direkte til rådet da selskapet til slutt bestemte seg for å fjerne innholdet. Likevel mislyktes selskapets moderatorer flere ganger i å håndheve selskapets standarder i tilstrekkelig grad, og da spesielt retningslinjene i standarden om vold og oppfordring til vold som utløses når et område midlertidig defineres som høyrisiko. Det at innholdet ikke ble eskalert før rådet valgte ut saken – til tross for det åpenbare bruddet på retningslinjene og at lignende innhold sirkulerte på Facebook på det aktuelle tidspunktet (se 2 og 8.2) – indikerer at eskaleringsveiene sannsynligvis ikke er tilstrekkelig tydelige og effektive (se saken Knin-tegnefilm). Det viser også behovet for at Meta forbedrer sikkerhetstiltakene sine rundt valg. Som rådet har bemerket ved tidligere vedtak, er det avgjørende at moderatorer i stor skala besitter tilstrekkelig språklig og kontekstuell kunnskap og er utstyrt med nødvendige verktøy og kanaler for å kunne eskalere potensielt uønsket innhold.
III. Åpenhet
Rådet anerkjenner at Meta iverksatte viktige tiltak for å ivareta integriteten til valget i Brasil i 2022. I august 2022, da kampanjeperioden formelt sett startet, kunngjorde Meta offentlig sine valgrelaterte initiativer i landet. Selskapet samarbeidet med Brasils høyeste valgdomstol for å merke alle innlegg om valget på Facebook og Instagram for å «lede folk til pålitelig informasjon på valgdomstolens nettsted.» Ifølge Meta førte dette til en «tidobling» i antallet besøk på nettstedet. Partnerskapet tillot også at valgdomstolen kunne rapportere potensielt uønsket innhold direkte til Meta. Meta holdt kurs for valgfunksjonærer over hele Brasil for å forklare selskapets standarder og hvordan feilinformasjon på Facebook og Instagram blir adressert. Meta forbød også betalte annonser «som betviler legitimiteten til det forestående valget». Selskapet implementerte også en grense for videresending på WhatsApp, slik at en melding bare kunne videresendes til én WhatsApp-gruppe om gangen. Til slutt rapporterte Meta antall innholdselementer som hadde blitt fjernet i henhold til ulike standarder – for eksempel retningslinjene for vold og oppfordring til vold, retningslinjene for hatefulle ytringer og retningslinjene for mobbing og trakassering – og det totale antallet klikk på valgmerking som ledet brukerne til autoritativ informasjon om valget i Brasil.
Ikke desto mindre, på spørsmål fra rådet om Metas tiltak i forbindelse med valget i Brasil i 2022, uttalte de at selskapet ikke har noen spesielle måletall for å kunne vurdere hvor vellykkede tiltakene er generelt sett, utover å rapportere data om fjerning av innhold, antall visninger og antall klikk på valgmerking. Rådet merker seg også at det ut fra Metas informasjon i åpenhetssenteret og utvekslinger med rådet ikke er helt klart hvordan selskapets ulike risikoevalueringstiltak og -protokoller forløper (se del 6 ovenfor), uavhengig eller parallelt. Meta bør avklare kontaktpunktene mellom disse forskjellige protokollene, forklare bedre hvordan de skiller seg fra hverandre og beskrive nøyaktig hvordan håndhevelsen av retningslinjene for innhold påvirkes av dem.
En rekke offentlige kommentarer (Ekō [PC-11000], Dangerous Speech Project [PC-11010], ModeraLab [PC-11016], Campaign Legal Center [PC-11017], InternetLab [PC-11019] og Coalizão Direitos na Rede [PC-11020]) rådet har mottatt, tilsier at selskapets innsats for å sikre valget i Brasil ikke var tilstrekkelig. Rådet forstår utfordringene med å moderere innhold i stor skala, men Metas ansvar for å forhindre, redusere og håndtere negativ innvirkning på menneskerettighetene øker i forbindelse med valg og andre situasjoner med høy risiko. Dette krever at selskapet etablerer effektive sikringstiltak. Håndhevingsfeilen i denne saken ser ikke ut til å være et enkeltstående tilfelle. Ifølge Ekō (PC-11000) lå lignende innhold ute på Facebook også etter opptøyene den 8. januar.
Det trengs mer åpenhet for å kunne vurdere om Metas tiltak er tilstrekkelige i valgsammenheng. Siden rådet mangler data de kan gjennomgå, undergraves rådets mulighet til å vurdere om håndhevingsfeilene i denne saken, og bekymringene fra ulike interessenter, er symptomer på et systemisk problem med selskapets retningslinjer og rutiner. Dette gjorde det også vanskelig for rådet å komme med mer spesifikke anbefalinger til Meta om hvordan de kan forbedre tiltakene sine for å sikre integritet ved valg på globalt plan.
For øyeblikket gir ikke Metas tall, hovedsakelig om fjerning av innhold, et fullstendig bilde av utfallet av de valgintegritetstiltakene de har iverksatt i et gitt marked. De inkluderer for eksempel ikke nøyaktigheten i håndhevingen målt opp mot sentrale retningslinjer i valgsammenheng, for eksempel standarden om vold og oppfordring til vold, og heller ikke hvor stor prosentandel av politiske annonser som opprinnelig ble godkjent av Meta, men som deretter ble funnet å bryte med retningslinjene. Hvis Meta utfører statistisk revisjon med statistikk som dette, vil de ikke bare kunne reversere feilaktige avgjørelser, men også holde styr på hvor effektive tiltakene deres er i situasjoner der det er av ytterste betydning at det ikke gjøres feil.
Uten denne informasjonen kan hverken rådet eller offentligheten vurdere hvor effektive Metas valgtiltak generelt sett er. Dette er viktig med tanke på at mange tilfeller av politisk motivert vold ofte er et resultat av, eller er forsterket av, uenigheter rundt valg, og der det skadelige innholdet ble liggende tilgjengelig enten i forkant av eller samtidig med voldshandlinger (se «Myanmar-bot» (2021-007-FB-UA), «Tigray Communication Affairs Bureau» (2022-006-FB-MR) og «Tidligere president Trumps suspensjon» (2021-001-FB-FBR)).
Rådet konkluderer derfor med at Meta bør utvikle et rammeverk for å kunne evaluere selskapets valgtiltak, og at de gjør rapporter om temaet offentlig tilgjengelig. Målet med dette er at selskapet skal få data som er relevante for å kunne forbedre modereringssystemet som helhet, og at de kan avgjøre hvordan ressursene deres kan brukes på best mulig måte i sammenheng med valg. Dette burde også gi Meta hjelp til mer effektivt å kunne dra veksel på lokal kunnskap og å identifisere og evaluere koordinerte kampanjer på og utenfor Internett som har som mål å forstyrre demokratiske prosesser. I tillegg burde dette rammeverket være nyttig for Meta når de skal sette opp permanente kanaler for tilbakemeldinger, og også når de skal bestemme hvilke tiltak som bør iverksettes når politisk motivert vold skjer etter at valgprosessen formelt sett er avsluttet. Til slutt bemerker rådet at Meta må gjennomgå og forklare bedre for offentligheten, som forklart ovenfor, de ulike risikoevalueringstiltakene og -protokollene de bruker – som for eksempel IPOC, retningslinjene for prioritering av risikoland og kriseprotokollen (se del 6 ovenfor) – i sammenheng med valg.
8.2 Samsvar med Metas menneskerettighetsansvar
Ytringsfrihet (artikkel 19 i ICCPR)
Retten til menings- og ytringsfrihet er en «sentral pilar i demokratiske samfunn, og en garantist for frie og rettferdige valgprosesser, og meningsfull og representativ offentlig og politisk diskurs» (FNs spesialrapportør for ytringsfrihet, analyserapport 1/2019, s. 2). Artikkel 19 i ICCPR gir bred beskyttelse av ytringer, og da spesielt politiske ytringer. Der restriksjoner av ytringer pålegges av en stat, skal de oppfylle kravene til legalitet, legitimitet, nødvendighet og proporsjonalitet (artikkel 19, § 3 i ICCPR). Disse kravene blir ofte referert til som en «tredelt test.» Rådet bruker dette rammeverket da de tolket Metas frivillige menneskerettighetsforpliktelser.
I. Legalitet (tydelige og tilgjengelige regler)
Legalitetsprinsippet under internasjonal menneskerettighetslov krever at regler som begrenser ytringsfriheten skal være tydelige og offentlig tilgjengelige (generell kommentar 34, § 25). Anvendt på reglene for sosiale medieselskaper har FNs spesialrapportør for ytringsfrihet sagt at de skal være klare og spesifikke (A/HRC/38/35, § 46). Personer som bruker Metas plattformer bør få tilgang til reglene og kunne forstå dem, og innholdsmoderatorer bør ha klare retningslinjer for håndhevelse av dem.
Rådet mener, ut fra foreliggende fakta i denne saken, at Meta har et tydelig forbud mot innhold som ansporer folk til å ta seg inn med makt på steder med høy risiko, og at de nøyaktige vilkårene som må være til stede for at forbudet skal tre i kraft likeledes er klare og tydelige. Saksinnholdet kan uten vanskeligheter forstås som et brudd på retningslinjene, både av brukeren og av moderatorene, og spesielt i sammenheng med de sivile urolighetene i Brasil. Rådet anser derfor at kravet til legalitet var oppfylt.
II. Legitime mål
Begrensninger i ytringsfriheten (artikkel 19 i ICCPR) skal ha et legitimt formål. Retningslinjene om vold og oppfordring til vold har som mål å «forhindre potensiell skade utenfor Internett» ved å fjerne innhold som utgjør «en reell risiko for fysisk skade eller direkte trusler mot offentlig sikkerhet». Disse retningslinjene tjener det legitime målet om å beskytte andres rettigheter, som for eksempel retten til liv (artikkel 6 i ICCPR), samt offentlig orden og nasjonal sikkerhet (artikkel 19, § 3 i ICCPR). I valgsammenheng kan disse retningslinjene også følge det legitime målet om å beskytte andres rett til å stemme og delta i offentlige anliggender (artikkel 25 i ICCPR).
III. Nødvendighet og proporsjonalitet
Prinsippet om nødvendighet og proporsjonalitet krever at alle begrensninger av ytringsfriheten «må være hensiktsmessige for å oppnå sin beskyttende funksjon. De må være de minst inngripende virkemidlene blant de som kan oppnå den beskyttende funksjonen, [og] de må være forholdsmessige med tanke på interessen som skal beskyttes» (generell kommentar nr. 34, § 33 og § 34). Som i tidligere saker som omhandler oppfordringer til vold, mener rådet at de seks faktorene i FNs Rabat-handlingsplan er relevante for å kunne avgjøre nødvendigheten og proporsjonaliteten til restriksjonen (se for eksempel: «Tidligere president Trumps suspensjon»-saken).
Rådet erkjenner at i mange politiske miljøer er det en legitim utøvelse av folkets rett til ytringsfrihet og å delta i demonstrasjoner og protestaksjoner å utfordre valgets integritet eller selve valgsystemet, selv om det skjer isolerte voldshendelser. På grunn av det politiske budskapet, skal slike ytringer ha økt beskyttelsesnivå (generell kommentar nr. 37, §§ 19 og 32). Rådet bemerker imidlertid at dette ikke er tilfelle her. Det er et avgjørende skille mellom beskyttede politiske ytringer og oppfordringer til vold for å omstøte resultatet av et demokratisk valg. Basert på faktorene som er angitt i Rabat-handlingsplanen, var kriteriene for å begrense ytringer helt klart oppfylt i dette tilfellet. Rådet mener at flere elementer i saksinnholdet er relevante for analysen: oppfordringene om å «beleire» Brasils kongress som «det siste alternativet» og å «storme» de «tre statsmaktene»; videoen med en oppfordring fra en framtredende brasiliansk general om å «ta til gatene» og «gå til nasjonalkongressen ... [og] høyesterett»; bildet av regjeringsbygningene som brenner i bakgrunnen; og kravet om å få se «kildekoden.» Alt dette utgjør utvetydige oppfordringer om å invadere og ta kontroll over regjeringsbygninger, der den bredere konteksten er Bolsonaro-tilhengere i Brasil som bestrider valgresultatet og ønsker seg et militærkupp. Det var mye som tilsa at innlegget burde fjernes. Ytringen var vidtrekkende, og selve innholdet og hensikten bak skapte en overhengende fare for skadevirkninger, gitt den politiske situasjonen i Brasil.
Innholdet ble lagt ut i en tid med forhøyet risiko for politisk motivert vold, med en rekke oppfordringer til de væpnede styrkene om å velte valgresultatet. Samtidig ble kodede slagord brukt for å oppfordre til demonstrasjoner, spesielt rettet mot regjeringsbygninger i Brasília (se del 2). I denne forbindelse viser informasjon rådet mottok gjennom flere offentlige kommentarer, inkludert fra ITS Rio – Modera Lab (PC-11016), Coalizão Direitos na Rede (PC-11020), InternetLab (PC-11019) og Ekō (PC-11000), som støttet analysene rådet hadde bestilt, at lignende innhold sirkulerte bredt på sosiale medier i forkant av hendelsene den 8. januar. De poengterer også at stormingen av bygningene ved Praça dos Três Poderes av Bolsonaro-tilhengere er nært forestående, og de oppfordrer sterkt militæret til å gripe inn, for eksempel gjennom et militærkupp.
Gitt det ovenstående konkluderer rådet med at fjerningen av innholdet er i samsvar med Metas menneskerettighetsansvar. Det var en nødvendig og forholdsmessig reaksjon å fjerne innholdet for å beskytte retten til liv, inkludert for offentlig ansatte, og opprettholde ro og orden i Brasil. Fjerning av dette og lignende innhold er også nødvendig og forholdsmessig for å beskytte brasilianernes rett til å stemme og delta i offentlige anliggender, spesielt i en situasjon der man så flere forsøk på å undergrave et demokratisk maktskifte.
Det vekker alvorlig bekymring at Metas vurderingssystemer gjentatte ganger feilet i å identifisere videoen som et brudd på retningslinjene og dermed fjerne det. Innholdet ble heller ikke eskalert for videre gjennomgang. Rådet mener at Meta vil være i en bedre posisjon til å håndtere tilsvarende situasjoner hvis de implementerer anbefalingene som følger under. Det var positivt at Meta iverksatte tiltak for å sikre integritet ved valget i Brasil, men de har ikke gjort nok for å adressere potensielt misbruk av plattformene deres via koordinerte kampanjer av den typen man har sett i Brasil. I dette tilfellet så det ut til at innholdet, som fikk ligge ute og ble mye delt, var typisk for den typen feilinformasjon og oppfordringer som ble rapportert å sirkulere på Metas plattformer i Brasil i denne perioden. Dette underbygger påstandene om at innflytelsesrike kontoer med betydelig mobiliseringsevne på Metas plattformer hadde spilt en sentral rolle i å oppfordre til voldshandlinger. Som det ble hevdet i de offentlige kommentarene som rådet mottok (se Instituto Vero [PC-11015], ModeraLab [PC-11016], InternetLab [PC-11019], Instituto de Referência em Internet e Sociedade [PC-11021]), er det utilstrekkelig og relativt ineffektivt å gjennomgå og eventuelt fjerne enkeltstående innhold fra Metas plattformer når innholdet er en del av organiserte og koordinerte handlinger rettet mot å forstyrre demokratiske prosesser. Metas valgtiltak og kriseprotokoller må håndtere slike bredere digitale trender.
8.3 Identisk innhold med parallell kontekst
Rådet uttrykker bekymring for den store spredningen av innhold som tilsvarer det som ble analysert i månedene før opptøyene den 8. januar i Brasil. Ettersom Meta gjentatte ganger feilet i å identifisere dette innholdet som et brudd på retningslinjene deres, vil tilsynsrådet være spesielt oppmerksomme på hvordan Meta bruker rådets beslutning til å håndtere identisk innhold med parallell kontekst som har blitt værende på selskapets plattformer, bortsett fra når det deles for å fordømme eller øke bevisstheten rundt generalens ytringer og oppfordringene til å storme Praça dos Três Poderes-bygningene i Brasília.
9. Tilsynsrådets avgjørelse
Tilsynsrådet omgjør Metas opprinnelige avgjørelse om å la innholdet bli liggende på plattformen.
10. Anbefalinger
A. Håndhevelse
- Meta bør utvikle et rammeverk for å evaluere selskapets innsats for å sikre integritet ved valg. Dette betyr at Meta også må opprette og dele måletall som kan underbygge konklusjonene deres, inkludert statistikk knyttet til håndhevelse av selskapets retningslinjer for innhold og annonser. Rådet vil anse denne anbefalingen som implementert når Meta har utviklet dette rammeverket (inkludert en beskrivelse av måletall og hvorfor de bruker nettopp disse måletallene), deler rammeverket i selskapets åpenhetssenter, begynner å publisere landspesifikke rapporter og offentliggjør alle endringer i selskapets generelle valgtiltak som et resultat av denne evalueringen.
B. Åpenhet
- Meta må forklare i åpenhetssenteret sitt at selskapet, i tillegg til å bruke protokollen for krisehåndtering, følger ytterligere prosedyrer for å kunne forhindre og adressere potensiell skaderisiko i valgsammenheng og ved andre situasjoner med økt risiko. I tillegg til å beskrive disse protokollene, bør selskapet også definere målet med dem, hva kontaktpunktene er mellom disse ulike protokollene og hvordan de skiller seg ut fra hverandre. Rådet vil anse denne anbefalingen som implementert når Meta har publisert denne informasjonen i åpenhetssenteret sitt.
* Prosedyremerknad:
Tilsynsrådets avgjørelser utarbeides av et panel på fem medlemmer og godkjennes av et flertall av rådet. Rådets avgjørelser gjenspeiler ikke nødvendigvis alle medlemmenes personlige meninger.
I denne konkrete saken ble det bestilt uavhengige undersøkelser på vegne av rådet. Rådet ble assistert av et uavhengig analyseinstitutt med hovedkontor ved universitetet i Göteborg, med støtte fra en gruppe på over 50 samfunnsvitere fra seks kontinenter og mer enn 3200 eksperter fra hele verden. Rådet ble også assistert av Duco Advisors, et rådgivningsfirma som fokuserer på skjæringspunktet mellom geopolitikk, tillit, sikkerhet og teknologi. Memetica, en organisasjon som driver med åpen kildekodeforskning på trender på sosiale medier, leverte også analyser. Lingvistisk ekspertise ble levert av Lionbridge Technologies, LLC, som har spesialister som behersker mer enn 350 språk flytende og jobber fra 5000 byer over hele verden.
العودة إلى قرارات الحالة والآراء الاستشارية المتعلقة بالسياسة