Decisão de múltiplos casos
Intervju med thailandsk gisselforhandler
18 de Abril de 2024
Rådet gjennomgikk to Facebook-innlegg som inneholder nesten identiske deler av et videointervju fra Sky News. Intervjuet er med en thailandsk gisselforhandler som beskriver sin erfaring med å jobbe for å frigjøre gisler tatt av Hamas. Etter at rådet gjorde Meta oppmerksomme på disse ankene, gikk selskapet tilbake på sine opprinnelige vedtak og gjenopprettet alle innleggene.
2 casos incluídos neste pacote
FB-XO941WWQ
Sak om farlige personer og organisasjoner på Facebook
FB-U3Y5VV2E
Sak om farlige personer og organisasjoner på Facebook
Dette er en sammenfattende avgjørelse. Sammenfattende avgjørelser ser på saker der Meta har gjort om sin opprinnelige avgjørelse om innhold etter at rådet har gjort dem oppmerksomme på saken, og de inneholder informasjon om feil Meta har erkjent. De er godkjent av et panel bestående av rådsmedlemmer, ikke hele rådet, de involverer ingen offentlige kommentarer, og de danner ingen presedens for rådet. Sammenfattende avgjørelser fører direkte til endringer av Metas avgjørelser og gir åpenhet om disse rettelsene, samtidig som de identifiserer områder der Meta har et forbedringspotensial.
Sammendrag
Rådet gjennomgikk to Facebook-innlegg som inneholder nesten identiske deler av et videointervju fra Sky News. Intervjuet er med en thailandsk gisselforhandler som beskriver sin erfaring med å jobbe for å frigjøre gisler tatt av Hamas. Etter at rådet gjorde Meta oppmerksomme på disse ankene, gikk selskapet tilbake på sine opprinnelige vedtak og gjenopprettet alle innleggene.
Om sakene
I desember 2023 anket to brukere Metas avgjørelser om å fjerne innleggene deres. Begge innleggene inneholdt nesten identiske klipp fra et intervju sendt av Sky News i november 2023. Videoen viser en gisselforhandler fra Thailand som ledet et uoffisielt team av forhandlere som bidro til å sikre løslatelsen av thailandske gisler som ble tatt av Hamas den 7. oktober i Israel.
I klippet beskriver intervjuobjektet hvordan han deltok i forhandlingene. Han sier at han tror at de thailandske gislene og alle andre gisler «ble tatt godt vare på» av Hamas, siden Hamas følger islamsk lov og ikke hadde satt noen betingelser for å løslate de thailandske fangene.
Forhandleren, som sympatiserer med det palestinske folket, nevner flere tiår med israelsk mishandling av palestinere i de okkuperte områdene. Han hevder at Hamas «ønsket å ta soldater» og at han mener at Hamas var berettiget til å ta gisler «for å hjelpe palestinerne» og «for å rette verdens oppmerksomhet mot den israelske behandlingen av palestinerne».
I ankene sine til rådet sa begge brukerne at de la ut videoen for å gjøre folk oppmerksomme på den thailandske forhandlerens uttalelser, men av forskjellige grunner. Den ene brukeren sa at hensikten var å dele et intervju som «viser Hamas i et mer balansert lys», i motsetning til den vanlige holdninger blant «den vestlige propagandamaskinen». Brukeren indikerer i bildeteksten at forhandleren nekter å godta det gjeldende narrativet og forklarer videre at innlegget tidligere hadde blitt sensurert fordi innholdet omtalte en bestemt politisk organisasjon. I det andre innlegget sa brukeren, som hadde lagt ut videoen uten bildetekst eller ytterligere kommentarer, at målet var å «vise samarbeidspartnere som lyver og manipulerer» til støtte for Hamas.
Meta fjernet først innleggene fra Facebook, med henvisning til retningslinjene om farlige organisasjoner og personer, der selskapet forbyr «glorifisering av» (tidligere «hyllest» eller «ros»), «støtte til» og «representasjon av» personer og organisasjoner de betegner som farlige. Retningslinjene sier imidlertid at brukere kan dele innhold som inneholder referanser til organisasjoner og personer som er utpekt som farlige i sammenheng med sosial og politisk diskurs. Dette inkluderer innhold som rapporterer om, nøytralt diskuterer eller fordømmer farlige organisasjoner og personer eller aktivitetene deres.»
Da rådet brakte disse sakene til Metas oppmerksomhet, besluttet selskapet at innleggene «ikke inneholder noen bildetekst som glorifiserer, støtter eller representerer en farlig organisasjon eller person». I tillegg ble videoen «tidligere delt av Sky News og andre nyhetskanaler på Facebook (...) og faller [derfor] inn under unntaket for nyhetsrapportering.» Meta gjenopprettet begge innleggene.
Rådets myndighet og omfang
Rådet er bemyndiget til å vurdere Metas avgjørelse etter en klage fra brukeren som har fått innhold fjernet (vedtektenes artikkel 2, del 1; artikkel 3, del 1 i vedtektene).
Når Meta erkjenner en feil og omgjør avgjørelsen i en sak som potensielt skal vurderes av rådet, kan rådet velge ut saken for en sammenfattende avgjørelse (vedtektenes artikkel 2, punkt 2.1.3). Rådet går gjennom den opprinnelige beslutningen for å få bedre forståelse av prosessen med innholdsmoderering, redusere feilraten og øke rettferdigheten for folk som bruker Facebook og Instagram.
Sakenes betydning
Disse sakene viser at selskapets standard om farlige organisasjoner og personer fortsatt håndheves for aggressivt, som angitt i tidligere vedtak fra rådet. Fortsatte feil ved bruk av disse retningslinjene reduserer brukernes tilgang til nøytrale kommentarer, nyhetsrapporter og fordømmende innlegg, og dette skader ytringsfriheten.
I en tidligere avgjørelse oppfordret rådet Meta til å inkludere mer omfattende data om feilrater i forbindelse med standarden om farlige organisasjoner og personer i åpenhetsrapporten sin (se saken «Isolasjonen av Öcalan», anbefaling 12), som selskapet avslo å implementere etter en mulighetsvurdering.
Rådet anbefalte videre å legge til «kriterier og illustrerende eksempler i Metas standard om farlige organisasjoner og personer for å øke forståelsen av unntak, spesielt rundt nøytral diskusjon og nyhetsrapportering», for å gi bedre veiledning til moderatorene («Delt Al Jazeera-innlegg», anbefaling 1). Denne anbefalingen er spesielt relevant fordi den gjaldt fjerning av et nyhetsinnlegg om en trussel om vold fra Izz al-Din al-Qassam-brigadene, den militære fløyen til den palestinske gruppen Hamas. Rådet har også anbefalt at Meta bør «vurdere nøyaktigheten til moderatorer som håndhever unntak for rapportering (...) for å identifisere systemiske problemer som forårsaker håndhevingsfeil» (jamfør anbefaling 5 i saken «Omtale av Taliban i nyhetsrapport»). Meta har rapportert at de har implementert begge innstillingene, men når det gjelder anbefaling 5 i saken «Omtale av Taliban i nyhetsrapport», har de ikke publisert informasjon som beviser dette.
Rådet har anbefalt forbedringer av modereringen av innlegg som inneholder videoer. De oppfordrer selskapet til å vedta «endringer i produkt- og/eller driftsretningslinjene som tillater mer nøyaktig gjennomgang av videoer i langformat» (jamfør saken «Statsministeren i Kambodsja», anbefaling 5). Som svar uttalte Meta at de ville «fortsette å innføre forbedringer i de omfattende prosessene med gjennomgang, beregning og evaluering av videoer» i kvartalsoppdateringen for tredje kvartal 2023 om tilsynsrådet.
Rådet mener at en fullstendig implementering av disse innstillingene kan redusere antallet feil ved håndhevelse av Metas retningslinjer om farlige organisasjoner og personer.
Avgjørelse
Rådet omgjør Metas opprinnelige avgjørelser om å fjerne innholdet. Rådet erkjenner at Meta korrigerte de opprinnelige feilene etter at rådet gjorde dem oppmerksomme på disse sakene.
Voltar para Decisões de Casos e Pareceres Consultivos sobre Políticas