पलट जाना
Journalist beretter om møde i Gaza
4 अप्रैल 2024
En journalist appellerede Metas afgørelse om at fjerne et Facebook-opslag om hans personlige oplevelse med at interviewer Abdel Aziz Al-Rantisi, som er medstifter af Hamas. Denne sag understreger et tilbagevendende problem med overhåndhævelse af virksomhedens politik om farlige organisationer og individer, specifikt i forhold til neutrale opslag. Efter at rådet havde gjort Meta opmærksom på appellen, omstødte virksomheden sin oprindelige afgørelse og gendannede opslaget.
Dette er en oversigtsafgørelse. Oversigtsafgørelser undersøger sager, hvori Meta har omstødt sin oprindelige afgørelse om indhold, efter at rådet har gjort virksomheden opmærksom på sagen, oginkluderer oplysninger om Metas anerkendte fejl. De er godkendt af et panel af rådets medlemmer og ikke hele rådet.De omfatter ikke offentlige kommentarer og har ingen præjudikatværdi for rådet. Oversigtsafgørelser medfører ændringer i Metas afgørelser direkte og leverer gennemsigtighed i disse rettelser, samtidig med at de identificerer områder, hvor Meta kan forbedre sin håndhævelse.
Sagsresumé
En journalist appellerede Metas afgørelse om at fjerne et Facebook-opslag om hans personlige oplevelse med at interviewer Abdel Aziz Al-Rantisi, som er medstifter af Hamas. Denne sag understreger et tilbagevendende problem med overhåndhævelse af virksomhedens politik om farlige organisationer og individer, specifikt i forhold til neutrale opslag. Efter at rådet havde gjort Meta opmærksom på appellen, omstødte virksomheden sin oprindelige afgørelse og gendannede opslaget.
Sagsbeskrivelse og -baggrund
Umiddelbart efter terrorangrebene mod Israel den 7. oktober 2023 oprettede en journalist et opslag på Facebook med sin skriftlige erindring af et interview med Abdel Aziz Al-Rantisi, en medstifter af Hamas, som er udpeget som en Niveau 1-organisation i Metas politik om farlige organisationer og individer. Opslaget beskrev journalistens tur til Gaza, vedkommendes møde med Hamas-medlemmer og lokale borgere samt journalistens oplevelse med at finde og interviewe al-Rantisi. Opslaget indeholder fire fotografier, herunder et af Al-Rantisi, intervieweren og maskerede Hamas-krigere.
I appellen til rådet tydeliggjorde brugeren, at hensigten med opslaget var at informere offentligheden om oplevelsen i Gaza og om interviewet med en af de oprindelige stiftere af Hamas.
Meta fjernede opslaget fra Facebook med henvisning til virksomhedens politik om farlige organisationer og individer. I henhold til denne politik fjerner virksomheden indhold om individer og organisationer, som virksomheden anser for at være farlige, fra dens platforme. Politikken anerkender dog, at "brugere kan dele indhold, der indeholder referencer til udpegede farlige organisationer og individer i konteksten af en social og politisk debat. Dette omfatter indhold, som rapporterer om, neutralt debatterer eller fordømmer farlige organisationer og individer eller deres aktiviteter".
Da rådet gjorde Meta opmærksomme på sagen, vurderede virksomheden, at indholdet havde til hensigt at øge opmærksomheden omkring emnet og derfor ikke var i strid med fællesskabsreglen om farlige organisationer og individer. Meta henviste til tilladelsen om social og politisk debat i konteksten af neutrale og informative beskrivelser af farlige organisationers eller individers aktivitet eller adfærd. Desuden sagde Meta, at konteksten af social og politisk debat nævnes eksplicit i indholdet, og at der derfor ikke er nogen tvetydighed i forhold til brugerens hensigt i denne sag.
Rådets bemyndigelse og arbejdsområde
Rådet har bemyndigelse til at gennemgå Metas afgørelse efter en appel fra den bruger, som har fået sit indhold fjernet (artikel 2, afsnit 1 i charteret; artikel 3, afsnit 1 i vedtægterne).
Når Meta erkender, at der er sket en fejl og omstøder sin afgørelse i en sag, som rådet overvejer at gennemgå, kan rådet udvælge sagen til en oversigtsafgørelse (artikel 2, afsnit 2.1.3 i vedtægterne). Rådet gennemgår den oprindelige afgørelse for at øge forståelsen af processen for indholdsmoderering, for at reducere mængden af fejl og for at øge retfærdigheden for de personer, der bruger Facebook og Instagram.
Sagens betydning
Denne sag fremhæver overhåndhævelse af Metas politik om farlige organisationer og individer, i særdeleshed nyhedsrapporter om enheder, som virksomheden har udpeget som værende farlige. Dette er et tilbagevendende problem, der især er forekommet hyppigt under konflikten mellem Israel og Hamas, hvor en af parterne er en udpeget organisation. Rådet har udstedt talrige anbefalinger relateret til undtagelsen om nyhedsrapportering i politikken om farlige organisationer og individer. Fortsatte fejl i anvendelsen af denne vigtige undtagelse kan i væsentlig grad begrænse brugernes ytringsfrihed, offentlighedens adgang til oplysninger og forringe den offentlige debat.
I en tidligere afgørelse anbefalede rådet, at Meta tilføjer kriterier og illustrative eksempler i sin politik om farlige organisationer og individer for at tydeliggøre undtagelser, særlig i forbindelse med neutrale debatter, fordømmelse og nyhedsrapportering, (afgørelsen om Delt Al Jazeera-opslag,, anbefaling nr. 1). Meta anførte, at implementeringen af denne anbefaling er demonstreret via offentliggjorte oplysninger. I en opdatering til politikken om farlige organisationer og individer fra 29. december 2023 har Meta modificeret sine forklaringer og anvender nu termen "glorification" (forherligelse) i stedet for "praise" (hyldest) i fællesskabsreglen.
Derudover har rådet anbefalet, at "Meta skulle vurdere nøjagtigheden, hvormed evaluatorer håndhæver tilladelsen i forhold til rapportering i politikken om farlige organisationer og individer, for at identificere systemiske problemer, der forårsager håndhævelsesfejl" ( Omtale af Taleban i nyhedsrapportering, anbefaling nr. 5). Meta anførte implementering af denne anbefaling, men har endnu ikke offentliggjort oplysninger, der demonstrerer fuldførelse af implementeringen.
I forbindelse med sager med automatiseret moderering har rådet opfordret Meta til at "implementere en intern revisionsprocedure med henblik på kontinuerlig analyse af et statistisk repræsentativt udsnit af automatiske afgørelser om fjernelse af indhold og med henblik på at lære af fejl i forbindelse med håndhævelse (Symptomer på brystkræft og nøgenhed, anbefaling nr. 5).
Rådet mener, at fuld implementering af disse anbefalinger kan reducere antallet af håndhævelsesfejl, som sker på baggrund af Metas politik om farlige organisationer og individer.
Afgørelse
Rådet omstøder Metas oprindelige afgørelse om at fjerne indholdet. Rådet anerkender Metas korrektion af sin oprindelige fejl, da rådet gjorde Meta opmærksom på sagen.