पलट जाना

Artikkel i Washington Post om Israel og Palestina

En bruker anket Metas beslutning om å fjerne et Facebook-innlegg med en lenke til en Washington Post-artikkel som kronologisk viste konflikten mellom Israel og Palestina. Etter at rådet gjorde Meta oppmerksomme på anken, gikk selskapet tilbake på sitt opprinnelige vedtak og fjernet innlegget.

निर्णय का प्रकार

सारांश

नीतियां और विषय

विषय
journalistikk, न्यूज़ ईवेंट, युद्ध और मतभेद
सामुदायिक मानक
ख़तरनाक लोग और संगठन

क्षेत्र/देश

जगह
इज़राइल, फ़िलिस्तीनी क्षेत्र, अमेरिका

प्लैटफ़ॉर्म

प्लैटफ़ॉर्म
Facebook

Dette er en sammenfattende avgjørelse. Sammenfattende avgjørelser ser på saker der Meta har gjort om sin opprinnelige avgjørelse om innhold etter at rådet har gjort dem oppmerksomme på saken, og de inneholder informasjon om feil Meta har erkjent. De er godkjent av et panel bestående av rådsmedlemmer, ikke hele rådet, de involverer ingen offentlige kommentarer, og de danner ingen presedens for rådet. Sammenfattende avgjørelser fører direkte til endringer av Metas avgjørelser og gir åpenhet om disse rettelsene, samtidig som de identifiserer områder der Meta har et forbedringspotensial.

Sakssammendrag

En bruker anket Metas beslutning om å fjerne et Facebook-innlegg med en lenke til en Washington Post-artikkel som kronologisk viste konflikten mellom Israel og Palestina. Etter at rådet gjorde Meta oppmerksomme på anken, gikk selskapet tilbake på sitt opprinnelige vedtak og fjernet innlegget.

Saksbeskrivelse og -bakgrunn

I oktober 2023 la en Facebook-bruker ut en lenke til en Washington Post-artikkel som viste kronologien til konflikten mellom Israel og Palestina. Forhåndsvisningen av artikkelen, som automatisk ble vist i lenken, nevner Hamas. Brukeren la ikke inn en bildetekst sammen med innlegget og oppga ingen ytterligere kontekst.

Dette Facebook-innlegget ble fjernet for brudd på Metas retningslinjer om farlige organisasjoner og personer, som forbyr representasjon av og visse ytringer om grupper og personer som selskapet mener kan knyttes til betydelig skade i den virkelige verden.

I anken til rådet understreket brukeren at innlegget var ment å skulle rapportere om den aktuelle Israel-Hamas-konflikten, og at det ikke var ment som en støtte til Hamas eller en annen farlig organisasjon.

Etter at rådet brakte denne saken til Metas oppmerksomhet, slo selskapet fast at innholdet ikke var i strid med retningslinjene om farlige organisasjoner og personer, ettersom innlegget refererer til Hamas i form av en nyhetsrapport, noe som er tillatt i henhold til retningslinjene. Selskapet gjenopprettet da innholdet til Facebook.

Rådets myndighet og omfang

Rådet er bemyndiget til å vurdere Metas avgjørelse etter en klage fra personen som har fått innhold fjernet (artikkel 2, del 1 i reglementet; artikkel 3, del 1 i vedtektene).

Når Meta erkjenner at de har gjort en feil og omgjør avgjørelsen i en sak som potensielt skal vurderes av rådet, kan rådet velge ut saken for en sammenfattende avgjørelse (vedtektenes artikkel 2, punkt 2.1.3). Rådet går gjennom den opprinnelige beslutningen for å få en bedre forståelse av prosessene med innholdsmoderering, redusere feilraten og øke rettferdigheten for brukere av Facebook og Instagram.

Sakens betydning

Denne saken viser et tilfelle av at Meta for aggressivt håndhever retningslinjene om farlige organisasjoner og personer, spesielt når det gjelder nyhetsrapporter om enheter som selskapet har spesifisert som farlige. Dette er et tilbakevendende problem, og det har skjedd spesielt hyppig under den pågående Israel-Hamas-konflikten, der en av partene er en svartelistet organisasjon. Rådet har kommet med en rekke anbefalinger knyttet til unntaket for nyhetsrapporter i retningslinjene om farlige organisasjoner og personer. Fortsatte feil rundt dette viktige unntaket kan i betydelig grad begrense brukernes ytringsfrihet, gå ut over allmennhetens tilgang til informasjon og svekke den offentlige diskursen.

I en tidligere avgjørelse anbefalte rådet at Meta burde «vurdere nøyaktigheten til moderatorer som håndhever unntak for rapportering i henhold til retningslinjene om farlige organisasjoner og personer for å identifisere systemiske problemer som forårsaker håndhevingsfeil» (jamfør anbefaling 5 i saken «Omtale av Taliban i nyhetsrapport»); Meta rapporterte at de jobber med å implementere rådets innstillinger, uten å publisere informasjon som underbygger dette. Rådet anbefalte også at Meta bør «legge til kriterier og illustrerende eksempler i sine retningslinjer om farlige organisasjoner og personer for å øke forståelsen av unntak, spesielt unntaket for nøytrale diskusjoner, fordømmelse og nyhetsrapporter» (jamfør anbefaling 1 i saken «Delt Al Jazeera-innlegg»). Meta har vist implementering av denne innstillingen gjennom å publisere informasjon. Rådet anbefalte også at Meta deler «mer omfattende informasjon om feilrater rundt håndhevelsen av regler om støtteerklæringer og andre former for støtte til farlige personer og organisasjoner» i åpenhetsrapporter (jamfør anbefaling 12 i saken «Öcalans isolasjon»). Meta nektet å implementere denne innstillingen etter å ha vurdert gjennomførbarheten. I en oppdatering av retningslinjene datert 29. desember 2023, bruker Meta nå begrepet «forherligelse» i stedet for «støtteerklæring», «hyllest» eller «ros» i standarden.

Rådet mener at full implementering av disse innstillingene kan redusere antallet feil ved håndhevelse av Metas retningslinjer om farlige organisasjoner og personer.

Avgjørelse

Rådet omgjør Metas opprinnelige avgjørelse om å fjerne innholdet. Rådet erkjenner at Meta korrigerte den opprinnelige feilen etter at rådet gjorde dem oppmerksomme på saken.

मामले के निर्णयों और नीति सलाहकार राय पर लौटें