أسقط

Nedsettende bemerkninger om folket i Gaza

En bruker anket Metas beslutning om å tillate et Facebook-innlegg som hevdet at Hamas har sitt utspring i befolkningen i Gaza, der denne befolkningen sammenlignes med en «horde av villmenn». Etter at rådet gjorde Meta oppmerksomme på anken, omgjorde selskapet sitt opprinnelige vedtak og fjernet innlegget.

نوع القرار

ملخص

السياسات والمواضيع

عنوان
marginaliserte grupper، عِرق وسلالة، حرب وصراع
معيار المجتمع
خطاب يحض على الكراهية

المناطق/البلدان

موقع
إسرائيل، Palestinske områdene

منصة

منصة
Facebook

Dette er en sammenfattende avgjørelse. Sammenfattende avgjørelser ser på saker der Meta har gjort om sin opprinnelige avgjørelse om innhold etter at rådet har gjort dem oppmerksomme på saken, og de inneholder informasjon om feil Meta har erkjent. De er godkjent av et panel bestående av rådsmedlemmer, ikke hele rådet, de involverer ingen offentlige kommentarer, og de danner ingen presedens for rådet. Sammenfattende avgjørelser fører direkte til endringer av Metas avgjørelser og gir åpenhet om disse rettelsene, samtidig som de identifiserer områder der Meta har et forbedringspotensial.

Sammendrag

En bruker anket Metas beslutning om å tillate et Facebook-innlegg som hevdet at Hamas har sitt utspring i befolkningen i Gaza og reflekterer deres «innerste begjær», og der de sammenlignes med en «horde av villmenn». Etter at rådet gjorde Meta oppmerksomme på anken, omgjorde selskapet sitt opprinnelige vedtak og fjernet innlegget.

Om saken

I desember 2023 la en bruker ut et tidligere brukt bilde på Facebook sammen med en tekst. Bildet viste en ikke navngitt mann, og teksten ga uttrykk for at folk flest i Gaza ikke er et «offer» for Hamas, men at den militante gruppen dukket opp som en «sann refleksjon» av «det innerste begjæret til en horde av villmenn». Dette bildet hadde en bildetekst som blant annet inneholdt ordet «sannheten». Innlegget fikk færre enn 500 visninger.

Metas retningslinjer om hatefulle ytringer forbyr innhold rettet mot en person eller gruppe på grunnlag av beskyttede egenskaper. Disse nevner spesifikt det å betegne noen som «undermennesker», og ordet «villmenn» er brukt som et konkret eksempel. I innholdet i denne saken er referansen til «folk flest i Gaza» en implisitt referanse til palestinere i Gaza, og det retter seg dermed mot de beskyttede egenskapene etnisitet og nasjonalitet.

I uttalelsen i anken til rådet, bemerket brukeren at innlegget inneholdt generaliserende nedsettende ytringer om folket i Gaza.

Etter at rådet gjorde Meta oppmerksomme på denne saken, fastslo selskapet at innholdet brøt selskapets retningslinjer om hatefulle ytringer, og at den opprinnelige beslutningen om å tillate innholdet, var feil. Selskapet fjernet deretter innholdet fra Facebook.

Rådets myndighet og omfang

Rådet er bemyndiget til å vurdere Metas avgjørelse etter en anke fra brukeren som rapporterte innhold som ikke har blitt fjernet (vedtektenes artikkel 2, del 1; artikkel 3, del 1 i vedtektene).

Der Meta erkjenner at de har gjort en feil og omgjør avgjørelsen i en sak som kan komme til å bli vurdert av rådet, kan rådet velge ut saken for en sammenfattende avgjørelse (vedtektenes artikkel 2, punkt 2.1.3). Rådet går gjennom den opprinnelige beslutningen for å få en bedre forståelse av prosessen med innholdsmoderering, redusere feilraten og øke rettferdigheten for brukere av Facebook og Instagram.

Sakens betydning

Denne saken viser feil håndhevelse av Metas retningslinjer om hatefulle ytringer, mer spesifikt knyttet til innhold som angriper folk basert på beskyttede egenskaper. Feil i modereringen er spesielt skadelig ved pågående væpnede konflikter. Derfor burde Meta hatt mer robuste rutiner for moderering av innhold.

Saken «Knin-tegnefilm» inneholdt også hatefulle ytringer rettet mot en beskyttet egenskap – en etnisitet – der en etnisk gruppe ble referert til som rotter uten å bli eksplisitt navngitt. Saken «Knin-tegnefilm» måtte imidlertid tolkes i en historisk og kulturell kontekst for å forstå den symbolske framstillingen av en etnisk gruppe. Innholdet i denne saken knytter på en mer måte de nedsettende kommentarene direkte til en hel befolkning. Dette må med rimelighet forstås som en referanse til mennesker med en beskyttet egenskap.

I avgjørelsen i saken «Knin-tegnefilm» anbefalte rådet spesifikt at Meta «bør tydeliggjøre standarden om hatefulle ytringer og veiledningen moderatorene får, og de må forklare at selv implisitte referanser til beskyttede grupper er forbudt av retningslinjene når referansen med rimelighet kan forstås» (se vedtaket i saken «Knin-tegnefilm», anbefaling 1). Meta har rapportert delvis implementering av denne innstillingen. I fjerde kvartal 2022 rapporterte Meta at de la til et punkt i standardene og retningslinjene for moderatorer som gjør det klart at implisitte hatefulle ytringer skal fjernes hvis de eskaleres av moderatorer på storskalanivå til ekspertvurdering når Meta med rimelighet kan forstå brukerens hensikt. Rådet anser denne anbefalingen som delvis implementert, ettersom det ikke er utført noen oppdateringer av standarden om hatefulle ytringer, kun en oppdatering av den generelle introduksjonen til standardene.

Rådet mener at full implementering av denne innstillingen vil redusere antallet feil ved håndhevelse av Metas retningslinjer om hatefulle ytringer.

Avgjørelse

Rådet omgjør Metas opprinnelige avgjørelse om å la innholdet bli liggende på plattformen. Rådet erkjenner at Meta korrigerte den opprinnelige feilen etter at rådet gjorde dem oppmerksomme på saken.

العودة إلى قرارات الحالة والآراء الاستشارية المتعلقة بالسياسة