Decisión de casos múltiples
Negative stereotypier av afroamerikanere
18 de abril de 2024
Rådet gjennomgikk tre Facebook-innlegg som inneholdt rasistisk materiale, som Meta hadde tillatt. Etter at rådet gjorde Meta oppmerksomme på disse ankene, gikk selskapet tilbake på sine opprinnelige vedtak og fjernet innleggene.
3 casos incluidos en el paquete
FB-LHBURU6Z
Sak om hatefulle ytringer på Facebook
FB-1HX5SN1H
Sak om hatefulle ytringer på Facebook
FB-ZD01WKKW
Sak om hatefulle ytringer på Facebook
Dette er en sammenfattende avgjørelse. Sammenfattende avgjørelser ser på saker der Meta har gjort om sin opprinnelige avgjørelse om innhold etter at rådet har gjort dem oppmerksomme på saken, og de inneholder informasjon om feil Meta har erkjent. De er godkjent av et panel bestående av rådsmedlemmer, ikke hele rådet, de involverer ingen offentlige kommentarer, og de danner ingen presedens for rådet. Sammenfattende avgjørelser fører direkte til endringer av Metas avgjørelser og gir åpenhet om disse rettelsene, samtidig som de identifiserer områder der Meta har et forbedringspotensial.
Sammendrag
Rådet gjennomgikk tre Facebook-innlegg som inneholdt rasistisk materiale, som Meta hadde tillatt. Hvert av innleggene inneholdt en karikaturtegning eller et manipulert bilde av afroamerikanere som viser en støtende stereotypi, som fraværende fedre, å gå på sosialen eller å plyndre en butikk. Disse sakene viser feil ved Metas håndhevelse av retningslinjene om hatefulle ytringer og mobbing og trakassering. Etter at rådet gjorde Meta oppmerksomme på disse ankene, gikk selskapet tilbake på sine opprinnelige vedtak og fjernet innleggene.
Om sakene
På slutten av 2023 mottok rådet tre separate anker som gjaldt tre forskjellige bilder lagt ut på Facebook, der alle inneholdt negativt materiale om afroamerikanere.
I det første innlegget, som ble sett rundt 500 000 ganger, la en bruker ut et datagenerert bilde av en butikk i brann. Svarte mennesker i form av tegneseriefigurer, iført hettegensere, løper ut av butikken med varer i hendene. Navnet på butikken, Target, er endret til «Loot» (plyndring) på bildet, og i den medfølgende bildeteksten beskriver brukeren bildet som den neste Pixar-filmen.
Det andre innlegget inneholder et datagenerert bilde som også imiterer en filmplakat, der en svart kvinne med karikerte fysiske trekk holder en handlekurv full av Cheetos. Tittelen på filmen er «EBT», som er navnet på velferdsordningen i USA. Øverst på plakaten står ikke navnet på skuespillerne, men navnene Trayvon Martin og George Floyd. Dette er to afroamerikanske voldsofre, der den ene ble skutt av en væpnet borgerverner i 2012 og den andre drept av politiet i 2020. Drapene utløste protester som gjaldt rasediskriminering i det amerikanske rettssystemet.
Det tredje innlegget, som ble sett rundt 14 millioner ganger, inneholder et meme som hevder at «Adobe har utviklet programvare som kan oppdage om et bilde er manipulert». Under påstanden er det et bilde av en kvinne med fargemarkeringer over hele ansiktet (vanligvis brukt for å vise varmedeteksjon) for å antyde at deler av bildet har blitt endret. Dette står i kontrast til et bilde av en svart familie som spiser et måltid, der faren og maten på bordet har de samme fargemarkeringene for å antyde at disse to elementene er redigert inn. Innlegget forsterker den utbredte negative stereotypien om mangelen på en farsfigur blant svarte familier i USA, som stammer fra en kompleks historikk av systemisk rasisme og økonomisk ulikhet.
Meta tillot i utgangspunktet alle tre innleggene på Facebook, til tross for anker fra brukere. I ankene sine til rådet hevdet de samme brukerne at innholdet skildret skadelige stereotypier av afroamerikanere.
Etter at rådet hadde gjort Meta oppmerksomme på disse sakene, slo selskapet fast at alle innleggene brøt standarden om hatefulle ytringer, som forbyr direkte angrep mot mennesker på grunnlag av beskyttede egenskaper som rase og etnisitet. Retningslinjene forbyr også spesifikt å rette seg mot en person eller gruppe med nedsettende bemerkninger i form av «sammenligninger med kriminelle, inkludert tyver», «håne konseptet, hendelsene eller ofrene for hatkriminalitet» og «generaliseringer som antyder mindreverd i (...) moralske egenskaper».
I tillegg fastslo Meta at det andre innlegget, som viste navnet til Trayvon Martin og George Floyd, også brøt standarden om mobbing og trakassering, der selskapet skriver at de vil fjerne «feiringer og håning av en persons dødsfall eller medisinske tilstand». Selskapet forklarte at «bildet inneholder navnet på to avdøde personer, Trayvon Martin og George Floyd (...) Innholdet bagatelliserer dødsfallene ved å antyde at de skal delta i en fiktiv animasjonsfilm.»
Selskapet fjernet derfor alle tre innleggene.
Rådets myndighet og omfang
Rådet er bemyndiget til å vurdere Metas avgjørelse etter en anke fra brukeren som rapporterte innhold som ikke har blitt fjernet (vedtektenes artikkel 2, del 1; artikkel 3, del 1 i vedtektene).
Når Meta erkjenner at de har gjort en feil og omgjør avgjørelsen i en sak som potensielt skal vurderes av rådet, kan rådet velge ut saken for en sammenfattende avgjørelse (vedtektenes artikkel 2, punkt 2.1.3). Rådet går gjennom den opprinnelige beslutningen for å få bedre forståelse av prosessen med innholdsmoderering, redusere feilraten og øke rettferdigheten for brukere av Facebook og Instagram.
Sakenes betydning
Disse sakene viser tre tilfeller der Meta ikke klarte å håndheve retningslinjene sine om hatefulle ytringer og mobbing og trakassering, ved at de tillot disse krenkende innleggene til tross for brukerklager. To av innleggene fikk et stort antall visninger. Slike feil i modereringen, med underhåndhevelse av reglene, kan ha en negativ innvirkning på personer fra beskyttede grupper og bidra til et miljø med mer diskriminering. Rådet har på det sterkeste anmodet at Meta gjør hatefulle ytringer mot marginaliserte grupper til en strategisk prioritet.
I 2022 anbefalte rådet spesifikt at Meta «bør tydeliggjøre standarden om hatefulle ytringer og veiledningen moderatorene får, og de må forklare at selv implisitte referanser til beskyttede grupper er forbudt av retningslinjene når referansen med rimelighet kan forstås» (se vedtaket i saken «Knin-tegnefilm», anbefaling 1). Meta har rapportert delvis implementering av denne innstillingen.
Avgjørelse
Rådet omgjør Metas opprinnelige avgjørelse om å tillate de tre innleggene. Rådet erkjenner at Meta korrigerte den opprinnelige feilen etter at rådet gjorde selskapet oppmerksomme på disse sakene.
Volver a Decisiones de casos y opiniones consultivas sobre políticas