Multiple Case Decision

Negativa stereotyper av afroamerikaner

Rådet granskade tre inlägg på Facebook med rasistiskt innehåll som Meta låtit vara kvar online. Efter att rådet uppmärksammat Meta på överklagandena upphävde företaget de ursprungliga besluten och tog bort inläggen.

3 cases included in this bundle

Overturned

FB-LHBURU6Z

Ärende gällande hatretorik på Facebook

Platform
Facebook
Topic
Diskriminering,Etnicitet
Standard
Hatiskt beteende
Location
USA
Date
Published on April 18, 2024
Overturned

FB-1HX5SN1H

Ärende gällande hatretorik på Facebook

Platform
Facebook
Topic
Diskriminering,Etnicitet
Standard
Hatiskt beteende
Location
Förenade kungariket,USA
Date
Published on April 18, 2024
Overturned

FB-ZD01WKKW

Ärende gällande hatretorik på Facebook

Platform
Facebook
Topic
Diskriminering,Etnicitet
Standard
Hatiskt beteende
Location
USA
Date
Published on April 18, 2024

Detta är ett sammanfattande beslut. I våra sammanfattande beslut undersöker vi ärenden i vilka Meta har ändrat sina ursprungliga innehållsbeslut efter det att rådet uppmärksammat företaget på ärendet. De innehåller även information om fel som Meta erkänner sig ha gjort. Sammanfattande beslut fattas inte av hela rådet, utan av en mindre panel med rådsmedlemmar. Inga kommentarer från allmänheten vägs in i bedömningen och beslutet ska inte betraktas som prejudicerande för rådet. Sammanfattande beslut kan innebära direkta ändringar av Metas beslut, tillhandahålla transparens kring eventuella rättelser och visa var det finns utrymme för förbättringar i Metas verkställighetsåtgärder.

Sammanfattning

Rådet granskade tre inlägg på Facebook med rasistiskt innehåll som Meta låtit vara kvar online. Inläggen innehöll karikatyrer eller manipulerade bilder av afroamerikaner som framhöll stötande stereotyper, bland annat frånvarande fäder, beroende av socialbidrag och plundrare vid en butik. Ärendena belyser felaktigheter i Metas verkställighet av policyerna om hatretorik samt mobbning och trakasserier. Efter att rådet uppmärksammat Meta på överklagandena upphävde företaget de ursprungliga besluten och tog bort inläggen.

Om ärendena

I slutet av 2023 fick rådet in tre separata överklaganden angående tre olika bilder som publicerats på Facebook, som alla innehåller negativt material om afroamerikaner.

I det första inlägget, som visats ungefär 500 000 gånger, hade användaren publicerat en datorgenererad bild av en brinnande butik med tecknade svarta personer i luvtröjor som springande bar ut varor ur butiken. Namnet på butiken, Target, var ändrat till ”Loot” (byte) i bilden och i bildtexten menade användaren att bilden kom från den senaste Pixar-filmen.

Det andra inlägget innehöll en datorgenererad bild som också skulle föreställa en filmaffisch, där en svart kvinna med överdrivna fysiska attribut håller i en kundvagn full av ostbågar. Filmtiteln är ”EBT”, vilket är namnet på ett välfärdsprogram som delar ut socialbidrag i USA. Längst upp på affischen, där du normalt hittar skådespelarnas namn, står namnen Trayvon Martin och George Floyd som båda är afroamerikanska brottsoffer. Den ena sköts av en beväpnad medborgargardist 2012 och den andra dödades av polisen 2020. De här dödsfallen ledde till protester kring hur olika etniciteter behandlas i det amerikanska rättssystemet.

Det tredje inlägget, som visats omkring 14 miljoner gånger, innehållet ett meme som hävdar att Adobe utvecklat programvara som kan identifiera användning av Photoshop i bilder. Under påståendet visas en bild av en kvinna med färggranna markeringar i hela ansiktet (används normalt till att visa på värmedetektering) som indikation på att delar av bilden har manipulerats. Som kontrast visas en bild av en svart familj vid matbordet, där pappan och maten på bordet har samma färggranna markeringar som indikation på att de här två elementen lagts till med hjälp av redigering. Inlägget förstärker den utbredda stereotypen kring frånvarande fäder i svarta familjer i USA, vars ursprung är en komplex historia full av systematisk rasism och ekonomisk ojämlikhet.

Meta lät ursprungligen alla tre inlägg vara kvar på Facebook trots överklaganden från olika användare. I dina överklaganden till rådet menade samma användare att innehållet avbildar skadliga, rasistiska stereotyper av afroamerikaner.

Efter att rådet uppmärksammat Meta på ärendena fann företaget att inläggen bröt mot communityregeln om hatretorik, som förbjuder personangrepp baserade på skyddade egenskaper, bland annat etnisk tillhörighet. Policyn förbjuder även specifikt utpekande av personer och grupper med avhumaniserande tal i form av jämförelser med brottslingar, till exempel tjuvar, förlöjliganden av hatbrott eller deras offer samt generaliseringar som uttrycker en lägre stående moral.

Meta slog dessutom fast att det andra inlägget, med namnen Trayvon Martin och George Floyd, även bröt mot communityregeln om mobbning och trakasserier, där företaget tar bort innehåll som firar eller förlöjligar andra personers dödsfall eller sjukdomstillstånd. Företaget förklarade att bilden innehåller namnen på två avlidna personer, Trayvon Martin och George Floyd, och att innehållet trivialiserar dödsfallen genom att antyda att de ska medverka i en fiktiv tecknad film.
Företaget tog därför bort de tre inläggen.

Rådets behörighet och omfång

Rådet har behörighet att granska Metas beslut efter överklagande från den användare som anmält innehåll som sedan lämnats kvar på plattformen (artikel 2, avsnitt 1 i stadgan, artikel 3, avsnitt 1 i regelverket).

När Meta erkänner att de har gjort fel och upphäver sitt beslut i ett ärende som övervägs för granskning av rådet kan rådet välja ut ärendet för ett sammanfattande beslut (artikel 2, avsnitt 2.1.3 i regelverket). Rådet granskar det ursprungliga beslutet för att få bättre förståelse för processen för innehållsmoderering i syfte att minska antalet fel och öka rättvisan för de som använder Facebook och Instagram.

Ärendenas signifikans

De här ärendena belyser tre tillfällen där Meta misslyckades i verkställigheten av företagets policyer om hatretorik samt mobbning och trakasserier genom att lämna kvar regelöverträdelser trots klagomål från användarna. Två av inläggen har visats ett stort antal gånger. Sådana modereringsfel där verkställigheten brister kan påverka personer i grupper med skyddade egenskaper negativt och bidra till en diskriminerande miljö. Rådet har uppmanat Meta att göra hatretorik mot marginaliserade grupper till en strategisk prioritet.

2022 utfärdade rådet en rekommendation om att ”Meta bör göra sin communityregel om hatretorik och den vägledning som tillhandahålls granskarna tydligare. Företaget bör förklara att policyn även förbjuder underförstådda referenser till skyddade grupper i de fall när dessa referenser rimligen borde ha förståtts” (rekommendation 1 i beslutet i ärendetTecknad film om staden Knin), en rekommendation som enligt Meta är delvis implementerad.

Beslut

Rådet upphäver Metas ursprungliga beslut att lämna kvar de tre inläggen. Rådet framhåller att Meta korrigerade sina misstag när rådet uppmärksammade företaget på ärendena.

Return to Case Decisions and Policy Advisory Opinions