Overturned
Uttalande om det kinesiska kommunistpartiet
August 1, 2024
En användare överklagade Metas beslut att ta bort en kommentar på Instagram som kallar på det kinesiska kommunistpartiets död.
I våra sammanfattande beslut undersöker vi ärenden i vilka Meta har ändrat sina ursprungliga innehållsbeslut efter det att rådet uppmärksammat företaget på ärendet. De innehåller även information om fel som Meta erkänner sig ha gjort. Sammanfattande beslut fattas inte av hela rådet, utan av en mindre panel med rådsmedlemmar. Inga kommentarer från allmänheten vägs in i bedömningen och beslutet ska inte betraktas som prejudicerande för rådet. Sammanfattande beslut kan innebära direkta ändringar av Metas beslut, ge transparens kring eventuella rättelser och visa var det finns utrymme för förbättringar i Metas verkställighetsåtgärder.
Sammanfattning
En användare överklagade Metas beslut att ta bort en kommentar på Instagram som kallar på det kinesiska kommunistpartiets död. Efter det att rådet uppmärksammat Meta på överklagandet upphävde företaget sitt ursprungliga beslut och återställde inlägget.
Om ärendet
I mars 2024 publicerade en Instagram-användare en kommentar med texten ”Död åt det kinesiska kommunistpartiet!” följt av dödskalle-emojier. Kommentaren gjordes till svar på ett inlägg ifrån en nyhetskanals konto som innehöll en video av när Wang Wenbin, en tidigare talesperson för kinas utrikesministerium, fördömde genomröstningen av en lag som skulle kunna påverka TikToks närvaro i USA i USA:s representanthus.
Meta tog först bort användarens inlägg från Facebook enligt communityregeln om våld och uppvigling som förbjuder ”hot om våld”. Företaget förklarade att förbudet omfattar ”vissa önskemål om andras död om de innehåller ett mål och en våldsmetod”.
När rådet uppmärksammade Meta på det aktuella ärendet fastställde företaget att det var fel att ta bort kommentaren och återställde därmed innehållet på Instagram. Meta förklarade att önskemål om död för en institution som det kinesiska kommunistpartiet behandlas som tillåtna, vilket företaget anger i sina interna riktlinjer för innehållsgranskare.
Rådets behörighet och omfång
Rådet har behörighet att granska Metas beslut efter överklagande från den användare vars innehåll har tagits bort (artikel 2, avsnitt 1 i stadgan, artikel 3, avsnitt 1 i regelverket).
När Meta erkänner att de har gjort fel och upphäver sitt beslut i ett ärende som övervägs för granskning av rådet kan rådet välja ut ärendet för ett sammanfattande beslut (artikel 2, avsnitt 2.1.3 i regelverket). Rådet granskar det ursprungliga beslutet för att få bättre förståelse för processen för innehållsmoderering i syfte att minska antalet fel och öka rättvisan för de som använder Facebook, Instagram och Threads.
Ärendets signifikans
Detta ärende visar på en inkonsekvens i hur Meta verkställer sin policy om våld och uppvigling mot metaforiska och bildliga uttalanden i en politisk kontext. Detta kan ha en oproportionerlig påverkan på politiska uttalanden med kritik mot stater och myndigheter. Ärendet understryker vikten av att Meta beaktar målet för uttalandet (i detta fall ett politiskt parti), samt människors användning av överdrifter, retorik, ironi och satir för att kritisera institutioner, när företaget utformar sina modereringssystem.
Avseende retorik ansåg rådet i ärendet Rysk dikt att de utdrag med våldsinnehåll ur dikten ”Döda honom!” kunde läsas som en beskrivning av, och inte en uppmuntran till, ett sinnestillstånd. Rådet fastslog att våldsinnehållet användes retoriskt för att förmedla användarens meddelande och att den delen av innehållet därmed var tillåten enligt Metas interna riktlinjer om policyn om våld och uppvigling.
Även om det handlade om en annan communityregel (hatretorik) än den som behandlas i detta ärende (våld och uppvigling), är beslutet i ärendet Myanmar-botten relevant eftersom det också gäller uttalanden mot stater eller politiska institutioner. I det ärendet slog rådet fast att i och med att det kränkande uttrycket i inlägget var riktat mot en stat och inte mot ett folk baserat på etnicitet eller nationellt ursprung så bröt det inte mot communityregeln om hatretorik. Rådet betonade: ”Det är av yttersta vikt att säkerställa att förbud mot att angripa människor baserat på skyddade egenskaper inte kan tolkas på ett sätt som skyddar regeringar eller institutioner från kritik.”
Rådet har tidigare uppmanat Meta att upprätta adekvata procedurer för att utvärdera innehåll i den relevanta kontexten (rekommendation 3 i ärendetMemet ”Two buttons”). Rådet har även rekommenderat: ”För att bättre informera användarna om vilka typer av uttalanden som är förbjudna bör Meta utöka communityregeln om våld och uppvigling så att den (i) förklarar att retoriska hot av typen ”död åt X” i allmänhet är tillåtna, förutom när de riktas mot särskilt riskutsatta personer…” (rekommendation 1 i ärendet Protestslogan i Iran), och att ”Meta bör hellre utfärda utökade undantag när (i) det inte är troligt att innehållet leder till våld, (ii) när potentiellt regelöverträdande innehåll används i protestsammanhang och (iii) när det allmänna intresset är stort” (rekommendation 2 i ärendet Protestslogan i Iran).
Meta uppgav sig ha implementerat rekommendationen i ärendet Memet ”två knappar” och rekommendation 2 i beslutet i ärendet Protestslogan i Iran, men publicerade ingen information som visade på det. Avseende rekommendation 1 i ärendet Protestslogan i Iran uppgav Meta i sin kvartalsuppdatering till rådet för det fjärde kvartalet 2023 att: ”Vi har uppdaterat våra communityregler om våld och uppvigling genom att tillhandahålla mer information om vad som utgör ett hot och genom att besluta om verkställande utifrån målet. Som en del av det arbetet har vi även uppdaterat den interna vägledningen.”
Rådet anser att en fullständig implementering av dessa rekommendationer skulle leda till färre verkställighetsfel i samband med policyn om våld och uppvigling.
Beslut
Rådet upphäver Metas ursprungliga beslut att ta bort innehållet. Rådet framhåller att Meta korrigerade sitt misstag när rådet uppmärksammat Meta på ärendet.