Decisión de casos múltiples
Rapporter om israeliska våldtäktsoffer
4 de abril de 2024
En användare överklagade Metas beslut att ta bort två Facebook-inlägg med beskrivningar av sexuellt våld som förövats av militanta Hamas-anhängare i samband med terrorattacken mot Israel den 7 oktober 2023. Efter att rådet uppmärksammat Meta på dessa överklaganden upphävde företaget sina ursprungliga beslut och återställde inläggen.
2 casos incluidos en el paquete
FB-YCJP0Q9D
Ärende gällande farliga individer och organisationer på Facebook
FB-JCO2RJI1
Ärende gällande farliga individer och organisationer på Facebook
Detta är ett sammanfattande beslut. För våra sammanfattande beslut undersöker vi ärenden i vilka Meta har ändrat sina ursprungliga innehållsbeslut efter det att rådet uppmärksammat företaget på ärendet och redovisar vilka fel som Meta erkänner sig ha gjort. Sammanfattande beslut fattas inte av hela rådet, utan av en mindre panel med rådsmedlemmar. Inga kommentarer från allmänheten vägs in i bedömningen och beslutet ska inte betraktas som prejudicerande för rådet. Sammanfattande beslut kan upphäva Metas beslut, tillhandahålla transparens kring eventuella rättelser och visa var det finns utrymme för förbättringar i Metas verkställighetsåtgärder.
Sammanfattning av ärendet
En användare överklagade Metas beslut att ta bort två Facebook-inlägg med beskrivningar av sexuellt våld som förövats av militanta Hamas-anhängare i samband med terrorattacken mot Israel den 7 oktober 2023. Efter att rådet uppmärksammat Meta på dessa överklaganden upphävde företaget sina ursprungliga beslut och återställde inläggen.
Beskrivning av och bakgrund till ärendet
I oktober 2023 publicerade en Facebook-användare två separata inlägg på varandra med identiskt innehåll. Inläggen innehöll en video med en kvinna som berättade att Hamas-anhängare hade begått våldtäkter på israeliska kvinnor i samband med terroristattackerna den 7 oktober. Bildtexten innehöll en ”trigger warning” (varning för stötande innehåll) och speakerrösten i videon varnade också användarna för stötande innehåll. Videon visade sedan hur två olika kvinnor kidnappas av Hamas. Det ena klippet visade en svårt skadad kvinna som låg med ansiktet nedåt i en lastbil medan det andra klippet visade en skadad kvinna som släpades ut ur ett fordon. Dessa filmer delades på bred front efter attacken. Det första inlägget delades cirka 4 000 gånger medan det andra inlägget delades mindre än 50 gånger.
Meta tog bort båda inläggen med hänvisning till brott mot Metas communityregel om farliga organisationer och individer. I enlighet med denna policy har företaget infört ett förbud mot att publicera bilder från tredje part som avbildar terrorattacker med identifierbara offer, även om bilderna har delats i syfte att fördöma eller öka medvetenheten om attacken i fråga. I enlighet med Metas communityregel om våld och uppvigling tar företaget även bort ”innehåll som avbildar bortföranden eller kidnappningar om det är tydligt att innehållet inte delas av ett offer eller dess familjemedlemmar som en vädjan om hjälp, eller delas i avsikt att informera, fördöma eller väcka medvetenhet”.
Strax efter Hamas attack den 7 oktober började Meta tillämpa policyn om farliga organisationer och individer på videor som avbildade enskilda attacker på synliga offer. Meta redovisade principen bakom tillvägagångssättet i ett inlägg i Newsroom den 13 oktober, med motivationen att man gjorde detta ”in order to prioritize the safety of those kidnapped by Hamas” (för att prioritera säkerheten för de människor som Hamas hade kidnappat). De bägge innehållsinläggen togs därför bort med hänvisning till brott mot Metas communityregel om farliga organisationer och individer.
Efter att beslutet hade fattats började ett flertal nyhetskanaler visa snarlika filmer, och även användarna började publicera sådant innehåll i syfte att fördöma och öka medvetenheten om attackerna. Som en följd av detta uppdaterade Meta sina policyer någonstans kring den 20 oktober och började då tillåta sådana filmer – dock endast i syfte att fördöma eller öka medvetenheten om illdåden, under förutsättning att innehållet åtföljdes av en varningsskärm som markerade innehållet som stötande. Meta offentliggjorde policyändringen i en uppdatering den 5 december av det ursprungliga inlägget i Newsroom från den 13 oktober (mer information och bakgrund finns i beslutet i ärendet ”Gisslan kidnappad från Israel”).
Meta tog ursprungligen bort båda innehållsinläggen från Facebook. Användaren överklagade då Metas beslut till rådet. Efter att rådet uppmärksammat Meta på ärendena kunde företaget konstatera att inläggen inte längre bröt mot policyerna efter uppdateringen. Därefter återställde Meta båda inläggen.
Rådets behörighet och omfång
Rådet har behörighet att granska Metas beslut efter ett överklagande från den person vars innehåll har tagits bort (artikel 2, avsnitt 1 i stadgan; artikel 3, avsnitt 1 i regelverket).
När Meta erkänner att de har gjort fel och upphäver sitt beslut i ett ärende som övervägs för granskning av rådet kan rådet välja ut ärendet för ett sammanfattande beslut (artikel 2, avsnitt 2.1.3 i regelverket). Rådet granskar det ursprungliga beslutet för att få bättre förståelse för processen för innehållsmoderering i syfte att minska felen och öka rättvisan för de som använder Facebook och Instagram.
Ärendets betydelse
Dessa två fall belyser Metas utmaningar inom området verkställighet när det gäller hanteringen av innehåll i en högriskkonflikt som befinner sig i ständig och snabb förändring. Metas ursprungliga policy förbjöd allt innehåll med avbildad gisslan i syfte att värna om dessa människors värdighet och skydda dem från allmänhetens nyfikenhet, något som rådet även påpekade i sitt påskyndade beslut i ärendet ”Gisslan kidnappad från Israel”. Rådet konstaterade dock att under extraordinära omständigheter kan tillfälliga och begränsade undantag vara påkallade, till exempel när det finns ett stort allmänintresse eller när det ligger i gisslans egna intresse att dådet uppmärksammas. Med tanke på situationen är det ändå förenligt med Metas innehållspolicyer, värderingar och ansvar för mänskliga rättigheter att man återställer den här typen av innehåll på plattformen med en varningsskärm som markerar innehållet som stötande. Detta ligger även i linje med internationella humanitära lagar och uppmaningen att spara dokumentation av påstådda brott för att underlätta framtida ansvarsutkrävande samt för att öka medvetenheten hos allmänheten. Rådet anmärkte också på att Meta dröjt för länge med att börja tillämpa undantaget för samtliga användare, och att företagets föränderliga approach till innehållsmoderering under konflikten hade åtföljts av långvarig brist på transparens.
Rådet har redan tidigare utfärdat rekommendationer som är relevanta för detta ärende. Rådet har rekommenderat Meta att offentliggöra undantag från communityreglerna och redovisa ”deras varaktighet, eller offentligt meddela när de upphör, så att användarna på företagets plattformar uppmärksammas på policyändringar som tillåter vissa uttryck” (se rekommendation 5 i beslutet i ärendet ”Protestslogan i Iran”). Meta har delvis implementerat rekommendationen genom att publicera viss information. Rådet har redan tidigare rekommenderat Meta att spara bevis på potentiella krigsbrott, brott mot mänskligheten och grova brott mot mänskliga rättigheter för att underlätta framtida ansvarsutkrävande (rekommendation 1 i beslutet i ärendet ”Video med grovt innehåll från Sudan” och rekommendation 1 i beslutet i ärendet ”Video som visar armeniska krigsfångar”. Meta har gått med på att implementera rekommendationen, men arbetet pågår fortfarande. Rådet betonar behovet av att Meta agerar utifrån dessa rekommendationer för att försäkra sig om att innehåll som skildrar brott mot mänskliga rättigheter hanteras korrekt på dess plattformar.
Beslut
Rådet upphäver Metas ursprungliga beslut att ta bort två innehållsinlägg. Rådet framhåller att Meta korrigerade sitt misstag när rådet uppmärksammat Meta på de bägge ärendena.
Volver a Decisiones de casos y opiniones consultivas sobre políticas