Anulado
Sjukhuset al-Shifa
19 de Dezembro de 2023
Rådet upphäver Metas ursprungliga beslut att ta bort innehållet från Instagram. Rådet anser att det är förenligt med Metas innehållspolicyer, värderingar och ansvar för mänskliga rättigheter att återställa innehållet på plattformen med en varningsskärm som markerar innehållet som stötande.
Under veckorna efter publiceringen av detta beslut laddar vi upp en översättning till hebreiska här. En översättning till arabiska kommer att finnas på fliken Språk på menyn högst upp på denna skärm.
לקריאת החלטה זו בעברית יש ללחוץ כאן.
1. Sammanfattning
Detta ärende behandlar en känslomässigt stark video av efterdyningarna av en våldsam attack mot eller i närheten av sjukhuset al-Shifa i Gaza under Israels markoffensiv. Videon åtföljs av en bildtext som fördömer attacken. Metas automatiska system tog bort inlägget för brott mot communityregeln om våldsamt och stötande innehåll. Efter att utan framgång överklagat beslutet hos Meta överklagade användaren till Tillsynsrådet. När rådet valt ut ärendet för granskning upphävde Meta sitt beslut och återställde innehållet med en varningsskärm. Rådet anser att det ursprungliga beslutet att ta bort innehållet inte är förenligt med Metas innehållspolicyer eller ansvar för mänskliga rättigheter. Rådet bifaller beslutet att återställa innehållet med en varningsskärm, men ogillar den tillhörande nedgraderingen av innehållet som gjorde att det inte kunde rekommenderas. Detta ärende och ärendet Gisslan kidnappad från Israel (2023-050-FB-UA) är de första ärenden rådet fattat beslut i enligt sina rutiner för påskyndad granskning.
2. Sammanhang och Metas svar
Den 7 oktober 2023 utförde Hamas, en organisation på nivå 1 enligt Metas communityregel om farliga organisationer och individer, ett flertal brutala terrordåd mot Israel från Gaza. I attackerna dog cirka 1 200 personer och runt 240 personer togs som gisslan (enligt uppgifter från Israels utrikesministerium). Israel inledde omedelbart en militär insats i Gaza till svar på attackerna. Vid mitten av december 2023 hade fler än 18 000 personer dödats i Gaza till följd av Israels militära insats (enligt FN:s kontor för samordning av humanitära frågor, utifrån uppgifter från hälsoministeriet i Gaza). Båda sidor har anklagats för att bryta mot internationell rätt i konflikten. Både terrordåden och Israels efterföljande militära insats har varit föremål för intensiv publicitet, debatt, granskning och kontroverser över hela världen, ofta på sociala medier som Instagram och Facebook.
Meta förklarade omedelbart att företaget betecknade händelserna den 7 oktober vara en terrorattack enligt företagets policy om farliga organisationer och individer. Enligt företagets communityregler innebär det att Meta tar bort allt innehåll på sina plattformar som ”hyllar, ger omfattande stöd åt eller representerar” attackerna den 7 oktober och gärningsmännen som utförde dem.
För att hantera den enorma mängd våldsamt och stötande innehåll som publicerades på företagets plattformar till följd av terrordåden och den militära insatsen, införde Meta flera tillfälliga åtgärder. En av dessa åtgärder var en sänkning av konfidensgränserna för det automatiska klassificeringssystemet för våldsamt och stötande innehåll vars syfte är att identifiera och ta bort innehåll. Meta informerade rådet om att dessa åtgärder gällde för innehåll på alla språk med ursprung i Israel och Gaza. De ändrande klassificeringarna och de sänkta konfidensgränserna har lett till att fler innehåll har tagits bort automatiskt för brott mot Metas policyer. Meta använde med andra ord sina automatiska verktyg till ett aggressivare borttagande av innehåll som skulle kunna bryta mot företagets policyer. Meta gjorde det för att prioritera sin värdering avseende säkerhet, och följden blev att mer innehåll togs bort än vad som skulle ha tagits bort med de högre konfidensvärden som användes före den 7 oktober. Sannolikheten för att Meta skulle missa att ta bort innehåll som bröt mot reglerna – och som annars skulle ha undgått detektering eller släppts igenom på grund av bristande kapacitet för manuell granskning – sjönk visserligen, men åtgärderna ledde också till ökad sannolikhet för att Meta skulle råka ta bort legitimt innehåll om konflikten på felaktiga grunder.
I bedömningen av om videor bröt mot företagets policyer om våldsamt och stötande innehåll, våld och uppvigling och farliga organisationer och individer använde sig Metas eskaleringsteam av mediematchningstjänstens banker till att automatiskt ta bort matchande videor. Denna metod väckte farhågor om verkställande i överkant, särskilt som det ledde till att en del personer fick sina konton belagda med begränsningar eller avstängda för upprepade brott mot Metas innehållspolicyer (vilket ibland kallas ”Facebook-fängelset”). I syfte att hantera dessa farhågor beslöt Meta att inte dela ut de varningar som vanligen åtföljer automatisk borttagning av innehållsinlägg baserat på matchningar från mediematchningstjänstens banker (vilket tillkännagavs av Meta i ett Newsroom-inlägg).
Metas ändrade konfidensgränser för klassificering och policyn för utdelning av varningar är begränsade till Gazakonflikten och är avsedda att vara tillfälliga. Den 11 december 2023 hade Meta inte återställt konfidensgränserna till de nivåer som gällde före den 7 oktober.
3. Beskrivning av ärendet
Innehållet i detta ärende omfattar en video som publicerades på Instagram under den andra veckan av november, och som visar vad som verkar vara efterdyningarna av ett anfall mot eller i närheten av sjukhuset al-Shifa i Gaza under Israels markoffensiv på norra Gazaremsan. I Instagram-inlägget i ärendet visas människor, inklusive barn, som ligger livlösa eller skadade på marken. Ett barn ser ut att ha dött och har en allvarlig skallskada. En bildtext på arabiska och engelska under videon anger att sjukhuset är måltavla för angrepp från den ”illegala ockupationsmakten”, vilket avser den israeliska armén, och taggar människorätts- och nyhetsorganisationer.
Metas communityregel om våldsamt och stötande innehåll, som gäller för innehåll på Facebook och Instagram, förbjuder “[v]ideor med människor eller döda kroppar i icke-medicinska sammanhang om de visar … [s]ynliga inre organ”. Vid tiden när inlägget publicerades tillät policyn ”[b]ilder som visar en eller flera personers våldsamma död genom olycka eller mord”, förutsatt att innehållet placerades bakom en varningsskärm som markerar innehållet som stötande och endast visades för personer som över 18 år. Denna regel uppdaterades den 29 november, efter det att innehållet i ärendet återställdes, för att förtydliga att regeln gäller för ”dödsögonblicket eller efteråt” samt bilder av ”en person som råkar ut för en livshotande händelse”.
Metas automatiska system tog bort innehållet i ärendet för brott mot communityregeln om våldsamt och stötande innehåll. Användarens överklagan mot beslutet avvisades automatiskt eftersom Metas klassificeringar angav att innehållet med ”stor säkerhet” bröt mot reglerna. Användaren överklagade då Metas beslut till Tillsynsrådet.
När rådet valt ut ärendet uppgav Meta att företaget inte med säkerhet kunde fastställa att videon visade synliga inre organ. Meta slog därför fast att företaget inte borde ha tagit bort innehållet trots att det låg på gränsen till att bryta mot reglerna. Meta förklarade också att även om det hade funnits synliga inre organ så skulle inlägget ha lämnats kvar med en varningsskärm som markerar innehållet som stötande eftersom det delades för att väcka medvetenhet. Företaget påminde om att enligt motiveringen till innehållspolicyn om våldsamt och stötande innehåll är sådant innehåll tillåtet när det delas för att väcka medvetenhet ”om viktiga frågor som brott mot mänskliga rättigheter, väpnade konflikter och terrordåd”.
Meta upphävde därmed sitt ursprungliga beslut och återställde innehållet med en varningsskärm. Varningsskärmen meddelar användarna att innehållet kan vara upprörande. Myndiga användare kan klicka sig förbi varningsskärmen för att se inlägget, men Meta tar bort denna typ av inlägg från flödet för Instagram-användare som är under 18 år gamla samt tar bort dem från rekommendationerna för myndiga Instagram-användare. Meta lade också till videon separat i en av mediematchningstjänstens banker så att andra identiska videor automatiskt skulle lämnas kvar med en varningsskärm och endast visas för användare över 18 år.
4. Motivering för påskyndad granskning
Tillsynsrådets regelverk medger påskyndad granskning vid ”exceptionella omständigheter, inklusive när innehåll kan få akuta konsekvenser i verkligheten”. Besluten är bindande för Meta (regelverket, artikel 3, avsnitt 7.2, regelverket, artikel 2, avsnitt 2.1.2). Vid påskyndad granskning kan rådet inte uppnå samma höga nivåer som brukligt gällande den inhämtning av utförlig research, synpunkter från externa rådgivare och kommentarer från allmänheten som annars krävs i ärenden som granskas inom normala tidsspann. Beslut i ärendet måste inte fattas av ett enigt Tillsynsråd utan fattas av en panel bestående av fem medlemmar utifrån den information som är tillgänglig för rådet när överläggningarna sker.
Tillsynsrådet valde ut detta ärende och ärendet Gisslan kidnappad från Israel (2023-050-FB-UA) med tanke på yttrandefrihetens viktiga roll i konfliktsituationer, vilken hotats i samband med konflikten mellan Israel och Hamas. Båda ärendena är representativa för de typer av överklaganden som användare i området har skickat in till rådet sedan attackerna den 7 oktober och Israels påföljande militära insats. Båda ärendena omfattas av Tillsynsrådets prioritering av konfliktsituationer. Metas beslut i de båda ärendena uppfyller villkoret om ”akuta konsekvenser i verkligheten” som gör påskyndad granskning berättigad. Därmed kom rådet och Meta överens om att fortsätta enligt rådets process för påskyndad granskning.
I sina framställningar till rådet menade Meta att ”det är svårt att besluta hur detta innehåll ska behandlas och beslutet omfattar motstridiga värderingar och avvägningar”. Meta välkomnade därför rådets åsikter i frågan.
5. Framställningar från användaren
Inläggets upphovsman menade i sin överklagan till rådet att denna inte uppviglat till våld utan delat innehåll som visade palestiniernas och deras barns lidande. Användaren tillade att borttagandet visade på en partisk inställning till palestiniernas lidande. Användaren meddelades om att rådet granskade dennas överklagan.
6. Beslut
Även om rådets medlemmar var oeniga om Israels militära insats och dess berättigande var de alla eniga om vikten av att Meta respekterar rätten till yttrandefrihet och andra mänskliga rättigheter för alla de som påverkas av händelserna, och deras förmåga att kommunicera under denna kris.
Rådet upphäver Metas ursprungliga beslut att ta bort innehållet från Instagram. Rådet anser att det är förenligt med Metas innehållspolicyer, värderingar och ansvar för mänskliga rättigheter att återställa innehållet på plattformen med en varningsskärm som markerar innehållet som stötande. Rådet finner emellertid också att Metas nedgradering av det återställda innehållet, i och med att det undantogs från möjligheten att rekommenderas, inte är förenlig med företagets ansvar att respektera yttrandefriheten.
6.1 Efterlevnad av Metas innehållspolicyer
Rådet håller med Meta om att det är svårt att avgöra om videon i ärendet visar ”[s]ynliga inre organ”. Med tanke på ärendets kontext, i vilken det ligger ett exceptionellt högt allmänintresse i att skydda åtkomsten till information och tillhandahålla plattformar där det går att väcka medvetenhet om konfliktens effekter, bör innehåll som ”ligger på gränsen” till att bryta mot policyn om våldsamt och stötande innehåll inte tas bort. I och med att innehållet omfattar bilder som visar en persons våldsamma död, med bilder av en blödande skallskada, borde Meta ha infört en varningsskärm och endast gjort det tillgängligt för personer över 18 år i enlighet med sina policyer.
Rådet håller även med om Metas senare bedömning att inläggets text som fördömer eller väcker medvetenhet om våldet innebär att videon, även om den hade innehållit synliga inre organ, skulle ha lämnats kvar med en varningsskärm som markerar innehållet som stötande och inte tillgängligt för användare under 18 år. Communityregeln säger ingenting om varningsskärmar i relation till den tillämpliga policyraden (”[v]ideor av personer och döda kroppar i ett medicinskt sammanhang om de visar […] [s]ynliga inre organ”). I ärendet Video med grovt innehåll från Sudan förklarade rådet att Meta instruerar granskarna att ordagrant följa företagets policyer om vad som inte får publiceras. Motiveringen anger att ”[i] diskussioner om viktiga frågor som brott mot de mänskliga rättigheterna, väpnade konflikter eller terrorism, tillåter vi grovt innehåll (med vissa begränsningar) i syfte att hjälpa människor att fördöma eller väcka medvetenhet kring dessa frågor”. Enligt communityregeln förbjuds emellertid alla videor som visar ”synliga inre organ” i en icke-medicinsk kontext utan att granskarna får alternativet att lägga till en varningsskärm när undantaget enligt policymotiveringen är gäller. Metas automatiska system verkar inte vara konfigurerade att lägga till varningsskärmar på videor som avbildar stötande innehåll när det finns kontext som visar på att det handlar om att fördöma eller väcka medvetenhet om våldet. Det är inte heller tydligt att de tillämpliga klassificeringarna skulle kunna skicka innehållet för ytterligare bedömning i manuell granskning när sådan kontext finns.
6.2 Efterlevnad av Metas ansvar för de mänskliga rättigheterna
I enlighet med Metas ansvar för mänskliga rättigheter måste Metas moderering av våldsamt och stötande innehåll respektera yttrandefriheten, vilken omfattar friheten att söka efter, ta emot och kommunicera information (artikel 19, paragraf 2, konventionen om medborgerliga och politiska rättigheter (ICCPR)). Som rådet angav i ärendet Video som visar armeniska krigsfångar ska skyddet för yttrandefriheten enligt artikel 19 i internationella konventionen om medborgerliga och politiska rättigheter (ICCPR) ”kvarstå vid väpnad konflikt och fortsätta att ligga till grund för Metas ansvar för mänskliga rättigheter, ihop med de ömsesidigt stärkande och kompletterande reglerna inom internationell humanitär rätt som gäller under sådana konflikter”. FN:s vägledande principer för företag och mänskliga rättigheter innebär ett ökat ansvar för företag som bedriver verksamhet i konfliktområden (”företag, mänskliga rättigheter och konfliktdrabbade områden: mot förstärkta åtgärder” A/75/212).
Rådet har betonat i tidigare ärenden att sociala medier som Facebook och Instagram är viktiga plattformar för att sända realtidsinformation om våldshändelser, inklusive nyhetsrapporter (se till exempel Omnämnande av talibanerna i nyhetsrapportering). De spelar en särskilt viktig roll i samband med väpnad konflikt, särskilt när journalister endast släpps in i begränsad omfattning. Dessutom är innehåll som avbildar våldsamma attacker och brott mot mänskliga rättigheter av stort allmänintresse (se ärendet Video med grovt innehåll från Sudan).
När en stat begränsar yttrandefriheten måste den enligt internationell människorättslagstiftning uppfylla kraven på laglighet, berättigat ändamål, nödvändighet och proportionalitet (artikel 19, paragraf 3, ICCPR). Dessa krav kallas ofta för de tre villkoren. Rådet använder detta ramverk till att tolka Metas frivilliga åtaganden kring mänskliga rättigheter, både i relation till det enskilda innehållsbeslutet och vad det säger om Metas generella hållning gällande innehållsstyrning. I sin tolkning försöker rådet ta hänsyn till hur de rättigheterna kan se annorlunda ut när de tillämpas på ett privat företag verksamt inom sociala medier mot när de tillämpas på en regering. FN:s specialrapportör om främjande och skydd av rätten till åsikts- och yttrandefrihet menar att företag visserligen inte har samma skyldigheter som regeringar, men ”deras inverkan är av ett slag som gör det nödvändigt för dem att ta ställning till samma typer av frågor om att skydda sina användares rätt till yttrandefrihet” (rapport A/74/486, paragraf 41).
Laglighetskravet anger att eventuella begränsningar av yttrandefriheten ska vara tillräckligt lättillgängliga och tydliga att de kan ge vägledning angående vad som är tillåtet och vad som inte är det. Rådet har tidigare uttryckt oro för att reglerna i communityregeln om våldsamt och stötande innehåll inte helt följer motiveringen för policyn i vilken policyns ändamål anges (se Video med grovt innehåll från Sudan och Video efter attack mot kyrka i Nigeria). Rådet påminner om vikten av rekommendation 1 och 2 i ärendet Video med grovt innehåll från Sudan. I dem uppmanades Meta att justera sin communityregel om våldsamt och stötande innehåll så att den tillåter videor med människor eller döda kroppar när de delas i syfte att väcka medvetenhet om eller dokumentera brott mot de mänskliga rättigheterna. (Det ärendet gällde synlig stympning.) Meta har genomfört en policyutvecklingsprocess till svar på dessa rekommendationer och har för avsikt att rapportera om sina framsteg i sin nästa kvartalsuppdatering till rådet. Enligt rådet bör denna rekommendation gälla för reglerna för videor i vilka synliga inre organ visas, och specifikt ange varningsskärmar som en verkställighetsåtgärd när undantaget för att väcka medvetenhet (inklusive faktarapportering) och fördöma åberopas.
Enligt artikel 19, paragraf 3 i ICCPR kan yttrandefriheten begränsas enligt en definierad och begränsad lista med orsaker. Rådet har tidigare funnit att policyn om våldsamt och stötande innehåll har som berättigat ändamål att skydda andras rättigheter, inklusive avbildade personers integritet (se Video med grovt innehåll från Sudan och Video efter attack mot kyrka i Nigeria). Det aktuella ärendet visar dessutom att begränsningen av innehållet till personer över 18 år tjänade det berättigade ändamålet att skydda minderårigas rätt till hälsa (Barnkonventionens artikel 24).
Principen om nödvändighet och proportionalitet anger att begränsningar av yttrandefriheten ”måste vara lämpliga för att uppnå sin skyddande funktion, de måste vara det minst ingripande alternativet av de som skulle kunna användas för att uppnå den skyddande funktionen, [och] de måste vara proportionerliga i förhållande till det intresse som ska skyddas” (allmän kommentar 34, paragraf 34).
Rådet har tidigare bedömt att en varningsskärm i samband med våldsamt och stötande innehåll ”inte är onödigt betungande för de som vill se innehållet och informerar samtidigt andra om innehållets typ så att de kan avgöra om de vill se det eller inte” (se Video med grovt innehåll från Sudan). Varningsskärmar förhindrar att användare ser innehåll som kan vara stötande om de inte vill det. Offrets rättigheter skyddas också av Metas policy att ta bort videor och foton som visar en persons död genom våld (eller direkta efterverkningar) när en familjemedlem begär det. Innehållet i detta ärende skiljer sig från det i ärendet Rysk dikt. I det fanns en stillbild tagen på håll av en kropp på marken. Personens ansikte var inte synligt på bilden och det fanns inte några tydliga synliga indikatorer på våld. Införandet av en varningsskärm i det ärendet var inte förenligt med Metas vägledning till granskarna och inte en nödvändig eller proportionerlig begränsning av yttrandefriheten. Innehållet i detta ärende är mer likt innehållet i ärendet Video efter attack mot kyrka i Nigeria, i vilket döda och skadade personer visades i närbild, med mycket tydliga visuella indikatorer på våld.
I detta ärende gör avbildningen av skadade och livlösa barn videon särskilt upprörande. I omständigheter som dessa är det en nödvändig och proportionerlig åtgärd att ge användarna möjligheten att välja om de vill se stötande innehåll (se även Video som visar armeniska krigsfångar).
Rådet anser inte att det är en nödvändig eller proportionerlig begränsning av yttrandefriheten att exkludera innehåll som väcker medvetenhet om möjliga brott mot mänskliga rättigheter, brott mot krigets lagar, konflikter eller terrordåd från rekommendationer för vuxna, med tanke på sådant innehålls mycket stora allmänintresse. Varningsskärmarna och borttagandena från rekommendationer har olika syften och borde under vissa omständigheter kopplas isär. Detta särskilt i krissituationer. Rekommendationerna på Instagram genereras av automatiska system som föreslår innehåll för användarna baserat på prediktioner av användarens intressen. När innehåll tas bort från systemet för rekommendationer innebär det att innehållet får mindre räckvidd än det annars skulle få. Rådet anser att detta tillvägagångssätt har en oproportionerligt stor inverkan på yttrandefriheten när det gäller innehåll som redan har begränsats till vuxna användare och som publiceras för att väcka medvetenhet, fördöma eller rapportera om ämnen av allmänintresse, till exempel utvecklingen av en våldsam konflikt.
Rådet inser att det till svar på en kris kan krävas exceptionella tillfälliga åtgärder, och att det i vissa sammanhang är berättigat att prioritera säkerhetsfrågor och att tillfälligt och proportionerligt införa större begränsningar av yttrandefriheten. Några av dessa beskrivs till exempel i åtagandena för att bemöta ”terroristinnehåll och våldsamt extremistiskt innehåll” som anges i manifestet Christchurch Call. Rådet framhåller emellertid att Christchurch Call betonar behovet av att bemöta sådant innehåll på ett sätt som är förenligt med mänskliga rättigheter och grundläggande friheter. Rådet anser att säkerhetsfrågor inte rättfärdigar att av försiktighetsskäl ta bort stötande innehåll som syftar till att väcka medvetenhet om eller fördöma möjliga krigsbrott, brott mot mänskligheten och grova människorättsbrott. Sådana begränsningar kan till och med förhindra att de personer som befinner sig på mitt i dessa konflikter får tillgång till information som är nödvändig för deras säkerhet.
Åtgärder som att inte dela ut varningar bidrar till att motverka de möjliga oproportionerligt negativa effekterna av verkställighetsfel till följd av nödåtgärder som att minska konfidensgränserna för borttagning av innehåll i konfliktsituationer. De är emellertid inte tillräckliga för att skydda användarnas förmåga att dela innehåll som väcker medvetenhet om möjliga brott mot mänskliga rättigheter, brott mot humanitär rätt och annan avgörande information i konfliktsituationer.
Rådet har återkommande framhållit behovet av att utveckla ett principstyrt och transparent ramverk för innehållsmoderering i krissituationer och i konfliktområden (se ärendena Video från polisstation i Haiti och Tigray Communication Affairs Bureau). Det är just i tider med snabbt föränderliga konflikter som stora företag verksamma inom sociala medier måste tillhandahålla de resurser som krävs för att säkerställa att yttrandefriheten inte begränsas i onödan. I sådana tider utsätts journalistiska källor ofta för fysiska och andra angrepp, vilket gör vanliga medborgares nyhetsrapporter via sociala medier särskilt viktiga.
Rådet har också tidigare noterat att förekomsten av våldsamt och grovt innehåll som skapas av användare och delas på plattformen i syfte att väcka medvetenhet om eller dokumentera övergrepp ökar i samband med krig och politisk oro (se Video med grovt innehåll från Sudan). I sådana sammanhang som konflikten mellan Israel och Gaza, i vilken ett alarmerande antal civila dödas och skadas, varav en stor andel barn, och det i en tilltagande humanitär kris, blir denna typ av undantag särskilt viktiga. Rådet är medvetna om Metas pågående policyutveckling avseende företagets policy om våldsamt och stötande innehåll, men hade ändå förväntat sig att Meta skulle ha förmågan att snabbt införa tillfälliga åtgärder för att tillåta denna typ av innehåll med varningsskärmar utan att ta bort det från rekommendationerna.
Rådet noterar att situationen i Gaza vid tiden för när inlägget publicerades inte innebar samma utmaningar för Meta som dåden den 7 oktober. Det har varit svårt att få information från personer på plats i Gaza i och med att journalister har begränsad åtkomst till området och internet har legat nere. Dessutom hade den händelse i Gaza som visades i ärendet, till skillnad för vad som publicerades direkt efter attackerna den 7 oktober, ingenting att göra med terrorister som använder sociala medier till att visa upp sina dåd. I samband med väpnade konflikter bör Meta istället säkerställa att dess åtgärder inte gör det svårare för människor att dela innehåll med information som väcker medvetenhet om övergrepp mot civila och kan vara relevant för att avgöra om brott mot internationell humanitär rätt och internationell människorättslagstiftning har begåtts. Frågan om huruvida innehållet delats för att väcka medvetenhet om eller fördöma händelserna på platsen borde vara utgångspunkten för alla granskare som bedömer den typen av innehåll och Metas automatiska system borde utformas så att de undviker att felaktigt ta bort innehåll som omfattas av tillämpliga undantag.
Detta ärende visar också på att otillräcklig mänsklig insyn i den automatiska modereringen i samband med krishantering kan leda till felaktigt borttagande av uttalanden som kan vara av stort allmänintresse. Både det ursprungliga beslutet att ta bort innehållet och avvisandet av användarens överklagande fattades automatiskt utifrån en klassificeringsuppskattning, utan någon manuell granskning. Det kan dessutom ha förvärrats av Metas hantering av krisen genom att sänka gränsen för borttagande av innehåll enligt policyn om våldsamt och stötande innehåll efter attackerna den 7 oktober. Det innebär att Meta tar bort innehåll även om klassificeringen ger relativt lägre sannolikhet för brott mot reglerna än vad som vanligen skulle krävas för borttagning.
Rådet påminner Meta om rekommendation 1 i ärendet Colombiansk serieteckning om polisen för hur Meta skulle kunna använda sina automatiska system på ett sätt som är förenligt med företagets åtaganden avseende de mänskliga rättigheterna. I det ärendet uppmanade rådet Meta att säkerställa att innehåll med en hög andel överklaganden och en hög andel bifallna överklagande utvärderas på nytt för att möjligen tas bort från mediematchningstjänstens banker. Till svar på denna rekommendation inrättade Meta en särskild arbetsgrupp med inriktning på förbättringar av hanteringen i mediematchningstjänstens banker (se Metas senaste uppdateringar om detta här). Rådet noterar att det är viktigt att denna grupp tittar särskilt på användningen av mediematchningstjänster i samband med väpnade konflikter. I ärendet Bröstcancersymtom och nakenhet (rekommendation 3 och 6) rekommenderade rådet att Meta informerar användarna när automatisering används till att vidta åtgärder mot deras innehåll, tar med uppgifter om antalet beslut om borttagande per communityregel som fattas med automatiska medel och om vilken andel av dessa beslut som senare upphävts efter manuell granskning. Detta är särskilt viktigt när konfidensgränserna för innehåll som med sannolikhet bryter mot reglerna har sänkts betydligt. Rådet uppmanar Meta att fortsätta arbetet med implementeringen av rekommendation 6 och att dela bevis på implementeringen av rekommendation 3 med rådet.
Begränsningar av yttrandefriheten måste vara icke-diskriminerande, bland annat på grundval av nationalitet, ursprung, religion, tro eller politiska eller andra åsikter (artikel 2, paragraf 1, och artikel 26 i ICCPR). Diskriminerande verkställighet av communityreglerna undergräver denna grundläggande aspekt av yttrandefriheten. I ärendet Delat Al Jazeera-inlägg gav rådet uttryck för allvarliga farhågor om att fel i Metas innehållsmoderering i Israel och de ockuperade palestinska territorierna kan vara ojämlikt fördelade, och efterfrågade en oberoende utredning (rekommendation 3 i beslutet i ärendet Delat Al Jazeera-inlägg). Till svar på den rekommendationen gav Meta BSR (Business for Social Responsibility) i uppdrag att ta fram en utvärdering av inverkan på mänskliga rättigheter. I denna utvärdering identifierades ”ett flertal förekomster av oavsiktligt partiskhet när Metas policyer och metoder i kombination med bredare externa faktorer de facto leder till människorättskonsekvenser för palestinier och arabisktalande användare”. Rådet uppmanar Meta att uppfylla de åtaganden företaget gjorde till svar på BSR-rapporten.
Slutligen har Meta ett ansvar att bevara bevis på möjliga brott mot de mänskliga rättigheterna och brott mot internationell humanitär rätt, vilket även rekommenderas i BSR-rapporten (rekommendation 21) och förespråkas av ideella grupper. Även när innehåll tas bort från Metas plattformar är det av yttersta vikt att bevara sådana bevis för att kunna utkräva ansvar i framtiden (se Video med grovt innehåll från Sudan och Video som visar armeniska krigsfångar). Meta förklarade att företaget bevarar allt innehåll som bryter mot dess communityregler i ett års tid, men rådet framhåller att innehåll som specifikt gäller möjliga krigsbrott, brott mot mänskligheten och grova brott mot de mänskliga rättigheterna ska identifieras och bevaras under längre tid och på ett mer lättillgängligt sätt så att det går att utkräva ansvar i framtiden. Rådet noterar att Meta har samtyckt till att implementera rekommendation 1 i ärendet Video som visar armeniska krigsfångar. Det var en rekommendation till Meta om att utveckla ett protokoll för att bevara och vid behov dela information med behöriga myndigheter i syfte att bidra till utredningar och rättsliga processer för att förhindra och lagföra folkmord, brott mot mänskligheten, krigsförbrytelser och grova brott mot mänskliga rättigheter. Meta har informerat rådet om att företaget är i slutfasen av utvecklingen av en ”konsekvent metod för att lagra möjliga bevis på folkmord, brott mot mänskligheten och krigsförbrytelser och allvarliga brott mot internationell människorättslagstiftning” och förväntar sig att inom kort kunna tillhandahålla rådet med en uppdatering om det. Rådet väntar sig att Meta ska implementera ovanstående rekommendation i sin helhet.
* Procedurmässig notering:
Tillsynsrådets påskyndade beslut utarbetas av en panel bestående av fem medlemmar och måste inte godkännas av en majoritet av rådet. Rådets beslut återspeglar inte nödvändigtvis alla medlemmars personliga åsikter.
Voltar para Decisões de Casos e Pareceres Consultivos sobre Políticas