Anulado

Al-Shifa Hospital

Rådet omstøder Metas oprindelige afgørelse om at fjerne indholdet fra Instagram. Rådet finder, at gendannelsen af indholdet på platformen med en advarselsskærm med angivelse af, at indholdet er foruroligende, er i overensstemmelse med Metas indholdspolitikker, værdier og menneskerettighedsansvar.

Tipo de decisão

Expedited

Políticas e tópicos

विषय
Proteção, Violência, Guerra e conflitos
Padrão da comunidade
Conteúdo violento e explícito

Regiões/países

Localização
Israel, Territórios Palestinos

Plataforma

Plataforma
Instagram

I ugerne efter offentliggørelsen af denne afgørelse vil vi indsætte en oversættelse på hebræisk her, og man vil kunne finde en arabisk oversættelse under fanen "Sprog", der kan åbnes fra menuen øverst på dette skærmbillede.

לקריאת החלטה זו בעברית יש ללחוץ כאן.

1. Opsummering

Denne sag involverer en følelsesmæssigt stærk video af eftervirkningerne af et angreb på eller nær Al-Shifa-hospitalet i Gaza under Israels landoffensiv, med en billedtekst, der fordømmer angrebet. Metas automatiske systemer fjernede opslaget for overtrædelse af fællesskabsreglen om voldeligt og udpenslet indhold. Efter at have anfægtet denne afgørelse over for Meta uden held appellerede brugeren til Tilsynsrådet. Efter at rådet havde udvalgt sagen til gennemgang, omstødte Meta dog sin afgørelse og gendannede indholdet med en advarselsskærm. Rådet er af den opfattelse, at den oprindelige afgørelse om at fjerne indholdet ikke var i overensstemmelse med Metas indholdspolitikker eller virksomhedens menneskerettighedsansvar. Rådet godkender beslutningen om at gendanne indholdet med en advarselsskærm, men er uenig i den medfølgende degradering af indholdet, som medfører, at det ikke kan blive anbefalet. Denne sag er sammen med sagen Gidsler kidnappet fra Israel (2023-050-FB-UA) rådets første sager, som afgøres i henhold til rådets procedurer for hurtig gennemgang.

2. Kontekst og Metas svar

Den 7. oktober 2023 udførte Hamas, som er en udpeget organisation i 1. grad i henhold til Metas fællesskabsregel om farlige organisationer og individer, et hidtil uset terrorangreb på Israel fra Gaza. Omkring 1200 mennesker blev dræbt, og ca. 240 blev taget som gidsler ( Det israelske udenrigsministerium). Israel startede øjeblikkeligt en militær kampagne i Gaza som reaktion på angrebet. Som følge af Israels militære aktion i Gaza er over 18.000 mennesker blevet dræbt pr. december 2023 (FN-kontoret for Koordination af Humanitære Anliggender med data fra sundhedsministeriet i Gaza), i en konflikt, hvor begge parter er blevet beskyldt for at overtræde international lov. Både terrorangrebet og Israels efterfølgende militære aktioner har været genstand for intens dækning, debat, granskning og kontrovers på globalt plan, hovedsagligt på sociale medier, herunder Instagram og Facebook.

Meta betegnede straks begivenhederne den 7. oktober som et terrorangreb i henhold til politikken om farlige organisationer og individer. I henhold til virksomhedens fællesskabsregler betyder dette, at Meta fjerner alt indhold fra sine platforme, der hylder, i væsentlig grad støtter eller repræsenterer angrebene d. 7. oktober eller gerningsmændene bag dem.

Som reaktion på en usædvanlig stigning i mængden af voldeligt og udpenslet indhold, der blev slået op på Metas platforme efter terrorangrebene og det militære svar, indførte Meta adskillige midlertidige foranstaltninger, herunder en reduktion af konfidensgrænserne for sit automatiske klassificeringssystem for voldeligt og udpenslet indhold, for at identificere og fjerne indhold. Meta informerede rådet om, at disse foranstaltninger gjaldt for indhold med udspring i Israel og Gaza på tværs af alle sprog. Ændringerne i disse klassificeringer øgede den automatiske fjernelse af indhold, hvor der var lavere konfidensscore for, at indholdet var i strid med Metas politikker. Meta brugte med andre ord sine automatiske værktøjer til på en mere aggressiv måde at fjerne indhold, som kunne overtræde virksomhedens politikker. Meta prioriterede ikke værdien sikkerhed, og der blev fjernet mere indhold end, der ville være blevet fjernet under den højere grænse før 7. oktober. Selvom dette reducerede sandsynligheden for, at Meta ikke ville få fjernet krænkende indhold, som ellers ville undgå registrering, eller hvor der var begrænset kapacitet for menneskelig gennemgang, øgede det også sandsynligheden for, at Meta ved en fejl ville komme til at fjerne ikke-krænkende indhold relateret til konflikten.

Når eskaleringsteams vurderer videoer som krænkende i forhold til virksomhedens politikker om voldeligt og udpenslet indhold, vold eller opfordring til vold og farlige organisationer og individer, stolede Meta på, at mediematchningsbanker automatisk ville fjerne matchende videoer. Denne tilgang gav grobund for bekymring angående overdreven håndhævelse, herunder at folk ville få pålagt begrænsninger på eller suspension af deres konti som følge af flere overtrædelser af Metas indholdspolitikker (også kaldet Facebook-fængsel). For at mildne denne bekymring tilbageholdt Meta "anmærkninger", som normalt ville følge med automatiske fjernelser, baseret på mediematchningsbanker (som Meta meddelte i et Newsroom-opslag).

Metas ændringer af konfidensgrænsen for klassificeringer og af anmærkningspolitikken er begrænsede til konflikten mellem Israel og Gaza og er dermed midlertidige. Pr. 11. december 2023 har Meta ikke gendannet konfidensgrænser til niveauerne fra før 7. oktober.

3. Beskrivelse af sagen

Indholdet i denne sag involverer en video, som blev slået op på Instagram i anden uge af november, og som viser, hvad der lader til at være tiden umiddelbart efter et angreb på eller nær Al-Shifa-hospitalet i Gaza by under Israels landoffensiv i den nordlige del af Gazastriben. Instagram-opslaget i denne sag viser folk, inklusive børn, der ligger livløse eller sårede på jorden og græder. Et af børnene ser ud til at være afgået ved døden med en alvorlig hovedskade. I en billedtekst på arabisk og engelsk under videoen står der, at hospitalet er blevet mål for "usurping occupation" (besættelse), hvilket er en reference til den israelske hær, og i opslaget tagges menneskerettighedsorganisationer og nyhedsorganisationer.

Metas fællesskabsregel om voldeligt og udpenslet indhold, som gælder for indhold på Facebook og Instagram, forbyder "[v]ideoer af personer eller døde kroppe i ikke-medicinske omgivelser, hvis de afbilder […] [s]ynlige indre organer." På tidspunktet for opslagets offentliggørelse tillod politikken "billedmateriale, der viser en eller flere personers voldelige død som følge af ulykke eller mord," forudsat at sådant indhold var anbragt bag en advarselsskærm med angivelse af, at indholdet var foruroligende, og at indholdet kun var synligt for personer over 18 år. Denne regel blev opdateret den 29. november, efter at indholdet i denne sag blev gendannet, for at præcisere, at reglen gælder for "dødsøjeblik[ket] eller tiden umiddelbart herefter" såvel som billeder af "en person, der oplever en livstruende begivenhed."

Metas automatiske systemer fjernede indholdet i denne sag for at overtræde fællesskabsreglen om voldeligt og udpenslet indhold. Brugerens appel over denne afgørelse blev automatisk afvist, fordi Metas klassificeringer angav "et højt konfidensniveau" for, at indholdet var krænkende. Brugeren appellerede derefter Metas afgørelse til Tilsynsrådet.

Efter rådets udvælgelse af denne sag sagde Meta, at virksomheden ikke endeligt kunne fastslå, at videoen viste synlige indre organer. Meta konkluderede derfor, at man ikke burde have fjernet dette indhold, selvom det var på "grænsen" til at være krænkende. Meta forklarede yderligere, at selvom der havde været synlige indre organer, skulle opslaget være forblevet på platformen med en advarselsskærm med angivelse af, at indholdet var foruroligende, eftersom det blev delt for at skabe opmærksomhed. Virksomheden gentog, at i overensstemmelse med rationalet om politikken om voldeligt og udpenslet indhold er sådant indhold tilladt, når det deles for at skabe opmærksomhed "om vigtige spørgsmål såsom menneskerettighedskrænkelser, væbnede konflikter eller terrorhandlinger."

Meta omstødte derfor sin oprindelige afgørelse og gendannede indholdet med en advarselsskærm. Advarselsskærmen fortæller brugerne, at indholdet kan være foruroligende. Voksne brugere kan klikke sig videre for at se opslaget, men Meta fjerner disse opslag fra feeds hos Instagram-brugere under 18 år og fjerner dem også fra anbefalinger til voksne Instagram-brugere. Meta føjede desuden en separat forekomst af den samme video til en mediematchningsbank, så andre videoer, der er identiske med denne, automatisk forbliver på platformen med en advarselsskærm og kun være synlige for personer over 18 år.

4. Belæg for hurtig gennemgang

Tilsynsrådets vedtægter giver mulighed for hurtig gennemgang i forbindelse med ekstraordinære situationer, inklusive når indholdet kan få umiddelbart forestående alvorlige konsekvenser i den virkelige verden, og afgørelserne er bindende for Meta (artikel 3, afsnit 7.2 i charteret; artikel 2, afsnit 2.1.2 i vedtægterne). Den fremskyndede proces udelukker de omfattende undersøgelser, ekstern rådgivning eller offentlige kommentarer, som ville være en del af sager, der blev gennemgået inden for normale tidsrammer. Sagen afgøres på baggrund af de oplysninger, som rådet har til rådighed under behandlingen, og afgørelsen træffes af et panel med fem medlemmer uden afstemning fra hele rådet.

Tilsynsrådet udvalgte sagen og en anden sag, Gidsler kidnappet fra Israel (2023-050-FB-UA), på baggrund af vigtigheden af ytringsfrihed i konfliktsituationer, som er blevet bragt i fare i forbindelse med konflikten mellem Israel og Hamas. Begge sager er repræsentative for de typer af appeller, som brugere i regionen har sendt til rådet siden angrebene den 7. oktober og Israels efterfølgende militære aktion. Begge sager falder inden for Tilsynsrådets prioritet i forhold til kriser og konfliktsituationer. Metas afgørelser i begge sager overholder betingelserne for umiddelbart forestående konsekvenser i den virkelige verden, som berettiger til hurtig gennemgang, og rådet og Meta blev enige om, at sagen skulle behandles i henhold til rådets procedurer for hurtig gennemgang.

I sine indsendelser til rådet anerkendte Meta, at afgørelsen om, hvordan dette indhold skulle behandles er kompleks og omfatter konkurrerende værdier og afvejninger, og at de ville sætte pris på rådets input til problematikken.

5. Indsendelse fra brugere

Opslagets forfatter udtalte i sin appel til rådet, at vedkommende ikke opfordrede til vold, men delte indhold, der viser palæstinensernes lidelser, herunder børns. Brugeren tilføjede, at fjernelsen var forudindtaget i forhold til palæstinensernes lidelser. Brugeren blev underrettet om rådets gennemgang af sin appel.

6. Decision

Selvom rådets medlemmer er uenige om Israels militære reaktion og dens berettigelse, er de fuldstændig enige om vigtigheden af, at Meta respekterer ytringsfriheden og andre menneskerettigheder for alle dem, der er berørt af disse begivenheder, og deres mulighed for at kommunikere under denne krise.

Rådet omstøder Metas oprindelige afgørelse om at fjerne indholdet fra Instagram. Rådet finder, at gendannelsen af indholdet på platformen med en advarselsskærm med angivelse af, at indholdet er foruroligende, er i overensstemmelse med Metas indholdspolitikker, værdier og menneskerettighedsansvar. Rådet konkluderer desuden, at Metas degradering af det gendannede indhold, i form af udelukkelse fra muligheden for at kunne blive anbefalet, ikke er i tråd med virksomhedens ansvar i forhold til ytringsfrihed.

6.1 Overholdelse af Metas indholdspolitikker

Rådet er enig med Meta i, at det er svært at afgøre, om videoen i denne sag viser "synlige indre organer." I lyset af konteksten i denne sag, hvor der er en usædvanlig stor offentlig interesse i at beskytte adgangen til oplysninger og give muligheder for at skabe opmærksomhed om konsekvenserne af konflikten, bør indhold, der er "på grænsen" til at overtræde politikken om voldeligt og udpenslet indhold, ikke fjernes. Da indholdet inkluderer billeder, der viser en persons voldelige død og et blodigt sår i hovedet, burde Meta have anvendt en advarselsskærm og kun gjort det tilgængeligt for personer over 18 år i overensstemmelse med virksomhedens politikker.

Rådet er også enig i Metas efterfølgende beslutning om, at selvom denne video havde inkluderet synlige indre organer, betyder opslagets sprogbrug, der fordømmer eller skaber opmærksomhed om volden, også, at det burde være forblevet på platformen med en advarselsskærm med angivelse af, at indholdet er foruroligende, og ikke være tilgængeligt for brugere under 18 år. Fællesskabsreglen nævner ikke advarselsskærme i forhold til den gældende sætning i politikken ("[v]ideoer af personer eller døde kroppe i medicinske omgivelser, hvis de afbilder […] [s]ynlige indre organer"). I sagen Udpenslet video fra Sudan forklarede rådet, at Meta instruerer evaluatorerne i at følge afsnittene "Du må ikke slå følgende op" 100 %. I rationalet står der, at "[i] forbindelse med debatter om vigtige emner såsom menneskerettighedskrænkelser, væbnede konflikter eller terrorhandlinger tillader vi udpenslet indhold (med nogle begrænsninger) for at gøre det nemmere for folk at fordømme og skabe opmærksomhed omkring disse situationer." Fællesskabsreglen forbyder dog alle videoer, der viser "synlige indre organer" i en ikke-medicinsk kontekst, uden at give evaluatorerne mulighed for at tilføje en advarselsskærm, hvor undtagelsen i rationalet om politikken er taget i brug. Metas automatiske systemer ser ikke ud til at være konfigureret til at anvende advarselsskærme på videoer, der viser udpenslet indhold, når der er kontekst, som fordømmer eller skaber opmærksomhed om volden. Det er heller ikke tydeligt, at de relevante klassificeringer i tilfælde, hvor denne kontekst er til stede, ville kunne sende indholdet til yderligere vurdering hos menneskelige evaluatorer.

6.2 Overholdelse af Metas menneskerettighedsansvar

I tråd med Metas menneskerettighedsansvar skal Metas moderering af voldeligt og udpenslet indhold respektere ytringsfriheden, som omfatter friheden til at søge, modtage og videregive information (artikel 19, punkt 2, International konvention om borgerlige og politiske rettigheder (ICCPR)). Som rådet anførte i sagen om video med armenske krigsfanger, forbliver beskyttelse af ytringsfriheden under artikel 19 i den internationale konvention om borgerlige og politiske rettigheder (ICCPR) i kraft under væbnede konflikter og bør fortsætte med at være grundlag for Metas menneskerettighedsansvar sammen med de gensidigt forstærkende og komplementære regler i den humanitære folkeret, der gælder under sådanne konflikter. FN's vejledende principper for erhverv og menneskerettigheder pålægger virksomheder, der opererer i en konfliktsituation, et øget ansvar ("Erhverv, menneskerettigheder og konfliktramte regioner: mere handling," A/75/212).

Rådet har i tidligere sager understreget, at SoMe-platforme som Facebook og Instagram er et vigtigt redskab til i realtid at transmittere information om voldelige begivenheder, herunder nyhedsrapportering (se f.eks. Omtale af Taleban i nyhedsrapportering). De spiller en særlig vigtig rolle i kontekster med væbnede konflikter, især hvor der er begrænset adgang for journalister. Ydermere er indhold, der skildrer voldelige angreb og menneskerettighedskrænkelser, af stor offentlig interesse (Se Udpenslet video fra Sudan).

Såfremt en stat indfører begrænsninger af ytringsfriheden, skal de i henholde til international menneskerettighedslovgivning opfylde kravene om lovlighed, legitimt formål og nødvendighed og proportionalitet (artikel 19, punkt 3 i ICCPR). Disse krav omtales ofte som en tredelt test. Rådet anvender denne struktur til at fortolke Metas frivillige forpligtelse til beskyttelse af menneskerettigheder, både i forbindelse med afgørelser om individuelt indhold, der er ved at blive gennemgået, og hvad det siger om Meta i bredere forstand i forhold til indholdsstyring. Ved at gøre dette forsøger rådet at være følsomme over for, hvordan disse rettigheder kan blive håndhævet forskelligt over for en privat virksomhed inden for sociale medier og over for myndigheder. Ikke desto mindre, som FN's særlige rapportør om ytringsfrihed har udtalt, gælder det, at selvom "virksomheder ikke har samme forpligtelser som regeringer, så er deres indvirkning af en sådan art, at det kræver, at de tager stilling til samme slags spørgsmål angående beskyttelse af deres ytringsfrihed" (rapport A/74/486, punkt 41).

Lovlighed kræver, at enhver begrænsning af ytringsfriheden bør være tilgængelig og tydelig nok til at vejlede om, hvad der er og ikke er tilladt. Rådet har tidligere udtrykt bekymring over, at reglerne i fællesskabsreglen om voldeligt og udpenslet indhold ikke stemmer helt overens med rationalet om politikken, som beskriver politikkens mål (Se Udpenslet video fra Sudan og Video efter angreb på kirke i Nigeria). Rådet gentager vigtigheden af anbefaling nr. 1 og nr. 2 i sagen Udpenslet video fra Sudan, som opfordrede Meta til at ændre sin fællesskabsregel om voldeligt og udpenslet indhold, således at den tillader videoer af mennesker eller døde kroppe, når det bliver delt med det formål at skabe opmærksomhed om eller dokumentere menneskerettighedskrænkelser (den pågældende sag vedrørte synlig lemlæstelse). Meta har gennemført en politikudviklingsproces som svar på disse anbefalinger og har til hensigt at rapportere om sine fremskridt i sin næste kvartårlige opdatering til rådet. Efter rådets opfattelse bør denne anbefaling gælde for reglerne for videoer, der viser synlige indre organer, og specifikt sikre, at advarselsskærme benyttes som en foranstaltning ved håndhævelse, hvor undtagelsen i forhold til at skabe opmærksomhed (herunder faktuel rapportering) og fordømme er i spil.

I henhold til artikel 19, punkt 3 i ICCPR kan ytringer blive begrænset på grundlag af en defineret og begrænset liste med årsager. Rådet har tidligere konstateret, at politikken om voldeligt og udpenslet indhold på legitim vis har til formål at beskytte andres rettigheder, herunder retten til privatlivets fred for den afbildede person (Se Udpenslet video fra Sudan og Video efter angreb på kirke i Nigeria). Den aktuelle sag viser desuden, at begrænsningen af adgangen til indholdet for personer under 18 år tjente det legitime formål at beskytte mindreåriges ret til sundhed (Konventionen om Barnets Rettigheder, artikel 24).

Princippet om nødvendighed og proportionalitet foreskriver, at alle begrænsninger af ytringsfriheden "skal være passende for at opnå deres beskyttende funktion. De skal være det mindst indgribende instrument blandt dem, der kan opnå deres beskyttende funktion, [og] de skal være proportionelle med interessen, der skal beskyttes" (Generel bemærkning nr. 34, punkt 34).

Rådet har tidligere i forhold til voldeligt og udpenslet indhold fundet, at en advarselsskærm "ikke pålægger dem, der ønsker at se indholdet, en unødig byrde, samtidig med at den informerer andre om indholdets karakter og giver dem mulighed for at beslutte, om de vil se det eller ej" (Se Udpenslet video fra Sudan). Advarselsskærme forhindrer, at brugerne uvilligt ser potentielt foruroligende indhold. Ofrenes rettigheder er yderligere beskyttet af Metas politik om at fjerne videoer og billeder, der viser nogens voldelige død (eller tiden umiddelbart herefter), når et familiemedlem anmoder om dette. Indholdet i denne sag kan skelnes fra indholdet i sagen Russisk digt, som viste et stillbillede af en krop, der lå på jorden på lang afstand, hvor ofrets ansigt ikke var synligt, og hvor der ikke var klare visuelle indikationer på vold. Anvendelse af en advarselsskærm i den pågældende sag var i strid med Metas vejledning til evaluatorerne og ikke en nødvendig eller proportional begrænsning af ytringer. Indholdet i denne sag minder mere om indholdet i sagen Video efter angreb på kirke i Nigeria, der viser døde og sårede mennesker på tæt hold med meget klare visuelle indikationer på vold.

I denne sag gør afbildningen af sårede og livløse børn videoen særligt foruroligende. Under omstændigheder som disse er det en nødvendig og proportional foranstaltning at give brugerne mulighed for at vælge, om de vil se foruroligende indhold (se også Video med armenske krigsfanger).

Rådet mener, at udelukkelse af indhold, der skaber opmærksomhed omkring potentiel overtrædelse af menneskerettigheder og overtrædelser af krigens love, konflikter eller terrorhandlinger, fra anbefalinger, der når ud til voksne, ikke er en nødvendig eller forholdsmæssig begrænsning af ytringsfriheden set i lyset af den meget store offentlige interesse i denne type indhold. Advarselsskærme og fjernelse fra anbefalinger tjener forskellige formål og bør i visse situationer adskilles, særligt i krisesituationer. Anbefalinger på Instagram genereres af automatiske systemer, der foreslår indhold til brugere baseret på brugernes forudsagte interesser. Hvis man fjerner indhold fra anbefalingssystemer, reduceres indholdets rækkevidde. Rådet mener, at denne praksis forringer ytringsfriheden på uforholdsmæssige måder, da den gælder for indhold, som allerede er begrænset til voksne brugere, og at indholdet slås op for at skabe opmærksomhed, fordømme eller rapportere om emner i offentlighedens interesse, f.eks. udviklingen i en voldelig konflikt.

Rådet anerkender, at øjeblikkelige reaktioner på en krise kan kræve ekstraordinære midlertidige foranstaltninger, og at det i nogle sammenhænge er legitimt at prioritere sikkerhedshensyn og midlertidigt og forholdsmæssigt at pålægge ytringsfriheden større begrænsninger. Nogle af disse er for eksempel beskrevet i tilsagnene om at imødegå "terroristisk og voldeligt ekstremistisk indhold", som er etableret i Christchurch Call. Rådet bemærker dog, at Christchurch Call sætter fokus på behovet for at reagere på denne type indhold på en måde, der er i tråd med menneskerettigheder og grundlæggende frihedsrettigheder. Rådet mener, at sikkerhedshensyn ikke retfærdiggør at hælde til at fjerne udpenslet indhold, der har til formål at skabe opmærksomhed om eller fordømme potentielle krigsforbrydelser, forbrydelser mod menneskeheden eller alvorlige krænkelser af menneskerettighederne. Sådanne begrænsninger kan endda hindre information, der er nødvendig for sikkerheden for mennesker på jorden i disse konflikter.

Foranstaltninger som f.eks. ikke at benytte anmærkninger hjælper med at afbøde de potentielt uforholdsmæssige negative virkninger af håndhævelsesfejl på grund af nødforanstaltninger såsom reduktion af konfidensgrænser for fjernelse af indhold i konfliktsituationer. De er dog ikke tilstrækkelige til at beskytte brugernes mulighed for at dele indhold, der skaber opmærksomhed om potentielle menneskerettighedskrænkelser og krænkelser af den humanitære folkeret og anden kritisk information i konfliktsituationer.

Rådet har gentagne gange fremhævet behovet for at udvikle en principiel og gennemsigtig ramme for indholdsmoderering under kriser og i konfliktzoner (Se Video fra haitisk politistation og Tigray Communication Affairs Bureau). Det er netop i tider med hastigt skiftende konflikter, at store SoMe-virksomheder skal afsætte de nødvendige ressourcer for at sikre, at ytringsfriheden ikke indskrænkes unødigt. På sådanne tidspunkter er journalistiske kilder ofte udsat for fysiske og andre angreb, hvilket gør nyhedsrapportering fra almindelige borgere på sociale medier særlig vigtig.

Rådet har også tidligere observeret, at i kontekst af krig eller politisk uro vil der blive delt mere udpenslet og voldeligt indhold af brugerne på platformen med det formål at skabe opmærksomhed omkring eller dokumentere overgreb (Se Udpenslet video fra Sudan). I kontekster såsom konflikten mellem Israel og Gaza, hvor der er et alarmerende antal dræbte eller sårede civile, hvoraf en stor andel er børn, midt i en humanitær krise under forværring, er disse former for tilladelser særligt vigtige. Selvom rådet anerkender Metas igangværende politikudviklingsproces vedrørende sin politik om voldeligt og udpenslet indhold, forventer rådet, at Meta er klar til hurtigt at implementere midlertidige foranstaltninger for at tillade denne form for indhold med advarselsskærme og ikke at fjerne det fra anbefalingerne.

Rådet bemærker, at situationen i Gaza på det tidspunkt, hvor dette indhold blev slået op, ikke involverede det samme sæt udfordringer for Meta som angrebene den 7. oktober. I Gaza har der været vanskeligheder med at få oplysninger fra folk på jorden, mens journalisters adgang til området er begrænset, og internetforbindelsen er blevet afbrudt. I modsætning til tiden umiddelbart efter angrebene den 7. oktober involverede Gaza-situationen i denne sag desuden ikke terrorister, der brugte sociale medier til at udsende deres grusomheder. I forbindelse med væbnet konflikt bør Meta derimod sikre, at virksomhedens handlinger ikke gør det sværere for folk at dele indhold med oplysninger, der skaber opmærksomhed om skader på civile, og som kan være relevant for at afgøre, om der har foregået krænkelser af den humanitære folkeret og international menneskerettighedslovgivning. Spørgsmålet om, hvorvidt der blev delt indhold for at skabe opmærksomhed om eller fordømme begivenhederne på stedet, bør være udgangspunktet for enhver evaluator, der vurderer sådant indhold, og Metas automatiske systemer bør være designet til at undgå fejlagtig fjernelse af indhold, der bør drage nytte af relevante undtagelser.

Denne sag illustrerer yderligere, at utilstrækkeligt menneskeligt tilsyn med automatiseret moderering i forbindelse med en krisehåndtering kan føre til fejlagtig fjernelse af ytringer, der kan have væsentlig offentlig interesse. Både den oprindelige afgørelse om at fjerne dette indhold samt afvisningen af brugerens appel blev truffet automatisk baseret på en klassificeringsscore uden nogen menneskelig gennemgang. Dette kan til gengæld være blevet forværret af Metas krisehåndtering, hvor man sænkede grænsen for fjernelse af indhold i henhold til politikken om voldeligt og udpenslet indhold efter angrebene den 7. oktober. Det betyder, at selv hvis klassificeringen giver en relativt lavere score for sandsynligheden for overtrædelse, end der normalt ville være påkrævet, fjerner Meta det pågældende indhold.

For at Meta kan anvende sine automatiske systemer på en måde, der er forenelig med virksomhedens menneskerettighedsforpligtelser, minder rådet Meta om anbefaling nr. 1 i sagen Tegning af colombiansk politi. I dén sag opfordrede rådet Meta til at sørge for, at indhold med et højt antal appeller og godkendte appeller bliver revurderet med henblik på eventuel fjernelse fra virksomhedens mediematchningsbanker. Som svar på denne anbefaling etablerede Meta en særlig arbejdsgruppe, som skulle forbedre styringen på tværs af mediematchningsbankerne (Se Metas seneste opdateringer om dette her). Rådet bemærker, at det er vigtigt for denne gruppe at være særlig opmærksom på brugen af mediematchningstjenester i forbindelse med væbnede konflikter. I sagen Symptomer på brystkræft og nøgenhed (anbefaling nr. 3 og nr. 6) anbefalede rådet, at Meta informerer brugerne, når der anvendes automatisering til at skride ind over for deres indhold, og at oplyse data om antallet af automatiske afgørelser om fjernelse i henhold til fællesskabsreglen og om andelen af disse afgørelser, der efterfølgende er blevet omstødt efter menneskelig gennemgang. Dette er især vigtigt, når konfidensgrænserne for indhold, der sandsynligvis er krænkende, angiveligt er blevet sænket væsentligt. Rådet opfordrer Meta til at gøre yderligere fremskridt i implementeringen af anbefaling nr. 6 og dele dokumentation for implementering af anbefaling nr. 3 med rådet.

Begrænsning af ytringsfriheden skal være ikke-diskriminerende, herunder på baggrund af nationalitet, etnisk oprindelse, religiøs overbevisning og holdning, politisk ståsted eller andet (artikel 2, punkt 1 og artikel 26, ICCPR). Diskriminerende håndhævelse af fællesskabsreglerne underminerer dette grundlæggende aspekt af ytringsfriheden. I sagen Delt Al Jazeera-opslag rejste rådet alvorlige bekymringer for, at fejl i Metas indholdsmoderering i Israel og de besatte palæstinensiske områder kan være ulige fordelt, og opfordrede til en uafhængig undersøgelse (afgørelse i sagen Delt Al Jazeera-opslag, anbefaling nr. 3). I vurderingen af indvirkningerne på menneskerettigheder fra Business for Social Responsibility (BSR), som Meta bestilte som svar på denne anbefaling, identificerede man "forskellige tilfælde af utilsigtet bias, hvor Metas politikker og praksis, kombineret med de bredere eksterne dynamikker, faktisk fører til forskellige menneskerettighedspåvirkninger på palæstinensiske og arabisktalende brugere." Rådet opfordrer Meta til at leve op til de tilsagn, virksomheden har givet som svar på BSR-rapporten.

Endelig var Meta ansvarlige for at gemme beviser for potentielle overtrædelser af menneskerettigheder og overtrædelser af den humanitære folkeret som anbefalet i BSR-rapporten (anbefaling 21) og efter opfordring fra civilsamfundsgrupper. Selv når indhold bliver fjernet fra Metas platforme, er det essentielt at have sådanne beviser til fremtidig brug (se Udpenslet video fra Sudan og Video med armenske krigsfanger). Selvom Meta har forklaret, at de gemmer alt indhold, der krænker virksomhedens fællesskabsregler, i et år, opfordrer rådet til, at indhold, der er specifikt relateret til potentielle krigsforbrydelser mod menneskeheden, samt alvorlige overtrædelser af menneskerettigheder identificeres og gemmes i længere tid af hensyn til fremtidig anvendelse. Rådet bemærker, at Meta havde accepteret at implementer anbefaling nr. 1 i sagen Video med armenske krigsfanger. Det fik Meta til at udvikle en protokol for at bevare og, hvor det er relevant, dele oplysninger med kompetente myndigheder med henblik på at hjælpe med efterforskning og juridiske processer for at afhjælpe eller retsforfølge grusomme forbrydelser eller alvorlige menneskerettighedskrænkelser. Meta har informeret rådet om, at de er ved at lægge sidste hånd på udarbejdelsen af en ensartet tilgang til at gemme potentielle beviser for grusomme forbrydelser og alvorlige overtrædelser af international menneskerettighedslovgivning, og at de forventer snart at kunne give rådet en orientering om dette. Rådet forventer, at Meta implementerer ovenstående anbefaling fuldstændigt.

*Proceduremæssig bemærkning:

Tilsynsrådet fremskyndede afgørelse er udfærdiget af paneler af fem personer, og de skal ikke godkendes af et flertal i rådet. Rådets afgørelser er ikke nødvendigvis udtryk for alle medlemmernes personlige meninger.

Voltar para Decisões de Casos e Pareceres Consultivos sobre Políticas