Overturned
Al-Shifa kórház
December 19, 2023
A Bizottság felülbírálja a Meta eredeti döntését a tartalom Instagramról való eltávolításáról. Úgy ítéli meg, hogy a tartalom visszaállítása a platformon a felkavaró tartalomra vonatkozó figyelmeztető képernyő elhelyezésével összhangban van a Meta tartalmi szabályaival, értékeivel és emberi jogi felelősségeivel.
A jelen döntés közzétételét követően fel fogjuk tölteni ide a héber nyelvű fordítást, és egy arab nyelvű fordítás is elérhető lesz a képernyő felső részén található menüből hozzáférhető „Nyelv” lapon.
לקריאת החלטה זו בעברית יש ללחוץ כאן.
1. Összefoglalás
Ez az eset egy érzelmi szempontból erőteljes videóhoz kapcsolódik, amely a gázai Al-Shifa kórházat vagy a környékét ért támadás utóhatásait mutatja Izrael szárazföldi offenzívája során, a támadást elítélő felirattal. A Meta automatikus rendszerei eltávolították a bejegyzést a vállalat erőszakot megjelenítő és durva tartalmakra vonatkozó közösségi alapelvének megsértése miatt. Miután sikertelenül élt ellenvetéssel a Metánál, a felhasználó az Ellenőrző Bizottságtól kért felülvizsgálatot. Miután a Bizottság azonosította az esetet ellenőrzésre, a Meta visszavonta a döntését, és visszaállította a tartalmat egy figyelmeztető képernyővel. A Bizottság megítélése szerint a tartalom eltávolítására irányuló eredeti döntés nem volt összhangban a Meta tartalmi szabályaival és a vállalat emberi jogi felelősségeivel. A Bizottság jóváhagyja a tartalom figyelmeztető képernyő elhelyezésével való visszaállításáról hozott döntést, de helyteleníti a tartalom ajánlásokból való kizárással járó hátrébb sorolását. Ez, valamint az „Izraelből elrabolt túszok” ( 2023-050-IG-UA) az első olyan esetek, amelyekben az Ellenőrző Bizottság gyorsított felülvizsgálati eljárásának alkalmazásával hozott döntést.
2. Kontextus és a Meta válasza
2023. október 7-én a Meta veszélyes szervezetekre és magánszemélyekre vonatkozó közösségi alapelve szerint 1-es szintű szervezetnek minősülő Hamász példátlan terrortámadásokat indított Izrael ellen Gázából, amelyek során becslések szerint 1200 ember halt meg, és körülbelül 240 embert ejtettek túszul ( Izrael kormányának külügyminisztériuma). A támadásokra válaszul Izrael azonnal hadjáratot indított Gázában. Izrael katonai akciói több mint 18 ezer ember halálát okozták Gázában 2023. december közepéig (ENSZ, Humanitárius Ügyek Koordinációs Hivatala, a gázai egészségügyi minisztérium adatai alapján), egy olyan konfliktusban, amelyben mindkét felet a nemzetközi jog megsértésével vádolják. Mind a terrortámadások, mind Izrael azt követő katonai akciói világszerte intenzív nyilvánosságot, vitákat, vizsgálódást és ellentmondást váltottak ki, amelyek nagy része közösségi médiaplatformokon, többek között az Instagramon és a Facebookon zajlott.
A Meta azonnal terrortámadássá nyilvánította az október 7-ei eseményeket veszélyes szervezetekre és magánszemélyekre vonatkozó szabálya alapján. A közösségi alapelvek értelmében ez azt jelenti, hogy a Meta eltávolít platformjairól minden olyan tartalmat, amely „dicsőíti, érdemben támogatja vagy képviseli” az október 7-ei támadásokat, illetve elkövetőiket.
A terrortámadásokat és a katonai válaszlépéseket követően a platformjaira feltöltött erőszakos és durva tartalmak rendkívüli megugrására reagálva a Meta számos ideiglenes intézkedést vezetett be, többek között a tartalmak azonosítása és eltávolítása érdekében alacsonyabbra állította az erőszakot megjelenítő és durva tartalmakra vonatkozó szabályzatok automatikus besoroló rendszereinek (besorolók) megbízhatósági küszöbét. A Meta tájékoztatta a Bizottságot, hogy ezek az intézkedések nyelvtől függetlenül vonatkoztak az Izraelből és Gázából származó tartalmakra. A besorolók változtatásai megnövelték az automatikusan eltávolított tartalmak mennyiségét az alacsonyabb megbízhatósági pontszámot elérő, a Meta szabályait sértő tartalmak esetében. Másként fogalmazva: a Meta agresszívebben alkalmazta automatikus eszközeit a szabályait potenciálisan sértő tartalmak eltávolítására. A Meta azért tette ezt, hogy elsőbbséget adjon „biztonság” értékének azáltal, hogy több tartalmat távolít el, mint amennyit az október 7-e előtt érvényben lévő magasabb megbízhatósági küszöb alapján eltávolított volna. Miközben ez csökkentette a valószínűségét annak, hogy a Meta nem távolít el olyan szabálysértő tartalmakat, amelyeket egyébként nem észlelt volna, vagy amelyeknél korlátozott volt az emberi ellenőrzési kapacitás, egyben növelte a valószínűségét annak, hogy a Meta tévesen eltávolít a konfliktushoz kapcsolódó nem szabálysértő tartalmakat.
Amikor az eszkalációs csapatok az erőszakos és durva tartalmakra, az erőszakra és uszításra, valamint a veszélyes szervezetekre és magánszemélyekre vonatkozó szabályokat sértőként értékelték a videókat, a Meta médiaegyezési adatbankok segítségével automatikusan eltávolította az egyező videókat. Ez a megközelítés felvetette a túlzott szabálybetartatás aggályát, például azokra az emberekre vonatozóan, akiknek a Meta tartalmi szabályainak többszöri megsértése miatt korlátozták vagy felfüggesztették a fiókjukat (amit néha „Facebook-börtönbüntetésként” is szoktak emlegetni). Az aggály enyhítése érdekében a Meta tartózkodott a „hibapontok” kivetésétől, ami egyébként normál esetben együtt járt volna a médiaegyezési adatbankon alapuló automatikusan történő bejegyzéseltávolítással (amint azt a Meta Sajtószoba-bejegyzésében bejelentette).
A Meta által a besorolók megbízhatósági küszöbével és a hibapontok-szabályaival kapcsolatban végrehajtott változtatások az izraeli–gázai konfliktusra korlátozódnak, és a Meta szándéka szerint átmenetiek. A Meta 2023. december 11-ig nem állította vissza a megbízhatósági küszöböt az október 7. előtti szintekre.
3. Az eset leírása
Az esetben tárgyalt tartalomban egy november második hetében az Instagramon közzétett videó szerepel, amelyen a jelek szerint a gázai Al-Shifa kórházban vagy annak közelében, a Gázai övezet északi részén végrehajtott izraeli szárazföldi támadást követő állapot látható. Az esetben érintett Instagram-bejegyzésben a földön élettelenül fekvő, illetve megsérült és síró emberek láthatók, köztük gyermekek is. Az egyik gyermek halottnak tűnik, súlyos fejsérüléssel. A videó alatti arab és angol nyelvű felirat szerint a kórházat „usurping occupation” (bitorló megszállás) vette célba, ami az izraeli hadseregre utal. A felirat emellett különböző emberi jogi és hírszervezetek megjelölését is tartalmazza.
A Meta erőszakot megjelenítő és durva tartalmakra vonatkozó közösségi alapelve, amely a Facebookon és az Instagramon közzétett tartalmakra érvényes, tiltja az „[e]mberekről vagy holttestekről készített, nem orvosi jellegű videók[at]” amelyek „látható belső szerveket” ábrázolnak. A közzététel időpontjában a szabály megengedte az „egy vagy több személy baleset vagy gyilkosság miatti erőszakos halálát ábrázoló képek[et]”, azzal a feltétellel, hogy ezt a tartalmat egy felkavaró tartalomra figyelmeztető képernyő mögé helyezik, és csak 18 év felettiek láthatják. Az esetben vizsgált tartalom visszaállítását követően, november 29-én frissítették ezt szabályt annak tisztázása érdekében, hogy a szabály arra vonatkozik, ha a kép „a halál pillanatát vagy az azt követő állapotot” vagy azt ábrázolja, hogy valaki „életveszélyes eseményt él át”.
A Meta automatikus rendszerei eltávolították az esetben tárgyalt tartalmat a vállalat erőszakot megjelenítő és durva tartalmakra vonatkozó közösségi alapelvének megsértése miatt. A felhasználó ellenvetését a döntéssel szemben automatikusan elutasították, mert a Meta besorolási technológiái „magas megbízhatósági szintet” jeleztek annak kapcsán, hogy a tartalom szabályt sértett. A felhasználó ezután kérte az Ellenőrző Bizottságtól a Meta döntésének felülvizsgálatát.
Miután a Bizottság kiválasztotta ezt az esetet, a Meta közölte, hogy nem tudja egyértelműen megállapítani, hogy a videó látható belső szerveket ábrázol-e. A Meta ezért arra a következtetésre jutott, hogy nem kellett volna eltávolítania a tartalmat, bár a szabálysértés szempontjából „határesetnek” minősült. A Meta továbbá elmagyarázta, hogy még ha belső szervek is lettek volna láthatók, a bejegyzést a platformon kellett volna hagyni egy felkavaró tartalomra figyelmeztető képernyővel, ugyanis figyelemfelhívás céljával osztották meg. A vállalat megismételte, hogy az erőszakot megjelenítő és durva tartalmakra vonatkozó szabály indoklásával összhangban az ilyen tartalmak megosztása megengedett, ha azzal a céllal osztják meg, hogy felhívják a figyelmet „olyan fontos témák[ra], mint az emberi jogok megsértése, a fegyveres konfliktusok vagy a terrorcselekmények”.
A Meta ezért visszavonta eredeti döntését, és egy figyelmeztető képernyővel visszaállította a tartalmat. A figyelmeztető képernyő arról tájékoztatja a felhasználókat, hogy a tartalom felkavaró lehet. A felnőtt felhasználók átkattintással megtekinthetik a bejegyzést, a Meta azonban a 18 év alatti Instagram-felhasználók képfolyamaiból, valamint a felnőtt Instagram-felhasználóknak szóló ajánlásokból is eltávolítja ezeket a bejegyzéseket. A Meta ugyanannak a videónak egy másik példányát is felvette a médiaegyezési adatbankjába, így az ezzel azonos videók automatikusan a platformon maradnak egy figyelmeztető képernyővel, és csak 18 éven felüliek láthatják őket.
4. A gyorsított ellenőrzés indoklása
Az Ellenőrző Bizottság Szervezeti és működési szabályzata lehetővé teszi a gyorsított ellenőrzést „[k]ivételes körülmények között, például ha a tartalomnak rövid időn belül következménye lehet a fizikai világban”, és az ilyen döntések kötelezőek a Metára nézve (az Alapokmány 3. cikkének 7.2 szakasza; a Szervezeti és működési szabályzata 2. cikkének 2.1.2 szakasza). A gyorsított eljárás kizárja az olyan szintű kiterjedt kutatást, külső konzultációt vagy nyilvános hozzászólások benyújtását, mint ami a rendes határidőn belül felülvizsgált esetekben történik. Az esetről a Bizottság számára a tárgyalási időpontjában rendelkezésre álló információk alapján születik döntés, amelyet egy öttagú testület hoz meg, teljes bizottsági szavazás nélkül.
Az Ellenőrző Bizottság azért választotta ki ezt az esetet és egy másik esetet („Izraelből elrabolt túszok”, 2023-050-IG-UA), mert konfliktushelyzetekben fontos a véleménynyilvánítás szabadsága, amely veszélybe került az Izrael–Hamász konfliktusban. Mindkét eset jól reprezentálja azokat a felülvizsgálati kérelmeket, amelyeket a régió felhasználói az október 7-ei támadások és az azt követő izraeli katonai akció óta nyújtottak be a Bizottsághoz. Mindkét eset az Ellenőrző Bizottság „válság- és konfliktushelyzetek” prioritásának hatálya alá esik. A Meta döntései mindkét esetben megfelelnek a gyorsított ellenőrzést indokló „rövid időn belül következménye lehet a fizikai világban” követelménynek, és ennek megfelelően a Bizottság és a Meta megállapodtak abban, hogy a Bizottság gyorsított eljárása szerint járnak el.
A Bizottsághoz küldött beadványaiban a Meta elismerte, hogy „a tartalom kezelésének módjáról nehéz döntést hozni, mert egymással versengő értékeket érint, és kompromisszumokkal jár”, és üdvözölte a Bizottság problémáról alkotott véleményét.
5. A felhasználó által beküldött információk
A bejegyzés szerzője a Bizottságnak benyújtott felülvizsgálati kérelmében kijelentette, hogy nem erőszakot szított, hanem a palesztinok, többek között gyermekek szenvedését bemutató tartalmat osztott meg. A felhasználó hozzátette, hogy az eltávolítás elfogultan állt volt a palesztinok szenvedéséhez. A felhasználót értesítették arról, hogy a Bizottság megvizsgálja a felülvizsgálati kérelmét.
6. Döntés
Bár a Bizottság tagjai nem értenek egyet Izrael katonai válaszlépését és annak indoklását illetően, közös nevezőn vannak annak fontossága kapcsán, hogy a Meta tartsa tiszteletben a véleménynyilvánítás szabadságához való jogot és az ezen események által érintettek egyéb emberi jogait, valamint a képességüket a kommunikációra ebben a válságban.
A Bizottság felülbírálja a Meta eredeti döntését a tartalom Instagramról való eltávolításáról. Úgy ítéli meg, hogy a tartalom visszaállítása a platformon a felkavaró tartalomra vonatkozó figyelmeztető képernyő elhelyezésével összhangban van a Meta tartalmi szabályaival, értékeivel és emberi jogi felelősségeivel. A Bizottság azonban arra a következtetésre is jutott, hogy a Meta által visszaállított tartalom ajánlásokból való kizárással járó hátrébb sorolása nem felel meg a vállalat véleménynyilvánítás szabadságának tiszteletben tartásával kapcsolatos felelősségeinek.
6.1. Megfelelés a Meta tartalmi szabályainak
A Bizottság egyetért a Metával abban, hogy nehéz meghatározni, hogy az esetben tárgyalt videón „látható belső szervek” szerepelnek-e. Tekintettel ennek az esetnek a kontextusára, ahol kivételesen magas közérdekű értéke van az információhoz való hozzáférés védelmének és a figyelem felhívásának a konfliktus hatásaira, az erőszakot megjelenítő és durva tartalmakra vonatkozó irányelv megsértése szempontjából „határesetnek” minősülő tartalmakat nem szabad eltávolítani. Mivel a tartalom olyan képeket tartalmaz, amelyek egy véres fejsérülés megjelenítése révén egy személy erőszakos halálát ábrázolják, a Metának figyelmeztető képernyőt kellett volna alkalmaznia, és a szabályainak megfelelően csak 18 éven felüliek számára kellett volna elérhetővé tennie a tartalmat.
A Bizottság egyetért a Meta azon későbbi megállapításával is, hogy még akkor is, ha ez a videó látható belső szerveket tartalmazott, a bejegyzés erőszakot elítélő vagy arra figyelmet felhívó szövege miatt felkavaró tartalomra figyelmeztető képernyővel kellett volna ellátni úgy, hogy ne legyen elérhető 18 év alatti felhasználók számára. A közösségi alapelv nem rendelkezik a figyelmeztető képernyőkről a vonatkozó szabálysor kapcsán („[e]mberekről vagy holttestekről készült, orvosi jellegű videók, amelyek az alábbiakat ábrázolják: [...] [l]átható belső szerveket”). A Durva erőszakot megjelenítő szudáni videó esetben a Bizottság elmagyarázta, hogy a Meta arra utasítja az ellenőröket, hogy szó szerint kövessék „Ne tegyél közzé...” típusú szabályait. Az indoklás kijelenti, hogy „[a]z olyan fontos témák, mint az emberi jogok megsértése, a fegyveres konfliktusok vagy a terrorcselekmények megvitatása során (bizonyos korlátozásokkal) engedélyezzük a durva tartalmakat, hogy segítsük az embereket az ilyen helyzetek elítélésében és a figyelemfelkeltésben.” A közösségi alapelvben foglalt szabály azonban tilt minden olyan videót, amely „látható belső szerveket” ábrázol nem orvosi kontextusban, és nem ad lehetőséget az ellenőröknek figyelmeztető képernyő elhelyezésére a szabály indoklása szerinti kivétel alkalmazása esetén. A Meta automatizált rendszerei a jelek szerint nincsenek úgy konfigurálva, hogy figyelmeztető képernyőket alkalmazzanak a durva erőszakot ábrázoló videókra olyan esetekben, ahol a kontextus az erőszak elítélése vagy a figyelem felhívása az erőszakra. Az sem egyértelmű, hogy ahol ez a kontextus jelen van, ott a vonatkozó besoroló technológiák képesek lennének-e elküldeni a tartalmat emberi ellenőröknek további értékelésre.
6.2. Megfelelés a Meta emberi jogi felelősségeinek
Emberi jogi felelősségeivel összhangban a Metának az erőszakot megjelenítő és durva tartalmak moderálásakor tiszteletben kell tartania a véleménynyilvánítás szabadságához való jogot, amely magában foglalja, hogy az emberek „szabadon kutathassanak, fogadhassanak és közölhessenek információt” (a Polgári és Politikai Jogok Nemzetközi Egyezségokmányának (ICCPR) 19. cikke, 2. bekezdés). Amint a Bizottság az Örmény hadifoglyokról készült videó esetben kijelentette, a Polgári és Politikai Jogok Nemzetközi Egyezségokmányának (ICCPR) 19. cikke által biztosított szabad véleménynyilvánítás „fegyveres konfliktus idején is érvényes, és a Meta emberi jogi felelősségeinek továbbra is erre kell épülniük, a nemzetközi humanitárius jog ilyen konfliktusok során alkalmazandó, egymást erősítő és kiegészítő szabályai mellett”. Az üzleti vállalkozások emberi jogi felelősségeivel foglalkozó ENSZ-irányelvek fokozott felelősséget rónak a konfliktushelyzetben működő vállalkozásokra („Az üzleti vállalkozások, az emberi jogok és a konfliktusoktól sújtott régiók: úton a hangsúlyosabb lépések felé”, A/75/212).
A Bizottság korábbi esetekben hangsúlyozta, hogy az olyan közösségi platformok, mint például a Facebook és az Instagram, fontos eszközei az erőszakos eseményekkel kapcsolatos információk valós idejű továbbításának, beleértve a híradásokat is (lásd pl. A talibán említése híradásban). Kiemelten fontos szerepet játszanak a fegyveres konfliktusok kontextusában, különösen ott, ahol az újságírók számára a hozzáférés korlátozott. Ráadásul az erőszakos támadásokat és az emberi jogok megsértését ábrázoló tartalmaknak nagy a közérdek miatti értéke (lásd: Durva erőszakot megjelenítő szudáni videó).
Ha az állam korlátozásokat vezet be a véleménynyilvánításra, ezeknek a korlátozásoknak a nemzetközi emberi jogi törvények értelmében teljesíteniük kell a jogszerűség, a jogos cél, a szükségesség és az arányosság követelményeit (ICCPR 19. cikk, 3. bekezdés). Ezekre a követelményekre gyakran „három részből álló tesztként” utalunk. A Bizottság ezt a keretrendszert használja a Meta önkéntes emberi jogi kötelezettségvállalásainak értelmezésére, mind a felülvizsgálat alatt álló egyes tartalmi döntések, mind pedig annak megítélésekor, mit jelentenek ezek a Meta tágabb tartalomszabályozási megközelítésére nézve. Ennek során a Bizottság megpróbál érzékenyen reagálni arra, hogy ezek a jogok másképp érvényesülhetnek egy magántulajdonban lévő közösségimédia-vállalat, mint egy kormányzat esetében. Mindazonáltal amint az ENSZ véleménynyilvánítás szabadságával foglalkozó különmegbízottja kijelentette, bár „a vállalatoknak nincsenek olyan kötelezettségeik, mint a kormányoknak, befolyásuknál fogva kötelesek ugyanolyan jellegű kérdéseket megvizsgálni felhasználóik szabad véleménynyilvánításra való jogának védelmével kapcsolatban” (A/74/486 sz. jelentés, 41. bekezdés).
A jogszerűség megköveteli, hogy a szabad véleménynyilvánítás bármilyen korlátozásának hozzáférhetőnek és elég világosnak kell lennie ahhoz, hogy útmutatást adjon arra nézve, hogy mi megengedett és mi nem. A Bizottság korábban aggodalmát fejezte ki amiatt, hogy az erőszakot megjelenítő és durva tartalmakra vonatkozó közösségi alapelv szabályai nincsenek teljes összhangban a szabály indoklásával, amely a szabály céljait rögzíti (lásd: Durva erőszakot megjelenítő szudáni videó és Nigériai templomtámadás utáni videó). A Bizottság ismételten hangsúlyozza a Durva erőszakot megjelenítő szudáni videó kapcsán közölt 1. és 2. számú ajánlás fontosságát, amelyek arra szólították fel a Metát, hogy módosítsa az erőszakot megjelenítő és durva tartalmakra vonatkozó közösségi alapelvét, hogy lehetővé tegye az emberekről vagy holttestekről készült videók megosztását az emberi jogok megsértésére való figyelemfelhívás vagy az ilyen jogsértések dokumentálása céljából (ez az eset a végtagok látható levágásával foglalkozott). A Meta az ajánlásokra való reagálásként lefolytatott egy szabályzatfejlesztési folyamatot, amelynek az előrehaladásáról a következő negyedéves tájékoztatójában kíván beszámolni a Bizottságnak. A Bizottság véleménye szerint ennek az ajánlásnak a látható belső szerveket ábrázoló videókra érvényes szabályokra kell vonatkoznia, és kifejezetten rendelkeznie kell a figyelmeztető képernyőkről mint szabálybetartatási intézkedésről olyan esetekben, ahol a figyelemfelhívás (beleértve a tényszerű beszámolókat) és az elítélés miatti kivételt alkalmazzák.
A Polgári és Politikai Jogok Nemzetközi Egyezségokmánya (ICCPR) 19. cikkének 3. bekezdése szerint a véleménynyilvánítás korlátozott számú meghatározott okokból korlátozható. A Bizottság korábban megállapította, hogy az erőszakot megjelenítő és durva tartalmakra vonatkozó szabályzat legitim célja mások jogainak védelme, beleértve az ábrázolt személy magánéletének védelmét is (lásd: Durva erőszakot megjelenítő szudáni videó, illetve Nigériai templomtámadás utáni videó). A jelen eset továbbá azt is szemlélteti, hogy a tartalomhoz való hozzáférés korlátozása a 18 év alatti személyek körében legitim célt szolgált: a kiskorúak egészséghez való jogának védelmét (a Gyermekjogi Egyezmény 24. cikke).
A szükségesség és arányosság elve alapján a szabad véleménynyilvánítás korlátozásának „megfelelőnek kell lennie a védelmi funkció ellátásához; a lehető legkevésbé zavaró eszköznek kell lennie azok közül, amelyekkel a védelmi funkció ellátja feladatát; [és] arányosnak kell lennie a védeni kívánt érdekkel” (a 34. általános megjegyzés 34. bekezdése).
A Bizottság korábban az erőszakot megjelenítő és durva tartalmak kapcsán megállapította, hogy a figyelmeztető képernyő elhelyezése „nem ró indokolatlan terhet azokra, akik látni kívánják a tartalmat, miközben tájékoztatja a többieket a tartalom jellegéről, és lehetővé teszi számukra, hogy eldöntsék, meg akarják-e nézni vagy sem” (lásd: Durva erőszakot megjelenítő szudáni videó). A figyelmeztető képernyők megakadályozzák, hogy a felhasználók akaratlanul potenciálisan felkavaró tartalmat lássanak. Az áldozatok jogait emellett védi a Meta azon szabálya, hogy eltávolítják a valakinek az erőszakos halálát (vagy a közvetlenül ezt követő állapotot) mutató videókat, ha egy családtag ezt kéri. A jelen esetben vizsgált tartalom megkülönböztethető az Orosz vers esettől, amelyben egy állókép volt látható egy földön fekvő testről távolról, ahol az áldozat arca nem volt látható, és ahol az erőszaknak nem voltak egyértelmű vizuális jelei. A figyelmeztető képernyő alkalmazása abban az esetben nem volt összhangban a Meta ellenőröknek szóló útmutatásával, és nem volt a véleménynyilvánítás szükséges vagy arányos korlátozása. A jelen esetben vizsgált tartalom jobban hasonlít a Nigériai templomtámadás utáni videó eset kapcsán hozott döntésben vizsgált tartalomra, amelyben közelről voltak láthatók halott és megsérült emberek, az erőszak nagyon egyértelmű vizuális jeleivel.
Ebben az esetben a megsérült és élettelen gyermekek ábrázolása különösen felkavaróvá teszi a videót. Ilyen körülmények mellett szükséges és arányos intézkedés döntési lehetőséget biztosítani a felhasználóknak arról, látni kívánják-e a felkavaró tartalmat (lásd még: Örmény hadifoglyokról készült videó).
A Bizottság úgy véli, hogy az emberi jogok lehetséges megsértésére, háborús bűncselekményekre, konfliktusokra vagy terrorcselekményekre figyelmet felhívó tartalmak kizárása a felnőtteket elérő ajánlásokból nem képezi a véleménynyilvánítás szabadságának szükséges vagy arányos korlátozását, tekintettel az ilyen tartalmakhoz fűződő rendkívül nagy közérdeklődésre. A figyelmeztető képernyők elhelyezése és az ajánlásokból való eltávolítás különböző funkciókat tölt be, és bizonyos esetekben – különösen válsághelyzetekben – szét kell választani őket. Az Instagramon megjelenő ajánlásokat olyan automatizált rendszerek generálják, amelyek a felhasználó előre jelzett érdeklődése alapján javasolnak tartalmakat a felhasználónak. A tartalmak ajánlási rendszerekből való eltávolítása azt jelenti, hogy az ilyen tartalmak elérése elmarad az egyébként reális szinttől. A Bizottság szerint ez a gyakorlat aránytalanul nagy mértékben sérti a véleménynyilvánítás szabadságát, amennyiben olyan tartalmakra vonatkozik, amelyek már felnőtt felhasználókra korlátozódnak, és amelyeket figyelemfelhívás, elítélés vagy közérdekű ügyekről – például egy erőszakos konfliktus kialakulásáról – való híradás céljából tesznek közzé.
A Bizottság elismeri, hogy a válsághelyzetekre való azonnali reagáláshoz rendkívüli ideiglenes intézkedések lehetnek szükségesek, és hogy bizonyos körülmények között indokolt a biztonsági aggályok előtérbe helyezése, valamint a véleménynyilvánítás szabadságának átmeneti és arányos fokozottabb korlátozása. Ezek közül néhányat például a Christchurchi Felhívásban meghatározott „terrorista és erőszakos szélsőséges tartalmak” elleni küzdelem kapcsán megfogalmazott kötelezettségvállalások rögzítenek. A Bizottság ugyanakkor megjegyzi, hogy a Christchurchi Felhívás hangsúlyozza, hogy az emberi jogokkal és az alapvető szabadságjogokkal összhangban kell reagálni az ilyen tartalmakra. A Bizottság úgy véli, hogy a biztonsági aggályok nem indokolják az olyan durva erőszakot ábrázoló tartalmak téves eltávolítását, amelyek célja a figyelemfelhívás potenciális háborús bűnökre, emberiség elleni bűntettekre vagy az emberi jogok súlyos megsértésére, illetve mindezek elítélése. Az ilyen korlátozások akár olyan információk terjedését is akadályozhatják, amelyek a helyszínen tartózkodó emberek biztonságához szükségesek ezekben a konfliktusokban.
Az olyan intézkedések, mint a hibapontok kivetésének mellőzése, valóban segítenek enyhíteni a szabálybetartatási hibák adott esetben aránytalan káros hatásait olyan vészhelyzeti intézkedések miatt, mint például a tartalom eltávolítására vonatkozó megbízhatósági küszöbök csökkentése konfliktushelyzetekben. Ezek ugyanakkor nem elegendőek a felhasználók azon képességének megvédésére, hogy a potenciális emberi jogi visszaélésekre és a humanitárius jogsértésekre figyelmet felhívó tartalmakat, valamint más kritikus információkat osszanak meg konfliktushelyzetekben.
A Bizottság ismételten hangsúlyozta, hogy elvi alapokon nyugvó és átlátható keretet kell kialakítani a tartalmak moderálására válságok idején és konfliktusövezetekben (lásd: Haiti rendőrőrsől készült videó és Tigray Communication Affairs Bureau). A nagy közösségimédia-vállalatoknak épp a gyorsan változó konfliktusok idején kell a szükséges erőforrásokat rááldozniuk annak biztosítására, hogy ne korlátozzák feleslegesen a véleménynyilvánítás szabadságát. Ilyenkor az újságírói források gyakran fizikai és egyéb támadásoknak vannak kitéve, ezért különösen fontosak azok a híradások, amelyeket mindennapi polgárok tesznek közzé a közösségi médiában.
A Bizottság továbbá korábban megfigyelte, hogy háború vagy politikai zavargások idején a felhasználók több durva és erőszakos tartalmat rögzítenek és osztanak meg a platformon a visszaélésekre való figyelemfelhívás, illetve ezek dokumentálása céljából (lásd: Durva erőszakot megjelenítő szudáni videó). Az olyan kontextusokban, mint például az izraeli–gázai konfliktus, ahol riasztóan sok civil halt vagy sebesült meg, köztük nagy arányban gyermekek is, a humanitárius válság pedig egyre súlyosbodik, különösen fontosak az ilyen jellegű engedmények. Bár a Bizottság elismeri a Meta erőszakot megjelenítő és durva tartalmakra vonatkozó, jelenleg is zajló szabályzatfejlesztési folyamatát, a Bizottság elvárná, hogy a Meta kész legyen gyorsan ideiglenes intézkedéseket bevezetni az ilyen típusú tartalmak engedélyezésére figyelmeztető képernyőkkel, valamint mellőzni e tartalmak eltávolítását az ajánlásokból.
A Bizottság megjegyzi, hogy a gázai helyzet a tartalom közzétételének időpontjában nem ugyanazokkal a kihívásokkal szembesítette a Metát, mint az október 7-ei támadások. Gázában nehézségekbe ütközik információhoz jutni a helyiektől, az újságírók korlátozottan férnek hozzá a területhez, az internetkapcsolat pedig megszakadt. Sőt, az október 7-ei támadások korai utóhatásaival ellentétben a jelen esetben bemutatott gázai helyzetben nem az történt, hogy terroristák használták a közösségi médiát az általuk elkövetett atrocitások közvetítésére. Ezzel szemben a fegyveres konfliktusok kontextusában a Metának gondoskodnia kell arról, hogy az intézkedései ne nehezítsék meg az emberek számára az olyan tartalmak megosztását, amelyek felhívják a figyelmet a polgári lakosságot ért károkra, és amelyek relevánsak lehetnek annak megállapításához, hogy megsértették-e a nemzetközi humanitárius jogot és a nemzetközi emberi jogokat. Az ilyen tartalmakat értékelő ellenőröknek abból a kérdésből kell kiindulniuk, hogy a tartalmat a helyszíni eseményekre való figyelemfelhívás vagy az események elítélése céljából osztották-e meg, a Meta automatizált rendszereit pedig úgy kell kialakítani, hogy elkerüljék az olyan tartalmak téves eltávolítását, amelyekre kivételek lennének érvényesek.
Ez az eset azt is szemlélteti, hogy az automatizált moderálás elégtelen emberi felügyelete egy válsághelyzetre való reagálás kontextusában vezethet jelentős közérdeket hordozó véleménynyilvánítás téves eltávolításához. Az érintett tartalom eltávolításáról hozott eredeti döntés és a felhasználó ellenvetésének elutasítása egyaránt automatikusan történt egy besorolói pontszám alapján, emberi ellenőrzés nélkül. Mindezt ugyanakkor még súlyosbíthatta is a Meta kríziskezelési lépése, amelynek keretében az október 7-ei támadásokat követően csökkentette az erőszakot megjelenítő és durva tartalmakra vonatkozó szabályának hatálya alá tartozó tartalmak eltávolítási küszöbét. Ez azt jelenti, hogy a Meta még akkor is eltávolítja az adott tartalmat, ha a besorolási technológia az általában ehhez szükségesnél viszonylag alacsonyabb pontszámot ad a szabálysértés valószínűségére.
Annak érdekében, hogy a Meta az emberi jogi kötelezettségvállalásaival összeegyeztethető módon alkalmazza automatizált rendszereit, a Bizottság emlékezteti a Metát a Kolumbiai rendőrségi karikatúra eset 1. számú ajánlására. Abban az esetben a Bizottság felszólította a Metát, hogy gondoskodjon róla, hogy azoknál a tartalmaknál, amelyeknél nagy a döntésvisszavonási kérések aránya és a sikeres kérések aránya, újra vizsgálja meg a médiaegyezési adatbankokból való eltávolítás lehetőségét. Erre az ajánlásra válaszul a Meta létrehozott egy kijelölt munkacsoportot, amely a médiaegyezési adatbankjaihoz kapcsolódó szabályozási fejlesztések mellett kötelezte el magát (erről a Meta legfrissebb tájékoztatása itt olvasható). A Bizottság megjegyzi annak fontosságát, hogy ez a csoport különös figyelmet fordítson a médiaegyezési szolgáltatások használatára a fegyveres konfliktusok összefüggésében. Az emlőrák tünetei és meztelenség eset kapcsán (3. sz. és 6. sz. ajánlás) a Bizottság azt javasolta, hogy a Meta tájékoztassa a felhasználókat arról, ha automatizálást használnak a tartalmaik elleni szabálybetartatási lépésekhez, és tegyen közzé adatokat a közösségi alapelv értelmében tett automatizált eltávolítási döntések számáról, valamint arról, milyen arányban vonta vissza ilyen döntéseket emberi ellenőrzést követően. Ez különösen akkor fontos, ha a feltehetően szabálysértő tartalomra vonatkozó megbízhatósági küszöböket a jelentések szerint jelentősen csökkentették. A Bizottság sürgeti a Metát, hogy tegyen további előrelépést a 6. sz. ajánlás megvalósítása terén, a 3. sz. ajánlás kapcsán pedig osszon meg a megvalósítást igazoló bizonyítékokat a Bizottsággal.
A szabad véleménynyilvánítás korlátozásai diszkriminációtól mentesek kell legyenek, ideértve a nemzetiség, etnikum, vallás vagy világnézet, illetve politikai vagy egyéb meggyőződés alapján történő diszkriminációt is (az ICCPR 2. cikkének 1. bekezdése, illetve az ICCPR 26. cikke). A közösségi alapelvek diszkriminatív betartatása aláássa a véleménynyilvánítás szabadságának ezen alapvető aspektusát. A Megosztott al-Dzsazíra-bejegyzés esetben a Bizottság komoly aggodalmát fejezte ki amiatt, hogy a Meta Izraelben és a megszállt palesztin területeken tapasztalható tartalommoderálási hibái egyenlőtlenül oszlanak meg, és független vizsgálatra szólított fel (a „Megosztott al-Dzsazíra-bejegyzés” esetről hozott döntés, 3. sz. ajánlás). A Business for Social Responsibility (BSR) emberi jogi hatásvizsgálata, amelyet a Meta az ajánlásra válaszul rendelt meg, „a nem szándékos elfogultság különböző eseteit azonosította, ahol a Meta szabályozása és gyakorlata az általánosabb külső dinamikával párosulva valóban különböző emberi jogi hatásokat eredményez a palesztin és arab nyelvű felhasználókra nézve.” A Bizottság arra ösztönzi a Metát, hogy teljesítse a BSR-jelentésre válaszul tett kötelezettségvállalásait.
Végezetül a Meta feladata, hogy megőrizze az emberi jogok és a nemzetközi humanitárius jog esetleges megsértésének bizonyítékait, ahogyan azt a BSR jelentése is ajánlja (21. sz. ajánlás), és a civil társadalmi csoportok is szorgalmazzák. A jövőbeni elszámoltathatóság érdekében akkor is létfontosságú az ilyen bizonyítékok megőrzése, ha a tartalmat eltávolítják a Meta platformjairól (lásd a Durva erőszakot megjelenítő szudáni videó és az Örmény hadifoglyokról készült videó esetet). Míg a Meta kifejtette, hogy egy évig megőrzi a közösségi alapelveket sértő tartalmakat, a Bizottság sürgeti, hogy azonosítsák a kifejezetten a potenciális háborús bűncselekményekkel, emberiség elleni bűncselekményekkel és az emberi jogok súlyos megsértésével kapcsolatos tartalmakat, és ezeket tartósabb és hozzáférhetőbb módon őrizzék meg a hosszabb távú elszámoltathatóság érdekében. A Bizottság megjegyzi, hogy a Meta vállalta az Örmény hadifoglyokról készült videó eset 1. sz. ajánlásának megvalósítását. Ez arra szólította fel a Metát, hogy dolgozzon ki egy protokollt az atrocitás-bűncselekmények vagy súlyos emberi jogi jogsértések orvoslására vagy büntetőeljárás alá vonására irányuló nyomozást és jogi eljárásokat segítő információk megőrzésére és adott esetben megosztására az illetékes hatóságokkal. A Meta tájékoztatta a Bizottságot, hogy „az atrocitás-bűncselekményeket és a nemzetközi emberi jogi jogszabályok súlyos megsértését igazoló potenciális bizonyítékok megőrzésére vonatkozó következetes megközelítés” kidolgozásának végső szakaszában van, és várhatóan hamarosan tájékoztatót nyújt be a Bizottságnak erről a megközelítésről. A Bizottság elvárja a Metától a fenti ajánlás teljes körű megvalósítását.
*Eljárással kapcsolatos megjegyzés:
Az Ellenőrző Bizottság gyorsított döntéseit öt tagból álló testületek készítik elő, és azokat nem kell a teljes Bizottság többségének jóváhagynia. A Bizottság döntései nem feltétlenül képviselik az összes tag személyes nézeteit.