Anulado
Al-Shifa Hospital
19 de diciembre de 2023
Binaliktad ng Board ang orihinal na desisyon ng Meta na alisin ang content sa Instagram. Nalaman ng Board na ang pag-restore ng content sa platform, na may warning screen na “markahan bilang nakakabahala”, ay consistent sa mga patakaran sa content, pagpapahalaga at mga responsibilidad ng Meta sa mga karapatang pantao.
Sa mga linggong kasunod ng pag-publish ng desisyong ito, ia-upload namin dito ang pagsasalin-wika sa Hebrew at magiging available ang Arabic na pagsasalin-wika sa pamamagitan ng tab ng ‘wika’ na maaaring ma-access sa menu sa itaas ng screen na ito.
לקריאת החלטה זו בעברית יש ללחוץ כאן.
1. Summary
Ang kasong ito ay kinabibilangan ng makabagbag-damdaming video ng resulta ng strike sa o malapit sa Al-Shifa hospital sa Gaza sa ground offensive ng Israel, na may caption na nagkokondena sa pag-atake. Inalis ng mga automated system ng Meta ang post dahil sa paglabag sa Pamantayan ng Komunidad nito sa Marahas at Graphic Content. Pagkatapos ng hindi matagumpay na pagsalungat sa desisyong ito sa Meta, umapela ang user sa Oversight Board. Pagkatapos matukoy ng Board ang kaso para suriin, binaliktad ng Meta ang desisyon nito at ibinalik ang content na may kasamang babalang screen. Sinusuportahan ng Board na ang orihinal na desisyon na alisin ang content ay hindi sumunod sa mga patakaran ng Meta sa contet o sa mga responsibilidad ng kumpanya sa mga karapatang pantao. Inaprubahan ng Board ang desisyon na ibalik ang content nang may babalang screen pero hindi inaprubahan ang nauugnay na pag-demote sa content na humadlang dito mula sa mga rekomendasyon Ang kasong ito, kasama ng Mga Hostage na Nadakip sa Israel ( 2023-050-FB-UA), ay ang mga unang kaso ng Board na napagpasyahan sa ilalim ng pinabilis na mga pamamaraan nito ng pagsusuri.
2. Konteksto at Tugon ng Meta
Noong Oktubre 7, 2023, pinangunahan ng Hamas, itinuring na Tier 1 na organisasyon sa ilalim ng Pamantayan ng Komunidad ng Meta sa Mapanganib na Mga Organisasyon at Indibiduwal, ang hindi mga pangkaraniwang pang-aatake ng terorista sa Israel mula sa Gaza na pumatay sa tinatayang 1,200 tao at nagresulta sa humigit-kumulang na 240 tao na kinuha bilang hostage ( Ministry of Foreign Affairs, Gobyerno ng Israel). Agad na nagsagawa ang Isreal ng kampanya ng militar sa Gaza bilang pagtugon sa mga pang-aatake. Ang aksyon ng militar ng Israel ay pumatay ng mahigit sa 18,000 tao sa Gaza sa kalagitnaan ng Disyembre 2023 (UN Office for the Coordination of Humanitarian Affairs, isang representasyon sa data mula sa Ministry of Health in Gaza), sa isang kaguluhan kung saan inakusahan ang magkabilang panig ng paglabag sa internasyonal na batas. Ang parehong mga pang-aatake ng terorista at ang kasunod na mga aksyon ng militar ng Israel ay naging paksa ng mga matinding publisidad sa buong mundo, debate, puna, at kontrobersya, ang karamihan sa mga ito ay nangyari sa mga social media platform, kasama ang Instagram at Facebook.
Agad na itinuring ng Meta ang mga pangyayari noong Oktubre 7 na pang-aatake ng terorista sa ilalim ng patakaran nito sa Mapanganib na Mga Organisasyon at Indibiduwal. Sa ilalim ng Mga Pamantayan ng Komunidad nito, ibig sabihin aalisin ng Meta ang anumang content sa platform nito na “pumupuri, makabuluhang sumusuporta o kumakatawan” sa mga pang-aatake noong Oktubre 7 o ang mga perpetrator ng mga ito.
Bilang reaksyon sa pambihirang pagdami sa marahas at graphic content na pino-post sa mga platform nito kasunod ng mga pang-aatake ng terorista at pagtugon ng militar, naglagay ang Meta ng maraming pansamantalang hakbang, kasama ang pagbawas ng mga confidence threshold para sa automatic classification system (classifier) nito sa Graphic at Marahas na Content para matukoy at maalis ang content. Sinabihan ng Meta ang Board na ang mga hakbang na ito ay ginamit sa content na mula sa Israel at Gaza sa lahat ng wika. Dinagdagan ng mga pagbabago sa mga classifier na ito ang awtomatikong pag-alis ng content kung saan may mas mababang confidence score para sa content na lumalabag sa mga patakaran ng Meta. Sa madaling salita, ginamit ng Meta ang mga automated tool nito nang mas agresibo para alisin ang content na maaaring lumabag sa mga patakaran nito. Ginawa ito ng Meta para bigyan ng prayoridad ang pagpapahalaga nito na kaligtasan, kung saan mas maraming content ang inalis kaysa sa mangyayari sa ilalim ng mas mataas na confidence threshold na mayroon bago ang Oktubre 7. Bagaman nabawasan nito ang posiblidad na hindi maaalis ng Meta ang lumalabag na content na maaaring iwasan ang pag-detect o kung saan limitado ang kapasidad para sa human review, dinagdagan din nito ang posiblidad na magkamaling alisin ng Meta ang hindi lumalabag na content kaugnay sa gulo.
Noong na-assess ng mga escalation team ang mga video bilang lumalabag sa mga patakaran nito sa Marahas at Graphic na Content, Karahasan at Panghihimok na Gumawa ng Krimen at Mapanganib na Mga Organisasyon at Indibiduwal, dumepende ang Meta sa mga Media Matching Service bank para awtomatikong alisin ang mga tumutugmang video. Ipinahayag ng pamamaraan na ito ang alalahanin sa labis na enforcement, kasama ang mga taong nahaharap sa mga restriction sa o mga pagkakasuspinde ng kanilang mga account kasunod ng maraming paglabag ng mga patakaran sa content ng Meta (tinatawag minsan bilang “Facebook jail”). Para bawasan ang alalahanin na ito, na-hold ng Meta ang“ mga strike” na karaniwang kasama sa mga pag-alis ng content post na awtomatikong mangyayari batay sa mga Media Matching Service bank (gaya ng na-announce ng Meta sa newsroom post nito).
Ang mga pagbabago ng Meta sa confidence threshold ng classifier at ang patakaran nito sa strike ay limitado sa gulo sa pagitan ng Israel at Gaza at nilalayon na maging pansamantala. Simula Disyembre 11, 2023, hindi ibinalik ng Meta ang mga confidence threshold sa mga level bago mangyari ang Oktubre 7.
3. Paglalarawan ng Kaso
Ang content sa kasong ito ay kinabibilangan ng video na na-post sa Instagram sa pangalawang linggo ng Nobyembre, ipinapakita ang mukhang resulta ng strike sa o malapit sa Al-Shifa Hospital sa Gaza City sa panahon ng ground offensive ng Israel sa hilaga ng Gaza Strip. Ipinapakita ng Instagram post sa kasong ito ang mga tao, kasama ang mga bata, na nakahandusay sa lupa nang walang buhay o nasaktan at umiiyak. Ang isang bata ay mukhang patay na, at may matinding pinsala sa ulo. Isinasaad ng caption sa Arabic at Ingles sa ibaba ng video na na-target ang ospital ng "nang-aagaw na okupasyon," isang reference sa Israeli army, at tina-tag nito ang mga organization ng mga karapatang pantao at balita.
Ang Pamantayan ng Komunidad ng Meta sa Marahas at Graphic Content, na naaangkop sa content sa Facebook at Instagram, ay ipinagbabawal ang “mga [v]ideo ng mga tao o mga bangkay sa hindi medikal na mga setting kung nagpapakita ang mga ito ng … [n]akikitang mga internal organ.” Sa oras ng pag-post, pinayagan ng patakaran ang “[l]arawan na nagpapakita ng marahas na pagkamatay ng isang tao o mga tao sa pamamagitan ng aksidente o pagpatay,” sa kondisyon na ang nasabing content ay inilagay sa likod ng warning screen na “markahan bilang nakakabahala” at nakikita lang ng mga tao na mahigit sa edad na 18. Na-update ang panuntunan na ito noong Nobyembre 29, pagkatapos ibalik ang content sa kasong ito, para linawin ang panuntunan na naaangkop sa “sandali ng pagkamatay o ang resulta” pati rin ang larawan ng “isang taong nakakaranas ng nakamamatay na pangyayari.”
Inalis ng mga automated system ng Meta ang content sa kasong ito dahil sa paglabag sa Pamantayan ng Komunidad sa Marahas at Graphic Content. Ang apela ng user laban sa desisyon ay awtomatikong tinanggihan dahil sinabi ng mga classifier ng Meta ang “mataas na confidence level” na lumalabag ang content. Inapela ng user sa Oversight Board ang desisyon ng Meta.
Kasunod ng pagpili ng Board sa kasong ito, sinabi ng Meta na hindi nito conclusive na matutukoy na nagpakita ng nakikitang mga internal organ ang video. Kaya nagpasya ang Meta na hindi dapat nito inalis ang content na ito, bagaman ito ay nasa “borderline” ng paglabag. Higit pang ipinaliwanag ng Meta na kahit nakikita ang mga internal organ, hindi dapat inalis ang post at nilagyan ng warning screen na “markahan bilang nakakabahala” dahil ibinahagi ito para magbigay ng kamalayan. Inulit ng kumpanya na, alinsunod sa paliwanag ng patakaran sa Graphic at Marahas na Content, pinahihintulutan ang nasabing content kapag ibinahagi para magbigay ng kamalayan “tungkol sa mga mahalagang isyu tulad ng mga pang-aabuso sa mga karapatang pantao, mga armed conflict o mga gawa ng terorismo.”
Kaya binaliktad ng Meta ang orihinal na desisyon nito at ibinalik ang content nang may kasamang warning screen. Sinasabi ng warning screen sa mga user na posibleng nakakabahala ang content. Maaaring i-click ng mga user na nasa hustong gulang para makita ang post, pero inaalis ng Meta ang mga post na ito mula sa mga feed ng mga Instagram user na wala pang 18 at inaalis din ang mga ito sa mga rekomendasyon sa mga Instagram user na nasa hustong gulang. Nagdagdag din ang Meta ng hiwalay na instance ng parehong video sa Media Matching Service bank, para awtomatikong hindi alisin ang iba pang mga video na katulad ng isang ito nang may kasamang warning screen at makikita lang ng mga tao na mahigit sa edad na 18.
4. Pagbibigay ng Katwiran para sa Pinabilis na Review
Nakasaad sa Mga Regulasyon ng Oversight Board ang pinabilis na pagsusuri sa "mga hindi pangkaraniwang sitwasyon, kasama ang kapag maaaring magresulta ang content sa mga agarang kahihinatnan sa tunay na mundo” at ang mga desisyon ay binding sa Meta (Charter, Art. 3, seksyon 7.2; Mga Regulasyon, Art. 2, seksyon 2.1.2). Pinipigilan ng pinabilis na proseso ang antas ng extensive na research, external na pagkonsulta o mga komento ng publiko na gagawin sa mga kasong susuriin sa mga ordinaryong timeline. Pinagpasyahan ang kaso ayon sa impormasyong available sa Board sa oras ng deliberation at pinagpasyahan ng panel na may limang miyembro nang walang buong boto ng Board.
Pinili ng Oversight Board ang kasong ito at ang isa pang kaso na Mga Hostage na Na-kidnap Mula sa Israel (2023-050-FB-UA), dahil sa kahalagahan ng kalayaan sa pagpapahayag sa mga magulong sitwasyon, na nalagay sa panganib sa konteksto ng gulo sa pagitan ng Israel at Hamas. Ang parehong mga kaso ay kumakatawan sa mga uri ng mga apela na sina-submit ng mga user sa rehiyon sa Board mula pa sa mga pang-aatake noong Oktubre 7 at kasunod na aksyon ng militar ng Israel. Ang parehong mga kaso ay napapabilang sa prayoridad ng Oversight Board sa krisis at magugulong sitwasyon. Ang mga desisyon ng Meta sa parehong kaso ay nakakatugon sa pamantayan ng “agarang mga kahihinatnan sa tunay na mundo” para mabigyan ng katwiran ang pinabilis na pagsusuri, at alinsunod, sumang-ayon ang Board at Meta na magpatuloy sa ilalim ng pinabilis na mga pamamaraan ng Board.
Sa pag-submit nito sa Board, nabatid ng Meta na “ang desisyon sa kung paano tatratuhin ang content na ito ay mahirap at kinabibilangan ito ng mapagkumpitensyang mga pagpapahalaga at mga trade-off,” tinatanggap ang input ng Board sa isyung ito.
5. Mga Submission ng User
Sinabi ng gumawa ng post sa kanyang apela sa Board na hindi siya nanghimok ng anumang karahasan, pero ibinahagi ang content na nagpapakita ng pagdurusa ng mga Palestinian, kasama ang mga bata. Idinagdag ng user na ang pag-alis ay bias laban sa pagdurusa ng mga Palestinian Inabisuhan ang user ng tungkol sa pagsusuri ng Board sa kanyang apela.
6. Desisyon
Bagaman ang mga miyembro ng Board ay may mga hindi pagkakasundo tungkol sa tugon ng militar ng Israel at ang pagbibigay katwiran nito, nagkaisa silang sumang-ayon sa kahalagahan ng paggalang ng Meta sa karapatan sa kalayaan sa pagpapahayag at iba pang mga karapatang pantao ng lahat ng apektado ng mga pangyayaring ito, at ang kanilang kakayahan na makipag-usap sa krisis na ito.
Binaliktad ng Board ang orihinal na desisyon ng Meta na alisin ang content sa Instagram. Nalaman ng Board na ang pag-restore ng content sa platform, na may warning screen na “markahan bilang nakakabahala”, ay consistent sa mga patakaran sa content, pagpapahalaga at mga responsibilidad ng Meta sa mga karapatang pantao. Gayunpaman, nagpasya rin ang Board na ang pag-demote ng Meta sa ni-restore na content, sa pamamagitan ng pagbubukod nito sa posibilidad na mairekomenda, ay hindi alinsunod sa mga responsibilidad ng kumpanya na igalang ang kalayaan sa pagpapahayag.
6.1 Pagsunod sa Mga Patakaran sa Content ng Meta
Sumang-ayon ang Board sa Meta na mahirap malaman kung ang video sa kasong ito ay nagpapakita ng “[n]akikitang mga internal organ.” Sa konteksto ng kasong ito, kung saan mayroong pambihirang mataas na public interest value sa pagprotekta ng access sa impormasyon at pagbibigay ng mga daan para magbigay ng kamalayan ng epekto ng kaguluhan, ang content na “nasa borderline” ng paglabag sa patakaran sa Marahas at Graphic Content ay hindi dapat alisin. Dahil may kasamang larawan ang content na nagpapakita sa marahas na pagkamatay ng tao, na nagpapakita ng madugong pinsala sa ulo, dapat naglagay ang Meta ng warning screen at ginawa itong available lang sa mga tao na mahigit sa edad na 18 alinsunod sa mga patakaran nito.
Sumasang-ayon din ang Board sa kasunod na pagtukoy ng Meta na kahit na may kasamang nakikitang mga internal organ ang video na ito, ang wika ng post na nagkokondena o nagbibigay ng kamalayan sa karahasan ay nangangahulugan din na hindi dapat ito inalis nang may kasamang warning screen na “markahan bilang nakakabahala”, at hindi available sa mga user na wala pang 18. Hindi nagbibigay ang Pamantayan ng Komunidad ng mga warning screen kaugnay sa naaangkop na policy line (“mga [v]ideo ng mga tao o bangkay na nasa medikal na setting kung nagpapakita ang mga ito ng […] n]akikitang mga internal organ”). Sa kasong Sudan Graphic Video, ipinaliwanag ng Board na sinabi ng Meta sa mga reviewer na sundin ang letter ng mga patakaran nito na “do not post”. Sinasabi ng rationale na “[s]a konteksto ng mga talakayan tungkol sa mga mahalagang isyu tulad ng mga pang-aabuso sa mga karapatang pantao, mga armed conflict o mga gawain ng terorismo, pinapayagan namin ang graphic content (na may ilang limitasyon) para tulungan ang mga tao na kondenahin at magbigay ng kamalayan tungkol sa mga sitwasyon na ito.” Gayunpaman, ipinagbabawal ng Pamantayan ng Komunidad ang lahat ng video na nagpapakita ng “nakikitang mga internal organ” sa hindi medikal na konteksto, nang hindi binibigyan ang mga reviewer ng opsyon ng paglalagay ng warning screen kung saan kabilang ang eksepsyon ng paliwanag ng patakaran. Ang mga automated system ng Meta ay hindi mukhang naka-configure na maglagay ng mga warning screen sa mga video na nagpapakita ng graphic content kung saan may konteksto na nagkokondena o nagbibigay ng kamalayan ng karahasan. Hindi rin malinaw na kung nasaan ang kontekstong ito, ang naaangkop na mga classifier ay maipapadala ang content sa mga human reviewer para sa karagdagang pag-assess.
6.2 Pagsunod Sa Mga Responsibilidad sa mga Karapatang Pantao ng Meta
Alinsunod sa mga responsibilidad sa mga karapatang pantao, dapat igalang ng pag-moderate ng Meta sa marahas at graphic content ang karapatan sa kalayaan sa pagpapahayag, na kinabibilangan ng kalayaan na maghanap, makatanggap at magbahagi ng impormasyon (Art. 19, talata 2, International Covenant on Civil and Political Rights (ICCPR)). Gaya ng sinabi ng Board sa kasong Armenian Prisoners of War Video, ang mga proteksyon para sa kalayaan sa pagpapahayag sa ilalim ng Article 19 ng International Covenant on Civil and Political Rights (ICCPR) ay “nanatiling hindi kabilang sa panahon ng mga armed conflict, at dapat patuloy na bigyan ng kaalaman ang mga responsibilidad ng Meta sa mga karapatang pantao, kasama ng parehong pag-reinforce at complementary na mga panuntunan ng internasyonal na humanitarian law na naaangkop sa nasabing mga kaguluhan.” Nagpatupad ang UN Guiding Principles on Business and Human Rights ng pinatinding responsibilidad sa mga negosyong nag-ooperate sa kaguluhan ("Negosyo, mga karapatang pantao at mga rehiyon na apektado ng gulo: tungo sa pinatinding aksyon," A/75/212).
Binigyang-diin ng Board sa mga nakaraang kaso na ang mga social media platform tulad ng Facebook at Instagram ay mahalagang paraan para maghatid ng real-time na impormasyon tungkol sa mga marahas na pangyayari, kasama ang pagbabalita (tingnan ang hal. Pagbanggit sa Taliban sa Pagbabalita). Gumaganap ang mga ito ng higit na mahalagang tungkulin sa mga konteksto ng mga armed conflict, lalo na kung saan may limitadong access para sa mga journalist. Dagdag pa rito, ang content na nagpapakita ng marahas na mga pang-aatake at pang-aabuso ng karapatang pantao ay para Sudan Graphic Video).
Kapag ipinatupad ng state ang mga paghihigpit sa pagpapahayag, sa ilalim ng internasyonal na mga karapatang pantao, dapat matugunan ng mga ito ang mga requirements ng legalidad, lehitimong layunin at pangangailangan at proporsyonalidad (Article 19, talata 3, ICCPR). Madalas tawagan ang mga pangangailangan na ito bilang “three-part test.” Ginagamit ng Board ang framework na ito para bigyang-kahulugan ang boluntaryong mga commitment sa mga karapatang pantao ng Meta, kaugnay sa desisyon sa indibiduwal na content na sinusuri at sa sinasabi nito tungkol sa mas malawak na approach ng Meta sa pamamahala ng content. Sa paggawa nito, sinubukan ng Board na maging sensitibo sa kung paano posibleng maging iba ang mga karapatang iyon gaya ng paggamit nito sa pribadong social media company kaysa sa paggamit nito sa gobyerno. Gayunpaman, gaya ng sinabi ng UN Special Rapporteur sa kalayaan sa pagpapahayag, na bagaman walang mga obligasyon ng mga gobyerno ang mga kumpanya, “ang kanilang epekto ay medyo hinihiling sa kanilang i-assess ang parehong uri ng mga tanong tungkol sa pagprotekta ng kanilang karapatan sa kalayaan sa pagpapahayag” (report A/74/486, talata 41).
Hinihiling ng batas na ang anumang paghihigpit sa kalayaan sa pagpapahayag ay dapat naa-access at sapat na malinaw para magbigay ng gabay sa kung ano ang pinapayagan at hindi pinapayagan. Nagpahayag dati ang Board ng alalahanin na ang mga panuntunan ng Pamantayan ng Komunidad sa Karahasan at Graphic Content ay hindi ganap na naalinsunod sa rationale ng patakaran, na nagtatakda ng mga layunin ng patakaran (Tingnan ang Sudan Graphic Video at Video After Nigeria Church Attack). Inulit ng Board ang kahalagahan ng mga rekomendasyon bilang 1 at 2 sa kasong Sudan Graphic Video, na nanawagan sa Meta na baguhin ang Pamantayan ng Komunidad nito sa Marahas at Graphic Content para payagan ang mga video ng mga tao o bangkay kapag ibinahagi para magbigay ng kamalayan o idokumento ang mga pang-aabuso ng mga karapatang pantao (ang kasong iyon ay tungkol sa nakikitang pagputol ng bahagi ng katawan). Nagsagawa ang Meta ng proseso sa paggawa ng patakaran bilang pagtugon sa mga rekomendasyong ito at nilalayon na i-report ang pag-usad nito sa susunod na quarterly update nito sa Board. Sa pananaw ng Board, dapat gamitin ang rekomendasyong ito sa mga panuntunan para sa mga video na nagpapakita ng nakikitang mga internal organ, at partikular na magbigay ng mga warning screen bilang hakbang sa pag-enforce kung saan kabilang ang pagbibigay ng kamalayan (kasama ang pagre-report ng katotohanan) at eksepsyon sa pagkondena.
Sa ilalim ng Article 19, talata 3 ng ICCPR, maaaring limitahan ang pagpapahayag para sa tinukoy at limitadong listahan ng mga dahilan. Nalaman dati ng Board na ang patakaran sa Marahas at Graphic Content ay lehitimong nilalayon na protektahan ang mga karapatan ng iba, kasama ang privacy ng ipinapakitang indibiduwal (Tingnan ang Sudan Graphic Video at Video Pagkatapos ng Pang-aatake sa Simbahan ng Nigeria). Dagdag pa rito, ipinapakita ng kasalukuyang kaso, na ang pag-restrict sa content para sa mga taong wala pang 18 ay nagbigay ng lehitimong layunin ng pagprotekta sa karapatan sa kalusugan ng mga menor de edad (Convention on the Rights of the Child, Article 24).
Isinasaad sa prinsipyo ng pagiging kinakailangan at proporsyonalidad na ang anumang mga paghihigpit sa kalayaan sa pagpapahayag ay “dapat naaangkop para makamit ang proteksyon nito; ang mga ito ay hindi dapat mapanghimasok na intstrumento sa mga posibleng makamit ang kanilang tungkulin na magbigay ng proteksyon; [at] dapat maging proporsyon ang mga ito sa interes na poprotektahan” ( Pangkalahatang Komento Bilang 34, talata 34).
Nalaman dati ng Board kaugnay sa marahas at graphic content na ang warning screen ay “hindi naglalagay ng hindi makatwirang pasakit sa mga gustong makita ang content habang nagbibigay ng kaalaman sa iba tungkol sa katangian ng content at pinapayagan silang magpasya kung titingnan ito o hindi” (Tingnan ang Sudan Graphic Video). Pinipigilan ng mga warning screen ang mga user na hindi sinasadyang makita ang posibleng nakakabahalang content. Higit pang pinoprotektahan ang mga karapatan ng mga biktima ng patakaran ng Meta para alisin ang mga video at litrato na nagpapakita ng marahas na pagkamatay ng isang tao (o ang agarang resulta nito) kapag hiniling ito ng miyembro ng pamilya. Maaring matukoy ang content sa kasong ito mula sa nasa kasongRussian Poem, na nagpakita ng hindi gumagalaw na larawan ng katawang nakahandusay sa lupa sa long range, kung saan hindi makikita ang mukha ng biktima, at kung saan walang malinaw na mga visual na indicator ng karahasan. Ang paglalagay ng warning screen sa kasong iyon ay hindi consistent sa gabay ng Meta sa mga reviewer at hindi kinakailangan o proporsyon sa paghihigpit sa pagpapahayag. Ang content sa kasong ito ay mas katulad sa content sa desisyon sa Video Pagkatapos ng Pang-aatake sa Simbahan ng Nigeria, na nagpapakita ng patay at nasaktang mga tao nang malapitan, na may napakalinaw na visual na mga indicator ng karahasan.
Sa kasong ito, ang pagpapakita ng nasaktan at walang buhay na mga bata ay ginagawang lalo pang nakakabalisa ang video. Sa mga pangyayaring katulad ng mga ito, kinakailangan at proporsyon na hakbang ang pagbibigay sa mga user ng opsyon kung makikita ang nakakabahalang content (tingnan din ang Armenian Prisoners of War Video).
Nalaman ng Board na ang pagbukod sa content na nagbibigay ng kamalayan sa mga posibleng pang-aabuso ng mga karapatang pantao at mga paglabag ng mga batas ng digmaan, mga kaguluhan o mga gawa ng terorismo mula sa mga rekomendasyon na umaabot sa mga nasa hustong gulang ay hindi kinakailangan o proprosyon na paghihigpit sa kalayaan sa pagpapahayag, isinasaalang-alang ang napakataas na interes ng publiko sa nasabing content. Ang mga warning screen at pag-alis mula sa mga rekomendasyon ay nagsisilbing hiwalay na mga tungkulin, at sa ilang pangyayari ay dapat ihiwalay, lalo na sa mga sitwasyon ng krisis. Ang mga rekomendasyon sa Instagram ay ginagawa ng mga automated system nan nagsa-suggest ng content sa mga user batay sa mga inaasahang interes ng mga user. Ang pag-alis ng content mula sa mga system ng rekomendasyon ay nangangahulugan sa pagbawas ng naaabot na makukuha ng content na ito. Nalaman ng Board na nakakahadlang ang kasanayan na ito sa kalayaan sa pagpapahayag sa hindi proprosyon na mga paraan hanggang sa lawak na naaangkop ito sa content na limitado na sa mga user na nasa hustong gulang at na-post para magbigay ng kamalayan, magkondena o mag-report ng mga bagay tungkol sa kapakanan ng publiko gaya ng pagbuo ng marahas na gulo.
Batid ng Board na ang agarang tugon sa krisis ay maaaring mangailangan ng pambihirang mga pansamantalang hakbang, at na sa ilang konteksto, lehitimong unahin ang mga alalahanin sa kaligtasan at pansamantala at proporsyonal na maglagay ng mas maraming mga paghihigpit sa kalayaan sa pagpapahayag. Nakabalangkas ang ilan sa mga ito, halimbawa, sa “content ng terorista at marahas na extremist” na itinatag sa Christchurch Call. Gayunpaman, sinabi ng Board na binibigyang-diin ng Christchurch Call ang pangangailangan na tumugon sa nasabing content sa paraan na alinsunod sa mga karapatang pantao at mahahalagang kalayaan. Naniniwala ang Board na hindi nabibigyan ng katwiran ng mga alalahanin sa kaligtasan ang pagkakamali sa bahagi ng pag-alis ng graphic content na may layunin na magbigay ng kamalayan tungkol sa o magkondena sa mga posibleng war crime, mga krimen laban sa sangkatauhan, o matitinding paglabag ng mga karapatang pantao. Ang mga nasabing paghihigpit ay maaari ring makahadlang sa impormasyon na kinakailangan para sa kaligtasan ng mga tao na nasa lupa sa mga kaguluhan na iyon.
Ang mga hakbang tulad ng hindi pagpapatupad ng mga strike ay nakakatulong na pigilan ang posibleng hindi proporsyon na mga hindi magandang epekto ng mga mali sa pag-enforce dahil sa mga pang-emergency na hakbang tulad ng pagbawas ng mga confidence threshold para sa pag-alis ng content dahil sa mga magulong sitwasyon. Gayunpaman, hindi sapat ang mga ito na protektahan ang kakayahan ng mga user na magbahagi ng content na nagbibigay ng kamalayan tungkol sa mga posibleng pang-aabuso ng mga karapatang pantao at mga paglabag ng humanitarian law, at iba pang mahalagang impormasyon sa mga magulong sitwasyon.
Binigyang-diin ng Board ang pangangailangan na bumuo ng may prinsipyo at transparent na framework para sa pag-moderate ng content sa panahon ng mga krisis at sa mga conflict zone (Tingnan ang Haitian Police Station Video at Tigray Communication Affairs Bureau). Ito ay tumpak sa mga panahon ng mabilis na nagbabagong kaguluhan na dapat ilaan ng malalaking social media company ang mga resource na kinakailangan para matiyak na hindi kinakailangang nabawasan ang kalayaan sa pagpapahayag. Sa mga nasabing panahon, ang mga source na kaugnay ng journalist ay kadalasang sumasailalim sa pisikal at iba pang mga pang-aatake, na ginagawang higit na mahalaga ang pagbabalita ng mga ordinaryong mamamayan sa social media.
Napansin din dati ng Board na sa mga konteksto ng digmaan o political unrest, mayroong mas graphic at marahas na content na nakukunan ng mga user at ibinabahagi sa platform para magbigay ng kamalayan o idokumento ang mga pang-aabuso (Tingnan ang Sudan Graphic Video). Sa mga konteksto tulad ng gulo sa pagitan ng Israel at Gaza, kung saan mayroong nakakaalarmang bilang ng mga napatay o nasaktang sibilyan, kung saan nakakarami sa mga ito ay mga bata, sa kaligtanaan ng lumulubhang krisis sa sangkatauhan, ang ganitong mga uri ng pagpapahintulot ay higit na mahalaga. Bagaman kinikilala ang patuloy na proseso ng pagbuo ng patakaran ng Meta sa patakaran nito sa Marahas at Graphic Content, aasahan ng Board ang Meta na maging handang mabilis na mag-deploy ng pansamantalang mga hakbang para payagan ang ganitong uri ng content na may kasamang mga warning screen, at hindi ito aalisin sa mga rekomendasyon.
Sinabi ng Board na ang sitwasyon sa Gaza noong na-post ang content ay hindi kinabilangan ng parehong set ng mga hamon para sa Meta gaya ng sa mga pang-aatake noong Oktubre 7. Sa Gaza, nagkaroon ng mga kahirapan sa pagkuha ng impormasyon mula sa mga tao sa lupa, samantala limitado ang access ng journalist sa teritoryo at naantala ang koneksyon sa internet. Dagdag pa rito, hindi tulad ng maagang resulta ng mga pang-aatake noong Oktubre 7, ang sitwasyon sa Gaza na ipinakita sa kasong ito ay hindi kinabilangan ng mga terorista na gumagamit ng social media para i-broadcast ang kanilang mga atrocity. Sa konteksto ng armed conflict, salungat nito, dapat tiyakin ng Meta na hindi mas pinahihirap ng mga aksyon nito sa mga tao na magbahagi ng content na nagbibigay ng impormasyon na nagbibigay ng kamalayan tungkol sa mga pinsala laban sa mga sibilyan, at maaaring nauugnay sa pagtukoy kung nangyari ang mga paglabag ng internasyonal na humanitarian law at internasyonal na batas sa mga karapatang pantao. Ang tanong kung ibinahagi ba ang content para magbigay ng kamalayan o kondenahin ang mga pangyayari sa lupa ay dapat maging simula para sa sinumang reviewer na nag-aassess ng nasabing content, at dapat dinisenyo ang mga automated system ng Meta para iwasang alisin nang mali ang content na dapat makinabang mula sa mga naaangkop na eksepsyon.
Higit pang inilalarawan ng kasong ito na ang hindi sapat na pangangasiwa ng tao sa automated na pag-moderate sa konteksto ng pagtugon sa krisis ay maaaring humantong sa may maling pag-alis ng speech na posibleng makabuluhan sa kapakanan ng publiko. Ang parehong inisyal na desisyon na alisin ang content na ito pati rin ang pagtanggi sa apela ng user ay awtomatikong ginawa batay sa classifier score, nang walang anumang human review. Posible nitong palubhain ang pagtugon ng Meta sa krisis sa pamamagitan ng pagpapababa ng threshold ng pag-alis ng content sa ilalim ng patakaran sa Marahas at Graphic Content kasunod ang mga pang-aatake noong Oktubre 7. Ibig sabihin nito na kahit na nagbibigay ang classifier ng lubhang mas mababang score sa posiblidad ng paglabag kaysa sa karaniwang kinakailangan, inaalis ng Meta ang content.
Para gamitin ng Meta ang mga automated system nito sa paraan na compatible sa mga commitment nito sa mga karapatang pantao, pinapaalalahanan ng Board ang Meta tungkol sa rekomendasyon bilang 1 sa kasong Colombia Police Cartoon. Sa kasong iyon, nanawagan ang Board sa Meta na tiyaking muling maa-assess ang content na may maraming apela at maraming matagumpay na apela para sa posibleng pag-alis ng mga ito sa mga Media Matching Service bank nito. Bilang pagtugon sa rekomendasyong ito, nagtatag ang Meta ng itinalagang working group na committed sa pamamahala ng mga pagapahusay sa mga Media Matching Service bank nito (Tingnan dito ang mga pinakabagong update ng Meta tungkol dito). Sinabi ng Board na mahalagang magtuon ng partikular na pansin ang grupong ito sa paggamit ng Mga Media Matching Service sa konteksto ng armed conflict. Sa kasong Mga Sintomas ng Breast Cancer at Nudity (rekomendasyon bilang 3 at bilang 6), inirekomenda ng Board na sinasabi ng Meta sa mga user kapag gumamit ng automation para gumawa ng enforcement action laban sa kanilang content,a t para i-disclose ang data sa bilang ng mga desisyon sa automated na pag-alis ayon sa Pamantayan ng Komunidad at ang proporsyon ng mga desisyon na iyon sa kalaunan ay binaliktad kasunod ng human review. Partikular na mahalaga ito kapag ang mga confidence threshold para sa content na malamang na lumalabag ay na-report bilang lubhang bumaba. Hinihimok ng Board ang Meta na gumawa ng karagdagang pag-usad sa pagpapatupad ng rekomendasyon bilang 6 at magbahagi sa Board ng ebidensya ng pagpapatupad para sa rekomendasyon bilang 3.
Ang mga paghihigpit sa malayang pagpapahayag ay dapat hindi nandidiskrimina, kabilang ang basehan ng nasyonalidad, etnisidad, relihiyon o paniniwala, o pampulitikang opinyon o iba pang opinyon (Article 2, talata 1, at Article 26, ICCPR). Ang nandidiskriminang pagpapatupad ng Mga Pamantayan ng Komunidad ay sinisira ang mahalagang aspetong ng kalayaan sa pagpapahayag. Sa kasong Ibinahaging Al Jazeera Post, sinabi ng Board ang mga seryosong alalahanin na ang mga mali sa pag-moderate ng Meta sa content sa Isarel at ang Okupadong Mga Teritoryo ng Palestinian ay posibleng hindi patas na napamahagi, at nanawagan ng hiwalay na imbestigasyon (Desisyon sa Ibinahaging Al Jazeera Post, rekomendasyon bilang 3). Natukoy ng Business for Social Responsibility (BSR) Human Rights Impact Assessment, na kinuha ng Meta bilang pagtugon sa rekomendasyong iyon, ang “iba’t ibang instance ng hindi sinasadyang bias kung saan ang patakaran at kasanayan ng Meta, kasama ng mas malawak na mga external dynamics, ay humahantong sa iba’t ibang mga epekto sa mga karapatang pantao sa mga user na nagsasalita ng Palestinian at Arabic." Hinihikayat ng Board ang Meta na gawin ang mga commitment na ginawa nito bilang pagtugon sa BSR report.
Panghuli, may responsibilidad ang Meta na panatilihin ang ebidensya ng posibleng mga paglabag sa mga karapatang patano at mga paglabag ng internasyonal na humanitarian law, gaya ng inirekomenda rin sa BSR report (rekomendasyon21) at na-advocate ng mga grupo ng civil society. Kahit na inalis ang content sa mga platform ng Meta, mahalagang mapanatili ang nasabing ebidensya para sa interes sa pananagutan sa hinaharap (Tingnan ang Sudan Graphic Video at Armenian Prisoners of War Video). Bagaman ipinaliwanag ng Meta na pinapanatili nito ang lahat ng content na lumalabag sa Mga Pamantayan ng Komunidad nito sa loob ng isang taon, hinihimok ng Board na tukuyin at panatilihin ang content na partikular na nauugnay sa potensyal na mga war crime, mga krimen laban sa sangkatauhan, at matinding mga paglabag ng mga karapatang pantao sa mas nakakaya at naa-access na paraan para sa mas pangmatagalang pananagutan. Sinabi ng Board na pumayag ang Meta na ipatupad ang rekomendasyon bilang 1 sa kasong Armenian Prisoners of War Video. Nanawagan ito sa Meta na gumawa ng protokol para panatilihin at, kung saan naaangkop, ibahagi sa mga may kakayahang awtoridad, ang impormasyon para tumulong sa mga imbestigasyon at mga legal na proseso para remedyuhan o usigin ang mga malulupit na krimen o matinding mga paglabag sa mga karapatang pantao. Sinabi ng Meta sa board na sa mga panghuling yugto ng pagbuo nito ng “consistent na pamamaraan sa pagpapanatili ng potensyal na ebidensya ng malulupit na krimen at matinding mga paglabag ng internasyonal na batas sa mga karapatang pantao” at inaasahang hindi magtatagal ay bibgyan ang Board ng briefing tungkol sa pamamaraan nito. Inaasahan ng Board na ganap na ipatutupad ng Meta ang rekomendasyon sa itaas.
*Tala ayon sa Pamamaraan:
Ang pinabilis na mga desisyosn ng Oversight Board ay inihanda ng mga panel ng limang mieymbro at hindi sasailalim sa pag-apruba ng majority ng buong Board. Hindi kinakailangang kumatawan ang mga desisyon ng Board sa mga personal na pananaw ng lahat ng miyembro.
Volver a Decisiones de casos y opiniones consultivas sobre políticas