أسقط
Washington Post Article on Israel-Palestine
تم النشر بتاريخ 4 نَيْسان 2024
Inapela ng user ang desisyon ng Meta na alisin ang Facebook post na may kasamang link sa article ng Washington Post na tinugunan ang chronology ng Israeli-Palestinian conflict. Pagkatapos ipaalam ng Board ang apela sa Meta, binaliktad ng kumpanya ang orihinal na desisyon nito at ibinalik ang post.
Ito ay summary decision.Tinitingnan ng mga summary decision ang mga kaso kung saan binaliktad ng Meta ang orihinal na desisyon nito sa isang piraso ng content pagkatapos ipaalam ito ng Board sa kumpanya at kasama ang impormasyon tungkol sa mga tinatanggap na mali ng Meta. Inaaprubahan ang mga ito ng panel ng Board Member, kaysa sa buong Board, hindi kabilang ang mga comment ng publiko at walang naunang pagpapasya para sa Board. Direktang ginagawa ng mga summary decision ang tungkol sa mga pagbabago sa mga desisyon ng Meta, pagbibigay ng transparency sa mga pagtatamang ito, habang tinutukoy kung saan maaaring pahusayin ng Meta ang pagpapatupad nito.
Buod ng Kaso
Inapela ng user ang desisyon ng Meta na alisin ang Facebook post na may kasamang link sa article ng Washington Post na tinugunan ang chronology ng Israeli-Palestinian conflict. Pagkatapos ipaalam ng Board ang apela sa Meta, binaliktad ng kumpanya ang orihinal na desisyon nito at ibinalik ang post.
Paglalarawan at Background ng Kaso
Noong Oktubre 2023, nag-post ng link ang Facebook user sa article ng Washington Post na tinatalakay ang chronology ng Israeli-Palestinian conflict. Ang preview ng article, na awtomatikong kasama sa link, ay binabanggit ang Hamas. Hindi naglagay ng caption ang user para isama ang post o nagbigay ng higit pang konteksto.
Inalis ang Facebook post na ito sa ilalim ng Patakaran sa Mapanganib na mga Organisasyon at Indibiduwal, ng Meta, na nagbabawal sa representasyon ng at ilang speech tungkol sa mga grupo at mga tao na pinaghihinalaan ng kumpanya na nauugnay sa malaking panganib sa mundo.
Sa kanilang apela sa Board, binigyan-diin ng user na ang post ay para mag-report sa kasalukuyang Israel-Hamas conflict at hindi para magbigay ng suporta para sa Hamas, o anumang iba pang mapanganib na organisasyon.
Matapos ipaalam ng Board ang kasong ito sa Meta, natukoy ng kumpanya na hindi nilabag ng content ang patakaran sa Mapanganib na Mga Organisasyon at Indibiduwal bilang mga post reference Hamas sa konteksto ng pagbabalita,na pinapayagan sa ilalim ng patakarang ito. Ni-restore ng kumpanya ang content sa Facebook.
Awtoridad at Scope ng Board
Mayroong authority ang Board na suriin ang desisyon ng Meta kasunod ng isang apela mula sa tao na inalis ang content (Article 2, Seksyon 1 ng Charter; Article 3, Seksyon 1 ng Mga Regulasyon).
Kapag tinatanggap ng Meta na nagkamali ito at binaliktad ang desisyon nito sa isang kaso na isinasaalang-alang para suriin ng Board, maaaring piliin ng Board ang kasong iyon para sa summary decision (Article 2, Seksyon 2.1.3 ng Mga Regulasyon). Sinusuri ng Board ang orihinal na desisyon para dagdagan ang pag-unawa ng proseso ng pag-moderate ng content na kabilang, para bawasan ang mga mali at dagdagan ang pagiging patas para sa mga user ng Facebook at Instagram.
Kahalagahan ng Kaso
Binibigyan-diin ng kaso ang isang sitwasyon ng labis na pagpapatupad ng patakaran ng Meta sa Mapanganib na Mga Organisasyon at Indibiduwal, lalo na ang pagbabalita sa mga entity na tinutukoy ng kumpanya bilang mapanganib. Ito ay umuulit na problema, na partikular na madalas sa panahon ng kasalukuyang Israel-Hamas conflict, kung saan ang isa sa mga partido ay isang tinukoy na organisasyon. Nagbigay ang Board ng maraming rekomendasyon kaugnay sa news reporting allowance sa ilalim ng patakaran sa Mapanganib na Mga Organisasyon at Indibiduwal. Ang patuloy na mga mali sa paggamit ng mahalagang allowance na ito ay maaaring higit na nililimitahan ang malayang pagpapahayag ng mga user, ang access ng publiko sa impormasyon, at bawasan ang pag-uusap ng publiko.
Sa nakaraang desisyon, inirekomenda ng Board na “dapat ma-assess ng Meta ang kawastuhan ng mga reviewer sa pagpapatupad ng reporting allowance sa ilalim ng patakaran sa Mapanganib na Mga Organisasyon at Indibiduwal upang matukoy ang mga isyu sa system na nagdudulot ng mga mali sa pagpapatupad,” ( Desisyon sa Pagbanggit ng Taliban sa Pagbabalita, rekomendasyon bilang 5). Ni-report ng Meta ang pagpapatupad bilang trabaho na ginagawa na ito, nang hindi nagpa-publish ng impormasyon para patunayan ito. Inirekomenda rin ng Board sa Meta na “magdagdag ng mga criteria at naglalarawang halimbawa sa patakaran nito sa Mapanganib na Mga Organisasyon at Indibiduwal para dagdagan ang pag-unawa ng mga eksepsyon para sa walang kinikilingang talakayan, pagkondena at pagbabalita,” ( Ibinahaging Al Jazeera Post , rekomendasyon bilang 1). Ang pagpapatupad ng rekomendasyong ito ay ipinakita sa pamamagitan ng na-publish na impormasyon. Dagdag pa rito, hinimok ng Board ang Meta na “magsama ng mas komprehensibong impormasyon tungkol sa mga rate ng mali para sa pagpapatupad ng mg panuntunan sa ‘papuri’ at ‘suporta’ ng mapanganib na mga indibiduwal at organisasyon” (Pag-isolate kay Ocalan, rekomendasyon bilang 12). Tinanggihan ng Meta na ipatupad ang rekomendasyong ito pagkatapos magsagawa ng pag-assess ng feasibility. Sa isang update sa patakarang ito na may petsang Disyembre 29, 2023, ginagamit na ngayon ng Meta ang salitang “glorification” sa halip na “papuri” sa Pamantayan ng Komunidad nito.
Naniniwala ang Board na ang ganap na pagpapatupad ng mga rekomendasyong ito ay maaaring bawasan ang bilang ng mga mali sa pagpapatupad sa ilalim ng patakaran ng Meta sa Mapanganib na Mga Organisasyon at Indibiduwal.
Desisyon
Binaliktad ng Board ang orihinal na desisyon ng Meta na alisin ang content. Tinanggap ng Board ang pagwawasto ng Meta sa mga inisyal na mali nito noong ipinaalam ng Board ang kaso sa Meta.
العودة إلى قرارات الحالة والآراء الاستشارية المتعلقة بالسياسة