Anulado

Rumah Sakit Al-Shifa

Dewan membatalkan keputusan awal Meta untuk menghapus konten tersebut dari Instagram. Dewan menemukan bahwa memulihkan konten ke platform, disertai layar peringatan “tandai sebagai mengganggu”, telah sesuai dengan kebijakan konten, nilai, dan tanggung jawab Meta atas hak asasi manusia.

Tipo de decisão

Expedited

Políticas e tópicos

विषय
Proteção, Violência, Guerra e conflitos
Padrão da comunidade
Conteúdo violento e explícito

Regiões/países

Localização
Israel, Territórios Palestinos

Plataforma

Plataforma
Instagram

Dalam beberapa minggu setelah penerbitan keputusan ini, kami akan mengunggah terjemahan dalam bahasa Ibrani di sini dan terjemahan bahasa Arab akan tersedia melalui tab ‘bahasa’ yang dapat diakses pada menu di bagian atas layar ini.

לקריאת החלטה זו בעברית יש ללחוץ כאן.

1. Ringkasan

Kasus ini melibatkan sebuah video yang sangat kuat secara emosional tentang akibat dari serangan di atau dekat rumah sakit Al-Shifa di Gaza selama serangan darat Israel, dengan sebuah keterangan yang mengutuk serangan tersebut. Sistem otomatis Meta menghapus postingan tersebut karena melanggar Standar Komunitas Konten Kekerasan dan Grafis. Setelah tidak berhasil mengajukan keberatan atas keputusan ini kepada Meta, pengguna mengajukan banding kepada Dewan Pengawas. Setelah Dewan mengidentifikasi kasus ini, kemudian Meta membatalkan keputusan awal Meta dan memulihkan konten dengan layar peringatan “tandai sebagai mengganggu”. Dewan berpendapat bahwa keputusan awal untuk menghapus konten tersebut tidak sesuai dengan kebijakan konten Meta atau tanggung jawab hak asasi manusia perusahaan. Dewan menyetujui keputusan untuk memulihkan konten dengan layar peringatan, tetapi tidak menyetujui penurunan tingkat konten yang menyebabkan konten tersebut dilarang di rekomendasi. Kasus ini, bersama dengan Sandera yang Diculik dari Israel (2023-050-FB-UA), merupakan kasus pertama yang diputuskan di bawah prosedur peninjauan yang dipercepat oleh Dewan.

2. Konteks dan Tanggapan Meta

Pada tanggal 7 Oktober 2023, Hamas, sebuah organisasi Tingkat 1 yang ditetapkan di bawah Standar Komunitas Organisasi dan Individu Berbahaya Meta, memimpin serangan teroris yang belum pernah terjadi sebelumnya terhadap Israel dari Gaza yang menewaskan sekitar 1,200 orang, dan mengakibatkan sekitar 240 orang disandera (Kementerian Luar Negeri, Pemerintah Israel). Israel segera melakukan kampanye militer di Gaza sebagai tanggapan atas serangan tersebut. Tindakan militer Israel telah menewaskan lebih dari 18.000 orang di Gaza hingga pertengahan Desember 2023 (Kantor Koordinasi Urusan Kemanusiaan PBB, merujuk pada data dari Kementerian Kesehatan di Gaza), dalam konflik di mana kedua belah pihak dituduh melanggar hukum internasional. Baik serangan teroris maupun tindakan militer Israel selanjutnya telah menjadi subjek publisitas, perdebatan, pengawasan, dan kontroversi yang intens di seluruh dunia, yang sebagian besar diungkapkan di platform media sosial, termasuk Instagram dan Facebook.

Meta segera menetapkan peristiwa pada tanggal 7 Oktober sebagai serangan teroris di bawah kebijakan Organisasi dan Individu Berbahaya yang dimilikinya. Di bawah Standar Komunitas Meta, maka Meta akan menghapus setiap konten di platformnya yang “memuji, secara substansial mendukung, atau merepresentasikan” serangan 7 Oktober atau para pelakunya.

Sebagai tanggapan terhadap lonjakan luar biasa dalam konten yang berisi kekerasan dan grafis yang diposting ke platform-platformnya setelah serangan teroris dan respons militer, Meta melakukan beberapa tindakan sementara, termasuk menurunkan ambang batas kepercayaan untuk sistem klasifikasi otomatis Konten Grafis dan Kekerasan (pengklasifikasi) untuk mengidentifikasi dan menghapus konten. Meta menginformasikan kepada Dewan bahwa langkah-langkah ini berlaku untuk konten yang berasal dari Israel dan Gaza dalam semua bahasa. Perubahan pada klasifikasi ini meningkatkan penghapusan konten secara otomatis di mana terdapat skor kepercayaan yang lebih rendah untuk konten yang melanggar kebijakan Meta. Dengan kata lain, Meta menggunakan alat otomatisnya secara lebih agresif untuk menghapus konten yang mungkin melanggar kebijakan Meta. Meta melakukan ini untuk memprioritaskan nilai keamanannya, dengan cara menghapus lebih banyak konten daripada yang akan terjadi di bawah ambang batas kepercayaan yang lebih tinggi yang berlaku sebelum tanggal 7 Oktober. Meskipun hal ini mengurangi kemungkinan Meta gagal menghapus konten yang melanggar yang mungkin menghindari deteksi atau saat kapasitas untuk tinjauan manusia terbatas, hal ini juga meningkatkan kemungkinan Meta secara salah menghapus konten yang tidak melanggar yang terkait dengan konflik tersebut.

Ketika tim eskalasi menilai video-video yang melanggar kebijakan Konten Kekerasan dan Grafis, Kekerasan dan Penghasutan, serta kebijakan Organisasi dan Individu Berbahaya, Meta mengandalkan bank Layanan Pencocokan Media untuk secara otomatis menghapus video yang sesuai. Pendekatan ini menimbulkan kekhawatiran tentang penegakan hukum yang berlebihan, termasuk orang-orang yang menghadapi pembatasan atau penangguhan akun mereka setelah beberapa kali melanggar kebijakan konten Meta (terkadang disebut sebagai “penjara Facebook”). Untuk mengurangi kekhawatiran tersebut, Meta menahan “protes” yang biasanya menyertai penghapusan postingan konten yang terjadi secara otomatis berdasarkan bank Layanan Pencocokan Media (seperti yang diumumkan Meta dalam postingan di ruang berita). Meta).

Perubahan Meta dalam ambang batas kepercayaan pengklasifikasi dan kebijakan protesnya terbatas pada konflik Israel-Gaza dan hanya bersifat sementara. Per 11 Desember 2023, Meta belum memulihkan ambang batas kepercayaan ke level sebelum 7 Oktober.

3. Deskripsi Kasus

Konten dalam kasus ini melibatkan sebuah video yang diunggah di Instagram pada minggu kedua bulan November, yang menampilkan apa yang tampaknya merupakan dampak dari serangan di atau dekat Rumah Sakit Al-Shifa di Kota Gaza selama serangan darat Israel di bagian utara Jalur Gaza. Unggahan Instagram dalam kasus ini menampilkan orang-orang, termasuk anak-anak, tergeletak di tanah dalam keadaan tidak bernyawa atau terluka dan menangis. Salah satu anak tampaknya telah meninggal dunia, dengan cedera kepala yang parah. Sebuah keterangan berbahasa Arab dan Inggris di bawah video menyebutkan bahwa rumah sakit tersebut telah menjadi target oleh “perebut kekuasaan”, yang merujuk pada tentara Israel, dan menandai organisasi-organisasi hak asasi manusia serta media berita.

Standar Komunitas Konten Kekerasan dan Grafis Meta, yang berlaku untuk konten di Facebook dan Instagram, melarang “video orang atau mayat dalam situasi non-medis jika video tersebut menggambarkan ... organ dalam yang terlihat.” Pada saat mengunggah, kebijakan tersebut mengizinkan “tayangan yang menunjukkan kematian seseorang dengan kekerasan atau akibat kecelakaan atau pembunuhan,” dengan syarat konten semacam itu ditempatkan di balik layar peringatan “tandai sebagai mengganggu” dan hanya dapat dilihat oleh orang yang berusia di atas 18 tahun. Aturan ini diperbarui pada tanggal 29 November, setelah konten dalam kasus ini dipulihkan, untuk memperjelas bahwa aturan tersebut berlaku untuk “momen kematian atau sesudahnya” serta gambaran dari “seseorang yang mengalami peristiwa yang mengancam nyawa.”

Sistem otomatis Meta menghapus konten dalam kasus ini karena melanggar Standar Komunitas Konten Kekerasan dan Grafis. Pengajuan banding pengguna terhadap keputusan tersebut secara otomatis ditolak karena pengklasifikasi Meta mengindikasikan “tingkat kepercayaan yang tinggi” bahwa konten tersebut melanggar. Pengguna kemudian mengajukan banding atas keputusan Meta kepada Dewan Pengawas.

Setelah Dewan menyeleksi kasus ini, Meta mengatakan bahwa pihaknya tidak dapat memastikan bahwa video tersebut menampilkan organ dalam yang terlihat. Oleh karena itu, Meta menyimpulkan bahwa seharusnya tidak menghapus konten ini, meskipun konten tersebut berada di “batas” pelanggaran. Meta juga menjelaskan bahwa meskipun organ dalam telah terlihat, postingan tersebut seharusnya tetap dilengkapi dengan layar peringatan “tandai sebagai mengganggu” saat dibagikan untuk meningkatkan kewaspadaan. Perusahaan menegaskan kembali bahwa, sejalan dengan alasan kebijakan Konten Grafis dan Kekerasan, konten semacam itu diizinkan jika dibagikan untuk meningkatkan kesadaran “tentang isu-isu penting seperti pelanggaran hak asasi manusia, konflik bersenjata, atau tindakan terorisme.”

Oleh karena itu, Meta membatalkan keputusan awalnya dan mengembalikan konten dengan layar peringatan. Layar peringatan memberitahu pengguna bahwa konten tersebut mungkin mengganggu. Pengguna dewasa dapat mengklik untuk melihat postingan tersebut, namun Meta menghapus postingan ini dari umpan pengguna Instagram yang berusia di bawah 18 tahun dan juga menghapusnya dari rekomendasi untuk pengguna Instagram dewasa. Meta juga menambahkan versi terpisah dari video yang sama ke bank Layanan Pencocokan Media, sehingga video lain yang identik dengan video ini akan secara otomatis disimpan dengan layar peringatan dan hanya dapat dilihat oleh orang yang berusia di atas 18 tahun.

4. Alasan untuk Tinjauan Cepat

Undang-undang Tata Kelola Dewan Pengawas mengatur tinjauan cepat dalam “keadaan luar biasa, termasuk ketika konten dapat mengakibatkan konsekuensi dunia nyata yang mendesak,” dan keputusannya bersifat mengikat bagi Meta (Charter, Pasal. 3, bagian 7.2; Bylaws, Pasal. 2, bagian 2.1.2). Proses yang dipercepat ini menghalangi tingkat penelitian ekstensif, konsultasi eksternal, atau komentar publik yang akan dilakukan dalam kasus-kasus yang ditinjau pada jangka waktu biasa. Kasus ini diputuskan berdasarkan informasi yang tersedia bagi Dewan pada saat musyawarah dan diputuskan oleh panel beranggotakan lima orang tanpa pemungutan suara penuh dari Dewan.

Dewan Pengawas memilih kasus ini dan satu kasus lainnya, yaitu Sandera Diculik dari Israel (2023-050-FB-UA) karena pentingnya kebebasan berekspresi dalam situasi konflik, yang telah terancam dalam konteks konflik Israel-Hamas. Kedua kasus tersebut merupakan representasi dari jenis-jenis banding yang diajukan oleh para pengguna di wilayah tersebut kepada Dewan sejak serangan 7 Oktober dan tindakan militer Israel yang menyusulnya. Kedua kasus tersebut masuk dalam prioritas Dewan Pengawas untuk situasi krisis dan konflik. Keputusan Meta dalam kedua kasus tersebut memenuhi standar “konsekuensi dunia nyata yang mendesak” untuk membenarkan tinjauan cepat, dan oleh karena itu, Dewan dan Meta sepakat untuk melanjutkan di bawah prosedur cepat Dewan.

Dalam pengajuannya kepada Dewan, Meta mengakui bahwa “keputusan tentang bagaimana mengelola konten ini sulit dan melibatkan nilai-nilai yang saling bersaing dan tarik-ulur,” dan menyambut baik masukan dari Dewan mengenai masalah ini.

5. Pengajuan Pengguna

Penulis postingan tersebut menyatakan dalam bandingnya kepada Dewan bahwa mereka tidak menghasut kekerasan apa pun, melainkan membagikan konten yang menunjukkan penderitaan warga Palestina, termasuk anak-anak. Pengguna tersebut menambahkan bahwa penghapusan tersebut bersifat memihak terhadap penderitaan rakyat Palestina. Pengguna diberitahu tentang tinjauan banding mereka oleh Dewan.

6. Keputusan

Meskipun para anggota Dewan memiliki perbedaan pendapat mengenai respons militer Israel dan pembenarannya, mereka dengan suara bulat menyetujui pentingnya Meta menghormati hak atas kebebasan berekspresi dan hak asasi manusia lainnya bagi semua pihak yang terdampak oleh peristiwa ini, serta kemampuan mereka untuk berkomunikasi dalam krisis ini.

Dewan membatalkan keputusan awal Meta untuk menghapus konten tersebut dari Instagram. Dewan menemukan bahwa memulihkan konten ke platform, disertai layar peringatan “tandai sebagai mengganggu”, telah sesuai dengan kebijakan konten, nilai, dan tanggung jawab Meta atas hak asasi manusia. Akan tetapi, Dewan juga menyimpulkan bahwa tindakan Meta yang menurunkan peringkat konten yang telah dipulihkan, dalam bentuk pengecualian dari kemungkinan untuk rekomendasi, tidak sesuai dengan tanggung jawab perusahaan untuk menghormati kebebasan berekspresi.

6.1 Kepatuhan Terhadap Kebijakan Konten Meta

Dewan setuju dengan Meta bahwa sulit untuk menentukan apakah video dalam kasus ini menunjukkan “organ dalam yang dapat dilihat.” Dalam mempertimbangkan konteks kasus ini, di mana terdapat nilai kepentingan publik yang sangat tinggi dalam melindungi akses terhadap informasi dan menyediakan ruang untuk meningkatkan kesadaran akan dampak konflik, konten yang “berada di batas” pelanggaran kebijakan Konten Kekerasan dan Grafis sebaiknya tidak dihapus. Karena konten tersebut mencakup gambar yang menunjukkan kematian seseorang yang kejam, yang menampilkan cedera kepala berdarah, Meta seharusnya menerapkan layar peringatan dan membuatnya hanya tersedia bagi orang yang berusia di atas 18 tahun sesuai dengan kebijakan Meta.

Dewan juga setuju dengan penilaian Meta selanjutnya bahwa meskipun video ini telah menyertakan organ dalam yang terlihat, bahasa postingan yang mengecam atau meningkatkan kesadaran akan kekerasan juga berarti bahwa video tersebut seharusnya dipertahankan dengan layar peringatan “tandai sebagai mengganggu”, dan tidak dapat diakses oleh pengguna di bawah usia 18 tahun. Standar Komunitas tidak menyediakan layar peringatan terkait dengan garis kebijakan yang berlaku (“video orang atau mayat dalam lingkungan medis jika video tersebut menggambarkan organ dalam yang terlihat”). Dalam kasus Video Grafis Sudan, Dewan menjelaskan bahwa Meta menginstruksikan para peninjau untuk mengikuti secara ketat kebijakan “jangan memposting”. Dasar pemikiran tersebut menyatakan bahwa “dalam konteks diskusi tentang isu-isu penting seperti pelanggaran hak asasi manusia, konflik bersenjata, atau tindakan terorisme, kami mengizinkan konten grafis (dengan beberapa batasan) untuk membantu orang mengecam dan meningkatkan kesadaran tentang situasi ini.” Namun, aturan Standar Komunitas melarang semua video yang menampilkan “organ dalam yang terlihat” dalam konteks non-medis, tanpa memberikan opsi kepada para peninjau untuk menambahkan layar peringatan jika pengecualian alasan kebijakan diterapkan. Sistem otomatis Meta tampaknya tidak dikonfigurasi untuk menerapkan layar peringatan pada video yang menampilkan konten grafis di mana terdapat konteks yang mengecam atau meningkatkan kesadaran akan kekerasan. Tidak jelas bahwa di mana konteks tersebut ada, pengklasifikasi yang berlaku akan dapat mengirimkan konten ke peninjau manusia untuk penilaian lebih lanjut

6.2 Kepatuhan Terhadap Tanggung Jawab Hak Asasi Manusia Meta

Sejalan dengan tanggung jawab hak asasi manusia Meta, moderasi Meta terhadap konten kekerasan dan grafis harus menghormati hak kebebasan berekspresi, yang mencakup kebebasan mencari, menerima, dan memberikan informasi (Pasal. 19, paragraf 2, Kovenan Internasional tentang Hak-Hak Sipil dan Politik (ICCPR). Seperti yang dinyatakan oleh Dewan dalam kasus Video Tawanan Perang Armenia, perlindungan kebebasan berekspresi di bawah Pasal 19 dari Konvenan Internasional tentang Hak-Hak Sipil dan Politik (ICCPR) “tetap berlaku selama konflik bersenjata, dan harus terus menginformasikan tanggung jawab hak asasi manusia Meta, bersamaan dengan aturan-aturan yang saling melengkapi dan saling mendukung dalam hukum kemanusiaan internasional yang berlaku selama konflik tersebut.” Prinsip-Prinsip Panduan PBB tentang Bisnis dan Hak Asasi Manusia menempatkan tanggung jawab yang lebih besar kepada bisnis yang beroperasi di wilayah konflik (“Bisnis, hak asasi manusia, dan wilayah yang terkena dampak konflik: menuju tindakan yang ditingkatkan,” A/75/212).

Dewan telah menekankan dalam kasus-kasus sebelumnya bahwa platform media sosial seperti Facebook dan Instagram adalah sarana penting untuk menyebarkan informasi secara real-time tentang peristiwa-peristiwa kekerasan, termasuk pelaporan berita (lihat misalnya Penyebutan Taliban dalam Pelaporan Berita). Mereka memainkan peran yang sangat penting dalam konteks konflik bersenjata, terutama di mana terdapat akses yang terbatas bagi para jurnalis. Selain itu, konten yang menggambarkan serangan kekerasan dan pelanggaran hak asasi manusia sangat menarik perhatian publik (Lihat Video Grafis Sudan).

Ketika pembatasan ekspresi diterapkan oleh suatu negara, di bawah hukum hak asasi manusia internasional, maka pembatasan tersebut harus memenuhi persyaratan legalitas, tujuan sah, serta kebutuhan dan proporsionalitas (Pasal 19, paragraf 3, ICCPR). Persyaratan ini sering disebut sebagai “pengujian tiga bagian”. Dewan menggunakan kerangka kerja ini untuk menafsirkan komitmen hak asasi manusia sukarela Meta, baik dalam kaitannya dengan keputusan setiap konten individu yang sedang ditinjau dan apa yang dikatakan tentang pendekatan Meta yang lebih luas untuk tata kelola konten. Dalam melakukan hal tersebut, Dewan berusaha untuk peka terhadap bagaimana hak-hak tersebut mungkin berbeda jika diterapkan pada sebuah perusahaan media sosial swasta dibandingkan jika diterapkan pada pemerintah. Meskipun demikian, sebagaimana yang dinyatakan oleh Pelapor Khusus PBB tentang kebebasan berekspresi, meskipun perusahaan tidak memiliki kewajiban seperti pemerintah, “dampak yang mereka timbulkan adalah yang mengharuskan mereka untuk menilai jenis pertanyaan yang sama dalam hal melindungi hak atas kebebasan berekspresi” (laporan A/74/486, paragraf 41).

Legalitas mensyaratkan bahwa setiap pembatasan kebebasan berekspresi harus dapat diakses dan cukup jelas untuk memberikan panduan tentang apa yang diizinkan dan apa yang tidak diizinkan. Dewan sebelumnya telah menyatakan kekhawatirannya bahwa aturan Standar Komunitas Kekerasan dan Konten Grafis tidak sepenuhnya selaras dengan dasar pemikiran kebijakan tersebut, yang menetapkan tujuan kebijakan tersebut (Lihat Video Grafis Sudan dan Video Setelah Serangan Gereja Nigeria). Dewan menegaskan kembali pentingnya rekomendasi nomor 1 dan nomor 2 dalam kasus Video Grafis Sudan, yang meminta Meta untuk memperbarui Standar Komunitas Konten Kekerasan dan Grafis untuk mengizinkan video orang atau mayat ketika dibagikan dengan tujuan meningkatkan kesadaran atau mendokumentasikan pelanggaran hak asasi manusia (kasus tersebut berkaitan dengan pemotongan tubuh yang terlihat). Meta telah melakukan proses pengembangan kebijakan sebagai tanggapan atas rekomendasi-rekomendasi tersebut dan bermaksud untuk melaporkan perkembangannya dalam laporan triwulanan berikutnya kepada Dewan. Dalam pandangan Dewan, rekomendasi ini harus diterapkan pada aturan-aturan mengenai video yang menunjukkan organ dalam yang terlihat, dan secara khusus menyediakan layar peringatan sebagai langkah penegakan di mana peningkatan kesadaran (termasuk pelaporan faktual) dan pengecualian kecaman terlibat.

Berdasarkan Pasal 19, paragraf 3 ICCPR, kebebasan berekspresi dapat dibatasi karena beberapa alasan tertentu dan terbatas. Dewan sebelumnya telah menemukan bahwa kebijakan Konten Kekerasan dan Grafis secara sah bertujuan untuk melindungi hak-hak orang lain, termasuk privasi individu yang digambarkan (Lihat Video Grafis Sudan dan Video Setelah Serangan Gereja Nigeria). Kasus ini juga menunjukkan bahwa pembatasan akses terhadap konten untuk pengguna di bawah 18 tahun memiliki tujuan yang sah untuk melindungi hak kesehatan anak di bawah umur (Konvensi Hak Anak, Pasal 24).

Prinsip kebutuhan dan proporsionalitas menyatakan bahwa segala pembatasan kebebasan berekspresi “harus sesuai untuk mencapai fungsi perlindungannya; pembatasan tersebut harus menjadi instrumen yang lebih bijaksana di antara pembatasan yang dapat mencapai fungsi perlindungannya; [dan] pembatasan tersebut harus proporsional terhadap kepentingan yang akan dilindungi” (Komentar Umum No. 34, paragraf 34).

Dewan sebelumnya telah menemukan terkait konten yang bersifat kekerasan dan grafis bahwa layar peringatan “tidak memberikan beban berlebihan bagi mereka yang ingin melihat konten tersebut sembari memberi informasi kepada orang lain tentang sifat konten tersebut dan mengizinkan mereka untuk memutuskan apakah mereka ingin melihatnya atau tidak” (Lihat Video Grafis Sudan). Layar peringatan mencegah pengguna melihat konten yang berpotensi mengganggu secara tidak sengaja. Hak-hak korban lebih dilindungi melalui kebijakan Meta untuk menghapus video dan foto yang menunjukkan kematian seseorang secara kejam (atau kejadian segera setelahnya) ketika anggota keluarga yang meminta hal ini. Konten dalam kasus ini dapat dibedakan dengan konten dalam kasus Puisi Rusia, yang menunjukkan gambar diam dari tubuh yang tergeletak di tanah dari jarak jauh, di mana wajah korban tidak terlihat, dan di mana tidak ada indikator visual yang jelas tentang kekerasan. Penerapan layar peringatan dalam kasus tersebut tidak sesuai dengan panduan Meta untuk para peninjau dan bukan merupakan pembatasan yang diperlukan atau proporsional dalam berekspresi. Konten dalam kasus ini lebih mirip dengan konten dalam keputusan Video Setelah Serangan Gereja Nigeria, yang menunjukkan korban tewas dan terluka dalam jarak dekat, dengan indikator visual yang sangat jelas tentang kekerasan.

Dalam kasus ini, penggambaran anak-anak yang terluka dan tidak bernyawa, membuat video ini sangat menyedihkan. Dalam situasi seperti ini, memberikan pilihan kepada pengguna apakah ingin melihat konten yang mengganggu adalah tindakan yang perlu dan proporsional (lihat juga Video Tawanan Perang Armenia).

Dewan menemukan bahwa mengecualikan konten yang meningkatkan kesadaran akan potensi pelanggaran hak asasi manusia dan pelanggaran hukum perang, konflik, atau tindakan terorisme dari rekomendasi yang diterima oleh orang dewasa bukanlah merupakan pembatasan yang diperlukan atau proporsional terhadap kebebasan berekspresi, mengingat minat publik yang sangat tinggi terhadap konten semacam itu. Layar peringatan dan penghapusan dari rekomendasi memiliki fungsi yang berbeda, dan dalam beberapa kasus seharusnya dapat dipisahkan, terutama dalam situasi krisis. Rekomendasi di Instagram dihasilkan oleh sistem otomatis yang menyarankan konten kepada pengguna berdasarkan prediksi minat pengguna. Menghapus konten dari sistem rekomendasi berarti mengurangi jangkauan yang seharusnya diperoleh konten tersebut. Dewan menemukan bahwa praktik ini mengganggu kebebasan berekspresi dengan cara yang tidak proporsional sejauh hal ini berlaku untuk konten yang sudah dibatasi untuk pengguna dewasa dan yang diposting untuk meningkatkan kesadaran, mengecam, atau melaporkan hal-hal yang menjadi kepentingan publik, seperti perkembangan konflik kekerasan.

Dewan mengakui bahwa tanggapan segera terhadap krisis dapat memerlukan langkah-langkah sementara yang luar biasa, dan bahwa dalam beberapa konteks wajar untuk memprioritaskan masalah keamanan dan untuk sementara waktu dan secara proporsional menempatkan pembatasan yang lebih besar pada kebebasan berekspresi. Beberapa di antaranya diuraikan, misalnya, dalam komitmen untuk melawan “konten ekstremis teroris dan kekerasan” yang ditetapkan dalam Christchurch Call. Namun, Dewan mencatat bahwa Christchurch Call menekankan perlunya menanggapi konten semacam itu dengan cara yang konsisten dengan hak asasi manusia dan kebebasan fundamental. Dewan percaya bahwa kekhawatiran akan keamanan tidak membenarkan kesalahan dalam menghapus konten grafis yang bertujuan untuk meningkatkan kesadaran tentang atau mengecam potensi kejahatan perang, kejahatan terhadap kemanusiaan, atau pelanggaran berat hak asasi manusia. Pembatasan semacam itu bahkan dapat menghambat informasi yang diperlukan untuk keselamatan orang-orang di lapangan dalam konflik tersebut.

Langkah-langkah seperti tidak memberlakukan protes dapat membantu mengurangi potensi dampak efek negatif yang berpotensi tidak proporsional dari kesalahan penegakan hukum akibat langkah-langkah darurat seperti menurunkan ambang batas kepercayaan untuk menghapus konten selama situasi konflik. Namun, hal-hal tersebut tidak cukup untuk melindungi kemampuan pengguna untuk berbagi konten yang meningkatkan kesadaran tentang potensi pelanggaran hak asasi manusia dan pelanggaran hukum kemanusiaan, dan informasi penting lainnya dalam situasi konflik.

Dewan telah berulang kali menyoroti perlunya mengembangkan kerangka kerja yang berprinsip dan transparan untuk moderasi konten selama krisis dan di zona konflik (Lihat Video Kantor Polisi Haiti dan Biro Urusan Komunikasi Tigray). Tepatnya pada saat konflik berubah dengan cepat, perusahaan media sosial besar harus menyediakan sumber daya yang diperlukan untuk memastikan bahwa kebebasan berekspresi tidak dibatasi secara tidak perlu. Pada saat-saat seperti itu, sumber-sumber jurnalistik sering kali menjadi sasaran serangan fisik dan serangan lainnya, sehingga pelaporan berita oleh warga biasa di media sosial menjadi sangat penting.

Dewan sebelumnya juga telah mengamati bahwa dalam konteks perang atau kerusuhan politik, akan ada lebih banyak konten grafis dan kekerasan yang diambil oleh pengguna dan dibagikan di platform dengan tujuan untuk meningkatkan kesadaran atau mendokumentasikan pelanggaran (Lihat Video Grafis Sudan). Dalam konteks seperti konflik Israel-Gaza, di mana terdapat jumlah yang mengkhawatirkan dari warga sipil yang terbunuh atau terluka, dengan proporsi tinggi di antaranya adalah anak-anak, di tengah krisis kemanusiaan yang semakin parah, jenis kelonggaran semacam ini menjadi sangat penting. Sembari mengakui proses pengembangan kebijakan Meta yang sedang berlangsung mengenai kebijakan Konten Kekerasan dan Grafis, Dewan mengharapkan Meta untuk segera menerapkan langkah-langkah sementara untuk mengizinkan konten semacam ini dengan layar peringatan, dan tidak menghapusnya dari rekomendasi.

Dewan mencatat bahwa situasi di Gaza pada saat konten ini diposting tidak menimbulkan tantangan yang sama bagi Meta seperti serangan 7 Oktober. Di Gaza, ada kesulitan untuk mendapatkan informasi dari orang-orang di lapangan, sementara akses jurnalis ke wilayah itu terbatas dan konektivitas internet terganggu. Selain itu, berbeda dengan keadaan awal setelah serangan 7 Oktober, situasi di Gaza yang ditampilkan dalam kasus ini tidak melibatkan teroris yang menggunakan media sosial untuk menyiarkan kekejaman mereka. Sebaliknya, dalam konteks konflik bersenjata, Meta harus memastikan bahwa tindakannya tidak mempersulit orang untuk membagikan konten yang memberikan informasi yang dapat meningkatkan kesadaran akan bahaya terhadap warga sipil, dan mungkin relevan untuk menentukan apakah telah terjadi pelanggaran terhadap hukum kemanusiaan internasional dan hukum hak asasi manusia internasional. Pertanyaan apakah konten dibagikan untuk meningkatkan kesadaran atau mengecam peristiwa di lapangan harus menjadi titik awal bagi setiap peninjau yang menilai konten semacam itu, dan sistem otomatis Meta harus dirancang untuk menghindari penghapusan konten yang seharusnya mendapat manfaat dari pengecualian yang berlaku.

Kasus ini juga menggambarkan bahwa kurangnya pengawasan manusia terhadap moderasi otomatis dalam konteks respons krisis dapat menyebabkan penghapusan ujaran yang mungkin merupakan kepentingan publik yang signifikan. Baik keputusan awal untuk menghapus konten ini maupun penolakan banding pengguna diambil secara otomatis berdasarkan skor pengklasifikasi, tanpa tinjauan manusia. Hal ini, pada gilirannya, mungkin telah diperburuk oleh respons krisis Meta yang menurunkan ambang batas penghapusan konten di bawah kebijakan Konten Kekerasan dan Grafis setelah serangan 7 Oktober. Ini berarti bahwa meskipun pengklasifikasi memberikan skor yang relatif lebih rendah untuk kemungkinan pelanggaran daripada yang biasanya diperlukan, Meta tetap menghapus konten tersebut.

Agar Meta menggunakan sistem otomatisnya dengan cara yang sesuai dengan komitmen hak asasi manusia Meta, Dewan mengingatkan Meta akan rekomendasi nomor 1 dalam kasus Kartun Polisi Kolombia. Dalam hal ini, Dewan meminta Meta untuk memastikan bahwa konten dengan banding tingkat tinggi dan tingkat keberhasilan banding yang tinggi dinilai ulang untuk kemungkinan penghapusan dari bank Layanan Pencocokan Media. Menanggapi rekomendasi ini, Meta membentuk sebuah kelompok kerja yang ditunjuk yang berkomitmen untuk meningkatkan tata kelola di seluruh bank Layanan Pencocokan Media (Lihat pembaruan terbaru Meta tentang hal ini di sini). Dewan mencatat bahwa penting bagi kelompok ini untuk memberikan perhatian khusus pada penggunaan Layanan Pencocokan Media dalam konteks konflik bersenjata. Dalam kasus Gejala Kanker Payudara dan Ketelanjangan (rekomendasi nomor 3 dan nomor 6), Dewan merekomendasikan agar Meta menginformasikan kepada pengguna ketika otomatisasi digunakan untuk mengambil tindakan penegakan hukum terhadap konten mereka, serta untuk mengungkapkan data mengenai jumlah keputusan penghapusan otomatis per Standar Komunitas dan proporsi dari keputusan tersebut yang kemudian dibatalkan setelah ditinjau oleh manusia. Hal ini sangat penting terutama ketika ambang batas kepercayaan untuk konten yang kemungkinan melanggar dilaporkan telah diturunkan secara signifikan. Dewan mendesak Meta untuk membuat kemajuan lebih lanjut dalam implementasi rekomendasi nomor 6 dan membagikan bukti implementasi kepada Dewan untuk rekomendasi nomor 3.

Batasan kebebasan berekspresi harus bersifat non-diskriminatif, termasuk atas dasar kebangsaan, etnis, agama atau keyakinan, maupun pendapat politik atau lainnya (Pasal 2, paragraf 1, dan Pasal 26, ICCPR). Penegakan Standar Komunitas yang diskriminatif melanggar aspek fundamental kebebasan berekspresi. Dalam kasus Pemberitaan Bersama Al Jazeera , Dewan mengungkapkan keprihatinan serius bahwa kesalahan dalam moderasi konten Meta di Israel dan Wilayah Palestina yang Diduduki mungkin didistribusikan secara tidak merata, dan meminta investigasi independen (Keputusan Pemberitaan Bersama Al Jazeera, rekomendasi nomor 3). Penilaian Dampak Hak Asasi Manusia dari Bisnis untuk Tanggung Jawab Sosial (Business for Social Responsibility/BSR), yang ditugaskan Meta untuk menanggapi rekomendasi tersebut, mengidentifikasi “berbagai contoh bias yang tidak disengaja di mana kebijakan dan praktik Meta, dikombinasikan dengan dinamika eksternal yang lebih luas, memang mengarah pada dampak hak asasi manusia yang berbeda pada pengguna berbahasa Palestina dan Arab.” Dewan mendorong Meta untuk memenuhi komitmen yang telah dibuatnya dalam menanggapi laporan BSR.

Terakhir, Meta memiliki tanggung jawab untuk menyimpan bukti-bukti potensi pelanggaran hak asasi manusia dan pelanggaran hukum kemanusiaan internasional, sebagaimana juga direkomendasikan dalam laporan BSR (rekomendasi no. 21) dan didukung oleh kelompok-kelompok masyarakat sipil. Bahkan ketika konten dihapus dari platform-platform Meta, sangat penting untuk mempertahankan bukti tersebut demi kepentingan pertanggungjawaban di masa depan (lihat Video Grafis Sudan dan Video Tawanan Perang Armenia). Meskipun Meta menjelaskan bahwa mereka menyimpan semua konten yang melanggar Standar Komunitas untuk jangka waktu satu tahun, Dewan mendesak agar konten yang secara khusus terkait dengan potensi kejahatan perang, kejahatan terhadap kemanusiaan, dan pelanggaran berat hak asasi manusia dapat diidentifikasi dan dilestarikan dengan cara yang lebih tahan lama dan dapat diakses untuk tujuan pertanggungjawaban jangka panjang. Dewan mencatat bahwa Meta telah setuju untuk mengimplementasikan rekomendasi no. 1 dalam kasus Video Tawanan Perang Armenia. Rekomendasi ini menyerukan kepada Meta untuk mengembangkan protokol untuk menyimpan dan, jika perlu, membagikan informasi kepada otoritas yang berwenang untuk membantu penyelidikan dan proses hukum guna memperbaiki atau menuntut kejahatan kekejaman atau pelanggaran berat hak asasi manusia. Meta telah menginformasikan kepada Dewan bahwa mereka sedang dalam tahap akhir mengembangkan “pendekatan yang konsisten untuk menyimpan bukti-bukti potensial mengenai kejahatan kekejaman dan pelanggaran serius terhadap hukum hak asasi manusia internasional” dan berharap dapat segera memberikan pengarahan kepada Dewan mengenai pendekatannya. Dewan mengharapkan Meta untuk sepenuhnya mengimplementasikan rekomendasi tersebut di atas.

*Catatan Prosedural:

Keputusan cepat Dewan Pengawas dipersiapkan oleh panel yang terdiri dari lima anggota dan tidak tunduk pada persetujuan mayoritas Dewan secara keseluruhan. Keputusan Dewan tidak selalu mewakili pandangan pribadi kepada semua anggota.

Voltar para Decisões de Casos e Pareceres Consultivos sobre Políticas