Multiple Case Decision

Wawancara Negosiator Sandera Thailand

Dewan meninjau dua postingan Facebook yang berisi segmen yang hampir sama dari wawancara video Sky News dengan negosiator penyanderaan Thailand yang menjelaskan pengalamannya bekerja untuk membebaskan para sandera yang ditangkap oleh Hamas. Setelah Dewan mengangkat banding tersebut untuk diperhatikan Meta, perusahaan membatalkan keputusan awal mereka dan memulihkan setiap postingan tersebut.

2 cases included in this bundle

Overturned

FB-XO941WWQ

Kasus tentang individu dan organisasi berbahaya di Facebook

Platform
Facebook
Topic
Acara Berita,Kekerasan,Peperangan & Konflik
Standard
Individu dan Organisasi Berbahaya
Location
Israel,Wilayah Palestina,Thailand
Date
Published on April 18, 2024
Overturned

FB-U3Y5VV2E

Kasus tentang individu dan organisasi berbahaya di Facebook

Platform
Facebook
Topic
Acara Berita,Kekerasan,Peperangan & Konflik
Standard
Individu dan Organisasi Berbahaya
Location
Israel,Wilayah Palestina,Thailand
Date
Published on April 18, 2024

Ini adalah keputusan tertulis. Keputusan tertulis memeriksa kasus-kasus di mana Meta telah membatalkan keputusan awal mereka atas sebuah konten setelah Dewan mengangkatnya untuk diperhatikan oleh perusahaan dan mencantumkan informasi mengenai kesalahan yang diakui oleh Meta. Hal ini disetujui oleh panel Anggota Dewan, bukan oleh Dewan secara keseluruhan, tanpa melibatkan komentar publik dan tidak memiliki nilai prioritas bagi Dewan. Keputusan tertulis secara langsung membawa perubahan pada keputusan Meta, serta memberikan transparansi pada koreksi ini, sembari mengidentifikasi letak di mana Meta dapat meningkatkan penegakannya.

Ringkasan

Dewan meninjau dua postingan Facebook yang berisi segmen yang hampir sama dari wawancara video Sky News dengan negosiator penyanderaan Thailand yang menjelaskan pengalamannya bekerja untuk membebaskan para sandera yang ditangkap oleh Hamas. Setelah Dewan mengangkat banding tersebut untuk diperhatikan Meta, perusahaan membatalkan keputusan awal mereka dan memulihkan setiap postingan tersebut.

Tentang Kasus

Pada bulan Desember 2023, dua pengguna mengajukan banding atas keputusan Meta untuk menghapus postingan mereka, yang masing-masing memuat klip yang hampir sama dari wawancara yang disiarkan oleh Sky News pada bulan November 2023. Video ini menampilkan seorang negosiator dari Thailand yang memimpin tim negosiator tidak resmi dan membantu mengamankan pembebasan warga negara Thailand yang disandera oleh Hamas pada tanggal 7 Oktober di Israel.

Dalam klip tersebut, orang yang diwawancarai menjelaskan perannya dalam negosiasi. Dia mengatakan bahwa dia yakin para sandera Thailand dan semua sandera lainnya “dirawat dengan baik” oleh Hamas karena mereka mengikuti hukum Islam dan bahwa Hamas tidak menetapkan syarat apa pun dalam pembebasan para tahanan Thailand.

Sang negosiator, yang bersimpati pada rakyat Palestina, mengutip puluhan tahun perlakuan yang ia gambarkan sebagai penindasan Israel terhadap warga Palestina di Wilayah Pendudukan. Dia menyatakan bahwa Hamas “menargetkan tentara” dan menegaskan bahwa Hamas dibenarkan melakukan penyanderaan “untuk membantu warga Palestina” dan “untuk menarik perhatian dunia tertuju pada perlakuan Israel terhadap warga Palestina.”

Dalam pengajuan banding kepada Dewan, kedua pengguna mengatakan bahwa mereka memposting video tersebut untuk menarik perhatian pada pernyataan negosiator Thailand, namun dengan alasan yang berbeda. Seorang pengguna mengatakan bahwa maksud mereka adalah untuk menyoroti sebuah wawancara yang “menunjukkan sisi Hamas yang lebih berimbang”, yang berbeda dengan sikap umum dari “mesin propaganda Barat.” Pengguna menyebutkan dalam keterangan bahwa negosiator tersebut menolak untuk mengikuti narasi yang telah dibuat dan menjelaskan lebih lanjut bahwa postingan mereka sebelumnya telah disensor karena konten tersebut menyebutkan organisasi politik tertentu. Pada postingan kedua, pengguna yang memposting video tersebut tanpa keterangan atau komentar lebih lanjut, mengatakan bahwa mereka “memanggil kolaborator yang berbohong dan memanipulasi” untuk mendukung Hamas.

Meta awalnya menghapus postingan tersebut dari Facebook, dengan mengutip kebijakan tentang Individu dan Organisasi Berbahaya di mana perusahaan melarang “memuliakan” (sebelumnya “memuji”), “mendukung”, dan “merepresentasikan” individu dan organisasi yang mereka anggap berbahaya. Namun, kebijakan tersebut mengakui bahwa “pengguna dapat membagikan konten yang menyertakan referensi ke organisasi dan individu berbahaya yang telah ditetapkan dalam konteks wacana sosial dan politik. Termasuk konten yang melaporkan, mendiskusikan secara netral, atau mengecam organisasi dan individu yang berbahaya atau aktivitas mereka.”

Saat Dewan mengangkat kasus-kasus ini agar menjadi perhatian Meta, perusahaan menetapkan bahwa postingan tersebut “tidak menyertakan keterangan apa pun yang memuliakan, mendukung, atau merepresentasikan organisasi atau individu yang berbahaya.” Selain itu, video tersebut “sebelumnya dibagikan oleh Sky News, dan saluran berita lainnya, di Facebook... dan [oleh karena itu] berada di bawah cakupan lingkup pelaporan beritanya.” Meta memulihkan kedua postingan tersebut.

Otoritas dan Lingkup Dewan

Dewan memiliki kewenangan untuk meninjau keputusan Meta setelah banding dari pengguna yang postingannya telah dihapus (Piagam Pasal 2, Bagian 1; Anggaran Rumah Tangga Pasal 3, Bagian 1).

Apabila Meta mengakui telah melakukan kesalahan dan membatalkan keputusannya dalam suatu kasus yang tengah dipertimbangkan untuk ditinjau oleh Dewan, Dewan dapat memilih kasus tersebut untuk mendapatkan keputusan tertulis (Anggaran Rumah Tangga Pasal 2, Bagian 2.1.3). Dewan meninjau kembali keputusan awal untuk meningkatkan pemahaman mengenai proses moderasi konten, guna mengurangi kesalahan dan meningkatkan keadilan bagi pengguna Facebook dan Instagram.

Signifikansi Kasus-Kasus

Kasus-kasus ini menekankan kegigihan penegakan yang berlebihan terhadap Standar Komunitas Organisasi dan Individu Berbahaya perusahaan, seperti yang disoroti dalam keputusan Dewan sebelumnya. Kesalahan yang terus menerus dalam menerapkan kebijakan ini akan mengurangi akses pengguna terhadap komentar netral, pelaporan berita, dan postingan yang bersifat mengecam, sehingga merugikan kebebasan berekspresi.

Dalam keputusan sebelumnya, Dewan mendesak Meta untuk “memasukkan data yang lebih komprehensif tentang peringkat kesalahan Standar Organisasi Berbahaya dan Individu dalam laporan transparansi mereka,” (Isolasi Öcalan, rekomendasi no. 12), yang mana perusahaan tersebut menolak untuk menerapkannya setelah dilakukannya penilaian kelayakan.

Selanjutnya, Dewan merekomendasikan pencantuman “kriteria dan contoh ilustrasi pada kebijakan Standar Komunitas Organisasi dan Individu Berbahaya Meta untuk meningkatkan pemahaman mengenai pengecualian, khususnya seputar diskusi dan pelaporan berita yang netral,” dalam upaya memberikan panduan yang lebih baik bagi para peninjau (Postingan Al Jazeera, rekomendasi no. 1). Rekomendasi ini sangat relevan karena berkaitan dengan penghapusan suatu postingan berita tentang sebuah ancaman kekerasan dari Brigade Izz al-Din al-Qassam, yang merupakan sayap militer dari kelompok Palestina Hamas. Dewan juga telah menyarankan Meta untuk “menilai keakuratan para peninjau yang menegakkan kelonggaran pelaporan... untuk mengidentifikasi masalah sistem yang menyebabkan kesalahan penegakan,” (Penyebutan Taliban dalam Laporan Berita, rekomendasi no. 5). Sementara Meta telah melaporkan penerapan kedua rekomendasi tersebut, untuk Penyebutan Taliban dalam Laporan Berita, rekomendasi no. 5, mereka belum menerbitkan informasi untuk memperlihatkan hal ini.

Dewan telah merekomendasikan perbaikan pada moderasi postingan yang berisi video, dengan menyerukan kepada perusahaan untuk menerapkan “perubahan panduan produk dan/atau operasional yang memperbolehkan tinjauan yang lebih akurat pada video yang berdurasi panjang,” (Perdana Menteri Kamboja, rekomendasi no. 5). Sebagai tanggapan, Meta menyatakan bahwa mereka akan "terus melakukan iterasi pada peningkatan baru untuk proses tinjauan video dengan durasi panjang serta pembuatan dan evaluasi metrik" dalam Pembaruan Triwulanan Q3 2023 di Dewan Pengawas.

Dewan percaya bahwa penerapan penuh pada rekomendasi ini dapat mengurangi jumlah kesalahan penegakan atas kebijakan Organisasi dan Individu Berbahaya Meta.

Keputusan

Dewan membatalkan keputusan awal Meta untuk menghapus konten tersebut. Dewan mengakui bahwa Meta telah mengoreksi kesalahan-kesalahan awal mereka setelah Dewan menyampaikan kasus ini kepada Meta.

Return to Case Decisions and Policy Advisory Opinions