Renversé

Wartawan yang Menceritakan Kembali Pertemuan di Gaza

Seorang jurnalis mengajukan banding atas keputusan Meta yang menghapus postingan Facebook yang menceritakan pengalaman pribadinya saat mewawancarai Abdel Aziz Al-Rantisi, salah satu pendiri Hamas. Kasus ini menyoroti isu yang berulang dalam penegakan kebijakan Organisasi dan Individu Berbahaya perusahaan dengan berlebihan, khususnya terkait dengan postingan-postingan yang netral. Setelah Dewan menyampaikan pengajuan banding tersebut kepada Meta, perusahaan membatalkan keputusan awal mereka dan memulihkan postingan tersebut.

Type de décision

Résumé

Politiques et sujets

Sujet
Liberté d’expression, Évènements d’actualité, Guerre et conflits
Norme communautaire
Personnes et organisations dangereuses

Régions/Pays

Emplacement
Territoires palestiniens, Espagne

Plate-forme

Plate-forme
Facebook

Ini adalah keputusan tertulis.Keputusan tertulis memeriksa kasus-kasus di mana Meta telah membatalkan keputusan awal mereka atas sebuah konten setelah Dewan mengangkatnya untuk diperhatikan oleh perusahaan dan mencantumkan informasi mengenai kesalahan yang diakui oleh Meta. Hal ini disetujui oleh panel Anggota Dewan, bukan oleh Dewan secara keseluruhan, tanpa melibatkan komentar publik dan tidak memiliki nilai prioritas bagi Dewan. Keputusan tertulis secara langsung membawa perubahan pada keputusan Meta, serta memberikan transparansi pada koreksi ini, sembari mengidentifikasi letak di mana Meta dapat meningkatkan penegakannya.

Ringkasan Kasus

Seorang jurnalis mengajukan banding atas keputusan Meta yang menghapus postingan Facebook yang menceritakan pengalaman pribadinya saat mewawancarai Abdel Aziz Al-Rantisi, salah satu pendiri Hamas. Kasus ini menyoroti isu yang berulang dalam penegakan kebijakan Organisasi dan Individu Berbahaya perusahaan dengan berlebihan, khususnya terkait dengan postingan-postingan yang netral. Setelah Dewan menyampaikan pengajuan banding tersebut kepada Meta, perusahaan membatalkan keputusan awal mereka dan memulihkan postingan tersebut.

Deskripsi dan Latar Belakang Kasus

Segera setelah serangan teroris 7 Oktober 2023 di Israel, seorang jurnalis memposting di Facebook, berupa rekaman tertulis yang berisi wawancara dengan Abdel Aziz Al-Rantisi, salah satu pendiri Hamas, yang merupakan organisasi Tingkat 1 yang ditetapkan berdasarkan kebijakan Organisasi dan Individu Berbahaya Meta. Postingan tersebut menggambarkan tentang perjalanan jurnalis menuju Gaza, pertemuan mereka dengan anggota Hamas dan penduduk setempat, serta pengalaman menemukan dan mewawancarai al-Rantisi. Postingan tersebut berisi empat foto, termasuk foto Al-Rantisi, sang pewawancara, dan para militan Hamas yang mengenakan topeng.

Dalam pengajuan banding mereka kepada Dewan, pengguna mengklarifikasi bahwa maksud dari postingan tersebut adalah untuk menginformasikan kepada publik tentang pengalaman mereka di Gaza dan wawancara dengan salah satu pendiri Hamas yang sebenarnya.

Meta menghapus postingan tersebut dari Facebook, dengan mengutip kebijakan Organisasi dan Individu Berbahaya, di mana perusahaan menghapus konten tertentu dari platformnya tentang individu dan organisasi yang mereka anggap berbahaya. Namun, kebijakan tersebut mengakui bahwa “pengguna dapat membagikan konten yang menyertakan referensi ke organisasi dan individu berbahaya yang telah ditetapkan dalam konteks wacana sosial dan politik. Termasuk konten yang melaporkan, mendiskusikan secara netral, atau mengecam organisasi dan individu yang berbahaya atau aktivitas mereka.”

Setelah Dewan mengangkat kasus ini agar menjadi perhatian Meta, perusahaan memutuskan bahwa “konten tersebut bertujuan untuk meningkatkan kesadaran situasional” dan oleh karena itu tidak melanggar Standar Komunitas Organisasi dan Individu Berbahaya. Meta mengutip kelonggaran pembicaraan sosial dan politik dalam konteks “deskripsi netral dan informatif mengenai aktivitas atau perilaku Organisasi dan Individu Berbahaya.” Lebih lanjut, Meta mengatakan bahwa “konteks pembicaraan sosial dan politik secara jelas disebutkan dalam konten sehingga tidak ada ambiguitas [tentang] maksud dari pengguna” dalam kasus ini.

Otoritas dan Lingkup Dewan

Dewan memiliki kewenangan untuk meninjau keputusan Meta setelah banding dari pengguna yang postingannya telah dihapus (Piagam Pasal 2, Bagian 1; Anggaran Rumah Tangga Pasal 3, Bagian 1).

Apabila Meta mengakui telah melakukan kesalahan dan membatalkan keputusannya dalam suatu kasus yang tengah dipertimbangkan untuk ditinjau oleh Dewan, Dewan dapat memilih kasus tersebut untuk mendapatkan keputusan tertulis (Anggaran Rumah Tangga Pasal 2, Bagian 2.1.3). Dewan meninjau kembali keputusan awal untuk meningkatkan pemahaman mengenai proses moderasi konten, guna mengurangi kesalahan dan meningkatkan keadilan bagi pengguna Facebook dan Instagram.

Signifikansi Kasus

Kasus tersebut menyoroti penegakan kebijakan Organisasi dan Individu Berbahaya Meta yang berlebihan, khususnya pelaporan berita tentang entitas yang dianggap berbahaya oleh perusahaan. Hal ini merupakan masalah yang berulang, yang sering terjadi selama konflik Israel-Hamas, di mana salah satu pihak adalah organisasi yang ditentukan. Dewan telah mengeluarkan beberapa rekomendasi yang berkaitan dengan kelonggaran pelaporan berita berdasarkan kebijakan Organisasi dan Individu Berbahaya. Kesalahan yang terus menerus dalam menerapkan kelonggaran penting ini dapat secara signifikan membatasi kebebasan berekspresi pengguna, akses publik terhadap informasi, dan merusak pembicaraan publik.

Dalam keputusan sebelumnya, Dewan merekomendasikan agar Meta “menambahkan kriteria dan contoh ilustrasi pada kebijakan Organisasi dan Individu Berbahaya Meta untuk meningkatkan pemahaman mengenai pengecualian, khususnya seputar diskusi dan pelaporan berita yang netral,” (Postingan Al Jazeera, rekomendasi no. 1). Meta melaporkan implementasi dari rekomendasi ini yang ditunjukkan melalui informasi yang dipublikasikan. Dalam pembaruan kebijakan Organisasi dan Individu Berbahaya tertanggal 29 Desember 2023, Meta telah memodifikasi penjelasannya dan sekarang menggunakan istilah “pemuliaan” untuk menggantikan istilah “pujian” dalam Standar Komunitas.

Selain itu, Dewan telah merekomendasikan bahwa Meta harus “menilai keakuratan para peninjau yang menegakkan kelonggaran pelaporan berdasarkan kebijakan Organisasi dan Individu Berbahaya dalam upaya mengidentifikasi masalah sistemik yang menyebabkan kesalahan penegakan”, (Penyebutan Taliban dalam Pelaporan Berita, rekomendasi no. 5). Meta melaporkan bahwa rekomendasi ini diterapkan, tetapi belum memublikasikan informasi apa pun untuk menunjukkan hal ini.

Dalam kasus moderasi otomatis, Dewan telah mendesak Meta untuk menerapkan prosedur audit internal untuk terus menganalisis sampel yang representatif secara statistik dari keputusan penghapusan otomatis untuk membatalkan keputusan dan belajar dari kesalahan penegakan (Gejala Kanker Payudara dan Ketelanjangan, rekomendasi no. 5), di mana Meta telah melaporkan penerapannya.

Dewan percaya bahwa penerapan penuh pada rekomendasi ini dapat mengurangi jumlah kesalahan penegakan atas kebijakan Organisasi dan Individu Berbahaya Meta.

Keputusan

Dewan membatalkan keputusan awal Meta untuk menghapus konten tersebut. Dewan mengakui bahwa Meta telah mengoreksi kesalahan awal mereka setelah Dewan menyampaikan kasus ini kepada Meta.

Retour aux décisions de cas et aux avis consultatifs politiques