एकाधिक मामले का निर्णय
Stereotip Negatif Orang Afrika-Amerika
18 अप्रैल 2024
Dewan meninjau tiga postingan Facebook yang memuat materi rasisme, yang dibiarkan oleh Meta. Setelah Dewan mengangkat banding ini untuk menjadi perhatian Meta, perusahaan membatalkan keputusan awalnya dan menghapus postingan tersebut.
3 इस बंडल में केस शामिल हैं
FB-LHBURU6Z
Kasus ujaran kebencian di Facebook
FB-1HX5SN1H
Kasus ujaran kebencian di Facebook
FB-ZD01WKKW
Kasus ujaran kebencian di Facebook
Ini adalah keputusan tertulis. Keputusan tertulis memeriksa kasus-kasus di mana Meta telah membatalkan keputusan awal mereka atas sebuah konten setelah Dewan mengangkatnya untuk diperhatikan oleh perusahaan dan mencantumkan informasi mengenai kesalahan yang diakui oleh Meta. Hal ini disetujui oleh panel Anggota Dewan, bukan oleh Dewan secara keseluruhan, tanpa melibatkan komentar publik dan tidak memiliki nilai prioritas bagi Dewan. Keputusan tertulis secara langsung membawa perubahan pada keputusan Meta, serta memberikan transparansi pada koreksi ini, sembari mengidentifikasi letak di mana Meta dapat meningkatkan penegakannya.
Ringkasan
Dewan meninjau tiga postingan Facebook yang memuat materi rasisme, yang dibiarkan oleh Meta. Setiap postingan mencakup sebuah karikatur atau gambar yang dimanipulasi dari orang Afrika-Amerika yang menyoroti stereotip yang menyinggung, termasuk tidak memiliki ayah, berada dalam kondisi sejahtera, dan para penjarah toko. Kasus-kasus ini menyoroti kesalahan dalam penegakan Meta atas kebijakan Ujaran Kebencian dan Perundungan serta Pelecehan. Setelah Dewan mengangkat banding ini untuk menjadi perhatian Meta, perusahaan membatalkan keputusan awalnya dan menghapus postingan tersebut.
Tentang Kasus
Pada akhir tahun 2023, Dewan menerima tiga pengajuan banding terpisah mengenai tiga gambar berbeda yang diposting di Facebook, yang semuanya memuat materi negatif tentang warga Afrika-Amerika.
Pada postingan pertama yang dilihat sekitar 500.000 kali, seorang pengguna memposting gambar hasil rekayasa komputer tentang sebuah toko yang terbakar dan menampilkan orang kulit hitam dalam bentuk karakter kartun, mengenakan sweter bertudung, membawa barang dagangan, dan berlari keluar toko. Nama toko, Target, telah diubah menjadi “Loot” pada gambar dan pada keterangan yang menyertainya, pengguna mendeskripsikan gambar tersebut adalah film Pixar berikutnya.
Postingan kedua menampilkan gambar hasil rekayasa komputer yang juga meniru poster film, dengan seorang wanita berkulit hitam dengan ciri-ciri fisik yang berlebihan, yang terlihat sedang memegang keranjang belanja yang penuh dengan Cheetos. Judul film ini adalah “EBT,” yang merupakan nama sebuah sistem untuk menerima tunjangan kesejahteraan sosial di Amerika Serikat. Di bagian atas poster, sebagai pengganti nama-nama aktor, terdapat nama Trayvon Martin dan George Floyd, keduanya merupakan korban kekerasan warga Afrika-Amerika, yang salah satunya ditembak oleh seorang vigilante bersenjata pada tahun 2012 dan yang lain tewas di tangan polisi pada tahun 2020. Kematian mereka turut memicu protes tentang kesenjangan rasial dalam sistem peradilan AS.
Postingan ketiga, yang dilihat sekitar 14 juta kali, menampilkan sebuah meme yang mengklaim bahwa “Adobe telah mengembangkan perangkat lunak yang dapat mendeteksi hasil editan photoshop pada sebuah gambar.” Di bawah klaim tersebut, terdapat sebuah gambar wanita dengan coretan warna-warni di seluruh wajahnya (biasanya digunakan untuk menunjukkan pendeteksi panas) untuk menunjukkan bahwa sebagian gambar telah diubah. Hal ini dikontraskan dengan gambar dari suatu keluarga kulit hitam yang sedang makan, di mana sang ayah dan makanan di atas meja memiliki corak warna-warni yang sama, yang menunjukkan bahwa kedua elemen ini telah ditambahkan dengan pengeditan. Postingan tersebut memperkuat stereotip negatif yang tersebar luas tentang kurangnya figur seorang ayah dalam keluarga kulit hitam di Amerika Serikat, yang bermula dari sejarah rasisme sistemik dan ketidaksetaraan ekonomi yang kompleks.
Meta awalnya membiarkan ketiga postingan tersebut di Facebook, meskipun ada pengajuan banding dari para pengguna. Dalam pengajuan banding ke Dewan, para pengguna yang sama mengemukakan bahwa konten tersebut menggambarkan stereotip rasial yang berbahaya terhadap orang Afrika-Amerika.
Setelah Dewan mengangkat kasus-kasus ini untuk menjadi perhatian Meta, perusahaan memutuskan bahwa setiap postingan tersebut melanggar Standar Komunitas Ujaran Kebencian, yang melarang serangan langsung terhadap orang-orang berdasarkan karakteristik yang dilindungi, termasuk ras dan etnis. Kebijakan ini juga secara khusus melarang “menargetkan seseorang atau kelompok” dengan “ujaran yang tidak manusiawi” dalam bentuk “perbandingan dengan pelaku kriminal termasuk pencuri,” “mengejek konsep, peristiwa, atau korban kejahatan kebencian” dan “generalisasi yang menyatakan inferioritas dalam ... karakteristik moral.”
Selain itu, Meta memutuskan bahwa postingan kedua yang mencantumkan nama Trayvon Martin dan George Floyd juga melanggar Standar Komunitas Perundungan dan Pelecehan yang mengharuskan perusahaan untuk menghapus “merayakan atau mengejek kematian atau kondisi medis” siapa pun. Perusahaan menjelaskan bahwa “gambar tersebut mencantumkan nama dua orang yang telah meninggal, Trayvon Martin dan George Floyd... Konten tersebut menganggap remeh kematian mereka dengan menunjukkan bahwa mereka akan membintangi film animasi fiktif.”
Oleh karena itu, perusahaan menghapus ketiga postingan tersebut.
Otoritas dan Lingkup Dewan
Dewan memiliki kewenangan untuk meninjau keputusan Meta setelah adanya banding dari pengguna yang melaporkan konten yang dibiarkan (Piagam Pasal 2, Bagian 1; Anggaran Rumah Tangga Pasal 3, Bagian 1).
Apabila Meta mengakui bahwa mereka telah melakukan kesalahan dan membatalkan keputusannya dalam suatu kasus yang masih dipertimbangkan untuk ditinjau oleh Dewan, Dewan dapat memilih kasus tersebut untuk mendapatkan keputusan tertulis (Anggaran Rumah Tangga Pasal 2, Bagian 2.1.3). Dewan meninjau kembali keputusan awal untuk meningkatkan pemahaman mengenai proses moderasi konten, guna mengurangi kesalahan dan meningkatkan keadilan bagi pengguna Facebook dan Instagram.
Signifikansi Kasus-Kasus
Kasus-kasus ini menyoroti tiga instance di mana Meta gagal menegakkan kebijakannya secara efektif terhadap Ujaran Kebencian dan Perundungan serta Pelecehan, dengan membiarkan postingan yang melanggar meskipun terdapat pengaduan dari pengguna. Dua dari postingan tersebut memiliki jumlah penayangan yang tinggi. Adanya kesalahan moderasi dalam melakukan penegakan hukum yang kurang tepat dapat berdampak negatif terhadap kelompok masyarakat yang memiliki karakteristik yang dilindungi dan berkontribusi terhadap lingkungan yang diskriminatif. Dewan telah membuat Meta untuk mengatasi Ujaran Kebencian terhadap Kelompok yang Terpinggirkan sebagai prioritas strategis.
Pada tahun 2022, Dewan mengeluarkan sebuah rekomendasi bahwa Meta harus “menjelaskan Standar Komunitas Ujaran Kebencian dan panduan yang diberikan kepada para peninjau, menjelaskan bahwa bahkan referensi implisit kepada kelompok-kelompok yang dilindungi dilarang oleh kebijakan jika referensi tersebut dapat dipahami secara wajar,” (Kartun Knin, rekomendasi no. 1), yang telah dilaporkan oleh Meta sebagai penerapan sebagian.
Keputusan
Dewan membatalkan keputusan awal Meta untuk membiarkan ketiga postingan tersebut. Dewan menyatakan bahwa Meta telah mengoreksi kesalahan awal mereka setelah Dewan menyampaikan kasus ini kepada perusahaan.