Overturned
Sabuk Wampum
December 9, 2021
Dewan Pengawas telah membatalkan keputusan original Meta untuk menghapus postingan Facebook dari seniman pribumi Amerika Utara yang dihapus berdasarkan Standar Komunitas Ujaran Kebencian Facebook.
Ringkasan kasus
Catatan: Pada tanggal 28 Oktober 2021, Facebook mengumumkan bahwa perusahaan mengubah nama perusahaan menjadi Meta. Dalam teks ini, Meta merujuk pada perusahaan, dan Facebook terus merujuk pada produk dan kebijakan yang dilampirkan pada aplikasi tertentu.
Dewan Pengawas telah membatalkan keputusan original Meta untuk menghapus postingan Facebook dari seniman pribumi Amerika Utara yang dihapus berdasarkan Standar Komunitas Ujaran Kebencian Facebook. Dewan menyatakan bahwa konten tersebut diizinkan oleh kebijakan Ujaran Kebencian karena dimaksudkan untuk meningkatkan kesadaran kejahatan bersejarah terhadap orang pribumi di Amerika Utara.
Tentang kasus
Pada bulan Agustus 2021, seorang pengguna Facebook memposting gambar sabuk wampum beserta teks deskripsi dalam bahasa Inggris. Sabuk wampum adalah benda seni pribumi Amerika Utara, yakni kerang yang ditenun untuk membentuk gambar, rekaman kisah, dan perjanjian. Sabuk berisi serangkaian gambar yang menurut pengguna terinspirasi oleh “kisah Kamloops”, yaitu berita tentang penemuan kuburan tanpa nama di bekas sekolah asrama untuk anak-anak pribumi di British Columbia, Kanada pada Mei 2021.
Teks tersebut menunjukkan judul karya seni, "Kill the Indian/ Save the Man (Bunuh orang Indian/ Selamatkan Manusia" dan mengidentifikasi pengguna sebagai kreatornya. Pengguna mendeskripsikan bahwa rangkaian gambar yang tertera pada sabuk: "Pencurian Orang Tidak Bersalah, Iblis yang Menyamar sebagai Penyelamat, Sekolah Asrama / Kamp Konsentrasi, Menanti Penemuan, Pulangkan Anak-Anak kami". Dalam postingan tersebut, pengguna mendeskripsikan makna karya seninya serta sejarah sabuk wampum dan tujuannya sebagai sarana edukasi. Pengguna menyatakan bahwa pembuatan sabuk tersebut tidak mudah dan menceritakan kisah tentang hal yang terjadi di Kamloops itu menggugah emosi. Dia meminta maaf atas rasa sakit yang diderita oleh penyintas Kamloops akibat karya seni tersebut, dengan menyatakan bahwa "tujuannya hanyalah menghadirkan kesadaran akan kisah mengerikan ini".
Sistem otomatis Meta mengidentifikasi konten berpotensi melanggar Standar Komunitas Ujaran Kebencian Facebook sehari setelah konten diposting. Peninjau manusia menilai konten melanggar dan menghapusnya pada hari yang sama. Pengguna mengajukan banding terhadap keputusan tersebut pada Meta dan meminta tinjauan manusia kedua yang juga menilai konten tersebut melanggar. Pada saat penghapusan, konten telah dilihat lebih dari 4.000 kali dan dibagikan lebih dari 50 kali. Tidak ada pengguna yang melaporkan konten tersebut.
Sebagai hasil dari dipilihnya kasus ini oleh Dewan, Meta mengidentifikasi penghapusan tersebut sebagai “kesalahan penegakan” dan memulihkan konten pada 27 Agustus. Namun demikian, Meta tidak memberi tahu pengguna terkait pemulihan tersebut hingga 30 September, dua hari setelah Dewan menanyakan konten pesan Meta kepada pengguna tersebut. Meta menjelaskan bahwa pengiriman pesan yang terlambat adalah akibat kesalahan manusia.
Temuan utama
Meta setuju bahwa keputusan original untuk menghapus konten ini melanggar Standar Komunitas Facebook dan merupakan "kesalahan penegakan". Dewan menyatakan bahwa konten ini adalah contoh yang jelas terkait 'balasan terhadap ujaran kebencian' di mana ujaran kebencian disebutkan untuk melawan penindasan dan diskriminasi.
Pengantar kebijakan Ujaran Kebencian Facebook menjelaskan bahwa balasan terhadap ujaran kebencian diizinkan saat maksud pengguna ditunjukkan dengan jelas. Konten postingan secara jelas bukan merupakan ujaran kebencian Karya seni tersebut menceritakan kisah tentang hal yang terjadi di Kamloops, dan narasi yang menyertainya menjelaskan signifikansinya. Sekalipun kata 'Bunuh Indian', secara terpisah, dapat menjadi ujaran kebencian dalam konteks kontroversial frasa ini dan mengutuk tindakan tertentu terkait kebencian dan diskriminasi.
Dewan mengingat kembali keputusannya 2020-005-FB-UA dalam kasus yang melibatkan kutipan dari pejabat Nazi. kasus tersebut memberikan pelajaran serupa tentang penilaian maksud melalui indikator selain pernyataan langsung, seperti konten dan makna kutipan, pemilihan waktu dan negara postingan, serta substansi reaksi dan komentar pada postingan tersebut.
Dalam kasus ini, Dewan menemukan bahwa pengguna tidak perlu menyatakan dengan jelas bahwa pihaknya meningkatkan kesadaran agar postingan dipahami sebagai balasan terhadap ujaran kebencian. Dewan mencatat "Pertanyaan Umum" internal kepada moderator bahwa pernyataan maksud yang jelas tidak selalu cukup untuk mengubah makna postingan yang merupakan ujaran kebencian. Moderator diharapkan membuat kesimpulan dari konten untuk menilai maksud, dan tidak semata-mata mengandalkan pernyataan eksplisit.
Dua moderator berbeda menyimpulkan bahwa postingan ini adalah ujaran kebencian. Meta tidak dapat memberikan alasan spesifik alasan kesalahan ini terjadi dua kali.
Keputusan Dewan Pengawas
Dewan Pengawas membatalkan keputusan original Meta untuk menghapus konten tersebut.
Dalam pernyataan anjuran kebijakan, Dewan merekomendasikan Meta agar:
- Memberikan pemberitahuan yang tepat waktu dan akurat kepada pengguna terkait tindakan perusahaan yang diambil terhadap konten yang berkaitan dengan pengajuan banding pengguna. Apabila berlaku, termasuk dalam kesalahan penegakan seperti ini, pemberitahuan kepada pengguna harus menyatakan bahwa tindakan tersebut adalah hasil dari proses peninjauan Dewan Pengawas.
- Mempelajari dampak pada akurasi peninjau saat moderator konten menerima pemberitahuan bahwa mereka terlibat dalam tinjauan sekunder sehingga mereka mengetahui bahwa keputusan awal ditentang.
- Melaksanakan penilaian akurasi peninjau yang fokus pada kelonggaran kebijakan Ujaran Kebencian yang mencakup ekspresi artistik dan ekspresi tentang pelanggaran hak asasi manusia (mis., pengutukan, peningkatan kesadaran, penggunakan yang merujuk pada kata itu sendiri, penggunaan yang memberdayakan). Penilaian ini sebaiknya juga secara spesifik menyelidiki dampak lokasi peninjau terhadap kemampuan moderator untuk secara akurat menilai ujaran kebencian dan balasan terhadap ujaran kebencian dari wilayah yang sama atau berbeda. Meta seyogyanya membagikan hasil penilaian ini kepada Dewan, termasuk cara hasil ini menunjukkan perbaikan pada operasi penegakan dan pengembangan kebijakan serta apakah pihaknya berencana untuk melaksanakan penilaian akurasi peninjau secara berkala terkait kelonggaran ini. Dewan juga meminta Meta untuk secara publik membagikan ringkasan hasil penilaian ini dalam informasi transparansi terkini kuartalnya pada Dewan untuk menunjukkan bahwa pihaknya telah mematuhi rekomendasi ini.
*Ringkasan kasus memberikan gambaran umum tentang kasus dan tidak memiliki nilai presedensial.
Keputusan kasus lengkap
1. Ringkasan keputusan
Dewan Pengawas mengubah keputusan original Meta untuk menghapus postingan oleh seniman pribumi Amerika Utara yang menyertakan gambar seninya beserta judulnya yang mengutip contoh ujaran kebencian bersejarah. Meta setuju bahwa postingan tersebut termasuk dalam salah satu kelonggaran dalam Standar Komunitas Facebook tentang Ujaran Kebencian karena postingan tersebut secara jelas dimaksudkan untuk meningkatkan kesadaran akan kejahatan bersejarah terhadap orang pribumi di Amerika Utara.
2. Deskripsi kasus
Pada awal Agustus 2021, seorang pengguna Facebook memposting gambar sabuk wampum beserta teks deskripsi dalam bahasa Inggris. Sabuk wampum adalah benda seni pribumi Amerika Utara, yakni kerang yang ditenun untuk membentuk gambar, rekaman kisah, dan perjanjian. Sabuk berisi serangkaian gambar yang menurut pengguna terinspirasi oleh “kisah Kamloops”, yaitu berita tentang penemuan kuburan tanpa nama di bekas sekolah asrama untuk anak-anak pribumi di British Columbia, Kanada pada Mei 2021.
Teks tersebut menunjukkan judul karya seni, "Kill the Indian/ Save the Man (Bunuh orang Indian/ Selamatkan Manusia" dan mengidentifikasi pengguna sebagai kreatornya. Pengguna kemudian memberikan daftar frasa yang berkaitan dengan rangkaian gambar yang tertera pada sabuk: "Pencurian Orang Tidak Bersalah, Iblis yang Menyamar sebagai Penyelamat, Sekolah Asrama / Kamp Konsentrasi, Menanti Penemuan, Pulangkan Anak-Anak kami". Dalam postingan tersebut, pengguna mendeskripsikan makna karya seninya serta sejarah sabuk wampum dan tujuannya sebagai sarana edukasi. Pengguna menyatakan bahwa pembuatan sabuk tersebut tidak mudah dan menceritakan kisah tentang hal yang terjadi di Kamloops itu menggugah emosi. Dia lalu mengatakan bahwa kisah ini tidak dapat disembunyikan lagi dari publik dan bahwa dia berharap sabuk tersebut akan membantu mencegah kisah terulang kembali. Pengguna mengakhiri postingan dengan meminta maaf atas rasa sakit yang diderita penyintas sistem sekolah asrama karena karya seni tersebut, mengatakan bahwa "tujuannya hanyalah meningkatkan kesadaran akan kisah mengerikan ini".
Sistem otomatis Meta mengidentifikasi konten berpotensi melanggar Standar Komunitas Ujaran Kebencian Facebook sehari setelah konten diposting. Peninjau manusia menilai konten melanggar dan menghapusnya pada hari yang sama. Pengguna mengajukan banding terhadap keputusan tersebut pada Meta dan meminta tinjauan manusia kedua yang juga menilai konten tersebut melanggar. Pada saat penghapusan, konten telah dilihat lebih dari 4.000 kali dan dibagikan lebih dari 50 kali. Tidak ada pengguna yang melaporkan konten tersebut. Sebagai hasil dari dipilihnya kasus ini oleh Dewan, Meta mengidentifikasi penghapusan tersebut sebagai “kesalahan penegakan” dan memulihkan konten pada 27 Agustus. Namun demikian, Meta tidak memberi tahu pengguna terkait pemulihan tersebut hingga 30 September, dua hari setelah Dewan menanyakan konten pesan Meta kepada pengguna tersebut. Meta menjelaskan bahwa pengiriman pesan yang terlambat adalah akibat kesalahan manusia. Pesan itu sendiri tidak memberi tahu pengguna bahwa kontennya dipulihkan sebagai hasil dari bandingnya kepada Dewan dan pilihan Dewan atas kasus ini.
Komentar publik oleh Association on American Indian Affairs (Komentar Publik-10208) menyatakan bahwa kutipan yang digunakan sebagai judul karya seni tersebut berasal dari Richard Henry Pratt, pejabat tentara yang mendirikan sekolah asrama Indian federal pertama di Amerika Serikat. Frasa tersebut meringkas kebijakan di balik pembuatan sekolah asrama yang berupaya untuk 'membudayakan' penduduk asli secara paksa dan 'membasmi semua sisa-sisa budaya Indian'. Kebijakan serupa digunakan di Kanada dan dianggap sebagai genosida budaya oleh Truth and Reconciliation Commission of Canada.
Referensi pengguna terhadap hal yang terjadi di "Kamloops" adalah penyebutan untuk Sekolah Asrama Indian Kamloops, bekas sekolah asrama untuk anak-anak pribumi di British Columbia, Kanada. Pada Mei 2021, pimpinan Tk’emlúps te Secwépemc First Nation mengumumkan penemuan kuburan tanpa nama di Kamloops. Otoritas telah mengonfirmasi 200 terduga tempat pemakaman di area ini.
Pemerintah Kanada memperkirakan bahwa setidaknya 150,000 anak-anak pribumi menjalani sistem sekolah asrama sebelum sekolah terakhir ditutup pada 1997. Anak-anak pribumi kerap diambil secara paksa dari keluarganya dan dilarang mengekspresikan aspek budaya Indian. Sekolah-sekolah tersebut menerapkan hukuman disiplin yang kasar dan kejam, dan staf melakukan atau menoleransi kekerasan seksual serta kekerasan serius terhadap banyak murid. Para murid kekurangan gizi, sistem pemanas dan kebersihan sekolah buruk, dan banyak anak meninggal karena TBC serta penyakit lain dengan perawatan medis yang minim. Truth and Reconciliation Commission menyimpulkan bahwa setidaknya 4.100 murid meninggal saat sekolah, banyak di antaranya karena perlakuan buruk atau penelantaran maupun penyakit atau kecelakaan.
3. Otoritas dan lingkup
Dewan memiliki kewenangan untuk meninjau keputusan Meta setelah banding dari pengguna yang postingannya telah dihapus (Piagam Pasal 2, Bagian 1; Anggaran Rumah Tangga Pasal 3, Bagian 1). Dewan dapat mendukung atau menolak keputusan Meta, dan keputusan tersebut mengikat Meta (Piagam Pasal 4; Pasal 3, Bagian 5). Keputusan Dewan dapat meliputi pernyataan anjuran kebijakan dengan rekomendasi yang tidak mengikat yang harus ditanggapi Meta (Piagam Pasal 4; Pasal 3, Bagian 4).
Saat Dewan memilih kasus seperti kasus ini, di mana Meta selanjutnya menyetujui bahwa pihaknya melakukan kesalahan, Dewan meninjau keputusan original untuk membantu meningkatkan pemahaman tentang alasan kesalahan terjadi, dan untuk melakukan pengamatan atau memberikan rekomendasi yang dapat berkontribusi dalam mengurangi kesalahan serta meningkatkan proses hukum yang semestinya. Setelah keputusan Dewan dalam Gejala Kanker Payudara dan Ketelanjangan ( 2020-004-IG-UA, Bagian 3), Dewan menggunakan proses yang memungkinkan Meta untuk mengindentifikasi kesalahan penegakan sebelum kasus ditugaskan kepada panel (lihat: laporan transparansi, halaman 30). Sayangnya, dalam kasus ini, Meta memfokuskan alasan sepenuhnya pada keputusan yang direvisi, menjelaskan hal yang seharusnya terjadi pada konten pengguna sekaligus meminta Dewan untuk mendukung hal ini sebagai keputusan "final" perusahaan. Selain menjelaskan alasan keputusan yang menjadi dasar banding pengguna salah, Dewan menganjurkan Meta menjelaskan cara kesalahan terjadi, dan alasan proses tinjauan internal perusahaan gagal untuk mengidentifikasi atau mengoreksinya. Dewan akan terus mendasarkan tinjauannya pada keputusan yang menjadi alasan banding pengguna.
4. Standar yang relevan
Dewan Pengawas mempertimbangkan standar berikut dalam keputusannya:
I.Standar Komunitas Facebook:
Standar Komunitas Facebook mendefinisikan ujaran kebencian sebagai “serangan langsung terhadap orang berdasarkan hal yang kami sebut sebagai karakteristik yang dilindungi – ras, etnis, kebangsaan, afiliasi agama, orientasi seksual, kasta, jenis kelamin, gender, identitas gender, serta penyakit serius atau disabilitas”. Dalam 'Tingkat 1", konten yang dilindungi termasuk "ucapan kasar atau dukungan dalam bentuk tertulis atau visual". Standar Komunitas juga menyertakan kelonggaran untuk membedakan konten yang tidak melanggar:
Kami menyadari bahwa terkadang orang membagikan konten yang berisi ujaran kebencian orang lain untuk mengutuk konten tersebut atau meningkatkan kesadaran. Dalam kasus lainnya, ujaran yang mungkin melanggar standar kami dapat digunakan untuk merujuk pada kata itu sendiri atau dengan cara yang memberdayakan. Kebijakan kami dirancang untuk memberikan ruang bagi jenis ujaran ini, tetapi kami meminta orang-orang untuk menunjukkan maksudnya dengan jelas. Jika maksudnya tidak jelas, kami dapat menghapus konten tersebut.
II. Nilai-nilai Meta:
Nilai-nilai Meta diuraikan dalam pengantar Standar Komunitas Facebook. Nilai "Suara" dideskripsikan sebagai "yang terpenting":
Standar Komunitas kami senantiasa bertujuan menciptakan tempat untuk berekspresi dan memberikan kesempatan bagi orang untuk bersuara. [...] Kami ingin orang-orang mampu berbicara secara terbuka tentang isu yang penting bagi mereka, sekalipun beberapa orang mungkin tidak setuju atau menganggapnya tidak menyenangkan.
Meta membatasi “Suara” untuk menegakkan empat nilai, dan dua di antaranya yang relevan dalam hal ini:
"Keselamatan": Kami berkomitmen untuk menjadikan Facebook sebagai tempat yang aman. Ekspresi yang mengancam orang-orang berpotensi mengintimidasi, mengucilkan, atau membungkam orang lain dan hal ini tidak diizinkan di Facebook.
“Martabat”: Kami yakin bahwa semua orang memiliki martabat dan hak yang setara. Kami mengharapkan orang-orang untuk menghargai martabat orang lain dan tidak melecehkan atau merendahkan mereka.
III. Standar hak asasi manusia:
Prinsip Pedoman PBB tentang Bisnis dan Hak Asasi Manusia (UNGP), yang didukung oleh Dewan Hak Asasi Manusia PBB pada tahun 2011, menetapkan kerangka kerja sukarela untuk tanggung jawab hak asasi manusia bisnis swasta. Pada 2021, Meta mengumumkanKebijakan Hak Asasi Manusia Perusahaan yang menegaskan kembali komitmennya untuk menghormati hak asasi manusia sesuai dengan UNGP. Analisis Dewan tentang tanggung jawab hak asasi manusia Meta dalam kasus ini didasarkan pada standar hak asasi manusia berikut.
- Kebebasan berekspresi: Pasal 19, Kovenan Internasional Hak Sipil dan Politik (ICCPR); Komentar Umum No. 34, Komite Hak Asasi Manusia, 2011; Pasal 5, Konvensi Internasional tentang Penghapusan Segala Bentuk Diskriminasi Rasial (ICERD); Laporan Pelapor Khusus PBB tentang Ujaran Kebencian, A/74/486, 2019; Laporan Pelapor Khusus PBB tentang Moderasi Konten Online, A/HRC/38/35, 2018.
- Kesetaraan dan antidiskriminasi: Pasal 2, para. 1 dan Pasal 26 (ICCPR); Pasal 2, ICERD; Rekomendasi Umum 35, Komite Penghapusan Diskriminasi Ras, 2013.
- Hak budaya: Pasal 27 ICCPR; Pasal 15, Kovenan Internasional mengenai Hak Ekonomi, Sosial, dan Budaya (ICESCR); Pelapor Khusus PBB dalam bidang hak budaya, laporan tentang kebebasan dan kreativitas, A/HRC/23/34, 2013.
- Hak orang pribumi: Deklarasi PBB tentang Hak Orang Pribumi, Pasal 7, para. 2; Pasal 8, para. 1 dan Pasal 19.
5. Pernyataan pengguna
Dalam bandingnya kepada Dewan, pengguna menyatakan bahwa postingannya memamerkan sebuah karya seni tradisional yang mendokumentasikan sejarah, dan karya seni tersebut tidak ada kaitannya dengan ujaran kebencian. Pengguna selanjutnya menyatakan bahwa dalam sejarah ini "harus disaksikan" dan, sehubungan dengan penghapusan postingan tersebut oleh Meta, mengatakan bahwa "ini adalah penyensoran".
6. Penjelasan keputusan Meta
Meta menyampaikan kepada Dewan bahwa frasa "Bunuh Indian" adalah serangan Tingkat 1 berdasarkan Standar Komunitas tentang Ujaran Kebencian Facebook yang melarang "ucapan kasar" yang menarget orang berdasarkan karakteristik yang dilindungi, termasuk ras dan etnis. Namun demikian, Meta mengakui bahwa penghapusan konten tersebut salah karena kebijakan mengizinkan untuk membagikan ujaran kebencian orang lain untuk "mengutuk hal tersebut atau meningkatkan kesadaran". Meta mencatat bahwa pengguna menyatakan dalam postingan tersebut bahwa tujuannya adalah meningkatkan kesadaran terhadap kisah mengerikan tentang yang terjadi di Kamloops.
Meta mencatat bahwa frasa "Bunuh Indian/Selamatkan Manusia" berasal dari asimilasi paksa anak-anak pribumi. Dengan meningkatkan kesadaran akan kisah Kamloops, pengguna juga meningkatkan kesadaran tentang asimilasi paksa melalui sekolah asrama. Sebagai tanggapan terhadap pertanyaan dari Dewan, Meta menjelaskan bahwa peninjau konten tidak perlu menyadari sejarah ini untuk menegakkan kebijakan dengan benar. Postingan pengguna menyatakan bahwa pihaknya meningkatkan kesadaran akan kisah mengerikan dan, oleh karenanya, peninjau dapat menyimpulkan secara wajar bahwa postingan tersebut meningkatkan kesadaran ujaran kebencian yang dikutipnya.
Meta memberi tahu Dewan bahwa, dalam kasus ini, tidak ada pengguna yang melaporkan konten. Meta mengoperasikan pengklasifikasi pembelajaran mesin yang dilatih untuk secara otomatis mendeteksi potensi pelanggaran Standar Komunitas Facebook. Dalam kasus ini, dua pengklasifikasi secara otomatis mengidentifikasi postingan sebagai kemungkinan ujaran kebencian. Pengklasifikasi pertama yang menganalisis konten tidak begitu yakin bahwa postingan tersebut melanggar Standar Komunitas. Namun demikian, pengklasifikasi lain menentukan, berdasarkan sejumlah sinyal kontekstual, bahwa postingan tersebut mungkin dibagikan secara luas dan dilihat oleh banyak orang. Dengan adanya potensi bahaya yang dapat timbul dari distribusi ujaran kebencian yang luas, sistem Meta secara otomatis mengirim postingan tersebut ke peninjau manusia.
Meta menjelaskan sehubungan dengan pertanyaan Dewan bahwa peninjau manusia yang berlokasi di wilayah Asia-Pasifik menentukan postingan tersebut merupakan ujaran kebencian dan menghapusnya dari platform. Pengguna mengajukan banding dan peninjau manusia kedua di wilayah Asia-Pasifik meninjau konten tersebut dan juga menentukan bahwa postingan adalah ujaran kebencian. Meta mengonfirmasi kepada Dewan bahwa moderator tidak mencatat alasan untuk keputusan konten individual.
7.Pengajuan pihak ketiga
Dewan Pengawas mempertimbangkan delapan komentar publik terkait kasus ini: empat dari Amerika Serikat dan Kanada, dua dari Eropa, satu dari Afrika Sub-Sahara, dan satu dari Asia-Pasifik dan Oseania. Pengajuan ini membahas tema yang termasuk signifikansi kutipan yang mendasari karya seni pengguna, konteks tentang penggunaan sekolah asrama di Amerika Utara, dan dampak moderasi konten Meta pada kebebasan artistik dan hak berekspresi orang dengan identitas atau asal pribumi.
Untuk membaca komentar publik yang dikirimkan untuk kasus ini, klik di sini.
8.Analisis Dewan Pengawas
Dewan mempertimbangkan pertanyaan tentang apakah konten ini harus dipulihkan melalui tiga sudut pandang: Standar Komunitas Facebook, nilai Meta, serta tanggung jawab hak asasi manusianya.
8.1 Kepatuhan terhadap Standar Komunitas
Meta setuju bahwa keputusan originalnya untuk menghapus konten ini melanggar Standar Komunitas Facebook dan merupakan "kesalahan penegakan". Dewan menyatakan bahwa konten dalam kasus ini secara gamblang bukan merupakan ujaran kebencian. Dewan menyatakan bahwa konten ini adalah contoh yang jelas tentang 'balasan terhadap ujaran kebencian' dengan ujaran kebencian disebutkan atau diapropriasi ulang dalam upaya melawan penindasan dan diskriminasi.
Standar Komunitas tentang Ujaran Kebencian secara jelas mengizinkan “konten yang berisi ujaran kebencian orang lain untuk mengutuknya atau meningkatkan kesadaran”. Namun, dua moderator berbeda menyimpulkan bahwa postingan ini adalah ujaran kebencian. Meta tidak dapat memberikan alasan spesifik mengapa kesalahan ini terjadi dua kali.
Dalam kasus kutipan Nazi ( 2020-005-FB-UA), Dewan mencatat bahwa, saat menggunakan kutipan, pemahaman makna konteks diperlukan. Dalam kasus tersebut, konten dan makna kutipan, pemilihan waktu postingan dan negara tempat konten diposting, serta substansi reaksi dan komentar pada postingan, adalah indikasi yang jelas bahwa pengguna tidak bermaksud memuji tokoh kebencian yang dimaksud.
Dewan menemukan bahwa pengguna tidak perlu menyatakan dengan jelas bahwa pihaknya bermaksud meningkatkan kesadaran dan menjelaskan makna postingan ini. Karya seni yang bergambar tersebut menceritakan kisah tentang hal yang terjadi di Kamloops, dan narasi yang menyertainya menjelaskan signifikansinya. Sekalipun kata 'Bunuh Indian' secara terpisah dapat menjadi ujaran kebencian, menilai konten secara keseluruhan menjelaskan bahwa frasa digunakan untuk meningkatkan kesadaran atas dan mengutuk kebencian serta diskriminasi. Konten tersebut menggunakan tanda tanya untuk membedakan frasa penuh kebencian dari judulnya yang secara keseluruhan adalah "Bunuh Indian / Selamatkan Manusia". Ini seharusnya memberikan waktu bagi peninjau untuk memahami lebih dalam. Cara pengguna menceritakan kisah Kamloops dan menjelaskan signifikansi budaya dari sabuk wampum menjelaskan bahwa pihaknya merujuk pada korban diskriminasi dan kekerasan, bukan pelakunya. Narasi pengguna secara jelas mengutuk peristiwa yang terungkap di Kamloops. Dari komentar dan reaksi postingan, maksud untuk mengutuk dan meningkatkan kesadaran jelas dipahami oleh pemirsa pengguna.
Dewan mencatat bahwa "Pertanyaan Umum" internal Facebook yang merupakan bagian dari panduan yang diberikan kepada moderator, menginstruksikan moderator untuk berhati-hati dalam menghapus konten yang menyertakan ujaran kebencian dengan maksud pengguna yang belum jelas. Pertanyaan Umum juga menyatakan bahwa pernyataan maksud yang jelas tidak selalu cukup untuk mengubah makna postingan yang merupakan ujaran kebencian. Panduan internal ini memberikan instruksi terbatas kepada moderator tentang cara membedakan ujaran kebencian yang dilarang dan balasan terhadap ujaran kebencian yang mengutip ujaran kebencian untuk mengutuknya atau meningkatkan kesadaran dengan benar. Sepengetahuan Dewan, tidak ada panduan tentang cara menilai bukti maksud dalam konten artistik yang mengutip atau menggunakan istilah ujaran kebencian, atau dalam konten yang mendiskusikan pelanggaran hak asasi manusia, di mana konten tersebut termasuk dalam kelonggaran kebijakan.
8.2 Kepatuhan terhadap nilai-nilai Meta
Dewan menyatakan bahwa keputusan original untuk menghapus konten ini tidak sesuai dengan nilai "Suara" dan "martabat" Meta dan tidak menjalankan nilai "Keselamatan". Sekalipun ini sesuai dengan nilai Meta untuk membatasi penyebaran ujaran kebencian pada platformnya, Dewan khawatir proses moderasi Meta tidak dapat mengidentifikasi dan melindungi kemampuan orang yang menghadapi marginalisasi atau diskriminasi untuk mengekspresikan dirinya melalui balasan terhadap ujaran kebencian dengan benar.
Meta telah menyatakan komitmennya untuk mendukung balasan terhadap ujaran kebencian:
Sebagai komunitas, platform sosial, dan pertemuan pengalaman manusia bersama, Facebook mendukung inisiatif Balasan terhadap ujaran kebencian yang kritis dengan menegakkan kebijakan konten yang kuat dan bekerja sama dengan komunitas setempat, pembuat kebijakan, pakar, dan pelaku perubahan untuk meluncurkan inisiatif Balasan terhadap ujaran kebencian di seluruh dunia.
Meta mengklaim bahwa "Suara" adalah nilai paling penting perusahaan. Seni yang berupaya menyibak kengerian kejahatan di masa lalu dan mengedukasi orang tentang dampaknya yang abadi adalah salah satu ekspresi paling penting dan kuat dari nilai "Suara", khususnya untuk kelompok termarginal yang mengekspresikan budaya mereka dan berupaya memastikan bahwa sejarah mereka didengar. Balasan terhadap ujaran kebencian bukan hanya ekspresi 'Suara", tetapi juga alat penting bagi target ujaran kebencian untuk melindungi martabat mereka dan melawan tindakan yang menindas, diskriminatif, dan merendahkan. Meta harus memastikan bahwa kebijakan konten dan praktik moderasinya mempertimbangkan serta melindungi bentuk ekspresi ini.
Tekanan pada ujaran pengguna yang meningkatkan kesadaran tentang kejahatan massal yang dianggap sebagai ujaran kebencian merupakan penghinaan terhadap martabat mereka. Tuduhan ini, secara khusus saat dikonfirmasi oleh Meta pada saat banding, dapat mengakibatkan penyensoran sepihak.
8.3 Kepatuhan terhadap tanggung jawab hak asasi manusia Meta
Dewan menyimpulkan bahwa penghapusan postingan ini bertentangan dengan tanggung jawab hak asasi manusia Meta sebagai bisnis. Meta telah berkomitmen untuk menghormati hak asasi manusia berdasarkan Prinsip Panduan PBB tentang Bisnis dan Hak Asasi Manusia ( UNGP). Kebijakan Hak Asasi Manusia Perusahaan menyatakan bahwa ini termasuk Kovenan Internasional tentang Hak Sipil dan Politik (ICCPR).
Ini adalah kasus pertama Dewan terkait ekspresi artistik, serta kasus pertama sehubungan dengan ekspresi di mana pengguna mengidentifikasi diri sebagai orang pribumi. Ini merupakan satu dari beberapa kasus yang dipilih Dewan dengan pengguna yang berupaya menghadirkan kesadaran terhadap pelanggaran hak asasi manusia berat.
Kebebasan berekspresi (Pasal 19 ICCPR)
Standar hak asasi manusia internasional menekankan nilai ekspresi politis (Komite Hak Asasi Manusia Komentar Umum 34, para. 38). Cakupan perlindungan untuk hak ini dijelaskan dalam Pasal 19, para 2 ICCPR yang memberikan perhatian khusus pada ekspresi "dalam bentuk seni". Konvensi Internasional tentang Penghapusan Segala Bentuk Diskriminasi Ras (ICERD) juga memberikan perlindungan dari diskriminasi dalam menjalankan terhadap kebebasan berekspresi (Pasal 5), dan Komite yang ditugaskan untuk memantau kepatuhan negara-negara telah menekankan pentingnya hak sehubungan dengan membantu “kelompok rentan dalam mengembalikan keseimbangan kekuatan dalam komponen masyarakat” dan untuk menawarkan “pandangan alternatif serta bantahan” dalam diskusi (Komite CERD, Rekomendasi Umum 35, para. 29).
Seni terkadang politis, dan standar internasional menyadari peran unik dan kuat bentuk komunikasi ini dalam menentang status quo (Pelapor Khusus PBB di bidang hak budaya, A/HRC/23/34, para 3 – 4). Internet, dan khususnya platform media sosial seperti Facebook dan Instagram, memiliki nilai khusus bagi seniman dalam menjangkau pemirsa yang baru dan lebih luas. Mata pencaharian mereka mungkin bergantung pada akses ke platform sosial yang mendominasi internet.
Hak kebebasan berekspresi untuk semua orang telah dijamin tanpa diskriminasi (Pasal 19, para. 2 ICCPR). Dewan menerima pengajuan yang menyatakan bahwa hak orang pribumi atas persetujuan bebas, didahulukan, dan diinformasikan di mana negara-negara menggunakan perundang-undangan atau langkah administratif yang memengaruhi komunitas menyiratkan tanggung jawab bagi Meta untuk berkonsultasi dengan komunitas ini saat pihaknya mengembangkan kebijakan kontennya (Komentar Publik-10240, Kelompok Hak Minoritas; lihat juga Deklarasi PBB tentang Hak Orang Pribumi, Pasal 19) Pelapor Khusus PBB tentang kebebasan berpendapat dan berekspresi telah menyampaikan masalah serupa dalam konteks tanggung jawab platform media sosial ( A/HRC/38/35, para. 54).
Konten dalam kasus ini juga melibatkan sejumlah hak lain, termasuk hak orang yang termasuk dalam minoritas nasional, etnis, atau bahasa untuk menikmati budayanya, dalam komunitas bersama anggota kelompok mereka lainnya, (Pasal 27, ICCPR), dan hak untuk berpartisipasi dalam kehidupan budaya dan menikmati seni (Pasal 15, ICESCR). Seni membuat sabuk wampum yang berupaya merekam serta meningkatkan kesadaran atas kejahatan hak asasi manusia dan warisan turun-temurun mereka mendapatkan perlindungan dalam Deklarasi PBB tentang Pembela Hak Asasi Manusia, Pasal 6(c), serta hak atas kebenaran tentang kejahatan ( Rangkaian Prinsip PBB untuk Memerangi Impunitas). Deklarasi PBB tentang Hak Orang Pribumi secara tegas menyadari pengambilan paksa anak-anak dapat menjadi tindak kekerasan dan genosida (Pasal 7, para 2) dan memberikan perlindungan khusus terhadap asimilasi paksa dan pemusnahan budaya (Pasal 8, para 1).
ICCPR Pasal 19 mengharuskan bahwa ketika pembatasan berekspresi diterapkan oleh suatu negara, pembatasan ini harus memenuhi persyaratan legalitas, tujuan sah, serta kebutuhan dan proporsionalitas (Pasal 19, para. 3, ICCPR). Pelapor Khusus PBB tentang kebebasan berekspresi telah mendorong perusahaan media sosial untuk menerapkan prinsip ini saat memoderasi ekspresi online, dengan mempertimbangkan bahwa peraturan ekspresi skala besar oleh perusahaan privat mungkin menimbulkan masalah sehubungan dengan konteks tersebut (A/HRC/38/35, paras. 45 dan 70). Dewan telah menerapkan tes tiga bagian berdasarkan Pasal 19 ICCPR dalam semua keputusannya hingga saat ini.
I. Legalitas (kejelasan dan aksesibilitas aturan)
Standar Komunitas tentang Ujaran Kebencian secara jelas mengizinkan konten yang mengutuk ujaran kebencian atau meningkatkan kesadaran. Komponen kebijakan ini cukup jelas bagi dan dapat diakses pengguna untuk memahami aturan dan bertindak sebagaimana mestinya ( Komentar Umum 34, para. 25). Standar legalitas juga mewajibkan aturan yang membatasi ekspresi “memberikan panduan yang memadai bagi pihak yang bertanggung jawab atas pelaksanaannya agar mereka dapat memastikan jenis ekspresi yang benar-benar dibatasi dan apa yang tidak” ( Ibid.) Ketidakmampuan dua moderator untuk menilai penerapan kelonggaran privasi pada konten ini dengan benar menunjukkan bahwa moderator mungkin memerlukan panduan internal lebih lanjut.
II. Tujuan yang sah
Setiap pembatasan atas ekspresi di suatu negara harus mengupayakan salah satu tujuan sah yang tercantum dalam Pasal 19, para. 3 ICCPR. Dalam pengajuannya kepada Dewan, Meta secara rutin telah menggunakan tujuan dari daftar ini saat membenarkan tindakan yang diambil untuk menekan ujaran. Dewan sebelumnya telah menyadari bahwa Standar Komunitas Ujaran Kebencian Facebook berorientasi pada tujuan sah untuk melindungi hak orang lain. Hak-hak tersebut mencakup hak atas kesetaraan dan antidiskriminasi, kebebasan berekspresi, dan hak atas integritas fisik.
III. Kebutuhan dan proporsionalitas
Kesalahan gamblang dalam kasus ini berarti bahwa penghapusan jelas tidak diperlukan dan Meta mengakui hal ini. Dewan khawatir kesalahan gamblang tersebut dapat mengindikasikan masalah yang lebih serius terkait proporsionalitas dalam proses tinjauan otomatis dan manusia Meta. Batasan kebebasan berekspresi harus dimaksudkan untuk memenuhi fungsi perlindungannya dan setidaknya harus berupa instrumen yang paling bijaksana yang mungkin memenuhi fungsi perlindungannya (Komentar Umum 34, para. 34). Pemenuhan kebutuhan dan proporsionalitas sistem moderasi konten Meta sangat bergantung pada tingkat keefektifannya dalam menghapus ujaran kebencian aktual sekaligus meminimalkan jumlah deteksi dan penghapusan yang salah.
Setiap postingan yang dihapus secara salah membahayakan kebebasan berekspresi. Dewan memahami bahwa kesalahan tersebut tidak dapat dihindari, baik bagi manusia maupun mesin. Ujaran kebencian dan tanggapan atas hal tersebut akan selalu berbasis konteks, dan batasannya tidak selalu jelas. Namun demikian, jenis kesalahan dan orang atau komunitas yang bertanggung jawab atas kesalahan tersebut mencerminkan keputusan terencana yang harus selalu dinilai dan diperiksa. Ini membutuhkan penyelidikan lebih lanjut terkait sebab masalah dalam kasus ini, dan evaluasi yang lebih mendalam tentang keefektifan moderasi balasan terhadap ujaran kebencian.
Mengingat pentingnya seni kritis dari seniman pribumi dalam membantu melawan kebencian dan penindasan, Dewan mengharapkan Meta untuk semakin sensitif terhadap kemungkinan penghapusan konten secara salah dalam kasus ini dan konten serupa di Facebook dan Instagram. Mengevaluasi kinerja penegakan kebijakan Ujaran Kebencian Facebook Meta secara keseluruhan tidaklah cukup. Sistem yang bekerja dengan baik secara rata-rata dapat berpotensi memiliki kinerja yang sangat buruk pada subkategori konten dengan keputusan yang memiliki dampak yang sangat nyata pada hak asasi manusia. Terdapat kemungkinan jenis kesalahan pada kasus ini jarang terjadi; Namun demikian, Dewan mencatat bahwa anggota kelompok termarginal telah menyuarakan kekhawatiran tentang tingkat dan dampak penghapusan positif palsu selama beberapa tahun. Kesalahan dalam kasus ini menunjukkan bahwa Meta wajib menunjukkan bahwa pihaknya telah menjalankan uji tuntas hak asasi manusia untuk memastikan sistem beroperasi dengan adil dan tidak memperburuk penindasan bersejarah dan berkelanjutan (UNGP, Prinsip 17).
Meta secara rutin mengevaluasi keakuratan sistem penegakannya dalam menangani ujaran kebencian. Penilaian ini tidak terdiri dari penilaian-penilaian keakuratan yang secara khusus menilai kemampuan Meta untuk membedakan ujaran kebencian dari konten yang diizinkan yang mengutuk ujaran kebencian atau meningkatkan kesadaran.
Proses Meta yang sudah ada juga mencakup mekanisme ad-hoc untuk mengidentifikasi tren kesalahan dan menyelidiki penyebab masalah, tetapi ini membutuhkan sampel konten berskala besar guna mengukur kinerja sistem. Dewan menanyakan apakah Meta telah secara khusus menilai kinerja sistem tinjauannya dalam mengevaluasi balasan terhadap ujaran kebencian secara akurat yang merupakan ekspresi artistik dan balasan terhadap ujaran kebencian yang meningkatkan kesadaran akan pelanggaran hak asasi manusia. Meta mengatakan kepada Dewan bahwa pihaknya belum melakukan penelitian spesifik tentang dampak penghapusan positif palsu terkait ekspresi artistik atau ekspresi dari orang dengan identitas atau asal pribumi.
Meta telah memberi tahu Dewan tentang hambatan untuk memulai penilaian tersebut, termasuk kurangnya sistem untuk mengotomatiskan pengumpulan sampel konten yang menguntungkan kelonggaran kebijakan. Ini karena peninjau menandai konten melanggar atau tidak melanggar, dan tidak diwajibkan untuk menunjukkan konten tidak melanggar yang termasuk dalam kelonggaran kebijakan. Sampel balasan terhadap ujaran kebencian yang sesuai dengan kelonggaran ini perlu dikumpulkan secara manual.
Sekalipun Dewan didukung oleh kompleksitas yang tersedia mengenai cara Meta mengevaluasi kinerja selama sesi Tanya dan Jawab yang digelar atas permintaan Dewan, investasi yang lebih banyak dalam menilai akurasi penegakan kelonggaran kebijakan Ujaran Kebencian dan belajar dari tren kesalahan jelas diperlukan. Tanpa informasi tambahan tentang keputusan terencana dan kinerja sistem manusia dan otomatisnya, Dewan atau Meta akan kesulitan menilai proporsionalitas pendekatan terbaru Meta terhadap ujaran kebencian.
Saat menilai kebutuhan dan proporsionalitas penggunaan fitur pembelajaran mesin khusus yang digunakan dalam kasus ini untuk secara otomatis mendeteksi potensi ujaran kebencian, pemahaman mengenai akurasi fitur tersebut sangat diperlukan. Pengklasifikasi pembelajaran mesin selalu melibatkan pertukaran antara tingkat positif palsu dan negatif palsu. Semakin sensitif pengklasifikasi, semakin tinggi potensinya mengidentifikasi contoh ujaran kebencian dengan benar, tetapi juga semakin tinggi potensinya menandai materi yang bukan ujaran kebencian secara salah. Pengklasifikasi yang dilatih terpisah dan model yang berbeda memiliki penggunaan dan keefektifan berbeda untuk tugas berbeda. Untuk setiap model yang ada, ambang batas berbeda yang mencerminkan penilaian tentang pentingnya menghindari jenis kesalahan lainnya yang saling terkait dapat digunakan. Kemungkinan dan tingkat keparahan kesalahan juga seharusnya menginformasikan keputusan tentang cara menyebarkan pengklasifikasi, termasuk apakah pengklasifikasi dapat segera mengambil tindakan atau apakah pengklasifikasi memerlukan persetujuan manusia, serta perlindungan yang diterapkan.
Meta menjelaskan bahwa postingan yang dimaksud dalam kasus ini dikirim untuk ditinjau oleh sistem otomatis karena postingan tersebut berpotensi memiliki pemirsa dalam jumlah besar. Pendekatan ini dapat membatasi penyebaran materi berbahaya, tetapi juga berpotensi meningkatkan risiko kesenian luar biasa yang melawan kebencian dihapus secara salah. Meta mengatakan kepada Dewan bahwa pihaknya secara rutin mengevaluasi tingkat positif palsu seiring waktu, dan hal ini diukur berdasarkan serangkaian keputusan peninjau ahli. Meta juga mencatat bahwa pihaknya dapat melakukan penilaian akurasi model pembelajaran mesin tertentu yang berkaitan dengan kasus ini, dan pihaknya menyimpan informasi tentang prediksi pengklasifikasi setidaknya selama 90 hari. Dewan meminta informasi yang akan memungkinkan kami untuk mengevaluasi kinerja pengklasifikasi dan kelayakan ambang batas yang digunakan Meta dalam kasus ini. Meta memberi tahu Dewan bahwa pihaknya tidak dapat memberikan informasi yang diminta Dewan karena tidak memiliki waktu yang cukup untuk menyiapkannya untuk kami. Namun demikian, Meta menyatakan bahwa pihaknya mempertimbangkan kemungkinan terkait memberikan informasi ini dalam kasus mendatang.
Tinjauan manusia dapat memberikan dua perlindungan penting pada operasi pengklasifikasi Meta: pertama sebelum postingan dihapus, kemudian saat banding. Kesalahan dalam kasus ini menunjukkan bahwa panduan Meta dalam menilai balasan terhadap ujaran kebencian mungkin tidak cukup bagi moderator. Ada sejumlah alasan yang dapat berkontribusi pada moderator manusia yang mengakibatkan keputusan yang salah dalam kasus ini sebanyak dua kali. Dewan khawatir peninjau mungkin tidak memiliki sumber daya yang memadai dalam hal waktu atau pelatihan untuk mencegah terjadinya kesalahan semacam ini dalam kasus ini, khususnya sehubungan dengan konten yang diizinkan berdasarkan kelonggaran kebijakan (termasuk, contoh, "mengutuk" ujaran kebencian dan "meningkatkan kesadaran").
Dalam kasus ini, kedua peninjau berlokasi di wilayah Asia Pasifik. Meta tidak dapat memberi tahu Dewan terkait perbedaan tingkat akurasi peninjau dengan moderator yang menilai potensi ujaran kebencian yang tidak berlokasi di wilayah asal konten. Dewan mencatat kompleksitas penilaian ujaran kebencian, dan kesulitan dalam memahami konteks serta sejarah lokal, khususnya dengan mempertimbangkan volume konten yang ditinjau moderator setiap hari. Kami dapat memahami bahwa moderator yang menilai konten dalam kasus ini tidak memiliki banyak pengalaman terkait penindasan orang pribumi di Amerika Utara. Panduan seharusnya mencakup instruksi yang jelas untuk mengevaluasi konten secara keseluruhan dan mendukung moderator dalam menilai konteks secara lebih akurat guna menentukan bukti maksud dan makna.
Dalam keputusan Meme Dua Tombol ( 2021-005-FB-UA), Dewan merekomendasikan Meta untuk mengizinkan penggunanya, dalam banding mereka, menunjukkan bahwa konten mereka termasuk dalam salah satu kelonggaran terhadap Standar Komunitas Facebook mengenai Ujaran Kebencian. Saat ini, ketika pengguna mengajukan banding terhadap salah satu keputusan Meta yang menjalani tinjauan manusia, peninjau tidak menerima pemberitahuan bahwa pengguna telah menentang keputusan sebelumnya dan tidak mengetahui hasil tinjauan sebelumnya. Sekalipun Meta telah memberi tahu Dewan bahwa pihaknya meyakini bahwa informasi ini akan membuat tinjauan bias, Dewan ingin mengetahui apakah informasi ini dapat meningkatkan kemungkinan pengambilan keputusan serupa. Ini adalah pertanyaan yang secara empiris dapat diuji oleh Meta; hasil pengujian tersebut akan berguna dalam mengevaluasi proporsionalitas langkah spesifik yang dipilih Meta untuk diterapkan.
Berdasarkan UNGP, Meta bertanggung jawab untuk melakukan uji tuntas hak asasi manusia (Prinsip 17). Ini seharusnya mencakup identifikasi dampak buruk terkait moderasi konten tentang ekspresi artistik dan ekspresi politis dari orang pribumi yang melawan diskriminasi. Meta sebaiknya mengidentifikasi lebih lanjut caranya mencegah, menanggulangi, dan menjelaskan upayanya untuk mengatasi dampak buruk tersebut. Dewan berkomitmen untuk memantau kinerja Meta dan berharap melihat perusahaan memprioritaskan risiko terhadap kelompok termarginal dan menunjukkan bukti peningkatan berkelanjutan.
9.Keputusan Dewan Pengawas
Dewan Pengawas membatalkan keputusan original Meta untuk menghapus konten tersebut.
10. Pernyataan anjuran kebijakan
Penegakan
1. Memberikan pemberitahuan yang tepat waktu dan akurat kepada pengguna terkait tindakan perusahaan yang diambil terhadap konten yang berkaitan dengan pengajuan banding pengguna. Apabila berlaku, termasuk dalam kesalahan penegakan seperti ini, pemberitahuan kepada pengguna harus menyatakan bahwa tindakan tersebut adalah hasil dari proses peninjauan Dewan Pengawas. Meta sebaiknya membagikan kepada pengguna pesan yang dikirimkannya saat tindakan Dewan memengaruhi keputusan konten yang diajukan banding oleh pengguna, untuk menunjukkan pihaknya telah mematuhi rekomendasi ini. Tindakan ini harus diambil sehubungan dengan semua kasus yang dikoreksi pada tahap kelayakan proses Dewan.
2. Mempelajari dampak pendekatan tinjauan sekunder yang dimodifikasi terkait akurasi peninjau dan hasil. Secara khusus, Dewan meminta evaluasi tingkat akurasi saat moderator konten menerima pemberitahuan bahwa mereka terlibat dalam tinjauan sekunder sehingga mereka mengetahui bahwa keputusan awal ditentang. Eksperimen ini secara ideal harus menyertakan kesempatan bagi pengguna untuk memberikan konteks yang relevan yang dapat membantu peninjau mengevaluasi konten mereka, sejalan dengan rekomendasi Dewan sebelumnya. Meta sebaiknya membagikan hasil penilaian akurasi ini kepada Dewan dan meringkas hasilnya dalam transparansi terkini kuartalnya untuk menunjukkan bahwa pihaknya telah mematuhi rekomendasi ini.
3. Melaksanakan penilaian akurasi yang fokus pada kelonggaran kebijakan Ujaran Kebencian yang mencakup ekspresi artistik dan ekspresi tentang pelanggaran hak asasi manusia (mis., pengutukan, peningkatan kesadaran, penggunakan yang merujuk pada kata itu sendiri, penggunaan yang memberdayakan). Penilaian ini sebaiknya juga secara spesifik menyelidiki dampak lokasi peninjau terhadap kemampuan moderator untuk secara akurat menilai ujaran kebencian dan balasan terhadap ujaran kebencian dari wilayah yang sama atau berbeda. Dewan memahami bahwa analisis ini mungkin memerlukan pengembangan sampel konten relevan yang tepat dan dilabeli secara akurat. Meta seyogyanya membagikan hasil penilaian ini kepada Dewan, termasuk cara hasil ini menunjukkan perbaikan pada operasi penegakan dan pengembangan kebijakan serta apakah pihaknya berencana untuk melaksanakan penilaian akurasi peninjau secara berkala terkait kelonggaran ini, dan merangkum hasilnya dalam laporan transparansi kuartal Dewan guna menunjukkan bahwa pihaknya mematuhi rekomendasi ini.
*Catatan prosedural:
Keputusan Dewan Pengawas disiapkan oleh panel yang terdiri dari lima Anggota dan disetujui oleh mayoritas anggota Dewan. Keputusan Dewan tidak selalu mewakili pandangan pribadi semua Anggota.
Untuk keputusan kasus ini, penelitian independen ditugaskan atas nama Dewan. Sebuah lembaga penelitian independen yang berkantor pusat di University of Gothenburg dan terdiri dari tim yang beranggotakan lebih dari 50 ilmuwan sosial di enam benua, serta lebih dari 3.200 pakar negara dari seluruh dunia serta Duco adviser, firma penasihat yang fokus pada konflik geopolitik, kepercayaan dan keselamatan, serta teknologi, yang memberikan keahlian dalam konteks sosial politik dan budaya.