Renversé

غزہ کے لوگوں کے بارے میں غیر انسانی تبصرے

ایک صارف نے Meta کے Facebook پوسٹ کو چھوڑ دینے کے فیصلے پر اپیل کی جس میں دعویٰ کیا گیا کہ حماس غزہ کی آبادی سے پیدا ہوئی ہے، ان کا موازنہ "وحشی گروہ" سے کرتا ہے۔ جب بورڈ نے اپیل پر Meta کی توجہ دلائی تو کمپنی نے اپنا اصل فیصلہ واپس لے لیا اور پوسٹ کو ہٹا دیا۔

Type de décision

Résumé

Politiques et sujets

Sujet
Origine ou identité ethnique, Guerre et conflits, نظر انداز کی گئی کمیونٹیز
Norme communautaire
Discours incitant à la haine

Régions/Pays

Emplacement
اسرائیل, فلسطینی علاقے

Plate-forme

Plate-forme
Facebook

یہ فیصلے کا خلاصہ ہے۔ خلاصہ والے فیصلوں میں ایسے کیسز کا جائزہ لیا گیا ہے جن میں بورڈ کی جانب سے کمپنی کی توجہ میں لانے کے بعد Meta نے مواد کے ایک ٹکڑے پر اپنا اصل فیصلہ تبدیل کر دیا ہے اور Meta کی تسلیم شدہ غلطیوں کے بارے میں معلومات شامل ہیں۔ وہ مکمل بورڈ کے بجائے بورڈ ممبر پینل کے ذریعہ منظور کیے جاتے ہیں، عوامی تبصرے شامل نہیں ہوتے ہیں اور بورڈ کیلئے ان کی مثالی اہمیت نہیں ہوتی ہے۔ خلاصہ والے فیصلے Meta کے فیصلوں میں براہ راست تبدیلیاں لاتے ہیں، ان اصلاحات میں شفافیت فراہم کرتے ہیں، اس بات کی نشاندہی کرتے ہوئے کہ Meta اپنے نفاذ کو کہاں بہتر بنا سکتا ہے۔

خلاصہ

ایک صارف نے Meta کے Facebook پوسٹ کو چھوڑ دینے کے فیصلے پر اپیل کی جس میں دعویٰ کیا گیا کہ حماس غزہ کی آبادی سے پیدا ہوئی ہے اور ان کی "اندرونی خواہشات" کی عکاسی کرتی ہے، ان کا موازنہ "وحشی گروہ" سے کرتا ہے۔ جب بورڈ نے اپیل پر Meta کی توجہ دلائی تو کمپنی نے اپنا اصل فیصلہ واپس لے لیا اور پوسٹ کو ہٹا دیا۔

کیس کا تعارف

دسمبر 2023 میں، ایک صارف نے Facebook پر ایک تصویر دوبارہ پوسٹ کی جس میں ایک نامعلوم شخص کی تصویر کے ساتھ متن شامل تھا، اس خیال کا اظہار کرتے ہوئے کہ غزہ میں "عام لوگ" حماس کا "شکار" نہیں ہے بلکہ یہ کہ عسکریت پسند گروپ "وحشی گروہ کی اندرونی خواہشات" کی "حقیقی عکاسی" کے طور پر ابھرا ہے۔ دوبارہ پوسٹ کی گئی تصویر میں ایک توثیق کرنے والا کیپشن تھا جس میں الفاظ شامل تھے، "حقیقت"۔ پوسٹ کو 500 سے کم بار دیکھا گیا تھا۔

Meta کی نفرت انگیز مواد کی پالیسی کے تحت، Meta کسی شخص یا لوگوں کے گروپ کو ان کی تحفظ یافتہ خصوصیات کی بنیاد پر نشانہ بنانے والے مواد پر پابندی عائد کرتی ہے، خاص طور پر "ذیلی انسانیت" کے مقابلے کا ذکر کرتے ہوئے اور مثال کے طور پر "وحشیوں" کو بھی شامل کرتے ہیں۔ اس مواد میں، "غزہ کے عام لوگوں" کا حوالہ غزہ میں فلسطینیوں کا ایک واضح حوالہ ہے، اس طرح نسلی اور قومیت کی تحفظ یافتہ خصوصیات کو نشانہ بنایا گیا ہے۔

بورڈ کو اس کیس کی اپیل کرنے والے ایک بیان میں، صارف نے نوٹ کیا کہ اس پوسٹ نے غزہ کے لوگوں کے بارے میں عام کر کے "غیر انسانی مواد کی تشکیل" کی ہے۔

بورڈ کی جانب سے اس کیس کو Meta کی توجہ میں لانے کے بعد، کمپنی نے طے کیا کہ مواد نے Meta کی نفرت انگیز مواد کی پالیسی کی خلاف ورزی کی ہے اور مواد کو چھوڑ دینے کا اس کا اصل فیصلہ غلط تھا۔ اس کے بعد کمپنی نے Facebook سے مواد کو ہٹا دیا۔

بورڈ کی اتھارٹی اور دائرہ کار

جس صارف نے رپورٹ کی کہ مواد کو چھوڑ دیا گیا تھا اس کے اپیل کرنے کے بعد بورڈ کو Meta کے فیصلے کا جائزہ لینے کا اختیار ہے (چارٹر آرٹیکل 2، سیکشن 1؛ خصوصی قوانین آرٹیکل 3، سیکشن 1)۔

جب Meta تسلیم کرتی ہے کہ اس نے غلطی کی ہے اور بورڈ کے جائزے کیلئے زیر غور کیس میں اپنا فیصلہ واپس لے لیتی ہے تو بورڈ اس کیس کو فیصلے کے خلاصے کیلئے منتخب کر سکتا ہے (خصوصی قوانین آرٹیکل 2، سیکشن 2.1.3)۔ بورڈ مواد کے ماڈریشن کے پراسس کی تفہیم میں اضافہ کرنے، غلطیوں کو کم کرنے اور Facebook اور Instagram کے صارفین کیلئے انصاف میں اضافہ کرنے کیلئے اصل فیصلے کا جائزہ لیتا ہے۔

کیس کی اہمیت

یہ کیس Meta کی نفرت انگیز مواد کی پالیسی کے نفاذ میں خامیوں کو نمایاں کرتا ہے، خاص طور پر ایسے مواد سے متعلق جو لوگوں پر ان کی تحفظ یافتہ خصوصیات کی بنیاد پر حملہ کرتا ہے۔ ماڈریشن کی غلطیاں خاص طور پر جاری مسلح تصادم کے وقت میں نقصان دہ ہوتی ہیں۔ اس طرح، مواد میں ماڈریشن کے مزید مضبوط طریقے ہونے چاہئیں۔

کن کارٹون والے کیس میں بھی اسی طرح نفرت انگیز مواد تھا جس کے ذریعے تحفظ یافتہ خصوصیت کو نشانہ بنایا گیا تھا – نسل – نسلی گروہ کو چوہوں کے طور پر حوالہ دے کر واضح طور پر نام لیے بغیر۔ تاہم، کن کارٹون والے کیس میں نسلی گروہ کی علامتی تصویر کشی کی تشریح کیلئے تاریخی اور ثقافتی تناظر کی ضرورت تھی، جب کہ اس کیس میں مواد زیادہ براہ راست غیر انسانی تبصروں کو پوری آبادی سے جوڑتا ہے، جسے معقول طور پر تحفظ یافتہ خصوصیت کے ذریعے لوگوں کا حوالہ دینے کے طور پر سمجھا جانا چاہیے۔

کن کارٹون والے فیصلے میں، بورڈ نے تجویز کی تھی کہ Meta کو "نفرت انگیز مواد سے متعلق کمیونٹی کے معیار اور جائزہ کاروں کو فراہم کردہ رہنمائی کو واضح کرنا چاہیے، اور اس بات کی وضاحت کرنی چاہیے کہ تحفظ یافتہ گروپوں کے ضمنی حوالہ جات بھی پالیسی کے ذریعہ ممنوع ہیں جب حوالہ معقول طور پر سمجھا جائے گا، (کن کارٹون والا فیصلہ، تجویز نمبر 1)، جسے Meta نے جزوی طور پر نافذ کیے جانے کی اطلاع دی ہے۔ 2022 کے Q4 میں، Meta نے رپورٹ کی تھی کہ اس نے "کمیونٹی کے معیارات اور جائزہ کاروں کی پالیسی کی رہنمائی میں زبان شامل کی ہے جس میں واضح کیا گیا ہے کہ اگر بڑے پیمانے پر جائزہ کاروں کی طرف سے اسے ماہر کے جائزے کیلئے سینئر کے پاس آگے بھیجا جاتا ہے تو اس کو ہٹا دیا جائے گا جہاں Meta صارف کے ارادے کو معقول طور پر سمجھ سکتا ہے"۔ بورڈ نے اس تجویز کو جزوی طور پر لاگو کرنے پر غور کیا کیونکہ نفرت انگیز مواد سے متعلق کمیونٹی کے معیار میں اپ ڈیٹس نہیں کی گئی تھیں، بلکہ صرف کمیونٹی کے معیارات کے عمومی تعارف کیلئے کی گئی تھیں۔

بورڈ کا خیال ہے کہ اس تجویز پر مکمل عمل درآمد سے Meta کی نفرت انگیز مواد کی پالیسی کے تحت نفاذ کی غلطیوں کی تعداد میں کمی آئے گی۔

فیصلہ

بورڈ نے Meta کے مواد کو چھوڑ دینے کے اصلی فیصلے کو کالعدم کر دیا ہے۔ بورڈ یہ تسلیم کرتا ہے کہ اس کیس پر Meta کی توجہ مبذول کرانے پر Meta نے اپنی ابتدائی غلطی کی اصلاح کر لی ہے۔

Retour aux décisions de cas et aux avis consultatifs politiques