Overturned

الشفاء ہسپتال

بورڈ نے Meta کے Instagram سے مواد کو ہٹانے کے ابتدائی فیصلے کو کالعدم کر دیا ہے۔ بورڈ نے یہ نتیجہ اخذ کیا کہ "بطور پریشان کن نشان زد کریں" وارننگ سکرین کے ساتھ پلیٹ فارم پر مواد کو بحال کرنا Meta کی مواد کی پالیسیوں، اقدار اور انسانی حقوق کی ذمہ داریوں کے مطابق ہے۔

Type of Decision

Expedited

Policies and Topics

Topic
Safety, Violence, War and conflict
Community Standard
Violent and graphic content

Region/Countries

Location
Israel, Palestinian Territories

Platform

Platform
Instagram

اس فیصلے کی اشاعت کے بعد کے ہفتوں میں، ہم عبرانی زبان میں ترجمہ یہاں اپ لوڈ کریں گے اور عربی میں ترجمہ 'زبان' ٹیب میں دستیاب ہوگا اور اس تک رسائی کیلئے سکرین میں سب سے اوپر مینیو میں جانا ہوگا۔

לקריאת החלטה זו בעברית יש ללחוץ כאן.

1۔ خلاصہ

یہ کیس جذبات سے بھرپور ایک ویڈیو کے بارے میں ہے، اس ویڈیو میں اسرائیلی حملوں کے دوران غزہ میں واقع الشفاء ہسپتال پر یا اس کے نزدیک ہوئے حملے کے بعد کی صورتحال دکھائی گئی ہے، اس ویڈیو کے کیپشن میں حملے کی مذمت کی گئی ہے۔ ‏Meta کے خودکار سسٹمز نے اس پوسٹ کو پُرتشدد اور گرافک مواد کے متعلق کمیونٹی کے معیار کی خلاف ورزی کی وجہ سے ہٹا دیا۔ اس فیصلے کے حوالے سے Meta سے ہار جانے کے بعد صارف نے اوور سائٹ بورڈ سے اپیل کی۔ جب بورڈ نے جائزہ لینے کیلئے اس کیس کا انتخاب کیا تو Meta نے اپنا فیصلہ واپس لے لیا اور مواد کو وارننگ سکرین کے ساتھ دوبارہ بحال کر دیا۔ بورڈ نے یہ نتیجہ اخذ کیا کہ مواد کو ہٹانے کا ابتدائی فیصلہ Meta کی مواد کی پالیسیوں یا کمپنی کے انسانی حقوق کی ذمہ داریوں کے مطابق نہیں تھا۔ بورڈ نے مواد کو وارننگ سکرین کے ساتھ بحال کرنے کے فیصلے کو منظوری دی لیکن مواد کو تجاویز سے روک کر اس کی متعلقہ تنزلی کو نا منظور کر دیا۔ اسرائیل سے اغوا کئے گئے یرغمال ( 2023-050-FB-UA) کے ساتھ، یہ کیس بورڈ کے پہلے کیسز ہیں جن کا فیصلہ اس کے فوری جائزہ کے طریقہ کار کے تحت کیا گیا ہے۔

2۔ سیاق و سباق اور Meta کا ردعمل

7 اکتوبر 2023 کو Meta کے خطرناک تنظیم اور افراد کے متعلق کمیونٹی معیارات کے درجہ 1 کے تحت نامزد تنظیم حماس نے غزہ سے اسرائیل پر خلاف معمول دہشت گردانہ حملے کیے جن میں اندازاً 1200 افراد ہلاک ہوئے اور تقریباً 240 افراد کو یرغمال بنایا گیا، ( وزارت خارجہ، حکومت اسرائیل)۔ ان حملوں کے جواب میں اسرائیل نے فوری طور پر غزہ میں فوجی مہم شروع کی۔ غزہ میں دسمبر 2023 کے وسط تک اسرائیل کی فوجی کارروائی میں 18,000 سے زیادہ افراد ہلاک ہو چکے ہیں ( فلاحی امور کے متعلق تعاون کیلئے اقوام متحدہ کا دفتر، غزہ میں وزارت صحت کے ڈیٹا پر مبنی)، ایک تنازعہ میں جہاں دونوں فریقین پر بین الاقوامی قانون کی خلاف ورزی کا الزام لگایا گیا ہے۔ دہشت گردانہ حملے اور اس کے بعد کی اسرائیل کی فوجی کارروائیاں دونوں دنیا بھر میں شدید شہرت، بحث، چھان بین اور تنازعہ کا موضوع رہی ہیں، جن میں سے زیادہ تر سوشل میڈیا پلیٹ فارمز بشمول Instagram اور Facebook پر ہوئی ہیں۔

‏Meta نے 7 اکتوبر کے واقعات کو اپنی خطرناک تنظیموں اور افراد کی پالیسی کے تحت فوری طور پر دہشت گردانہ حملہ قرار دیا۔ اس کا مطلب ہے کہ Meta اپنی کمیونٹی کے معیارات کے تحت، اپنے پلیٹ فارمز سے ایسے کسی بھی مواد کو ہٹا دے گی جو 7 اکتوبر کے حملوں یا ان کے مرتکب افراد کی "تعریف، بھرپور حمایت یا نمائندگی" کرتا ہے۔

دہشت گردانہ حملوں اور فوجی رد عمل کے بعد اپنے پلیٹ فارمز پر پُرتشدد اور گرافک مواد پوسٹ کرنے کی تعداد میں غیر معمولی اضافہ کے رد عمل میں Meta نے عارضی طور پر مخصوص اقدامات کیے جن میں اس کے پُرتشدد اور گرافک مواد کی شناخت اور اسے ہٹانے والے خودکار درجہ بندی کے سسٹم (کلاسیفائر) کی اہمیت کو کم کرنا شامل ہے۔ ‏Meta نے بورڈ کو مطلع کیا کہ یہ اقدامات اسرائیل اور غزہ سے متعلق مواد کی تمام زبانوں پر لاگو ہوتے ہیں۔ جہاں Meta کی پالیسیوں کی خلاف ورزی کرنے والے مواد کے لیے اہمیت کا اسکور کم تھا وہاں کلاسیفائر میں ہونے والی ان تبدیلیوں سے مواد کے خودکار طور پر ہٹائے جانے کے عمل میں اضافہ ہوا۔ دوسرے لفظوں میں، Meta نے ممکنہ طور پر اپنی پالیسیوں کے خلاف ورزی کرنے والے مواد کو ہٹانے کے لیے اپنے خودکار ٹولز کا بہت زیادہ سختی سے استعمال کیا۔ Meta نے اپنی تحفظ کی قدر کو ترجیح دینے کے لیے ایسا کیا، اس نے کہیں زیادہ مواد کو ہٹا دیا جتنا کہ 7 اکتوبر کے پہلے سے موجود اعلیٰ اعتماد کی حد کے تحت واقع ہوا ہوگا۔ اگرچہ اس کی وجہ سے اس بات کا امکان کم ہو گیا کہ Meta خلاف ورزی کرنے والے ایسے مواد کو ہٹانے میں ناکام ہو جائے جس کا بصورت دیگر پتہ نہیں لگایا جا سکتا تھا یا جہاں انسانی جائزہ کی صلاحیت محدود تھی، اس سے Meta کے تنازعات سے متعلق خلاف ورزی نہ کرنے والے مواد کو غلطی سے ہٹانے کے امکانات بھی بڑھ گئے۔

جب ایسکیلیشن ٹیمز نے اپنی تشخیص میں ویڈیوز کو پُرتشدد اور گرافک مواد، تشدد اور اشتعال اور خطرناک تنظیموں اور افراد کے متعلق پالیسیوں کے خلاف پایا تو Meta نے ملتی جلتی ویڈیوز کو خودکار طور پر ہٹانے کیلئے میڈیا میچنگ سروس بینکس کا سہارا لیا۔ اس نقطہ نظر کی وجہ سے ضرورت سے زیادہ نفاذ کی تشویش پیدا ہوئی، جس میں مواد کے حوالے سے Meta کی پالیسیوں کی متعدد خلاف ورزیوں کے سبب لوگوں کے اکاؤنٹس پر پابندیاں لگانا یا اکاؤنٹس کو معطل کرنا شامل ہے (بعض اوقات اسے "Facebook جیل" کہا گیا ہے)۔ اس تشویش کی تخفیف کے لیے Meta نے " سٹرائکس" کو واپس لے لیا جو عام طور پر میڈیا میچنگ سروس بینکس کی بنیاد پر خودکار طور پر مواد کی پوسٹ کو ہٹانے کی وجہ سے عائد ہوتی ہیں (جیسا کہ Meta نے اپنی نیوز روم کی پوسٹ میں اعلان کیا ہے)۔

Meta کی طرف سے کلاسیفائر کے اعتماد کی حد اور اپنی سٹرائک کے متعلق پالیسی کی تبدیلیاں اسرائیل اور غزہ کے تنازعہ تک محدود اور عارضی مقصد کیلئے ہیں۔ 11 دسمبر 2023 تک Meta نے اعتماد کی حد کو 7 اکتوبر سے پہلے والے درجات میں بحال نہیں کیا تھا۔

3۔ کیس کی تفصیل

اس کیس میں موجود مواد ایک ویڈیو پر مشتمل ہے جو نومبر کے دوسرے ہفتے میں Instagram پر پوسٹ کی گئی تھی، اس ویڈیو میں غزہ کے شمالی حصے میں اسرائیلی حملوں کے دوران غزہ شہر میں واقع الشفاء ہسپتال پر یا اس کے نزدیک ہوئے حملے کے بعد کی صورتحال دکھائی گئی ہے۔ اس کیس میں Instagram پوسٹ میں لوگوں بشمول بچوں کو بے جان یا زخمی حالت میں زمین پر پڑے ہوئے اور روتے ہوئے دکھایا گیا ہے۔ ایک بچہ سر میں شدید چوٹ کی وجہ سے مرا ہوا نظر آ رہا تھا۔ ویڈیو کے نیچے موجود عربی اور انگریزی زبان کے کیپشن میں یہ بیان کیا گیا ہے کہ ہسپتال کو "قابض بالجبر" یعنی اسرائیلی فوج نے نشانہ بنایا ہے اور اسے انسانی حقوق کی تنظیموں اور خبروں کی تنظیموں کو ٹیگ کیا ہے۔

Meta کے پُرتشدد اور گرافک مواد کے متعلق کمیونٹی کے معیار جس کا اطلاق Facebook اور Instagram کے مواد پر ہوتا ہے، اس معیار کے تحت ایسی "ویڈیوز ممنوع قرار دی گئی ہیں جن میں غیر طبی تناظر میں لوگوں یا لاشوں کو دکھایا جاتا ہے، اگر ان میں اندرونی اعضاء دکھائی دے رہے ہوں۔" پوسٹ کرتے وقت، پالیسی کے تحت ایسی تصویر کی اجازت تھی جس میں حادثہ یا قتل کی وجہ سے کسی شخص یا لوگوں کی پُرتشدد موت دکھائی گئی ہو، بشرطیکہ اس طرح کے مواد کے ساتھ "بطور پریشان کن نشان زد کریں" وارننگ سکرین شامل ہو اور وہ مواد صرف 18 سال سے زائد عمر کے لوگوں کو نظر آئے۔ یہ اصول 29 نومبر کو یعنی اس کیس میں مواد کو بحال کرنے کے بعد اپ ڈیٹ کیا گیا، اس بات کی وضاحت کے لیے کہ اس اصول کا اطلاق "موت یا اس کے بعد کی صورتحال" کے ساتھ ساتھ ایسی تصویر پر ہوتا ہے جس میں "کوئی شخص جان لیوا صورتحال میں مبتلا ہو"۔

‏Meta کے خودکار سسٹمز نے اس کیس میں مواد کو پُرتشدد اور گرافک مواد کے متعلق کمیونٹی کے معیار کی خلاف ورزی کی وجہ سے ہٹا دیا۔ اس فیصلے کے خلاف صارف کی اپیل کو خودکار طور پر مسترد کر دیا گیا کیوں کہ Meta کے کلاسیفائرز نے اس بات کے لیے "اعتماد کا اعلی درجہ" ظاہر کیا کہ مواد سے خلاف ورزی ہوئی ہے۔ پھر صارف نے Meta کے فیصلے کے خلاف اوور سائٹ بورڈ سے اپیل کی۔

بورڈ کی طرف سے اس کیس کا انتخاب ہونے پر Meta نے کہا کہ وہ حتمی طور پر اس بات کا تعین نہیں کر سکی کہ ویڈیو میں اندرونی اعضاء نظر آ رہے تھے۔ لہذا Meta نے یہ نتیجہ اخذ کیا اسے یہ مواد نہیں ہٹانا چاہیے تھا، اگرچہ وہ خلاف ورزی کی "حد" سے بہت قریب تھا۔ Meta نے مزید وضاحت کی کہ اگرچہ اندرونی اعضاء نظر نہیں آ رہے تھے، پوسٹ کو "بطور پریشان کن نشان زد کریں" وارننگ سکرین کے ساتھ مواد کو برقرار رکھنا چاہیے تھا کیوں اسے آگاہی بڑھانے کیلئے شیئر کیا گیا تھا۔ کمپنی نے یہ دہرایا کہ گرافک اور پُرتشدد مواد کے متعلق پالیسی کے استدلال کے مطابق اس طرح کے مواد کی اجازت ہے اگر اسے "انسانی حقوق کی خلاف ورزیوں، مسلح تنازع یا دہشت گردانہ کارروائیوں" جیسے اہم مسائل کے متعلق آگاہی بڑھانے کیلئے شیئر کیا گیا ہو۔

لہذا Meta نے ابتدائی فیصلہ واپس لے لیا اور وارننگ سکرین کے ساتھ مواد کو بحال کر دیا۔ وارننگ سکرین صارفین کو یہ بتاتی ہے کہ مواد پریشان کن ہو سکتا ہے۔ بالغ صارفین کلک کر کے پوسٹ کو دیکھ سکتے ہیں لیکن Meta ان پوسٹوں کو 18 سال سے کم عمر کے صارفین کی Instagram فیڈ سے ہٹا دیتی ہے اور Instagram کے بالغ صارفین کیلئے انہیں تجاویز سے بھی ہٹا دیتی ہے۔ Meta نے اسی ویڈیو کی ایک علیحدہ مثال میڈیا میچنگ سروس بینک میں بھی شامل کر دی ہے لہذا اس سے ملتی جلتی دیگر ویڈیوز کو خودکار طور پر وارننگ سکرین کے ساتھ برقرار رکھا جائے گا اور صرف 18 سے زیادہ سال کی عمر کے لوگوں کو نظر آئے گی۔

4۔ فوری جائزہ کیلئے جواز

"خلاف معمول حالات میں، بشمول ایسے حالات میں جہاں مواد سے حقیقی دنیا کے فوری نتائج پیش آ سکتے ہیں" اوور سائٹ بورڈ کے خصوصی قوانین فوری جائزے کی سہولت فراہم کرتے ہیں اور Meta ان فیصلوں پر عمل کرتی ہے (چارٹر، آرٹیکل 3، سیکشن 7.2؛ خصوصی قوانین، آرٹیکل 2، سیکشن 2.1.2)۔ فوری پراسس میں وسیع تحقیق، بیرونی مشاورت یا پبلک کمنٹس شامل نہیں ہوتے ہیں جو کہ ان کیسز میں استعمال ہوتے ہیں جن کا جائزہ عمومی ٹائم لائن کے مطابق لیا جاتا ہے۔ کیس کا فیصلہ اس معلومات کی بنیاد پر لیا جاتا ہے جو غور و خوض کے وقت بورڈ کے پاس دستیاب ہوتی ہیں اور اس فیصلے میں بورڈ کے تمام ممبروں کے ووٹ نہیں لیے جاتے ہیں بلکہ صرف پانچ ممبر کا پینل اس کا فیصلہ کرتا ہے۔

اوور سائٹ بورڈ نے اس کیس کے ساتھ ساتھ ایک اور کیس کا انتخاب کیا ہے وہ یہ ہے، اسرائیل سے اغوا کئے گئے یرغمال (‎2023-050-FB-UA)، اس کی وجہ متنازعہ صورتحال میں اظہار خیال کی آزادی کی اہمیت ہے، جو کہ اسرائیل حماس تنازعہ کے تناظر میں خطرہ میں پڑ گئی ہے۔ دونوں کیسز ان اپیلوں کی اقسام کی نمائندگی کرتے ہیں جو علاقے کے صارفین 7 اکتوبر کے حملوں اور اسرائیل کے فوجی کارروائی کے بعد سے بورڈ کو ارسال کر رہے ہیں۔ دونوں کیسز اوور سائٹ بورڈ کے بحران اور تنازع کی صورتحال کی ترجیح کے تحت آتے ہیں۔ دونوں کیسز میں Meta کے فیصلے فوری جائزہ کا جواز کیلئے "حقیقی دنیا کے فوری نتائج" کے معیار کے مطابق ہیں، اور اس کے مطابق بورڈ اور Meta دونوں بورڈ کے فوری طریقہ کار کے تحت آگے کی کارروائی کرنے پر راضی ہو گئے۔

بورڈ کو جمع کرائی گئی معلومات میں Meta نے یہ نشاندہی کی کہ "اس مواد کا کیا کرنا ہے اس بارے میں فیصلہ کرنا مشکل ہے اور اس میں مسابقتی اقدار اور سمجھوتے" شامل ہیں اور بورڈ سے اس مسئلے پر رائے طلب کی ہے۔

5۔ صارف کی جمع کرائی گئی معلومات

پوسٹ کے مصنف نے بورڈ سے اپنی اپیل میں یہ کہا کہ انہوں نے کوئی تشدد نہیں بھڑکایا ہے لیکن فلسطین کے لوگوں بشمول وہاں کے بچوں کی تکالیف کو نمایاں کرنے والا مواد شیئر کیا ہے۔ صارف نے کہا کہ مواد کو ہٹانا فلسطینیوں کی تکالیف کے خلاف ایک متعصب عمل تھا۔ صارف کو یہ اطلاع دی گئی کہ بورڈ ان کی اپیل کا جائزہ لے رہا ہے۔

6۔ فیصلہ

اگرچہ بورڈ کے ممبروں میں اسرائیل کے فوجی رد عمل اور اس کے جواز کے متعلق اختلاف رائے ہے، وہ متفقہ طور پر ان واقعات سے متاثر ہونے والے تمام لوگوں کے اظہار خیال کے حق اور دیگر انسانی حقوق، اور اس بحران کی صورتحال میں ان کی گفتگو کرنے کی اہلیت کے حوالے سے Meta کی طرف سے ہونے والے احترام کی اہمیت سے متفق ہیں۔

بورڈ نے Meta کے Instagram سے مواد کو ہٹانے کے ابتدائی فیصلے کو کالعدم کر دیا ہے۔ بورڈ نے یہ نتیجہ اخذ کیا کہ "بطور پریشان کن نشان زد کریں" وارننگ سکرین کے ساتھ پلیٹ فارم پر مواد کو بحال کرنا Meta کی مواد کی پالیسیوں، اقدار اور انسانی حقوق کی ذمہ داریوں کے مطابق ہے۔ تاہم، بورڈ نے یہ نتیجہ بھی اخذ کیا کہ Meta کی طرف سے بحال شدہ مواد کی تنزلی، یعنی اس مواد کی تجویز کیے جانے کے امکانات سے باز رکھنا، اظہار خیال کی آزادی کے احترام میں کمپنی کی ذمہ داریوں کے مطابق نہیں ہے۔

6.1 ‏Meta کے مواد کی پالیسیوں کی تعمیل

بورڈ Meta سے متفق ہے کہ اس کیس میں یہ تعین کرنا مشکل ہے کہ ویڈیو میں "اندرونی اعضاء" نظر آ رہے ہیں۔ اس کیس کے سیاق و سباق کے پیش نظر، جہاں معلومات تک رسائی کے تحفظ اور تنازعات کے اثرات کے بارے میں بیداری پیدا کرنے کے مواقع فراہم کرنے میں غیر معمولی طور پر عوامی مفاد کی اہمیت ہوتی ہے، پُرتشدد اور گرافک مواد کی پالیسی کی خلاف ورزی کی "حد کے قریب" مواد کو ہٹایا نہیں جانا چاہیے۔ چونکہ مواد میں ایسی تصاویر شامل ہیں جن میں کسی شخص کی پُرتشدد موت دکھائی گئی ہے، شدید چوٹ کی وجہ سے سر سے خون بہتا ہوا نظر آ رہا ہے، Meta کو اپنی پالیسیوں کے مطابق وارننگ سکرین کا اطلاق کرنا چاہیے تھا اور اس مواد کو صرف 18 سال سے زائد عمر کے لوگوں کیلئے دستیاب کرنا چاہیے تھا۔

بورڈ Meta کے بعد میں کیے گئے تعین سے بھی متفق ہے کہ اگرچہ اس ویڈیو میں اندرونی اعضاء نظر آ رہے تھے، پوسٹ میں استعمال کی گئی زبان تشدد کی مذمت کر رہی تھی یا اس کے بارے میں آگاہی بڑھا رہی تھی، لہذا اسے "بطور پریشان کن نشان زد کریں" وارننگ سکرین کے ساتھ چھوڑ دیا جانا چاہیے تھا، اور اسے 18 سال سے کم عمر کے لوگوں کیلئے غیر دستیاب کرنا چاہیے تھا۔ کمیونٹی کے معیار میں قابل اطلاق پالیسی لائن کے سلسلے میں وارننگ سکرین فراہم نہیں کی جاتی ہے ("اگر ویڈیو میں لوگوں یا لاشوں کے اندرونی اعضاء طبی تناظر میں دکھائے جاتے ہیں")۔ سوڈان کی گرافک ویڈیو کے کیس میں بورڈ نے یہ وضاحت کی کہ Meta جائزہ کاران کو "پوسٹ نہ کریں" کے متعلق اپنی پالیسی کے بیان پر عمل کرنے کی ہدایت کرتی ہے۔ استدلال میں یہ بیان کیا گیا ہے کہ "انسانی حقوق کی خلاف ورزیوں، مسلح تنازعات یا دہشت گردی کی کارروائیوں جیسے اہم امور پر گفتگو کے تناظر میں، ہم ان صورتحال کے متعلق مذمت کرنے اور آگاہی بڑھانے میں لوگوں کی مدد کرنے کی خاطر گرافک مواد کی (کچھ حدود کے ساتھ) اجازت دیتے ہیں۔" تاہم، کمیونٹی کے معیار کے اصول میں، جہاں پالیسی کے استدلال کا استثناء موجود ہو وہاں جائزہ کاران کو وارننگ سکرین شامل کرنے کا آپشن فراہم کیے بغیر غیر طبی تناظر میں "اندرونی اعضاء دکھانے" والی تمام ویڈیوز پر پابندی عائد ہے۔ ایسا معلوم ہوتا ہے کہ Meta کے خودکار سسٹمز کو اس طرح تشکیل نہیں دی گئی ہے کہ وہ تشدد کی مذمت کرنے یا اس کے بارے میں آگاہی بڑھانے کے تناظر میں گرافک مواد دکھانے والی ویڈیوز پر وارننگ سکرینز کا اطلاق کر سکے۔ یہ بھی واضح نہیں ہے کہ اگر یہ تناظر ہو تو قابل اطلاق کلاسیفائرز مزید جائزے کیلئے مواد کو انسانی جائزہ کیلئے بھیج سکیں گے۔

6.2 ‏Meta کی انسانی حقوق کی ذمہ داریوں کی تعمیل

اپنے انسانی حقوق کی ذمہ داریوں کے مطابق، Meta کی طرف سے پُرتشدد اور گرافک مواد کے جائزہ میں اظہار خیال کی آزادی کا احترام لازمی ہونا چاہیے، جس میں معلومات تلاش کرنا، حاصل کرنا اور فراہم کرنا شامل ہے ( بین الاقوامی عہد کے معاشرتی اور سیاسی حقوق (ICCPR) کا آرٹیکل 19، پیراگراف 2)۔ جیسا کہ بورڈ نے آرمینیائی جنگی قیدیوں کی ویڈیو کے کیس میں کہا ہے، بین الاقوامی عہد کے معاشرتی اور سیاسی حقوق (ICCPR) کے آرٹیکل 19 کے تحت اظہار خیال کے تحفظات "مسلح تنازعات کے دوران شامل رہتے ہیں اور باہم تقویت دینے کے ساتھ ساتھ Meta کی انسانی حقوق کی ذمہ داریوں اور بین الاقوامی انسانی قانون کے تکمیلی اصولوں پر مشتمل ہونا چاہیے جو اس طرح کے تنازعات کے دوران لاگو ہوتے ہیں۔" قابل ذکر بات یہ ہے کہ بزنس اور انسانی حقوق کے حوالے سے اقوام متحدہ کے رہنما اصول تنازعات کے ماحول میں کام کرنے والے بزنسز پر زیادہ ذمہ داری عائد کرتے ہیں ("بزنس، انسانی حقوق اور تنازعات سے متاثرہ علاقے: سخت کارروائی کیلئے،" A/75/212

بورڈ نے گزشتہ کیسز میں اس بات پر زور دیا ہے کہ Facebook اور Instagram جیسے سوشل میڈیا پلیٹ فارمز حقیقی وقت میں متشدد ایونٹس کے بارے میں معلومات کو منتقل کرنے، بشمول نیوز رپورٹ کرنے کا اہم ذریعہ ہیں (مثلاً نیوز رپورٹنگ میں طالبان کا ذکر کیس ملاحظہ کریں)۔ یہ خصوصی طور پر مسلح تنازعات جیسے تناظر میں اہم کردار ادا کرتی ہے، جہاں خاص طور پر صحافیوں کو محدود رسائی حاصل ہوتی ہے۔ مزید برآں متشدد حملے اور انسانی حق کی خلاف ورزیاں دکھانے والے مواد میں مفاد عامہ بہت زیادہ ہوتا ہے (سوڈان کی گرافک ویڈیو)

جہاں ریاست کی طرف سے اظہار رائے پر پابندیاں عائد ہوتی ہوں انہیں انسانی حقوق کے بین الاقوامی قانون کے تحت قانونی حیثیت، جائز مقصد اور ضرورت اور تناسب کے تقاضے پورے کرنے ہوں گے (آرٹیکل 19، پیراگراف 3، ICCPR)۔ ان تقاضوں کو اکثر "تین حصوں کا ٹیسٹ" کہا جاتا ہے۔ بورڈ اس فریم ورک کو Meta کے رضاکارانہ انسانی حقوق کے عزم کی تشریح کرنے کیلئے استعمال کرتا ہے، زیر جائزہ مواد کے انفرادی فیصلے میں اور مواد کی نگرانی کے سلسلے میں Meta کے وسیع تر نقطہ نظر کے بارے اپنی رائے، دونوں کیلئے استعمال کرتا ہے۔ ایسا کرنے کے لیے بورڈ اس بارے میں حساس رہنے کی کوشش کرتا ہے کہ اگر کسی پرائیویٹ سوشل میڈیا کمپنی پر اور کسی حکومت پر ان حقوق کا اطلاق ہوگا تو ان میں کیا فرق ہوگا۔ بہر حال، جیسا کہ اظہار رائے کی آزادی پر اقوام متحدہ کے خصوصی روداد نویس نے کہا ہے کہ اگرچہ کمپنیوں کے پاس حکومتوں کی ذمہ داریاں نہیں ہوتی ہیں، "ان کا اثر اس طرح کا ہے جس میں ان سے اپنے اظہار رائے کی آزادی کے حق کے تحفظ کے بارے میں ایک ہی قسم کے سوالات کا جائزہ لینے کی ضرورت ہوتی ہے" (رپورٹ A/74/486، پیراگراف 41)۔

قانونی تقاضا یہ ہے کہ اظہار کی آزادی پر کوئی بھی پابندی اتنی قابل رسائی اور واضح ہونی چاہیے کہ وہ اس بارے میں رہنمائی فراہم کر سکے کہ کس چیز کی اجازت ہے اور کس چیز کی اجازت نہیں ہے۔ بورڈ نے پہلے بھی اس تشویش کا اظہار کیا ہے کہ پُرتشدد اور گرافک مواد کے متعلق کمیونٹی کے معیار کے اصول، پوری طرح پالیسی کے استدلال کے مطابق نہیں ہیں، جس میں پالیسی کے مقاصد کی وضاحت کی گئی ہے (سوڈان کی گرافک ویڈیو اور نائیجیریا میں چرچ پر حملے کے بعد کی ویڈیو کے کیسز ملاحظہ کریں)۔ بورڈ نے سوڈان کی گرافک ویڈیو کے کیس میں دی گئی تجاویز نمبر 1 اور 2 کی اہمیت کو دہرایا ہے، جس میں Meta سے یہ مطالبہ کیا گیا تھا کہ وہ پُرتشدد اور گرافک مواد کے متعلق اپنے کمیونٹی کے معیار میں ایسی ویڈیوز کی اجازت دے جس میں آگاہی بڑھانے کیلئے یا انسانی حقوق کی خلاف ورزیوں کو ریکارڈ کرنے کے مقصد سے لوگوں یا لاشوں کو دکھایا جاتا ہے (اس کیس میں کٹے ہوئے جسمانی اعضاء دکھانے کے حوالے سے تشویش کا اظہار کیا گیا تھا) Meta نے ان تجاویز کے جواب میں پالیسی ڈویلپمنٹ پراسس کا انتظام کیا اور اگلی سہ ماہی میں بورڈ کو اپنی اپ ڈیٹ میں اس کی پیش رفت کے بارے میں اطلاع دینے کا ارادہ ظاہر کیا۔ بورڈ کی نظر میں اس تجویز کا اطلاق ویڈیوز کے متعلق اصولوں پر ہونا چاہیے جن میں اندرونی اعضاء دکھائے جاتے ہیں، اور اگر آگاہی بڑھانے (بشمول حقیقت پر مبنی خبر رسانی) اور مذمت کرنے کیلئے دکھایا گیا ہو تو بطور خاص نفاذ کے قدم کے طور پر وارننگ سکرینز فراہم کرتے ہیں۔

‏ICCPR کے آرٹیکل 19، پیراگراف 3 کے تحت، وجوہات کی ایک وضاحتی اور محدود فہرست کی بنیاد پر اظہار خیال کو محدود کیا جا سکتا ہے۔ بورڈ نے پہلے یہ نتیجہ اخذ کیا تھا کہ پُرتشدد اور گرافک مواد کی پالیسی کا مقصد قانونی طور پر دوسروں کے حقوق، بشمول نظر آنے والے فرد کی رازداری کا تحفظ کرنا ہے ( سوڈان کی گرافک ویڈیو اور نائیجیریا میں چرچ پر حملے کے بعد کی ویڈیو کیسز ملاحظہ کریں)۔ اس کے علاوہ موجودہ کیس میں یہ ظاہر ہوتا ہے کہ 18 سال سے کم عمر کے لوگوں کیلئے مواد تک رسائی حاصل کرنے پر پابندی لگانے کا مقصد نابالغوں کی صحت کے حق کا جائز مقصد تھا (بچوں کے حقوق پر کنونشن، آرٹیکل 24)۔

ضرورت اور تناسب کا اصول اس بات کو لازمی قرار دیتا ہے کہ اظہار رائے پر کوئی بھی پابندی "مناسب ہونی چاہیے تاکہ وہ اپنا حفاظتی عمل صحیح طریقے سے انجام دے؛ وہ اپنے حفاظتی عمل کو انجام دینے والی دیگر پابندیوں کے مقابلے کم از کم مداخلت کرنے والی ہونی چاہیے؛ [اور] وہ مفاد کے تحفظ کے لیے تناسب میں ہونی چاہیے" (جنرل کمنٹ نمبر 34، پیراگراف 34

بورڈ نے پہلے پُرتشدد اور گرافک مواد کے سلسلے میں یہ نتیجہ اخذ کیا تھا کہ وارننگ سکرین "ان لوگوں پر غیر ضروری بوجھ نہیں ڈالتی ہے جو مواد کو دیکھنا چاہتے ہیں، جبکہ دوسروں کو مواد کی نوعیت کے بارے میں باخبر کرتی ہے اور انہیں یہ فیصلہ کرنے کی سہولت دیتی ہے کہ آیا اسے دیکھیں یا نہ دیکھیں۔" (سوڈان کی گرافک ویڈیو کیس ملاحظہ کریں)۔ وارننگ سکرینز صارفین کو ممکنہ پریشان کن مواد کو نہ چاہتے ہوئے بھی دیکھنے سے بچاتی ہیں۔ اس کے علاوہ Meta کی پالیسی میں متاثرین کے حقوق محفوظ ہیں، اگر کوئی فیملی ممبر درخواست کرتا ہے تو اس پالیسی کے تحت ان ویڈیوز یا تصاویر کو ہٹا دیا جاتا ہے جن میں کسی فرد کی پُرتشدد موت (یا اس کے فورا بعد کی صورتحال) دکھائی گئی ہو۔ اس کیس کے مواد اور روسی نظم کیس کے مواد میں فرق کیا جا سکتا ہے، جس میں ایک ساکن تصویر میں زمین پر طویل فاصلے پر پڑی ہوئی ایک لاش دکھائی گئی تھی، جس میں متاثرہ کا چہرہ نظر نہیں آ رہا تھا، اور تشدد کے کوئی واضح نشانات موجود نہیں تھے۔ اُس کیس میں وارننگ سکرین کا اطلاق کرنا جائزہ کاروں کیلئے Meta کی رہنمائی کے مطابق نہیں تھا اور اظہار رائے پر ضرورت یا متناسب پابندی نہیں تھی۔ اس کیس کا مواد نائیجیریا میں چرچ پر حملے کے بعد کی ویڈیو کے فیصلے سے بہت زیادہ مشابہت رکھتا ہے، جس میں لاشوں اور زخمی لوگوں کو بہت نزدیک سے دکھایا گیا تھا اور تشدد کے واضح اشارے بھی موجود تھے۔

اس کیس میں خاص طور پر زخمی اور بے جان بچوں کا منظر ویڈیو کو تکلیف دہ بنا دیا ہے۔ اس طرح کے حالات میں صارفین کو یہ انتخاب کرنے کی سہولت فراہم کرنا کہ آیا وہ پریشان کن مواد دیکھنا چاہتے ہیں یا نہیں، ایک ضروری اور متناسب قدم ہے (آرمینیائی جنگی قیدیوں کی ویڈیو کیس بھی ملاحظہ کریں)۔

بورڈ نے یہ نتیجہ اخذ کیا کہ اس طرح کے مواد میں بہت زیادہ مفاد عامہ کے پیش نظر انسانی حقوق کی ممکنہ خلاف ورزیوں اور جنگی قوانین کی خلاف ورزیوں، تنازعات یا دہشت گرد کارروائیوں کے بارے میں آگاہی پیدا کرنے والے مواد کو بالغوں تک پہنچنے والی تجاویز سے خارج کرنا اظہار رائے کی آزادی پر ضروری یا متناسب پابندی نہیں ہے۔ وارننگ سکرینز اور تجاویز سے ہٹانا علیحدہ افعال انجام دیتے ہیں، اور کچھ صورتوں میں، خاص طور پر بحران کی صورتوں میں انہیں الگ کیا جانا چاہیے۔ Instagram پر خودکار سسٹمز سے تجاویز جنریٹ ہوتی ہیں جو صارفین کی پیشن گوئی شدہ دلچسپی کی بنیاد پر صارفین کو مواد کی تجویز پیش کرتے ہیں۔ تجاویز کے سسٹمز سے مواد کو ہٹانے کا مطلب رسائی کو کم کرنا ہے جو اس مواد کو بصورت دیگر حاصل ہو سکتی ہے۔ بورڈ نے یہ نتیجہ اخذ کیا کہ جس حد تک اس کا اطلاق ایسے مواد پر ہوتا ہے جو پہلے سے ہی بالغ صارفین کیلئے محدود ہے اور جسے مفاد عامہ کے پُرتشدد تنازع کے بڑھنے جیسے معاملے کے متعلق آگاہی بڑھانے، اس کی مذمت کرنے، یا رپورٹ کرنے کیلئے پوسٹ کیا گیا ہے، اس عمل سے اظہار رائے کی آزادی میں غیر متناسب طریقوں سے مداخلت ہو رہی ہے۔

بورڈ نے یہ تسلیم کیا کہ کسی بحران کی صورتحال پر فوری رد عمل کیلئے عارضی استثنائی اقدامات کی ضرورت پڑ سکتی ہے، اور یہ کہ بعض تناظر میں تحفظ کی تشویشات کو ترجیح دینا اور اظہار خیال کی آزادی پر عارضی اور متناسب طور پر بڑی پابندی عائد کرنا جائز ہو جاتا ہے۔ مثال کے طور پر ان میں سے کچھ کرائسٹ چرچ کال میں مقررہ "دہشت گردی اور پُرتشدد انتہا پسندانہ مواد" سے نمٹنے کے عزائم میں بیان کیے گئے ہیں۔ تاہم بورڈ نے غور کیا کہ کرائسٹ چرچ کال انسانی حقوق اور بنیادی آزادیوں کے مطابق اس طرح کے مواد پر رد عمل دینے کی ضرورت پر زور دیتا ہے۔ بورڈ کا یہ ماننا ہے کہ تحفظ کی تشویشات کا مطلب یہ نہیں ہے کہ ایسا گرافک مواد ہٹانے کے بارے میں محتاط رہا جائے جس کا مقصد ممکنہ جنگی جرائم، انسانیت کے خلاف جرائم، یا انسانی حقوق کی سنگین خلاف ورزیوں کے بارے میں آگاہی بڑھانا یا ان کی مذمت کرنا ہو۔ اس طرح کی پابندیاں ان تنازعات میں مبتلا عام لوگوں کی حفاظت کے لیے ضروری معلومات میں بھی رکاوٹ بن سکتی ہیں۔

سٹرائکس جیسے اقدامات عائد نہ کرنے سے ہنگامی اقدامات جیسے تنازع کی صورتحال کے دوران مواد کو ہٹانے کیلئے اعتماد کی حد کو کم کرنے کی وجہ سے نفاذ کی غلطی کے سبب ممکنہ طور پر ہونے والے غیر متناسب منفی اثرات کو کم کرنے میں مدد ملتی ہے۔ تاہم، وہ صارفین کی انسانی حقوق کی ممکنہ خلاف ورزیوں اور فلاحی قانون کی خلاف ورزیوں کے بارے میں بیداری پیدا کرنے والے مواد، اور تنازعات کے حالات میں دیگر اہم معلومات کو شیئر کرنے کی اہلیت کے تحفظ کیلئے کافی نہیں ہیں۔

بورڈ نے بحرانوں اور تنازعات کے علاقوں میں مواد کے جائزہ کے لیے اصولی اور شفاف فریم ورک تیار کرنے کی ضرورت کو بارہا نمایاں کیا ہے (ہیٹی کے پولیس سٹیشن کی ویڈیو اور تیگرے کمیونیکیشن افیئرز بیورو کیس ملاحظہ کریں)۔ تیزی سے بدلتے ہوئے متنازع حالات کے اوقات میں یہ ضروری ہے کہ بڑی میڈیا کمپنیاں اس بات کو یقینی بنانے کے لیے کہ اظہار رائے کی آزادی کو غیر ضروری طور پر محدود نہ کیا جائے، تمام ضروری وسائل کا استعمال کریں۔ ایسے اوقات میں صحافتی ذرائع کو اکثر جسمانی اور دیگر حملوں کا خطرہ ہوتا ہے، لہذا عام شہریوں کی طرف سے سوشل میڈیا پر خبر رسانی خاص طور پر اہم ہو جاتی ہے۔

بورڈ نے پہلے بھی یہ غور کیا ہے کہ جنگ یا سیاسی عدم استحکام کے سیاق و سباق میں، خلاف ورزیوں کے بارے میں آگاہی پیدا کرنے یا انہیں تحریر کرنے کے مقصد سے صارفین کی طرف سے مزید گرافک اور پُرتشدد مواد کیپچر کیا جائے گا اور پلیٹ فارم پر شیئر کیا جائے گا (سوڈان کی گرافک ویڈیوکیس ملاحظہ کریں)۔ اسرائیل-غزہ تنازع جیسے تناظر میں، جہاں شہری خوفناک تعداد میں ہلاک یا زخمی ہوئے ہیں، ان میں بچوں کی تعداد کافی زیادہ تناسب میں ہے، بدترین فلاحی بحران کے دوران ان اقسام کے مستثنیات خصوصی طور پر اہم ہوتے ہیں۔ Meta کی پُرتشدد اور گرافک مواد کے متعلق اپنی پالیسی کے حوالے سے جاری پالیسی ڈویلپمنٹ پراسس کو تسلیم کرتے ہوئے بورڈ Meta سے یہ توقع کرے گا کہ Meta اس قسم کے مواد کو وارننگ سکرین کے ساتھ اجازت دینے کے لیے فوری طور پر عارضی اقدامات کرنے کے لیے تیار رہے، اور اسے تجاویز سے نہ ہٹائے۔

بورڈ نے غور کیا کہ مواد کو پوسٹ کیے جانے کے وقت غزہ کی صورتحال میں وہ چیلنجز در پیش نہیں تھے جو 7 اکتوبر کے حملوں کے حوالے سے در پیش تھے۔ غزہ میں عام لوگوں سے معلومات حاصل کرنے میں دشواریاں پیش آئی ہیں جبکہ علاقے میں صحافی کی رسائی محدود ہو گئی ہے اور انٹرنیٹ کنکٹیوٹی منقطع ہو گئی ہے۔ اس کے علاوہ 7 اکتوبر کے حملوں کے فوراً بعد کی صورتحال کے برعکس، اس کیس میں بتائی گئی غزہ کی صورتحال میں دہشت گردوں نے اپنے مظالم کو براڈکاسٹ کرنے کیلئے سوشل میڈیا کا استعمال نہیں کیا ہے۔ اس کے برعکس مسلح تنازع کے تناظر میں، Meta کو یہ بات یقینی بنانی چاہیے کہ اس کی کارروائیوں سے لوگوں کیلئے ایسا مواد شیئر کرنا مزید مشکل نہ ہو جائے جس میں شہریوں کو ہونے والے نقصان کے بارے میں آگاہی بڑھانے والی معلومات فراہم کی جاتی ہیں، اور ہو سکتا ہے اس مواد میں یہ تعین کیا جاتا ہو کہ آیا بین الاقوامی انسانی قانون اور انسانی حقوق کے بین الاقوامی قانون کی خلاف ورزی واقع ہوئی ہے۔ جب بھی کوئی جائزہ کار اس طرح کے مواد کا جائزہ لیتا ہے تو سب سے پہلا سوال یہ ہونا چاہیے کہ آیا اس مواد کو زیر بحث واقعات کے بارے میں آگاہی بڑھانے یا ان کی مذمت کرنے کیلئے شیئر کیا گیا ہے، Meta کے خودکار سسٹمز کو اس طرح بنایا جانا چاہیے کہ وہ ایسے مواد کو غلطی سے نہ ہٹائیں جسے قابل اطلاق مستثنیات سے استفادہ ہونا چاہیے۔

اس کیس میں اس بات کی مزید وضاحت ہوتی ہے کہ بحران کے رد عمل کے تناظر میں خودکار جائزے پر انسانی نگرانی کی کمی کی وجہ سے ایسا مواد ہٹایا جا سکتا ہے جو خاص طور پر مفاد عامہ کیلئے ہو سکتا ہے۔ مواد کو ہٹانا اور ساتھ ہی صارف کی اپیل کو مسترد کرنا یہ دونوں ہی فیصلے انسانی جائزہ کے بغیر، کلاسیفائر کے سکور کی بنیاد پر خودکار طور پر لیے گئے تھے۔ نتیجتاً، ہو سکتا ہے یہ 7 اکتوبر کے حملوں کے بعد Meta کی طرف سے بحران کے رد عمل میں پُرتشدد اور گرافک مواد کی پالیسی کے تحت مواد کو ہٹانے کی حد کو کم کرنے کی وجہ سے بڑھ گیا ہو۔ اس کا یہ مطلب ہے کہ اگرچہ کلاسیفائر خلاف ورزی کے امکان کو عام طور پر درکار سکور کے مقابلے کم سکور دیتا ہے تو Meta اس مواد کو ہٹا دیتی ہے۔

Meta کو اپنے انسانی حقوق کے عزائم کے مطابق اپنے خودکار سسٹمز کا استعمال کرنے کیلئے بورڈ Meta کو کولمبیا پولیس کا کارٹون کے کیس کی تجویز نمبر 1 کی یاد دہانی کراتا ہے۔ اُس کیس میں بورڈ نے Meta سے یہ مطالبہ کیا کہ وہ یہ یقینی بنائے کہ اپیل کی زیادہ شرح اور کامیاب اپیل کی زیادہ شرح والے مواد کو اس کے میڈیا میچنگ سروس بینکس سے ممکنہ طور پر ہٹانے کیلئے ان کی دوبارہ تشخیص کی جائے۔ اس تجویز کے جواب میں Meta نے اپنے میڈیا میچنگ سروس بینکس کے نظم و ضبط میں بہتری کے لیے پُرعزم ایک مخصوص ورکنگ گروپ تیار کیا (اس کے بارے میں Meta کی تازہ ترین اپ ڈیٹس یہاں دیکھیں)۔ بورڈ نے غور کیا کہ مسلح تنازع کے تناظر میں میڈیا میچنگ سروسز کے استعمال پر خاص توجہ دینا اس گروپ کا اہم کام ہے۔ چھاتی کے کینسر کی علامات اور عریانیت کے کیس میں (تجویز نمبر 3 اور 6)، بورڈ نے تجویز کی ہے کہ Meta صارفین کو یہ بتائے کہ ان کے مواد کے خلاف نفاذ کی کارروائی کرنے کیلئے آٹومیشن کا استعمال کیا گیا ہے، اور کمیونٹی کے معیار کے تحت خودکار طور پر مواد کو ہٹانے کے فیصلوں کا ڈیٹا ظاہر کرے اور یہ بتائے کہ انسانی جائزہ کے بعد ان میں سے کتنے فیصلوں کو واپس لیا گیا ہے۔ یہ خاص طور پر اس وقت اہم ہوتا ہے جب ممکنہ طور پر خلاف ورزی کرنے والے مواد کیلئے اعتماد کی حد کو مبینہ طور پر کافی حد تک کم کر دیا گیا ہو۔ بورڈ Meta سے یہ گزارش کرتا ہے کہ وہ تجویز نمبر 6 پر اور زیادہ عمل کرے اور بورڈ کو تجویز نمبر 3 کے حوالے سے اپنے نفاذ کا ثبوت فراہم کرے۔

اظہار رائے کی آزادی پر پابندیاں بلا امتیاز ہونی چاہئیں، جس میں قومیت، نسل، مذہب یا عقیدے یا سیاسی یا دیگر رائے شامل ہے (آرٹیکل 2، پیراگراف 1، اور آرٹیکل 26، ICCPR)۔ کمیونٹی کے معیارات کا امتیازی نفاذ اظہار رائے کی آزادی کے اس بنیادی پہلو کو ختم کر دیتا ہے۔ الجزیرہ کی پوسٹ شیئر کی گئی کے کیس میں بورڈ نے سنگین تشویشات کا اظہار کیا کہ اسرائیل اور مقبوضہ فلسطینی علاقوں میں مواد کا جائزہ لینے میں Meta کی غلطیوں کے سبب مواد کی غیر مساوی تقسیم ہو سکتی ہے، اور علیحدہ طور پر تحقیق کرنے کا مطالبہ کیا (الجزیرہ کی پوسٹ شیئر کی گئی کیس کا فیصلہ، تجویز نمبر 3)۔ Meta نے اس تجویز کے جواب میں کمیشن کے تحت The Business for Social Responsibility (BSR) Human Rights Impact Assessment کا انعقاد کیا، اس میں "غیر ارادی تعصب کی مختلف مثالیں ملی ہیں جہاں Meta کی پالیسی اور عمل سے، وسیع ترین بیرونی ڈائنامکس کے ساتھ مل کر، فلسطینی اور عربی بولنے والے صارفین پر انسانی حقوق کے مختلف اثرات مرتب ہوتے ہیں۔ بورڈ Meta کو یہ ترغیب دیتا ہے کہ وہ BSR رپورٹ کے جواب میں کیے گئے اپنے وعدوں کو پورا کرے۔

بالآخر Meta کی ذمہ داری ہے کہ وہ انسانی حقوق اور بین الاقوامی انسانی قانون کی ممکنہ خلاف ورزی کے ثبوت کو محفوظ رکھے، جیسا کہ BSR کی رپورٹ میں بھی تجویز کی گئی ہے (تجویز 21) اور سول سوسائیٹی گروپس نے بھی تجویز کی ہے۔ خواہ مواد کو Meta کے پلیٹ فارمز سے ہٹا دیا گیا ہو، مستقبل کے احتساب کے مفاد میں ایسے ثبوتوں کو محفوظ رکھنا بہت ضروری ہے (سوڈان کی گرافک ویڈیو اور آرمینیائی جنگی قیدیوں کی ویڈیو)۔ حالانکہ Meta نے بتایا ہے کہ وہ اپنے کمیونٹی کے معیارات کی خلاف ورزی کرنے والے تمام مواد کو ایک سال کی مدت تک برقرار رکھتی ہے، بورڈ یہ گزارش کرتا ہے کہ خاص طور پر ممکنہ جنگی جرائم، انسانیت کے خلاف جرائم، اور انسانی حقوق کی سنگین خلاف ورزیوں سے متعلقہ مواد کی شناخت کی جانی چاہیے اور اسے طویل مدت تک احتساب کے مقاصد کیلئے اس طرح محفوظ کیا جانا چاہیے کہ بہت زیادہ پائیدار اور قابل رسائی ہو۔ بورڈ نے نوٹ کیا کہ Meta آرمینیائی جنگی قیدیوں کی ویڈیو کیس کی تجویز نمبر 1 پر عمل کرنے پر متفق ہے۔ اس میں Meta سے مظالم کے جرائم یا انسانی حقوق کی سنگین خلاف ورزیوں کے تدارک یا قانونی کارروائی کیلئے تحقیقات اور قانونی پراسسز میں مدد کرنے کیلئے معلومات کو محفوظ رکھنے اور، جہاں مناسب ہو، مجاز حکام کے ساتھ شیئر کرنے کیلئے ایک پروٹوکول تیار کرنے کا مطالبہ کیا گیا ہے۔ Meta نے بورڈ کو بتایا کہ وہ "مظالم کے جرائم اور انسانی حقوق کے بین الاقوامی قانون کی خلاف ورزیوں کے ممکنہ ثبوت کو برقرار رکھنے کیلئے مستقل نقطہ نظر" تیار کرنے کے حتمی مرحلے میں ہے اور جلد ہی اس نقطہ نظر کے بارے میں بورڈ کو تفصیل فراہم کرے گی۔ بورڈ یہ امید کرتا ہے کہ Meta مذکورہ بالا تجویز پر مکمل طور پر عمل کرے۔

*طریقہ کار کا نوٹ:

اوور سائٹ بورڈ کے فوری فیصلے پانچ ممبرز کی پینلز تیار کرتی ہے اور ان فیصلوں کیلئے مکمل بورڈ کی اکثریت کی منظوری شرط نہیں ہوتی ہے۔ ضروری نہیں کہ بورڈ کے فیصلے تمام ممبروں کے ذاتی خیالات کی نمائندگی کر رہے ہوں۔

Return to Case Decisions and Policy Advisory Opinions