Decisión de casos múltiples
وطنی آسٹریلیائی لوگوں کو ہدف بنانے والے بیانات
1 de agosto de 2024
ایک صارف نے دو Facebook پوسٹوں کو برقرار رکھنے کے Meta کے فیصلوں کے خلاف اپیل کی، دونوں پوسٹوں کو دوسرے صارف نے شیئر کیا تھا، جو ان نیوز آرٹیکلز کے جواب میں تھیں جن میں آسٹریلیا کی وطنی آبادی کو نشانہ بنانے والے تبصرے کئے گئے تھے۔
2 casos incluidos en el paquete
FB-CRZUPEP1
Facebook پر نفرت انگیز مواد کے متعلق کیس
FB-XJP78ARB
Facebook پر نفرت انگیز مواد کے متعلق کیس
فیصلوں کے خلاصے میں ایسے کیسز کا جائزہ لیا گیا ہے جن میں بورڈ کی جانب سے کمپنی کی توجہ مبذول کرانے کے بعد Meta نے مواد کے حوالے سے اپنا اصل فیصلہ تبدیل کر دیا ہے اور اس میں Meta کی تسلیم شدہ غلطیوں کے بارے میں معلومات شامل ہیں۔ وہ مکمل بورڈ کے بجائے بورڈ ممبر پینل کے ذریعے منظور کیے جاتے ہیں، ان میں پبلک کمنٹس شامل نہیں ہوتے اور بورڈ کیلئے کوئی نظیری قدر نہیں ہوتی۔ فیصلوں کے خلاصے Meta کے فیصلوں میں براہ راست تبدیلیاں لاتے ہیں، ان اصلاحات کے بارے میں شفافیت فراہم کرتے ہیں، اس بات کی نشاندہی کرتے ہوئے کہ Meta اپنے نفاذ کو کہاں بہتر بنا سکتی ہے۔
خلاصہ
ایک صارف نے دو Facebook پوسٹوں کو برقرار رکھنے کے Meta کے فیصلوں کے خلاف اپیل کی، دونوں پوسٹوں کو ایک ہی صارف نے شیئر کیا تھا، جو ان نیوز آرٹیکلز کے جواب میں تھیں جن میں آسٹریلیا کی وطنی آبادی کو نشانہ بنانے والے تبصرے کئے گئے تھے۔ جب بورڈ نے ان اپیلوں پر Meta کی توجہ دلائی تو کمپنی نے اپنے ابتدائی فیصلے واپس لے لئے اور دونوں پوسٹوں کو ہٹا دیا۔
کیسز کا تعارف
دسمبر 2023 اور جنوری 2024 کے درمیان، ایک آسٹریلیائی صارف نے مقامی آسٹریلیائی لوگوں کے بارے میں دو Facebook پوسٹیں شیئر کی تھیں۔ پہلی پوسٹ میں ایک مضمون کا لنک شامل ہے جس میں سڈنی کے مضافات کے ایک پارک میں زمین خریدنے کیلئے وطنی لینڈ کونسل کی کوشش کی تفصیل دی گئی ہے۔ پوسٹ کے کیپشن میں وطنی لوگوں سے یہ کہا کیا گیا ہے کہ وہ "bugger off to the desert where they actually belong" ("صحرا کی طرف لوٹ جائیں جہاں سے وہ آئے ہیں۔") دوسری پوسٹ میں شمال مشرقی آسٹریلیا میں کار کا پیچھا کرنے کے بارے میں ایک مضمون شیئر کیا گیا ہے۔ پوسٹ کے کیپشن میں یہ کہا گیا ہے کہ ان "Aboriginal ratbags" ("قدیم احمق باشندوں") کو جیل میں ڈالا جائے اور انہیں "100 کوڑے مارے" جائیں۔
Meta کی نفرت انگیز مواد کی پالیسی میں ایسے بیانات پر پابندی عائد کی گئی ہے جن میں نسل اور قومیت کی بنیاد پر لوگوں کے افتراق یا بائیکاٹ کی حمایت یا وکالت کی جاتی ہے۔ Meta خاص طور پر ایسے مواد پر پابندی عائد کرتی ہے جس میں واضح طور پر "مخصوص گروپس کو خارج کرنے" کا مطالبہ کیا جاتا ہے اور ایسا مواد جس میں اس بات کی حمایت کی جاتی ہے کہ لوگوں یا مخصوص گروپس کو "مقامات (طبعی اور آن لائن) تک رسائی سے بعض" رکھا جائے۔ اس پالیسی میں "ہدف بنا کر دشنام طرازی" اور "کمتری بتانے والے عام تصورات" بشمول تحفظ یافتہ خصوصیت (خصوصیات) کی بناء پر کسی شخص یا لوگوں کے گروپ کی "ذہنی خصوصیات" کے بارے میں منفی تبصرے کرنے پر بھی پابندی عائد کی گئی ہے۔
جب بورڈ نے اس کیس کی طرف Meta کی توجہ دلائی تو کمپنی نے یہ تعین کیا کہ دونوں مواد سے اس کی نفرت انگیز مواد کی پالیسی کی خلاف ورزی ہوئی ہے اور دونوں مواد کو برقرار رکھنے کے اس کے اصل فیصلے غلط تھے۔ اس کے بعد کمپنی نے Facebook سے مواد کو ہٹا دیا۔
Meta نے بورڈ کو وضاحت کی کہ پوسٹ میں وطنی آسٹریلیائی باشندوں کو پارک لینڈ سے نکالنے کا مطالبہ کیا گیا ہے، اور یہ کہ ان کے حوالے سے فقرہ "bugger off" ایک تحفظ یافتہ گروپ کے ممبرز کے خلاف ہدف بنا کر دشنام طرازی کرنے کی ایک مثال ہے۔ مزید برآں، Meta نے تسلیم کیا کہ اصطلاح "ratbag" توہین آمیز ہے، آسٹریلیائی انگریزی میں اس کا معنی "بیوقوف شخص" ہے، اس لیے کسی تحفظ یافتہ خصوصیت والے گروپ کے ممبرز کو ذہنی طور پر کمتر قرار دینے والے بیانات پر Meta کی نفرت انگیز مواد کی پالیسی کی ممانعت کی خلاف ورزی ہے۔
بورڈ کی اتھارٹی اور دائرہ کار
اگر صارفین کے رپورٹ کردہ مواد کو پلیٹ فارم پر برقرار رکھا گیا ہو اور وہ اس کے خلاف اپیل کرتے ہیں تو اس صورت میں بورڈ کو Meta کے فیصلوں کا جائزہ لینے کا اختیار حاصل ہے (چارٹر آرٹیکل 2، سیکشن 1؛ خصوصی قوانین آرٹیکل 3، سیکشن 1)۔
جب Meta تسلیم کرتی ہے کہ اس نے غلطی کی ہے اور بورڈ کے جائزے کیلئے زیر غور کیس میں اپنا فیصلہ واپس لے لیتی ہے تو بورڈ اس کیس کو فیصلے کے خلاصے کیلئے منتخب کر سکتا ہے (خصوصی قوانین آرٹیکل 2، سیکشن 2.1.3)۔ بورڈ مواد کے ماڈریشن کے پراسس کی تفہیم میں اضافہ کرنے، غلطیوں کو کم کرنے اور Facebook، Instagram اور Threads کے صارفین کیلئے انصاف میں اضافہ کرنے کیلئے اصل فیصلے کا جائزہ لیتا ہے۔
کیسز کی اہمیت
بورڈ نے مسلسل ان گروپس کو نشانہ بنانے والے نفرت انگیز مواد سے نمٹنے کی خاص اہمیت پر زور دیا ہے جن کے ساتھ پہلے امتیازی سلوک کیا جاتا رہا ہے اور اب بھی جاری ہے ( جنوبی افریقہ کی گالیاں اور پولش زبان پر مشتمل پوسٹ جس میں مخنث لوگوں کو تنقید کا نشانہ بنایا گیا ہے کے فیصلے)۔ بورڈ نے اس بات پر بھی شدید تشویش کا اظہار کیا ہے کہ Meta کے نفاذ کے طریقوں سے وطنی لوگوں پر غیر متناسب اثر پڑ سکتا ہے۔ ویمپم بیلٹ کے فیصلے میں، بورڈ نے نوٹ کیا کہ غلطیاں ناگزیر ہیں، "غلطیوں کی اقسام اور ان غلطیوں کا بوجھ برداشت کرنے والے لوگ یا کمیونٹیز یہ بات کی عکاسی کرتے ہیں کہ فیصلہ سازی کے اختیارات کا مستقل طور پر جائزہ اور معائنہ ہوتا رہنا چاہیے۔" اس صورت میں، بورڈ نے Meta کی نفرت انگیز مواد کے نفاذ کی درستگی کی نگرانی کی اہمیت پر زور دیا کہ وہ نہ صرف عام طور پر بلکہ نفاذ کی غلطیوں کیلئے "مواد کے ذیلی زمرہ جات پر خاص توجہ دے جہاں غلط فیصلوں کا انسانی حقوق پر بہت زیادہ اثر ہوتا ہے۔" بورڈ نے واضح کیا کہ "یہ ثابت کرنا Meta پر لازم ہے کہ اس نے انسانی حقوق کے حوالے سے مناسب احتیاط برتی ہے تاکہ وہ یقینی بنا سکے کہ اس کے سسٹم شفاف طریقے سے چل رہے ہیں اور اس سے اس ظلم و ستم میں مزید اضافہ نہیں ہو رہا ہے جو پہلے سے ہوتی آ رہا ہے یا ہو رہا ہے۔"
نکالنے کے مطالبات کے حوالے سے بورڈ نے تجویز کیا کہ "Meta کو اپنی "تحفظ" کی قدر کو دوبارہ تحریر کرنا چاہیے تاکہ اس بات کی عکاسی ہو سکے کہ آن لائن مواد سے لوگوں کو خوف زدہ کرنے، ان کا بائیکاٹ کرنے اور اظہار رائے کی آزادی چھین لینے کے علاوہ ان کی جسمانی سیکیورٹی اور حق زندگی کو بھی خطرہ لاحق ہو سکتا ہے،" (رایا کوبو میں مبینہ جرائم، تجویز نمبر 1)۔ اس تجویز پر عمل درآمد کا ثبوت پیش کرنے کیلئے معلومات شائع کی گئیں۔
فیصلہ
بورڈ نے Meta کے مواد کو چھوڑ دینے کے اصلی فیصلوں کو کالعدم کر دیا ہے۔ بورڈ یہ تسلیم کرتا ہے کہ ان کیسز پر Meta کی توجہ مبذول کرانے پر Meta نے اپنی ابتدائی غلطیوں کی اصلاح کر لی ہے۔
Volver a Decisiones de casos y opiniones consultivas sobre políticas