पलट जाना

मुस्लिमों के बारे में म्यांमार की पोस्ट

ओवरसाइट बोर्ड ने Facebook के नफ़रत फैलाने वाली भाषा के कम्युनिटी स्टैंडर्ड के तहत एक पोस्ट हटाने के उसके फ़ैसले को बदल दिया है.

निर्णय का प्रकार

मानक

नीतियां और विषय

विषय
धर्म, राजनीति, हिंसा
सामुदायिक मानक
नफ़रत फ़ैलाने वाली भाषा

क्षेत्र/देश

जगह
चीन, फ़्रांस, म्यांमार

प्लैटफ़ॉर्म

प्लैटफ़ॉर्म
Facebook

इस फ़ैसले को बर्मी भाषा में पढ़ने के लिए यहाँ क्लिक करें.

ဆုံးဖြတ်ချက် အပြည့်အစုံကို ဗမာဘာသာဖြ ဖြင့် ဖတ်ရှူရန်၊ ဤနေရာကို နှိပ်ပါ-

केस का सारांश

ओवरसाइट बोर्ड ने Facebook के नफ़रत फैलाने वाली भाषा के कम्युनिटी स्टैंडर्ड के तहत एक पोस्ट हटाने के उसके फ़ैसले को बदल दिया है. बोर्ड ने पाया कि, हाँलाकि पोस्ट को अपमानजनक माना जा सकता है, लेकिन इसमें नफ़रत फैलानी वाली भाषा जैसा कुछ नहीं था.

केस की जानकारी

29 अक्टूबर 2020 को, म्यांमार के किसी यूज़र ने एक Facebook ग्रुप में बर्मी भाषा में कुछ पोस्ट किया. पोस्ट में कुर्दिश नस्ल के सीरियाई बच्चे की काफ़ी ज़्यादा शेयर की गईं दो फ़ोटो थी, जो कि सितंबर 2015 में यूरोप पहुँचने की कोशिश के दौरान पानी में डूब गया था.

इसके साथ पोस्ट किए गए टेक्स्ट में कहा गया कि मुस्लिमों (या मुस्लिम पुरुषों) को मनोवैज्ञानिक तौर पर या उनकी मानसिकता में कोई समस्या है इसमें फ़्रांस में पैग़म्बर मोहम्मद के कार्टून चित्रण की प्रतिक्रिया में हुई हत्याओं की तुलना में चीन में उइघर मुस्लिमों के साथ हुए व्यवहार के प्रति सामान्य तौर पर मुस्लिमों की ओर से मिली कम प्रतिक्रिया पर सवाल उठाए गए. पोस्ट में यह निष्कर्ष निकाला गया कि फ़्रांस की घटनाओं के कारण, दर्शाए गए बच्चे के प्रति यूज़र की सहानुभूति कम हो जाती है और इसमें ऐसा संकेत किया गया कि बच्चा बड़ा होकर चरमपंथी मुस्लिम बनता.

Facebook ने अपने नफ़रत फैलाने वाली भाषा के कम्युनिटी स्टैंडर्ड के तहत इस कंटेंट को हटा दिया था.

मुख्य निष्कर्ष

Facebook ने यह कंटेंट हटा दिया क्योंकि इसमें यह वाक्यांश था “मुस्लिमों को मनोवैज्ञानिक तौर पर कोई समस्या [है].” चूँकि नफ़रत फैलाने वाली भाषा के कम्युनिटी स्टैंडर्ड के अनुसार धर्म के आधार पर किसी समूह की बौद्धिक कमियों के बारे में हीनता के सामान्यकरण वाले कथन प्रतिबंधित हैं, इसलिए कंपनी ने यह पोस्ट हटा दी.

बोर्ड ने माना कि जहाँ कि पोस्ट का पहला हिस्सा, अपने आप में, मुस्लिमों (या मुस्लिम पुरुषों) के बारे में अपमानजनक सामान्यकरण का कथन लग सकता है, लेकिन पोस्ट को उसके पूरे संदर्भ में पढ़ा जाना चाहिए.

जहाँ कि Facebook ने टेक्स्ट का अनुवाद इस तरह किया: "वाकई में मुस्लिमों को मनोवैज्ञानिक तौर पर कुछ समस्या [है],", वहीं बोर्ड में अनुवादकों ने इस तरह का अनुवाद किया: "[उन] मुस्लिम पुरुषों की मानसिकता थोड़ी गलत है." उन्होंने यह भी कहा कि उपयोग किए गए शब्द अपमानजनक या हिंसक नहीं थे.

बोर्ड के संदर्भ विशेषज्ञों ने ध्यान दिया कि म्यांमार में मुस्लिम अल्पसंख्यक समूहों के खिलाफ़ नफ़रत फैलाने वाली भाषा आम है और कभी-कभी गंभीर होती है, लेकिन मुस्लिमों को मानसिक रूप से अस्वस्थ या मनोवैज्ञानिक तौर पर अस्थिर बताने वाले बयान इस बातचीत का अहम हिस्सा नहीं हैं.

पूरे संदर्भ में बोर्ड का मानना है कि टेक्स्ट को फ़्रांस और चीन की घटनाओं को लेकर मुस्लिमों की प्रतिक्रियाओं के बीच स्पष्ट भिन्नता पर एक टिप्पणी के रूप में समझा जाए. विचारों की अभिव्यक्ति Facebook के कम्युनिटी स्टैंडर्ड के तहत सुरक्षित है और इसमें नफ़रत फैलाने वाली भाषा जैसा कुछ नहीं है.

अभिव्यक्ति की स्वतंत्रता को सीमित करने संबंधी अंतर्राष्ट्रीय मानवाधिकार मानकों को ध्यान में रखते हुए बोर्ड ने पाया कि पोस्ट को मुस्लिमों के प्रति अपमानजनक या आपत्तिजनक माना जा सकता है, लेकिन यह घृणा या जान-बूझकर निकट भविष्य में किसी भी तरह का नुकसान करने का समर्थन नहीं करती. इस तरह, बोर्ड दूसरों के अधिकारों की रक्षा के लिए इसे हटाया जाना आवश्यक नहीं मानता है.

बोर्ड ने इस बात पर भी ज़ोर दिया कि मुस्लिम विरोधी नफ़रत फैलाने वाली भाषा के प्रति Facebook की संवेदनशीलता को समझा जा सकता है, ख़ास तौर पर म्यांमार में मुसलमानों के खिलाफ़ हिंसा और भेदभाव के इतिहास और नवंबर 2020 में देश के आम चुनाव से पहले बढ़े जोख़िम को देखते हुए. हालाँकि, इस विशेष पोस्ट के लिए बोर्ड का निष्कर्ष यह है कि Facebook का कंटेंट हटा देने का फ़ैसला गलत था.

ओवरसाइट बोर्ड का फ़ैसला

ओवरसाइट बोर्ड ने Facebook के कंटेंट हटाने के फ़ैसले को बदल दिया और पोस्ट को रीस्टोर करने के लिए कहा गया.

*केस के सारांश से केस का ओवरव्यू पता चलता है और आगे के किसी फ़ैसले के लिए इसको आधार नहीं बनाया जा सकता है.

केस का पूरा फ़ैसला

1.फैसले का सारांश

ओवरसाइट बोर्ड ने Facebook द्वारा जिस कंटेंट को नफ़रत फैलाने वाली भाषा का कंटेंट माना, उसे हटाने के फ़ैसले को बदल दिया है. बोर्ड ने निष्कर्ष निकाला कि Facebook ने पोस्ट को नफ़रत फैलाने वाली भाषा माना, जबकि उसमें उस स्तर की भाषा नहीं थी.

2. केस का विवरण

29 अक्टूबर 2020 को म्यांमार के एक Facebook यूज़र ने बर्मी में किसी ऐसे ग्रुप में पोस्ट की, जिसके विवरण में उसे बौद्धिक चर्चा के लिए फ़ोरम बताया गया है. पोस्ट में कुर्दिश नस्ल के सीरियाई बच्चे की काफ़ी ज़्यादा शेयर की गईं दो फ़ोटो थी, जो कि सितंबर 2015 में भूमध्य-सागर में डूब गया था. इसके साथ पोस्ट किए गए टेक्स्ट की शुरुआत में कहा गया कि मुस्लिमों (या मुस्लिम पुरुषों) को मनोवैज्ञानिक तौर पर या उनकी मानसिकता में कोई समस्या है. इसमें फ़्रांस में पैग़म्बर मोहम्मद के कार्टून चित्रण की प्रतिक्रिया में हुई हत्याओं की तुलना में चीन में उइघर मुस्लिमों के साथ हुए व्यवहार के प्रति सामान्य तौर पर मुस्लिमों की ओर से मिली कम प्रतिक्रिया पर सवाल उठाए गए. पोस्ट में यह निष्कर्ष निकाला गया कि फ़्रांस की घटनाओं के कारण, दर्शाए गए बच्चे के प्रति यूज़र की सहानुभूति कम हो जाती है और इसमें ऐसा संकेत किया गया कि बच्चा बड़ा होकर चरमपंथी मुस्लिम बनता.

Facebook ने कथन का यह अनुवाद किया: "मुस्लिमों को मनोवैज्ञानिक तौर पर कुछ समस्या [है]," और यह इसके कम्युनिटी स्टैंडर्ड के तहत ‘टियर 2’ श्रेणी की नफ़रत फैलाने वाली भाषा में आता है. चूँकि इसके अनुसार धर्म के आधार पर किसी व्यक्ति या लोगों के समूह की बौद्धिक कमियों के बारे में हीनता के सामान्यकरण वाले कथन प्रतिबंधित हैं, इसलिए Facebook ने यह कंटेंट हटा दिया.

हटाने के पहले, 3 नवंबर 2020 को पोस्ट में शामिल किए गए दोनों फ़ोटो पर हिंसक और ग्राफ़िक कंटेट के कम्युनिटी स्टैंडर्ड के तहत चेतावनी वाली स्क्रीन थी. Facebook के अनुसार, इसके अलावा पोस्ट में शामिल किसी भी चीज़ से, इसकी पॉलिसी का उल्लंघन नहीं हुआ. यूज़र ने ओवरसाइट बोर्ड से यह तर्क देते हुए अपील की कि उन्होंने नफ़रत फैलाने वाली भाषा का उपयोग नहीं किया.

3. प्राधिकार और दायरा

ओवरसाइट बोर्ड के पास बोर्ड के चार्टर के अनुच्छेद 2.1 के तहत Facebook के फ़ैसले का रिव्यू करने का प्राधिकार है और वह अनुच्छेद 3.5 के तहत उस फ़ैसले को बनाए रख सकता है या बदल सकता है. यह पोस्ट ओवरसाइट बोर्ड के रिव्यू के दायरे के अंतर्गत है: यह किसी भी शामिल नहीं की गई कंटेंट की कैटेगरी में नहीं आती, जैसा कि बोर्ड के उपनियमों के अनुच्छेद 2 के सेक्शन 1.2.1 में निर्धारित है और यह उपनियमों के अनुच्छेद 2 के सेक्शन 1.2.2 के तहत Facebook के कानूनी उत्तरदायित्वों के विरुद्ध नहीं है.

4. प्रासंगिक स्टैंडर्ड

ओवरसाइट बोर्ड ने इन स्टैंडर्ड पर विचार करते हुए अपना फ़ैसला दिया है:

I. Facebook कम्युनिटी स्टैंडर्ड:

नफ़रत फैलाने वालीभाषा के कम्युनिटी स्टैंडर्ड के अनुसार Facebook, “Facebook पर अभद्र भाषा की अनुमति नहीं देता हैं क्योंकि इससे धमकी और बहिष्कार का माहौल बनता है और कुछ मामलों में इससे वास्तविक दुनिया में हिंसा का प्रचार हो सकता है.” Facebook ने नफ़रत फैलाने वाली भाषा को संरक्षित विशिष्टओं के आधार पर हमले के रूप में परिभाषित किया है. हमले “हिंसक या अमानवीय भाषण, नुकसानदायक रूढ़ियों, हीनता के कथन या बहिष्कार या अलग-थलग करने की अपील” के रूप में हो सकते हैं और इन्हें प्रतिबंधित कंटेंट की तीन श्रेणियों में विभाजित किया जा सकता है. श्रेणी 2 के तहत, प्रतिबंधित कंटेंट में ये शामिल है:

सामान्यकरण वाले कथन जिनमें इन तरीकों से हीनता के बारे में (लिखित या चित्र के ज़रिए) कहा गया हो [...] इन विशेषताओं के संबंध में मानसिक कमज़ोरियों को परिभाषित किया गया है: बौद्धिक क्षमता [...] शिक्षा [...] मानसिक स्वास्थ्य.

संरक्षित विशेषताएँ इस प्रकार हैं “प्रजाति, नस्ल, राष्ट्रीय मूल, धार्मिक संबद्धता, यौन अभिविन्यास, जाति, संभोग, लिंग, लिंग पहचान और गंभीर बीमारी या अक्षमता”, जिनमें आयु और अप्रवास की स्थिति की भी कुछ सुरक्षा शामिल है.

II. Facebook के कुछ मूल्य

कम्युनिटी स्टैंडर्ड के परिचय में बताया गय है कि “अभिव्यक्ति” Facebook के लिए अहम मूल्य है, लेकिन प्लेटफ़ॉर्म कई अन्य मूल्यों जिनमें “सुरक्षा” भी शामिल है, को ध्यान में रखते हुए “अभिव्यक्ति” को सीमित कर सकता है. Facebook की “सुरक्षा” संबंधी परिभाषा में बताया गया है: “हम Facebook को एक सुरक्षित जगह बनाने के लिए प्रतिबद्ध हैं. लोगों को धमकाने वाले विचार अभिव्यक्त करने से लोगों में डर, अलगाव या चुप रहने की भावना आ सकती है और Facebook पर इस तरह की बातें करने की अनुमति नहीं है.”

III. बोर्ड द्वारा ध्यान में रखे जाने वाले प्रासंगिक मानव अधिकार के स्टैंडर्ड

बिज़नेस और मानवाधिकार के बारे में संयुक्त राष्ट्र संघ के मार्गदर्शक सिद्धांत ( UNGP), जिन्हें 2011 में संयुक्त राष्ट्र संघ की मानवाधिकार समिति का समर्थन मिला है, प्राइवेट बिज़नेस के मानवाधिकारों से जुड़ी ज़िम्मेदारियों का स्वैच्छिक फ़्रेमवर्क बनाते हैं. UNGP से प्रेरणा लेते हुए, इस केस में अंतरराष्ट्रीय मानवाधिकारों के इन स्टैंडर्ड को ध्यान में रखा गया:

  • अभिव्यक्ति की स्वतंत्रता का अधिकार: नागरिक और राजनीतिक अधिकार पर अंतरराष्ट्रीय प्रतिज्ञापत्र ( ICCPR), अनुच्छेद 19; सामान्य टिप्पणी सं. 34, मानव अधिकार समिति (2011) ( सामान्य टिप्पणी 34); एक्शन का रैबट प्लान; ऑनलाइन नफ़रत फैलाने वाली भाषा पर अभिव्यक्ति की स्वतंत्रता की रिपोर्ट पर संयुक्त राज्य का रैपर्टर (2019) ( A/74/486).
  • भेदभाव न किए जाने का अधिकार: ICCPR अनुच्छेद 2 और 26.
  • जीवन और सुरक्षा का अधिकार: ICCPR अनुच्छेद 6 और 9.

5. यूज़र का कथन

यूज़र ने नवंबर 2020 में कंटेंट हटाने के Facebook के फ़ैसले के विरोध में अपनी अपील दर्ज की. यूज़र ने कहा कि उनकी पोस्ट से Facebook कम्युनिटी स्टैंडर्ड का उल्लंघन नहीं होता और उन्होंने किसी भी नफ़रत फैलाने वाली भाषा का उपयोग नहीं किया. यूज़र ने बताया कि उनकी पोस्ट व्यंग्यपूर्ण थी और उसका उद्देश्य अलग-अलग देशों में चरमपंथी धार्मिक प्रतिक्रियाओं की तुलना करना था. यूज़र ने यह भी कहा कि Facebook बर्मी भाषा और संदर्भ में व्यंग्य और गंभीर चर्चा के बीच अंतर नहीं कर पा रहा है.

6. Facebook के फ़ैसले का स्पष्टीकरण

Facebook ने अपने नफ़रत फैलाने वाली भाषा के कम्युनिटी स्टैंडर्ड के आधार पर इस कंटेंट को हटाया था. Facebook ने उस स्टैंडर्ड के तहत इस पोस्ट को श्रेणी 2 में आने वाला हमला माना, जो कि मुस्लिमों के बारे में मानसिक कमज़ोरी का एक सामान्यकरण है. Facebook ने जो जानकारी दी, जो अभी सार्वजनिक तौर पर उपलब्ध नहीं है, उसके अनुसार सामान्यकरण “अनाधिकृत नकारात्मक कथन हैं, जिनमें औचित्य, तथ्यों की सटीकता या तर्क नहीं होते हैं और वे अन्य के अधिकारों और प्रतिष्ठा का उल्लंघन करते हैं.” Facebook ने कहा पोस्ट के केवल इस कथन से कि मुस्लिमों में कुछ मनोवैज्ञानिक समस्या है, से कम्युनिटी स्टैंडर्ड का उल्लंघन हुआ है.

Facebook ने यह भी तर्क दिया कि उसकी नफ़रत फैलाने वाली भाषा का कम्युनिटी स्टैंडर्ड अंतर्राष्ट्रीय मानवाधिकारों के स्टैंडर्ड के अनुरूप है. Facebook के अनुसार, हाँलाकि इस स्टैंडर्ड के तहत प्रतिबंधित भाषा “हिंसा का समर्थन या उकसावे,” के स्तर की नहीं है, लेकिन चूँकि ऐसी अभिव्यक्ति में “भेदभाव, हिंसा या नफ़रत की गतिविधियों को भड़काने की क्षमता है, ख़ासकर अगर इन्हें बहुत ज़्यादा, वायरल रूप से फैलाया जाता है, या मानवाधिकारों संबंधी अत्यधिक जोखिम के संदर्भ में”, इसे प्रतिबंधित किया जा सकता है. इस केस के संदर्भ के रूप में, Facebook ने नाइस, फ़्रांस में हुए हालिया हमलों का, जिसकी वजह से तीन लोगों की मृत्यु हो गई और चीन में उइघर मुस्लिमों की जारी नज़रबंदी, सीरियाई शरणार्थी संकट और सामान्य रूप से मुस्लिम विरोधी हिंसा का संदर्भ दिया.

7. थर्ड पार्टी सबमिशन

बोर्ड को इस केस के संबंध में 11 पब्लिक कमेंट मिले. हाँलाकि एक कमेंट में कोई कंटेंट नहीं था, बाकी 10 कमेंट में ख़ास सबमिशन मिले. कमेंट का क्षेत्र के अनुसार विश्लेषण इस प्रकार रहा: एक एशिया पैसिफ़िक और ओशियानिया, चार यूरोप और पाँच कमेंट अमेरीका और कनाडा से मिले. इन सबमिशन में कई विषयवस्तुओं को सम्मिलित किया गया, क्या उत्तेजक और आपत्तिजनक पोस्ट में साफ़ तौर पर नफ़रत फैलाने वाली भाषा है; क्या कंटेंट मुस्लिमों के विरुद्ध हमला था; क्या यूज़र का इरादा चीन में उइघर मुस्लिमों के साथ हो रहे व्यवहार और सीरियाई शरणार्थी संकट की ओर ध्यान खींचना था; क्या यूज़र का इरादा लोगों की मृत्यु का प्रचार करने के बजाय उसकी निंदा करना था; क्या इस पोस्ट में उपयुक्त प्रतिकार चीनी राष्ट्रीयता के लोगों के विरुद्ध शारीरिक हिंसा के लिए सीधी अपील है; साथ ही बोर्ड की पब्लिक कमेंट की प्रक्रिया को बेहतर बनाने के लिए फ़ीडबैक भी था.

8. ओवरसाइट बोर्ड का विश्लेषण

8.1 कम्युनिटी स्टैंडर्ड का अनुपालन

प्रासंगिक कम्युनिटी स्टैंडर्ड के अर्थ के अंतर्गत यह पोस्ट नफ़रत फैलाने वाली भाषा की श्रेणी में नहीं आती.

इस केस में, Facebook ने यह संकेत किया कि भाषा कम्युनिटी स्टैंडर्ड की नफ़रत फैलाने वाली भाषा के तहत, श्रेणी 2 के स्तर का हमला है. संरक्षित विशिष्टता धार्मिक संबद्धता थी, चूँकि कंटेंट में मुस्लिम या मुस्लिम पुरुषों का वर्णन था. Facebook के अनुसार, हमला “मानसिक कमज़ोरियों” के बारे में “हीनता दर्शाने वाला सामान्यकरण था”. यह सेक्शन “[मा]नसिक स्वास्थ्य संबंधी हमलों को प्रतिबंधित करता है, जिसमें ये शामिल हैं, लेकिन इन तक सीमित नहीं: मानसिक रूप से बीमार, मंद-बुद्धि, पागल, सनकी” और “[बौ]द्धिक क्षमता के हमले, जिनमें ये शामिल है, लेकिन इन तक सीमित नहीं: भोंदू, बेवकूफ़, मूर्ख.”

हाँलाकि पोस्ट का पहला हिस्सा, अपने आप में, मुस्लिमों (या मुस्लिम पुरुषों) के बारे में आपत्तिजनक और अपमानजनक सामान्यकरण का कथन लग सकता है, लेकिन पोस्ट को उसके पूरे संदर्भ में पढ़ा जाना चाहिए.

मानवाधिकार संगठन और अन्य विशेषज्ञों ने संकेत दिया कि म्यांमार में मुस्लिमों के विरुद्ध नफ़रत फैलाने वाली भाषा सामान्य है, यहाँ तक कि कुछ मामलों में गंभीर भी है, ख़ासकर 8 नवंबर 2020 को होने वाले आम चुनावों के आस-पास ( फ़ोरम-एशिया म्यांमार में व्यापक नफ़रत फैलाने वाली भाषा और Facebook की भूमिका पर विवरणात्मक पत्र, पेज 5 - 8, म्यांमार संबंधी संयुक्त राज्य के निष्पक्ष अंतर्राष्ट्रीय तथ्य-शोध मिशन की रिपोर्ट, A/HRC/42/50, पैरा 1303, 1312, 1315 and 1317). हाँलाकि, ऐसा कोई संकेत नहीं था कि म्यांमार में मुस्लिमों को मानसिक रूप से बीमार या मनोवैज्ञानिक तौर पर अस्थिर होने का संदर्भ देने वाले कथन, मुस्लिम-विरोधी बातचीत का अहम हिस्सा हैं. इसके अलावा, जहाँ कि Facebook ने वाक्य का अनुवाद इस तरह किया: "वाकई में मुस्लिमों को कुछ मनोवैज्ञानिक समस्या [है],", वहीं बोर्ड के अनुवादकों ने इस तरह का अनुवाद किया: "[उन] मुस्लिम पुरुषों की मानसिकता थोड़ी गलत है." अनुवादकों ने यह भी सुझाव दिया कि हाँलाकि उपयोग किए गए शब्दों में असहिष्णुता दिखाई देती है, लेकिन वे अपमानजनक या हिंसक नहीं हैं.

इस पोस्ट को पूरे संदर्भ के साथ फ़्रांस और चीन की घटनाओं को लेकर मुस्लिमों की प्रतिक्रियाओं के बीच स्पष्ट भिन्नता पर एक टिप्पणी के रूप में समझा जाए. विचारों की यह अभिव्यक्ति कम्युनिटी स्टैंडर्ड के तहत सुरक्षित है और इसमें नफ़रत फैलाने वाली भाषा जैसा स्तर नहीं है, जिससे कि पोस्ट को हटाना उचित माना जाए.

8.2 Facebook के मूल्यों का अनुपालन

Facebook का कंटेंट हटाने का फ़ैसला कंपनी के मूल्यों का अनुपालन नहीं करता. हाँलाकि Facebook का “सुरक्षा” संबंधी मूल्य महत्वपूर्ण है, ख़ासकर म्यांमार में मुस्लिमों के विरुद्ध भेदभाव और हिंसा को देखते हुए, लेकिन यह कंटेंट “सुरक्षा” के लिए ख़तरा पैदा नहीं करता, जिससे कि “अभिव्यक्ति की स्वतंत्रता” को प्राथमिकता नहीं दी जाए.

8.3 मानवाधिकारों के स्टैंडर्ड का अनुपालन

पोस्ट को रीस्टोर करना अंतर्राष्ट्रीय मानवाधिकार स्टैंडर्ड के अनुरूप है.

ICCPR के अनुच्छेद 19 के अनुसार लोगों को जानकारी माँगने और पाने का अधिकार है, जिसमें विवादास्पद और गंभीर रूप से आपत्तिजनक जानकारी भी शामिल है (सामान्य कमेंट सं. 34). कुछ बोर्ड मेंबर्स ने ध्यान दिया कि ऑनलाइन नफ़रत फैलाने वाली भाषा पर अभिव्यक्ति की स्वतंत्रता संबंधी संयुक्त राज्य रैपर्टर की 2019 की रिपोर्ट में इस बात की पुष्टि की गई है कि अंतरराष्ट्रीय मानवीयों का कानून “विरोध जताने और व्यंग्य करने के अधिकारों की सुरक्षा करता है” (पैरा. 17). कुछ बोर्ड मेंबर्स ने यह चिंता जताई कि उइघर मुस्लिमों की स्थिति पर कमेंट को दबाया जा सकता है या इसकी रिपोर्टिंग उन देशों में कम हो सकती है जिनके चीन के साथ करीबी संबंध हैं.

साथ ही, बोर्ड यह भी मानता है कि अभिव्यक्ति की स्वतंत्रता अंतिम सत्य या लक्ष्य नहीं है और यह अंतर्राष्ट्रीय मानवाधिकारों के कानून की सीमाओं के अधीन हो सकती है.

सबसे पहले, बोर्ड ने यह आकलन किया कि कंटेंट अंतरराष्ट्रीय मानवाधिकारों के कानून के तहत आवश्यक प्रतिबंधों के अधीन है या नहीं. बोर्ड ने पाया कि कंटेंट भेदभाव, दुर्व्यवहार या हिंसा भड़काने वाली धार्मिक घृणा का समर्थन नहीं करता, जो कि ICCPR अनुच्छेद 20, पैरा. 2 के तहत आवश्यक है. बोर्ड ने संयुक्त राज्य के कार्रवाई संबंधी रबात प्लान में दिए गए सभी कारकों पर ध्यान दिया, जिसमें संदर्भ, पोस्ट का कंटेंट और नुकसान की संभावना भी शामिल थे. हाँलाकि पोस्ट में अपमानजनक लहज़ा था, लेकिन बोर्ड को यह घृणा का समर्थन करने वाली और जानबूझकर किसी तरह के सन्निकट नुकसान को उकसाने वाली नहीं लगी.

बोर्ड ने यह भी चर्चा की कि कंटेंट को ICCPR अनुच्छेद 19 पैरा 3 के तहत प्रतिबंधित किया जा सकता है या नहीं. अंतरराष्ट्रीय मानवाधिकार के कानून के इस प्रावधान के अनुसार अभिव्यक्ति पर प्रतिबंध को परिभाषित किया जाना और समझने में आसान बनाना (कानूनी आवश्यकता), बताए गए उद्देश्यों में से किसी एक का अनुपालन करने का लक्ष्य होना (वैधानिक लक्ष्य की आवश्यकता), और विशिष्ट उद्देश्य के लिए ज़रूरी और एकदम अनुरूप बनाया जाना (ज़रूरत और अनुपात की आवश्यकता) आवश्यक है.

बोर्ड यह मानता है कि Facebook प्रतिबंध के ज़रिए एक वैधानिक लक्ष्य हासिल कर रहा था: दूसरों के जीवन के अधिकारों का संरक्षण, व्यक्ति की शारीरिक या मानसिक क्षति से और भेदभाव से सुरक्षा. बोर्ड यह मानता है कि म्यांमार में ऑनलाइन नफ़रत फैलाने वालाी भाषा गंभीर वास्तविक दुनिया में हुए गंभीर नुकसान से जुड़ी है, जिसमें मानवीयता के विरुद्ध संभावित अपराधों और नरसंहार के आरोप भी शामिल हैं. हाँलाकि बोर्ड उन लोगों के अधिकारों की सुरक्षा का महत्व समझता है जिनके साथ भेदभाव या हिंसा की जाती है और उनके भी जिन पर अत्याचारों का जोखिम हो सकता है.

फिर भी, बोर्ड का निष्कर्ष है कि कुछ लोगों को पोस्ट मुस्लिमों के लिए आपत्तिजनक और अपमानजनक लग सकती है, लेकिन बोर्ड दूसरों के अधिकारों की सुरक्षा के लिए इसे हटाना ज़रूरी नहीं मानता.

बोर्ड यह मानता है कि ऑनलाइन नफ़रत फैलाने वाली भाषा का मुद्दा मॉडरेट करने में जटिल है और भाषाविज्ञापन और सांस्कृतिक विशेषताएँ जैसे व्यंग्य से यह और भी कठिन हो जाता है. इस मामले में, ऐसा कोई संकेत नहीं था कि पोस्ट में पहचाने जाने योग्य लोगों को धमकी दी गई है.

बोर्ड यह मानता है कि बड़े पैमाने पर और रीयल टाइम में कंटेंट मॉडरेट करने के दौरान Facebook के लिए हर एक पोस्ट के पीछे के इरादे का मूल्यांकन करना कठिन है. यह बात निर्णायक नहीं होने के बावजूद भी, बोर्ड ने यूज़र की अपील में किए गए दावे के बारे में माना कि वे सभी तरह के धार्मिक चरमपंथ के विरोध में है. यह तथ्य कि पोस्ट किसी ऐसे ग्रुप में थी, जो बौद्धिक और दार्शनिक चर्चा के लिए बताया गया है, और साथ ही इसमें चीन में उइघर मुस्लिमों के विरुद्ध हुए भेदभाव की ओर भी ध्यान खींचा गया, इन बातों से यूज़र के दावा का समर्थन होता है. लेकिन इसी के साथ ही, कुछ बोर्ड सदस्यों को यूज़र द्वारा उस शरणार्थी बच्चे का संदर्भ देना जिसकी मृत्यु हो गई थी, असंवेदनशील लगा.

बोर्ड ने इस बात पर ज़ोर दिया कि किसी भी पोस्ट को रीस्टोर करने का मतलब उसके कंटेंट से सहमति होना नहीं है. ऐसी परिस्थितियों में भी जहाँ धर्म की चर्चा या पहचान संवेदनशील हो और उससे अपमान हो सकता हो, तब भी खुली चर्चा ज़रूरी है. इस कंटेंट का हटाने से तनाव में कमी या लोगों को भेदभाव से बचाने की संभावना नहीं बनती. अलग-अलग समूहों के बीच समझदारी को बढ़ावा देने के और भी कई प्रभावी तरीके हैं.

म्यांमार में मुस्लिमों विरुद्ध हिंसा और भेदभाव के इतिहास, चुनाव के कारण बढ़े जोखिम के संदर्भ और इस समय उपलब्‍ध सीमित जानकारी को देखते हुए बोर्ड वहाँ पर मुस्लिम विरोधी नफ़रत फैलाने वाली भाषा की संभावना के प्रति Facebook की संवेदनशीलता पर भी ज़ोर देता है. इस परिस्थितियों में, Facebook की सावधानी से कंपनी के मानवाधिकारों के उत्तरदायित्वों का सामान्य रूप से पालन किया जाना परिलक्षित होता है. हालाँकि, इस विशेष पोस्ट के लिए बोर्ड का निष्कर्ष यह है कि Facebook का कंटेंट हटा देने का फ़ैसला गलत था.

9. ओवरसाइट बोर्ड का फ़ैसला

9.1 कंटेंट से जुड़ा फ़ैसला

ओवरसाइट बोर्ड ने Facebook के कंटेंट हटाने के फ़ैसले को बदल दिया है और पोस्ट को रीस्टोर करने के लिए कहा गया.

बोर्ड यह मानता है कि हिंसक और ग्राफ़िक कंटेंट कम्युनिटी स्टैंडर्ड के तहत फ़ोटो के ऊपर फिर से चेतावनी की स्क्रीन होगी.

*प्रक्रिया सबंधी नोट:

ओवरसाइट बोर्ड के फैसले पाँच मेंबर के पैनल द्वारा तैयार किए जाते हैं और बोर्ड के अधिकांश मेंबर द्वारा इन पर सहमति दी जानी आवश्यक है. यह ज़रूरी नहीं है कि बोर्ड के फैसले सभी मेंबरों के निजी फैसलों को दर्शाएँ.

इस केस के फ़ैसले के लिए, बोर्ड की ओर से स्वतंत्र शोध को अधिकृत किया गया. एक स्वतंत्र शोध संस्थान जिसका मुख्यालय गोथेनबर्ग यूनिवर्सिटी में है और छह महाद्वीपों के 50 से भी ज़्यादा समाजशास्त्रियों की टीम के साथ ही दुनिया भर के देशों के 3,200 से भी ज़्यादा विशेषज्ञों ने सामाजिक-राजनैतिक और सांस्कृतिक संदर्भ में विशेषज्ञता मुहैया कराई है. Lionbridge Technologies, LLC कंपनी ने भाषा संबंधी विशेषज्ञता की सेवा दी, जिसके विशेषज्ञ 350 से भी ज़्यादा भाषाओं में अपनी सेवाएँ देते हैं और वे दुनिया भर के 5,000 शहरों से काम करते हैं.

मामले के निर्णयों और नीति सलाहकार राय पर लौटें