पलट जाना
भारत में फ़्रांस के खिलाफ़ विरोध प्रदर्शन
12 फ़रवरी 2021
ओवरसाइट बोर्ड ने Facebook के हिंसा और उकसावे के कम्युनिटी स्टैंडर्ड के तहत एक पोस्ट को हटाने के Facebook के फ़ैसले को पलट दिया है.
इस फ़ैसले को हिंदी भाषा में पढ़ने के लिए यहाँ क्लिक करें.
पूरे फ़ैसले को हिंदी में पढ़ने के लिए, कृपया यहाँ क्लिक करें.
केस का सारांश
ओवरसाइट बोर्ड ने Facebook के हिंसा और उकसावे के कम्युनिटी स्टैंडर्ड के तहत एक पोस्ट को हटाने के फ़ैसले को पलट दिया है. कंपनी ने माना कि पोस्ट में अप्रत्यक्ष धमकी थी, लेकिन बोर्ड के अधिकांश मेंबर का मानना था कि इसे रीस्टोर कर देना चाहिए. यह फ़ैसला सिर्फ़ यूज़र नोटिफ़िकेशन और सहमति पर लागू किया जाना चाहिए.
केस की जानकारी
अक्टूबर 2020 के अंत में, एक Facebook यूज़र ने भारतीय मुस्लिमों का फ़ोरम बताए गए एक पब्लिक ग्रुप में पोस्ट की. उस पोस्ट में तुर्की भाषा के एक टेलीविज़न शो “Diriliş: Ertuğrul” की फ़ोटो वाला एक मीम था, जिसमें शो के ही एक किरदार को दर्शाया गया था जिसने चमड़े का कवच पहना था और उसके हाथ में म्यान में रखी तलवार थी. मीम में हिंदी भाषा का टेक्स्ट ओवरले था. Facebook ने टेक्स्ट का अंग्रेज़ी में यह अनुवाद किया: "अगर काफ़िर ने पैगंबर के खिलाफ़ आवाज़ उठाई, तो फिर तलवार को म्यान से निकालना ही होगा." पोस्ट में फ़्रांसीसी राष्ट्रपति इमैनुएल मैक्रों को शैतान बताने वाले और फ़्रांसीसी प्रोडक्ट का बहिष्कार करने की अपील करने वाले हैशटेग भी शामिल थे.
अपने रेफ़रल में, Facebook ने इसे धार्मिक भाषण और हिंसा की संभावित धमकी माना और इस पर ध्यान दिया कि कंटेंट इन दोनों ही बातों के बीच होने वाले तनाव को हाइलाइट करता है, भले ही ऐसा स्पष्ट तौर पर न हुआ हो.
मुख्य निष्कर्ष
Facebook ने हिंसा और उकसावे के अपने कम्युनिटी स्टैंडर्ड के तहत पोस्ट को हटा दिया, जिसमें कहा गया है कि यूज़र को कोड वाले बयान पोस्ट नहीं करने चाहिए, जिनमें “धमकी अप्रत्यक्ष या निहित हो.” Facebook ने “तलवार को म्यान से निकालना ही होगा” को "काफ़िरों" के लिए अप्रत्यक्ष धमकी माना और कंपनी ने इस शब्द की व्याख्या गैर-मुस्लिमों के विरुद्ध बदले की भावना रखने के रूप में की है.
केस की परिस्थितियों पर ध्यान देते हुए बोर्ड के अधिकांश मेंबर्स ने यह नहीं माना कि इस पोस्ट के कारण नुकसान पहुँच सकता था. उन्होंने Facebook के तर्क पर सवाल खड़े किए जिसमें बताया गया था कि मुस्लिमों के विरुद्ध हिंसा के खतरों के कारण ऐसी धमकियों के प्रति Facebook की संवेदनशीलता बढ़ी है, लेकिन इस ग्रुप का कंटेंट मॉडरेट करते समय भी संवेदनशीलता बढ़ी.
बोर्ड के कुछ मेंबर्स ने इस पोस्ट को ईश्वर की निंदा के लिए किसी तरह की हिंसक प्रतिक्रिया के लिए धमकाने के तौर पर देखा, लेकिन अधिकांश मेंबर्स ने राष्ट्रपति मैक्रों के संदर्भों और फ़्रांसीसी प्रोडक्ट के बहिष्कार को ऐसी अपील के रूप में माना जो आवश्यक रूप से हिंसक नहीं है. भले ही टेलीविज़न शो के किरदार ने तलवार पकड़ी है, लेकिन बोर्ड के अधिकांश मेंबर्स ने पोस्ट की व्याख्या करते हुए कहा कि यह हिंसा की ही धमकी देना नहीं बल्कि धर्म की आड़ में हिंसा पर मैक्रों की प्रतिक्रिया की आलोचना है.
बोर्ड ने नोट किया कि इस पोस्ट को रीस्टोर करने के उसके फ़ैसले से उसके कंटेंट का समर्थन नहीं होता है.
अंतरराष्ट्रीय मानवाधिकार मानकों के तहत, लोगों को सभी तरह के सुझाव और राय माँगने, पाने और देने का अधिकार है, जिनमें वे शामिल हैं जो विवादास्पद या काफ़ी आपत्तिजनक हो सकते हैं. इस प्रकार, बोर्ड के अधिकांश मेंबर्स ने माना कि जिस तरह लोगों को धर्म या धार्मिक लोगों की आलोचना करने का अधिकार है, उसी तरह धार्मिक लोगों को भी इस तरह की अभिव्यक्ति पर नाराज़गी जताने का अधिकार है.
अभिव्यक्ति से संबंधित प्रतिबंध आसानी से समझे जाने वाले और सुविधाजनक होने चाहिए. इस केस में, बोर्ड ने नोट किया कि अप्रत्यक्ष धमकियों को निर्धारित करने की Facebook की प्रक्रिया और मानदंड के बारे में कम्युनिटी स्टैंडर्ड में यूज़र को नहीं समझाया गया है.
अंत में, बोर्ड के अधिकांश मेंबर्स ने पाया कि इस खास पोस्ट के लिए, Facebook ने सभी संदर्भ जानकारी का सही आकलन नहीं किया और यह भी कि अभिव्यक्ति से संबंधित अंतरराष्ट्रीय मानवाधिकार मानक, बोर्ड के कंटेंट रीस्टोर करने के फ़ैसले को सही ठहराते हैं.
ओवरसाइट बोर्ड का फ़ैसला
बोर्ड ने Facebook के कंटेंट हटाने के फ़ैसले को पलट दिया है और पोस्ट को रीस्टोर करने के लिए कहा गया है.
पॉलिसी से जुड़े सुझाव देते हुए बोर्ड ने कहा कि:
- यह फ़ैसला सिर्फ़ यूज़र नोटिफ़िकेशन और सहमति पर लागू किया जाना चाहिए.
- Facebook, यूज़र को अप्रत्यक्ष धमकियों से संबंधित प्रतिबंधों के दायरे और एन्फ़ोर्समेंट की अतिरिक्त जानकारी दे. इससे यूज़र को यह समझने में मदद मिलेगी कि इस विषय में किस कंटेंट की परमिशन है. Facebook को एन्फ़ोर्समेंट की अपनी शर्तों को सार्वजनिक करना चाहिए. इनमें यूज़र के उद्देश्य और पहचान के साथ ही उनकी ऑडियंस और व्यापक संदर्भ पर ध्यान दिया जाना चाहिए.
*केस के सारांश से केस का ओवरव्यू पता चलता है और आगे के किसी फ़ैसले के लिए इसको आधार नहीं बनाया जा सकता है.
पूरे केस का फ़ैसला
1. फ़ैसले का सारांश
ओवरसाइट बोर्ड ने Facebook के हिंसा और उकसावे के कम्युनिटी स्टैंडर्ड के तहत ऐसे कंटेंट को हटाने के फ़ैसले को पलट दिया है जिसे उसने अप्रत्यक्ष धमकी माना था. बोर्ड के अधिकांश मेंबर्स ने पाया कि उस कंटेंट को रीस्टोर करने से Facebook के कम्युनिटी स्टैंडर्ड, उसके मूल्यों और अंतरराष्ट्रीय मानवाधिकार स्टैंडर्ड का अनुपालन होगा.
2. केस का विवरण
अक्टूबर 2020 के अंत में, एक Facebook यूज़र ने एक ऐसे पब्लिक ग्रुप में पोस्ट की जो खुद को भारतीय मुस्लिमों के लिए जानकारी देने का फ़ोरम बताता है. उस पोस्ट में तुर्की भाषा के एक टेलीविज़न शो “Diriliş: Ertuğrul” की फ़ोटो वाला एक मीम था, जिसमें शो का एक किरदार चमड़े का कवच पहने हुए था और उसके हाथ में म्यान में रखी तलवार थी. मीम में हिंदी भाषा का टेक्स्ट ओवरले था. Facebook ने टेक्स्ट का अंग्रेज़ी में यह अनुवाद किया: "अगर काफ़िर ने पैगंबर के खिलाफ़ आवाज़ उठाई, तो फिर तलवार को म्यान से निकालना ही होगा." पोस्ट के साथ अंग्रेज़ी में टेक्स्ट दिया गया था जिसमें कहा गया था कि पैगंबर यूज़र की पहचान, गरिमा, सम्मान और जीवन है और उसमें “PBUH” (अलैहि वसल्लम) संक्षेपाक्षर था. इसके बाद फ़्रांसीसी राष्ट्रपति इमैनुएल मैक्रों को शैतान बताने वाले और फ़्रांसीसी प्रोडक्ट का बहिष्कार करने की अपील करने वाले हैशटेग भी शामिल थे. पोस्ट को लगभग 30,000 बार देखा गया, उस पर 1,000 से कम कमेंट आए और उसे 1,000 कम बार शेयर किया गया.
नवंबर 2020 की शुरुआत में Facebook ने हिंसा और उकसावे से संबंधित अपनी पॉलिसी का उल्लंघन करने के लिए उस पोस्ट को हटा दिया. Facebook ने “काफ़िर” को एक अपमानजनक शब्द माना जो इस संदर्भ में नास्तिकों की ओर इशारा करता था. फ़ोटो और टेक्स्ट का विश्लेषण करने पर, Facebook ने पाया कि पोस्ट “काफ़िरों” के लिए हिंसा की एक अप्रत्यक्ष धमकी थी और उस पोस्ट को हटा दिया.
Facebook के दो यूज़र ने पहले इस पोस्ट की रिपोर्ट की थी; एक ने नफ़रत फैलाने वाली भाषा के लिए और दूसरे ने हिंसा और उकसावे के लिए और Facebook ने कंटेंट को नहीं हटाया. Facebook को फिर एक थर्ड पार्टी पार्टनर से जानकारी मिली कि इस कंटेंट से हिंसा फैलने की आशंका है. Facebook ने कन्फ़र्म किया कि यह थर्ड पार्टी पार्टनर उसके भरोसेमंद पार्टनर नेटवर्क का मेंबर है और वह किसी राज्य से नहीं जुड़ा है. Facebook ने इस नेटवर्क को अतिरिक्त स्थानीय संदर्भ हासिल करने का एक ज़रिया बताया. Facebook के अनुसार, नेटवर्क में गैर-सरकारी संगठन, लोकोपकारी संगठन, गैर-लाभकारी संगठन और अन्य अंतरराष्ट्रीय संगठन शामिल हैं. थर्ड पार्टी पार्टनर द्वारा पोस्ट को फ़्लैग किए जाने के बाद, Facebook ने स्थानीय पब्लिक पॉलिसी टीम से संदर्भ की अतिरिक्त जानकारी माँगी जिसने थर्ड पार्टी की राय से सहमति व्यक्त करते हुए कहा कि पोस्ट में धमकी की आशंका है. 19 नवंबर 2020 को Facebook ने यह केस ओवरसाइट बोर्ड को रेफ़र किया. अपने रेफ़रल में, Facebook ने कहा कि उसे यह फ़ैसला लेना कठिन लगा क्योंकि कंटेंट धार्मिक भाषण और हिंसा की संभावित धमकी के बीच के तनाव को हाइलाइट करता है, भले ही ऐसा स्पष्ट तौर पर न हुआ हो.
3. प्राधिकार और दायरा
ओवरसाइट बोर्ड के पास बोर्ड के चार्टर के अनुच्छेद 2.1 के तहत Facebook के फ़ैसले का रिव्यू करने का प्राधिकार है और वह अनुच्छेद 3.5 के तहत उस फ़ैसले को बनाए रख सकता है या बदल सकता है. यह पोस्ट ओवरसाइट बोर्ड के रिव्यू के दायरे के अंतर्गत है: यह किसी भी शामिल नहीं की गई कंटेंट की कैटेगरी में नहीं आती, जैसा कि बोर्ड के उपनियमों के अनुच्छेद 2 के सेक्शन 1.2.1 में निर्धारित है और यह उपनियमों के अनुच्छेद 2 के सेक्शन 1.2.2 के तहत Facebook के कानूनी उत्तरदायित्वों के विरुद्ध नहीं है.
4. प्रासंगिक स्टैंडर्ड
ओवरसाइट बोर्ड ने इन स्टैंडर्ड पर विचार करते हुए अपना फ़ैसला दिया है:
I. Facebook के कम्युनिटी स्टैंडर्ड
हिंसा और उकसावे के कम्युनिटी स्टैंडर्ड के अनुसार Facebook "का लक्ष्य ऐसे संभावित ऑफ़लाइन नुकसान को रोकना है जो Facebook से जुड़ा हो सकता है” और यह कि Facebook ऐसी स्थितियों में अभिव्यक्ति को प्रतिबंधित करता है “जब वह यह मानता हो कि जान और माल के नुकसान का वास्तव में जोखिम है या लोगों की सुरक्षा के लिए सीधा खतरा है.” खास तौर पर, स्टैंडर्ड कहता है कि यूज़र्स को कोड वाली भाषा में दिए गए ऐसे बयान पोस्ट नहीं करना चाहिए, “जिनमें हिंसा या नुकसान के तरीके स्पष्ट रूप से बताए नहीं जाते, लेकिन उनमें खतरा छिपा हुआ होता है या उसके बारे में इशारा किया गया होता है.” Facebook ने यह भी कहा कि स्टैंडर्ड के इस सेक्शन को एन्फ़ोर्स करने के लिए उसे अतिरिक्त संदर्भ की ज़रूरत होती है.
II. Facebook के मूल्य
इस केस से संबंधित Facebook के मूल्यों की रूपरेखा, कम्युनिटी स्टैंडर्ड के परिचय सेक्शन में बताई गई है. इसका पहला मूल्य है “अभिव्यक्ति” जिसे “सर्वोपरि” बताया गया है:
हमारे कम्युनिटी स्टैंडर्ड का लक्ष्य हमेशा एक ऐसा प्लेटफ़ॉर्म बनाना रहा है, जहाँ लोग अपनी बात रख सकें और अपनी भावनाओं को व्यक्त कर सकें. […] हम चाहते हैं कि लोग अपने लिए महत्व रखने वाले मुद्दों पर खुलकर बातें कर सकें, भले ही कुछ लोग उन बातों पर असहमति जताएँ या उन्हें वे बातें आपत्तिजनक लगें.
Facebook "अभिव्यक्ति” को चार अन्य मूल्यों का पालन करने के लिए सीमित करता है. “प्रामाणिकता,” “सुरक्षा,” “प्राइवेसी” और “गरिमा.” बोर्ड का मानना है कि “सुरक्षा” का मूल्य इस फ़ैसले के लिए प्रासंगिक है:
सुरक्षा: हम Facebook को एक सुरक्षित जगह बनाने के लिए प्रतिबद्ध हैं. धमकी भरी अभिव्यक्ति से लोगों में डर, अलगाव की भावना आ सकती या दूसरों का आवाज़ दब सकती है और Facebook पर इसकी परमिशन नहीं है.
III. बोर्ड ने मानवाधिकारों से जुड़े इन प्रासंगिक स्टैंडर्ड पर विचार किया:
बिज़नेस और मानवाधिकार के बारे में संयुक्त राष्ट्र संघ के मार्गदर्शक सिद्धांत ( UNGP), जिन्हें 2011 में संयुक्त राष्ट्र संघ की मानवाधिकार समिति का समर्थन मिला है, प्राइवेट बिज़नेस के मानवाधिकारों से जुड़ी ज़िम्मेदारियों का स्वैच्छिक फ़्रेमवर्क बनाते हैं. UNGP से प्रेरणा लेते हुए, इस केस में अंतरराष्ट्रीय मानवाधिकारों के इन स्टैंडर्ड को ध्यान में रखा गया:
- अभिव्यक्ति की स्वतंत्रता का अधिकार: नागरिक और राजनीतिक अधिकार पर अंतरराष्ट्रीय प्रतिज्ञापत्र ( ICCPR), अनुच्छेद 19; सामान्य कमेंट सं. 34, मानवाधिकार समिति (2011) ( GC34); एक्शन का रबात प्लान.
- व्यक्ति के जीवन और सुरक्षा का अधिकार: ICCPR अनुच्छेद 6 और 9, पैरा. 1.
5. यूज़र का कथन
Facebook ने यूज़र को सूचित किया कि उसने बोर्ड को केस रेफ़र किया है और यूज़र को बोर्ड के साथ पोस्ट के बारे में अतिरिक्त संदर्भ शेयर करने का अवसर दिया. यूज़र को अपना कथन सबमिट करने के लिए रेफ़रल के दिन से 15 दिन का समय दिया गया. बोर्ड को यूज़र की ओर से कोई कथन नहीं मिला.
6. Facebook के फ़ैसले का स्पष्टीकरण
Facebook ने पहले पोस्ट को नफ़रत फैलाने वाली भाषा के उल्लंघन के लिए पोस्ट का मूल्यांकन किया और कंटेंट नहीं हटाया. Facebook ने यह नहीं बताया कि “काफ़िर” शब्द बैन की गई गालियों की लिस्ट में मौजूद है या यह कि पोस्ट ने नफ़रत फैलाने वाली भाषा की पॉलिसी का अन्यथा उल्लंघन किया है.
Facebook ने फिर अपने हिंसा और उकसावे के कम्युनिटी स्टैंडर्ड के आधार पर इस कंटेंट को हटा दिया. उस स्टैंडर्ड के अनुसार, Facebook ऐसे कंटेंट को प्रतिबंधित करता है जिससे “जान और माल को वास्तविक नुकसान का जोखिम हो या लोगों की सुरक्षा को सीधा खतरा हो.” इसमें कोड वाली भाषा में दिए गए ऐसे बयान शामिल हैं “जिनमें हिंसा या नुकसान के तरीके स्पष्ट रूप से बताए नहीं जाते, लेकिन उनमें खतरा छिपा हुआ होता है या उसके बारे में इशारा किया गया होता है.” Facebook ने बताया कि उसके अनुसार अप्रत्यक्ष जोखिम “यूज़र्स के लिए उतने ही खतरनाक हो सकते हैं जितने कि हिंसा के प्रत्यक्ष जोखिम होते हैं.” Facebook के अनुसार, अप्रत्यक्ष जोखिमों को तब हटा दिया जाता है जब वे कुछ गैर-सार्वजनिक शर्तें पूरी करते हैं.
इन शर्तों के अनुसार, Facebook ने पाया कि “तलवारें म्यान से निकाल ली जाएँगी” सामान्य तौर पर “काफ़िरों” के खिलाफ़ एक अप्रत्यक्ष धमकी थी. इस केस में, Facebook ने “काफ़िर” शब्द को गैर-मुस्लिम लोगों के संबंध में अपमानजनक माना; तलवार के संदर्भ को एक खतरनाक कॉल टू एक्शन माना; और इसे “ऐतिहासिक हिंसा का निहित संदर्भ” भी पाया.
Facebook ने कहा कि उस संदर्भ पर विचार करना महत्वपूर्ण है जिसमें कंटेंट को पोस्ट किया गया था. Facebook के अनुसार, कंटेंट उस समय पोस्ट किया गया था जब फ़्रांस के चार्ली हब्दो मामले की सुनवाई और भारतीय राज्य बिहार के चुनाव को लेकर भारत में धार्मिक तनाव चल रहा था. Facebook ने मुस्लिमों के खिलाफ़ बढ़ती हिंसा पर ध्यान दिया, जैसे क्राइस्टचर्च, न्यूज़ीलैंड में एक मस्जिद पर हमला. उसने यह भी कहा कि मुस्लिमों द्वारा बदले की हिंसा की आशंका से मुस्लिमों के खिलाफ़ और मुस्लिमों द्वारा खतरे की आशंका के समाधान में संवेदनशीलता बढ़ सकती है.
Facebook ने आगे यह भी कहा कि उसकी हिंसा और उकसावे की पॉलिसी, अंतरराष्ट्रीय मानवाधिकार स्टैंडर्ड के अनुसार है. Facebook के अनुसार, उसकी पॉलिसी “दूसरों के अधिकारों की रक्षा करने और अभिव्यक्ति की स्वतंत्रता के अनुमत प्रतिबंध के लिए ज़रूरी ‘आवश्यकता और आनुपातिकता’ तत्वों की रक्षा करने के लिए बनाई गई है.”
7. थर्ड पार्टी सबमिशन
बोर्ड को इस केस के संबंध में छह सार्वजनिक कमेंट मिले. कमेंट का क्षेत्र के अनुसार वर्गीकरण इस प्रकार रहा: एक एशिया पैसिफ़िक और ओशियानिया, एक लैटिन अमेरिका और कैरेबियन से और अमेरीका और कनाडा से. सबमिशन में इनके सहित कई थीम कवर की गई थीं: यूज़र की पहचान और प्रभाव को जानने की महत्ता, जिसमें यह शामिल है कि उसे कहाँ पोस्ट किया गया था और किस ग्रुप में पोस्ट किया गया था; यह पहचानने की महत्ता कि टार्गेट कौन है; क्या पोस्ट में सार्वजनिक हस्तियों को टार्गेट किया गया है या आम लोगों को; क्या यूज़र का इरादा भारतीय मुस्लिमों की हानिकारक रूढ़िवादिता को हिंसक रूप में प्रेरित करने का था; क्या कंटेंट, Facebook कम्युनिटी स्टैंडर्ड के तहत अप्रत्यक्ष धमकी के स्टैंडर्ड को पूरा कर रहा था; क्या इस केस में हिंसा और उकसावे की पॉलिसी को लागू किया जा सकता था; क्या पोस्ट को Facebook की नफ़रत फैलाने वाली भाषा की पॉलिसी के तहत हिंसा फैलाने वाली भाषा माना जा सकता था; साथ ही बोर्ड की पब्लिक कमेंट प्रोसेस को बेहतर बनाने के फ़ीडबैक पर भी विचार किया गया.
इस केस के संबंध में सबमिट किए गए पब्लिक कमेंट देखने के लिए कृपया यहाँ क्लिक करें.
8. ओवरसाइट बोर्ड का विश्लेषण
8.1 कम्युनिटी स्टैंडर्ड का अनुपालन
बोर्ड के अधिकांश मेंबर्स ने पाया कि इस कंटेंट को रीस्टोर करना Facebook के कम्युनिटी स्टैंडर्ड के अनुरूप होगा.
Facebook ने कहा कि कंटेंट एक अप्रत्यक्ष धमकी थी, जो हिंसा और उकसावे के कम्युनिटी स्टैंडर्ड द्वारा प्रतिबंधित है. स्टैंडर्ड कहता है कि यूज़र्स को कोड वाली भाषा में दिए गए ऐसे बयान पोस्ट नहीं करना चाहिए, “जिनमें हिंसा या नुकसान के तरीके स्पष्ट रूप से बताए नहीं जाते, लेकिन उनमें खतरा छिपा हुआ होता है या उसके बारे में इशारा किया गया होता है.” Facebook ने बोर्ड को बताए अपने कारण में कहा कि वह स्टैंडर्ड के इस प्रावधान की व्याख्या करते समय “जान और माल के तात्कालिक नुकसान” पर फ़ोकस करता है.
बोर्ड के मेंबर्स ने एकमत से माना कि हिंसा की अप्रत्यक्ष धमकियों का समाधान करना महत्वपूर्ण है और इस बात पर चिंता व्यक्ति की कि कम्युनिटी स्टैंडर्ड के उल्लंघन की पहचान से बचने के लिए यूज़र अप्रत्यक्ष धमकियों का उपयोग कर रहे हैं. मेंबर्स ने यह भी माना कि बड़े पैमाने पर ऐसी धमकियों को हटाने में Facebook को चैलेंज आते हैं क्योंकि उनमें संदर्भ का विश्लेषण करना पड़ता है.
इस बारे में बोर्ड के मेंबर्स की राय अलग-अलग थी कि टार्गेट को कितनी स्पष्टता से परिभाषित किया गया था, पोस्ट की टोन क्या थी और वैश्विक रूप से और भारत में इस कंटेंट द्वारा पैदा किया गया जान और माल के नुकसान या हिंसा का जोखिम कितना है. बोर्ड के अधिकांश मेंबर्स ने माना कि फ़्रेंच प्रोडक्ट के बहिष्कार के लिए हैशटैग का उपयोग करना गैर-हिंसक विरोध प्रदर्शन था और मौजूदा राजनीतिक घटनाओं पर हो रही बातचीत का एक भाग था. इस संदर्भ में हिंसा की ओर इशारा करते हुए एक लोकप्रिय टेलीविज़न शो से मीम का उपयोग करने अधिकांश मेंबर्स की राय में जान और माल के नुकसान का आह्वान नहीं माना जा सकता.
Facebook की व्याख्या के संदर्भ में, बोर्ड ने कहा कि भारत में चल रहे तनाव को देखते हुए Facebook ने अपने फ़ैसले को उचित बताया है. हालाँकि, बताए गए उदाहरण इस संदर्भ में प्रासंगिक नहीं थे. उदाहरण के लिए, पैगंबर मोहम्मद के कार्टून चित्रण की प्रतिक्रिया में फ़्रांस में हुई हत्याओं के बाद राष्ट्रपति मैक्रों के बयान पर भारत में हुई रिएक्शन को हिंसक नहीं बताया गया था. Facebook ने 7 नवंबर 2020 को भारत के राज्य बिहार में हुए चुनाव का भी उल्लेख किया था, जबकि बोर्ड की रिसर्च के अनुसार इस चुनाव में धर्म के आधार पर लोगों के खिलाफ़ कोई हिंसा नहीं हुई थी. बोर्ड ने एकमत से माना कि अप्रत्यक्ष धमकियों को समझने के लिए संदर्भ का विश्लेषण ज़रूरी है, लेकिन अधिकांश मेंबर्स ने माना कि इस खास केस में भारत में संभावित हिंसा के संदर्भ में Facebook का कारण दमदार नहीं था.
कुछ मेंबर्स ने माना कि थर्ड पार्टी के आकलन पर भरोसा करने की Facebook की आंतरिक प्रोसेस सराहनीय है और वे Facebook के इस निर्धारण को मानते हैं कि पोस्ट ने हिंसा को बढ़ावा देने का अस्वीकार्य जोखिम प्रस्तुत किया है. इस राय में यह स्वीकार किया गया कि Facebook ने क्षेत्रीय और भाषाई विशेषज्ञों से परामर्श किया और यह आकलन शेयर किया कि “काफ़िर” शब्द अपमानजनक था. कुछ मेंबर्स ने माना कि बोर्ड के पास फ़ैसले को पलटने का कोई ठोस आधार नहीं है.
इसके बावजूद, अधिकांश मेंबर्स ने पाया कि बोर्ड का स्वतंत्र विश्लेषण हिंसा और उकसावे के कम्युनिटी स्टैंडर्ड के तहत पोस्ट को रीस्टोर करने का समर्थन करता है.
8.2 Facebook के मूल्यों का अनुपालन
बोर्ड के अधिकांश मेंबर्स ने पाया कि इस कंटेंट को रीस्टोर करना कंपनी के मूल्यों के अनुरूप होगा. खास तौर पर भारत में बढ़े हुए धार्मिक तनाव को देखते हुए Facebook का “सुरक्षा” का मूल्य महत्वपूर्ण है, लेकिन इस कंटेंट से “सुरक्षा” का ऐसा कोई जोखिम पैदा नहीं होता जिसके कारण “अभिव्यक्ति” को दबाया जाए. बोर्ड ने यह भी माना कि अप्रत्यक्ष धमकियों से निपटते समय इस मूल्यों के बीच संतुलन बैठाने में Facebook को कई चैलेंज का सामना करना पड़ता है. कुछ मेंबर्स ने माना कि इन परिस्थितियों में “सुरक्षा” सुनिश्चित करने के लिए “अभिव्यक्ति” को दबाना उचित है.
8.3 मानवाधिकारों के स्टैंडर्ड का अनुपालन
बोर्ड के अधिकांश मेंबर्स ने पाया कि इस कंटेंट को रीस्टोर करना अंतरराष्ट्रीय मानवाधिकार स्टैंडर्ड के अनुरूप होगा.
ICCPR के अनुच्छेद 19 के अनुसार, लोगों को सभी तरह के सुझाव और राय माँगने, पाने और देने का अधिकार है, जिनमें वे शामिल हैं जो विवादास्पद या काफ़ी आपत्तिजनक हो सकते हैं (सामान्य कमेंट सं. 34, पैरा. 11). अभिव्यक्ति की स्वतंत्रता के अधिकार में ऐसे विचार व्यक्त करना शामिल है जिन्हें ईशनिंदा माना जा सकता है, साथ ही ऐसे बयानों का विरोध करना भी शामिल है. इस संबंध में, अभिव्यक्ति की स्वतंत्रता में धर्मों, धर्मों की विचारधाराओं और धार्मिक हस्तियों की आलोचना करने की स्वतंत्रता भी शामिल है (सामान्य कमेंट सं. 34, पैरा. 48). राजनीतिक अभिव्यक्ति खास तौर पर महत्वपूर्ण है और उसे अंतरराष्ट्रीय मानवाधिकार कानून के तहत ज़्यादा सुरक्षा दी जाती है (सामान्य कमेंट सं. 34, पैरा. 34 और 38) और उसमें बहिष्कार का आह्वान और सार्वजनिक हस्तियों की आलोचना शामिल है.
साथ ही, बोर्ड यह भी मानता है कि अभिव्यक्ति की स्वतंत्रता अंतिम लक्ष्य नहीं है और यह अंतरराष्ट्रीय मानवाधिकार कानून की सीमाओं के विशेष रूप से अधीन हो सकती है. इस केस में, रबात एक्शन प्लान के कारकों की चर्चा करने के बाद, बोर्ड ने यह नहीं माना कि पोस्ट धार्मिक नफ़रत की वकालत करती है और वह भेदभाव, शत्रुता या हिंसा के उकसावे की सीमा को पार नहीं करती. ये स्थितियाँ ICCPR अनुच्छेद 20, पैरा. 2 के तहत प्रतिबंधित करने के लिए ज़रूरी हैं. ICCPR अनुच्छेद 19, पैरा. 3 के अनुसार, अभिव्यक्ति पर प्रतिबंध को समझने और एक्सेस करने में आसान बनाना (कानूनी आवश्यकता), बताए गए उद्देश्यों में से किसी एक का अनुपालन करने का लक्ष्य होना (वैधानिक लक्ष्य की आवश्यकता), और विशिष्ट उद्देश्य के लिए ज़रूरी और एकदम अनुरूप बनाया जाना (ज़रूरत और अनुपात की आवश्यकता) आवश्यक है. बोर्ड ने Facebook के कंटेंट को हटाने के फ़ैसले को इन शर्तों के खिलाफ़ माना.
I. वैधानिकता
वैधानिकता के संबंध में, बोर्ड ने पाया कि अप्रत्यक्ष धमकियों को निर्धारित करने की Facebook की प्रोसेस और शर्तों के बारे में कम्युनिटी स्टैंडर्ड में यूज़र को नहीं समझाया गया है जिसे यह बात स्पष्ट नहीं होती कि पॉलिसी को एन्फ़ोर्स करने के लिए कौन सा “अतिरिक्त संदर्भ” ज़रूरी है.
II. वैधानिक लक्ष्य
बोर्ड ने आगे यह भी माना कि इस केस में अभिव्यक्ति पर प्रतिबंध से वैधानिक लक्ष्य प्राप्त होगा: दूसरों के अधिकारों की सुरक्षा (जीवन का अधिकार और पोस्ट द्वारा टार्गेट किए गए लोगों की इंटीग्रिटी).
III. आवश्यकता और आनुपातिकता
बोर्ड के अधिकांश मेंबर्स ने माना कि पोस्ट को हटाने की ज़रूरत नहीं थी, जो पोस्ट का उसके खास संदर्भ में आकलन करने की महत्ता पर ज़ोर देता है.
उन्होंने माना कि जिस तरह लोगों को धर्म या धार्मिक लोगों की आलोचना करने का अधिकार है, उसी तरह धर्म को मानने वाले लोगों को भी इस तरह की अभिव्यक्ति पर नाराज़गी जताने का अधिकार है. बोर्ड भारत में मुस्लिमों के खिलाफ़ भेदभाव और हिंसा की गंभीरता को समझता है. बोर्ड के अधिकांश मेंबर्स ने यह भी माना कि राष्ट्रपति मैक्रों और फ़्रेंच प्रोडक्ट के बहिष्कार के संदर्भ अहिंसक कॉल टू एक्शन हैं. इस संबंध में भले ही पोस्ट में तलवार का संदर्भ है, लेकिन बोर्ड के अधिकांश मेंबर्स ने पोस्ट की व्याख्या करते हुए कहा कि यह हिंसा की वास्तविक धमकी देना नहीं बल्कि धर्म की आड़ में हिंसा पर मैक्रों की प्रतिक्रिया की आलोचना है.
बोर्ड ने यह तय करने के लिए कई बातों पर विचार किया कि इससे कोई नुकसान नहीं है. टार्गेट (“काफ़िर”) की व्यापक प्रकृति और जान और माल के संभावित नुकसान या हिंसा, जो तात्कालिक नहीं दिखाई दी, के संबंध में स्पष्टता की कमी के कारण बोर्ड के अधिकांश मेंबर्स इस नतीजे पर पहुँचे. यूज़र कोई सरकारी व्यक्ति या सार्वजनिक हस्ती या अन्यथा ऐसा कोई व्यक्ति नहीं था जिसका दूसरे लोगों के व्यवहार पर असर पड़े और यह बात भी महत्वपूर्ण थी. इसके अलावा, धमकी या उकसावे की एक्शन के बारे में किसी खास समय या लोकेशन का अप्रत्यक्ष संदर्भ नहीं दिया गया था. बोर्ड की रिसर्च से पता चला कि मैक्रों के बयान के बाद भारत में हुआ विरोध प्रदर्शन हिंसक नहीं था. इस संबंध में, बोर्ड के कुछ मेंबर्स ने पाया कि Facebook ग्रुप भारत के लोगों के लिए टार्गेट किया गया था और उसका कुछ हिस्सा हिंदी में था जो बताता है कि उसका असर एक ऐसे एरिया तक ही सीमित रहा होता जहाँ हिंसक प्रतिक्रिया नहीं हुई थी. इसके अलावा, बोर्ड के कुछ मेंबर्स ने माना कि Facebook द्वारा दिए गए उदाहरण मोटे तौर पर भारत में मुस्लिम अल्पसंख्यकों के खिलाफ़ हिंसा से जुड़े थे जिसे बोर्ड ने एक ज़रूरी चिंता माना लेकिन ये उदाहरण मुस्लिमों द्वारा बदले की हिंसा से नहीं जुड़े थे. इसलिए, अधिकांश मेंबर्स इस नतीजे पर पहुँचे कि इस पोस्ट से जान और माल का नुकसान होने की संभावना नहीं थी और ऐसा कुछ तात्कालिक असर भी नहीं था.
कुछ मेंबर्स ने इस पोस्ट को धमकी वाली या ईशनिंदा की प्रतिक्रिया में हिंसा के कुछ रूपों को सही ठहराने वाली माना. भले ही “तलवार” गैर-विशिष्ट हिंसा का रेफ़रेंस है, कुछ मेंबर्स ने माना कि चार्ली हब्दो से संबंधित हत्याएँ और हाल ही में फ़्रांस में ईशनिंदा को लेकर सिर कलम करने की घटनाएँ दर्शाती हैं कि इस धमकी को अवास्तविक मानकर ख़ारिज नहीं किया जा सकता. फ़्रांस की घटनाओं का रेफ़रेंस देने वाले हैशटैग इस व्याख्या का समर्थन करते हैं. इस केस में, कुछ मेंबर्स ने कहा कि Facebook को ऐसे कंटेंट को हटाने के लिए हिंसा के तात्कालिक होने का इंतज़ार नहीं करना चाहिए जो अभिव्यक्ति के अपने अधिकार का उपयोग करने वाले लोगों को डराता-धमकाता हो और वे Facebook के फ़ैसले का समर्थन करते.
लेकिन अधिकांश मेंबर्स ने माना कि Facebook ने संदर्भ से जुड़ी सभी जानकारी का सटीकता से आकलन नहीं किया. बोर्ड ने इस बात पर ज़ोर दिया कि कंटेंट को रीस्टोर करने का मतलब कंटेंट से सहमति नहीं है और उन्होंने माना कि अप्रत्यक्ष या कोड के रूप में दी गई धमकियों का आकलन करना कठिन होता है. इसके बावजूद, अभिव्यक्ति के बारे में अंतरराष्ट्रीय मानवाधिकार स्टैंडर्ड, कंटेंट को रीस्टोर करने के बोर्ड के फ़ैसले को उचित बताते हैं.
9. ओवरसाइट बोर्ड का फ़ैसला
9.1 कंटेंट से जुड़ा फ़ैसला
ओवरसाइट बोर्ड ने Facebook के कंटेंट हटाने के फ़ैसले को बदल दिया है और पोस्ट को रीस्टोर करने के लिए कहा गया है.
9.2 पॉलिसी से जुड़े सुझाव का कथन
यह फ़ैसला सिर्फ़ यूज़र नोटिफ़िकेशन और सहमति पर लागू किया जाना चाहिए.
यह सुनिश्चित करने के लिए कि यूज़र को परमिशन प्राप्त कंटेंट के बारे में स्पष्टता मिले, बोर्ड ने सुझाव दिया कि Facebook अपने यूज़र्स को इस कम्युनिटी स्टैंडर्ड के दायरे और एन्फ़ोर्समेंट के संबंध में अतिरिक्त जानकारी दे. एन्फ़ोर्समेंट की शर्तें पब्लिक होनी चाहिए और Facebook के आंतरिक क्रियान्वयन स्टैंडर्ड के अनुरूप होनी चाहिए. खास तौर पर, Facebook की शर्तों को इरादे, यूज़र और ऑडियंस की पहचान और संदर्भ का समाधान करना चाहिए.
*प्रक्रिया सबंधी नोट:
ओवरसाइट बोर्ड के फैसले पाँच मेंबर के पैनल द्वारा तैयार किए जाते हैं और बोर्ड के अधिकांश मेंबर द्वारा इन पर सहमति दी जानी आवश्यक है. यह ज़रूरी नहीं है कि बोर्ड के फैसले सभी मेंबरों के निजी फैसलों को दर्शाएँ.
इस केस के फ़ैसले के लिए, बोर्ड की ओर से स्वतंत्र शोध को अधिकृत किया गया. एक स्वतंत्र शोध संस्थान जिसका मुख्यालय गोथेनबर्ग यूनिवर्सिटी में है और छह महाद्वीपों के 50 से भी ज़्यादा समाजशास्त्रियों की टीम के साथ ही दुनिया भर के देशों के 3,200 से भी ज़्यादा विशेषज्ञों ने सामाजिक-राजनैतिक और सांस्कृतिक संदर्भ में विशेषज्ञता मुहैया कराई है. Lionbridge Technologies, LLC कंपनी ने भाषा संबंधी विशेषज्ञता की सेवा दी, जिसके विशेषज्ञ 350 से भी ज़्यादा भाषाओं में अपनी सेवाएँ देते हैं और वे दुनिया भर के 5,000 शहरों से काम करते हैं.