पलट जाना

नवालनी के समर्थन में विरोध प्रदर्शन

ओवरसाइट बोर्ड ने Facebook का उस कमेंट को हटाने का फ़ैसला बदल दिया है, जिसमें जेल में बंद रूस के विपक्षी नेता एलेक्सी नवालनी के एक समर्थक ने किसी दूसरे यूज़र को ‘cowardly bot’ (कायर चमचा) कहा था.

निर्णय का प्रकार

मानक

नीतियां और विषय

विषय
अभिव्यक्ति की स्वतंत्रता, न्यूज़ ईवेंट, राजनीति
सामुदायिक मानक
धमकी और उत्पीड़न

क्षेत्र/देश

जगह
रूस

प्लैटफ़ॉर्म

प्लैटफ़ॉर्म
Facebook

केस का सारांश

ओवरसाइट बोर्ड ने Facebook का उस कमेंट को हटाने का फ़ैसला बदल दिया है, जिसमें जेल में बंद रूस के विपक्षी नेता एलेक्सी नवालनी के एक समर्थक ने किसी दूसरे यूज़र को "cowardly bot" (कायर चमचा) कहा था. Facebook ने “cowardly” (कायर) शब्द का उपयोग करने के कारण कमेंट हटा दिया, जिसे किसी के चरित्र से जुड़े नकारात्मक दावे के रूप में माना गया. बोर्ड ने पाया कि कमेंट हटाने का फ़ैसला, डराने-धमकाने और उत्पीड़न से जुड़े कम्युनिटी स्टैंडर्ड के अनुरूप था, लेकिन मौजूदा स्टैंडर्ड, अंतरराष्ट्रीय मानवाधिकार स्टैंडर्ड के तहत स्वतंत्र अभिव्यक्ति पर एक अनावश्यक और असंगत प्रतिबंध था. यह Facebook के मूल्यों के अनुरूप भी नहीं था.

केस की जानकारी

24 जनवरी को रूस के एक यूज़र ने 23 जनवरी को सेंट पीटर्सबर्ग और पूरे रूस में विपक्षी नेता एलेक्सी नवालनी के समर्थन में हुए विरोध प्रदर्शनों की कई फ़ोटो, एक वीडियो और टेक्स्ट वाली एक पोस्ट (मूल पोस्ट) की. दूसरे यूज़र (विरोध प्रदर्शन का आलोचक) ने मूल पोस्ट का जवाब देते हुए लिखा कि उन्हें नहीं पता कि सेंट पीटर्सबर्ग में क्या हुआ, लेकिन मॉस्को में मौजूद सभी प्रदर्शनकारी स्कूली बच्चे थे, जो “slow” (सही-गलत न समझने वाले) थे और जिनका “shamelessly used” (बेशर्मी के साथ फ़ायदा उठाया) गया था.

इसके बाद, अन्य यूज़र्स ने मूल पोस्ट पर आगे और कमेंट करते हुए विरोध प्रदर्शन के आलोचक को चुनौती दी. विरोध प्रदर्शन में शामिल एक यूज़र (प्रदर्शनकारी) वह आखिरी व्यक्ति था जिसने विरोध प्रदर्शन के आलोचक को जवाब दिया था. उन्होंने बताया कि वे बुज़ुर्ग हैं और सेंट पीटर्सबर्ग में विरोध प्रदर्शन में शामिल हुए थे. प्रदर्शनकारी ने कमेंट के अंत में विरोध प्रदर्शन के आलोचक को “cowardly bot” (कायर चमचा) कहा.

इसके बाद, विरोध प्रदर्शन के आलोचक ने डराने-धमकाने और उत्पीड़न के कारण Facebook को प्रदर्शनकारी के कमेंट की रिपोर्ट की. Facebook ने तय किया कि “cowardly” (कायर) शब्द एक “private adult” (वयस्क व्यक्ति) के चरित्र से जुड़ा नकारात्मक दावा था और चूँकि हमले के “target” (शिकार हुए व्यक्ति) ने कंटेंट की रिपोर्ट की थी, इसलिए Facebook ने उसे हटा दिया. प्रदर्शनकारी ने Facebook को इस फ़ैसले के विरुद्ध अपील की. Facebook ने यह तय किया कि कमेंट से डराने-धमकाने और उत्पीड़न से जुड़ी पॉलिसी का उल्लंघन हुआ था, जिसके तहत कोई व्यक्ति Facebook से उन पोस्ट को हटाने के लिए कह सकता है, जिनमें उनके चरित्र को लेकर नकारात्मक कमेंट होते हैं.

मुख्य निष्कर्ष

इस केस में लोगों को डराने-धमकाने और उत्पीड़न से बचाने वाली पॉलिसी और अभिव्यक्ति की स्वतंत्रता की रक्षा करने की ज़रूरत के बीच की खींचतान सामने आती है. यह ऐसे किसी देश में राजनीतिक विरोध प्रदर्शन के मामले में विशेष रूप से प्रासंगिक है, जहाँ मानवाधिकारों की सुरक्षा के लिए प्रभावी सिस्टम न होने के बारे में विश्वसनीय शिकायतें सामने आ चुकी हों.

बोर्ड ने पाया कि हो सकता है Facebook का कंटेंट को हटाने का फ़ैसला, कम्युनिटी स्टैंडर्ड को सख्ती से लागू करने के अनुरूप हो, लेकिन कम्युनिटी स्टैंडर्ड के तहत व्यापक संदर्भ पर ध्यान नहीं दिया गया और अभिव्यक्ति की स्वतंत्रता को असंगत तरीके से प्रतिबंधित कर दिया गया.

डराने-धमकाने और उत्पीड़न से जुड़ा कम्युनिटी स्टैंडर्ड कहता है कि Facebook किसी व्यक्ति के चरित्र को लेकर किए गए ऐसे किसी भी नकारात्मक दावे को तब हटाता है, जब उस दावे के ज़रिए निशाना बनाया गया व्यक्ति उस कंटेंट की रिपोर्ट करता है. बोर्ड Facebook के इस निष्कर्ष पर आपत्ति नहीं उठाता है कि विरोध प्रदर्शन का आलोचक एक व्यक्ति है और "cowardly" (कायर) शब्द किसी के चरित्र से जुड़ा नकारात्मक दावा था.

हालाँकि, कम्युनिटी स्टैंडर्ड के अनुसार Facebook के लिए राजनीतिक संदर्भ, सार्वजनिक हस्ती या बातचीत के तीखे लहज़े पर ध्यान देना ज़रूरी नहीं था. इसलिए, Facebook ने विरोध प्रदर्शनों के बारे में किए गए झूठे दावों का खंडन करने के प्रदर्शनकारी के इरादे पर गौर नहीं किया या किसी व्यक्ति के चरित्र को लेकर किए गए नकारात्मक दावे की रिपोर्ट किए जाने की समस्या को दूर करने का कोई उचित प्रयास नहीं किया.

इस कंटेंट को हटाने के फ़ैसले में “अभिव्यक्ति” की तुलना में “गरिमा” और “सुरक्षा” के Facebook के मूल्यों का ध्यान नहीं रखा जा सका. "अभिव्यक्ति" के मूल्य में राजनीतिक भाषण सबसे महत्वपूर्ण है और यह सिर्फ़ वहीं सीमित होना चाहिए जहाँ "सुरक्षा" या "गरिमा" से जुड़ी स्पष्ट चिंताएँ सामने आती हैं.

रूस की तरह ही “अभिव्यक्ति” उन देशों में ख़ास तौर पर बेहद ज़रूरी हो जाती है, जहाँ रोज़ाना लोगों से अभिव्यक्ति की स्वतंत्रता का अधिकार छीना जाता है. इस केस में बोर्ड ने यह पाया कि Facebook को रूस में नवालनी के समर्थकों के विरोध प्रदर्शन के व्यापक संदर्भ के बारे में पता था और बड़ी चेतावनी को देखते हुए कंटेंट का पूरी सावधानी के साथ मूल्यांकन किया जाना चाहिए था.

बोर्ड ने पाया कि डराने-धमकाने और उत्पीड़न से जुड़े Facebook के कम्युनिटी स्टैंडर्ड का दूसरों के अधिकारों की रक्षा करने में वैध उद्देश्य है. हालाँकि, इस केस में डराने-धमकाने और उत्पीड़न की अलग-अलग अवधारणाओं को अस्पष्ट तौर पर परिभाषित कुछ नियमों में शामिल करने के कारण उचित भाषण को अनावश्यक रूप से हटा दिया गया.

ओवरसाइट बोर्ड का फ़ैसला

ओवरसाइट बोर्ड ने Facebook के कंटेंट हटाने के फ़ैसले को बदल दिया है और पोस्ट को रीस्टोर करने के लिए कहा है.

पॉलिसी से जुड़े सुझाव के कथन में बोर्ड ने कहा है कि अंतरराष्ट्रीय मानवाधिकार मानकों का पालन करने के लिए, Facebook को डराने-धमकाने और उत्पीड़न से जुड़े अपने कम्युनिटी स्टैंडर्ड में बदलाव करना चाहिए और फिर से उसका मसौदा तैयार करना चाहिए, ताकि:

· पॉलिसी बनाने का कारण और “ये न करें” के साथ-साथ इनके बाद बताए गए इनसे जुड़े अन्य नियमों के बीच के संबंध को स्पष्ट किया जा सके, जो किसी कंटेंट पर रोक लगाते हैं.

· डराने-धमकाने और उत्पीड़न के बीच अंतर किया जा सके, साथ ही इन दोनों ही व्यवहारों के अंतर को समझाने वाली परिभाषाएँ उपलब्ध करवाई जा सकें. कम्युनिटी स्टैंडर्ड में यूज़र्स को स्पष्ट रूप से यह बताना चाहिए कि डराना-धमकाना और उत्पीड़न करना उन बातों से किस तरह अलग है, जिनसे केवल किसी का अपमान होता है, साथ ही उसे अंतरराष्ट्रीय मानवाधिकार कानून के तहत संरक्षण दिया जा सकता है.

· अलग-अलग टार्गेट यूज़र की कैटेगरी के बारे में इसके नज़रिए को स्पष्ट रूप से परिभाषित किया जा सके और हर एक टार्गेट कैटेगरी के बारे में बताने वाले उदाहरण दिए जा सकें (जैसे कि सार्वजनिक हस्ती कहलाने की पात्रता कौन पूरी करता है). मौजूदा पॉलिसी में दर्ज यूज़र्स की कैटेगरी के अनुसार डराने-धमकाने और उत्पीड़न से जुड़े कम्युनिटी स्टैंडर्ड को व्यवस्थित किया जा सके.

· डराने-धमकाने और उत्पीड़न से जुड़े कम्युनिटी स्टैंडर्ड में उल्लंघन करने वाले और नहीं करने वाले कंटेंट के उदाहरण शामिल किए जा सकें, जिससे पॉलिसी की तय की गईं सीमाएँ स्पष्ट करने के साथ यह बताया जा सके कि ये अंतर निशाना बनाए गए व्यक्ति की पहचान की स्थिति पर कैसे निर्भर कर सकते हैं.

· किसी वयस्क व्यक्ति के खिलाफ़ कंटेंट का मूल्यांकन करते समय, जिसमें ‘चरित्र से जुड़े नकारात्मक दावे’ वाला कंटेंट शामिल है, सामाजिक और राजनीतिक संदर्भ का मूल्यांकन करने की ज़रूरत को पूरा करने के लिए Facebook को कम्युनिटी स्टैंडर्ड में बदलाव करना चाहिए. Facebook को राजनीतिक या सार्वजनिक बहसों पर इस नियम के तहत की गई कार्रवाई पर फिर से विचार करना चाहिए, जहाँ कंटेंट को हटाने से बहस प्रभावित हुई होगी.

· जब भी Facebook किसी चरित्र से जुड़े नकारात्मक दावे के कारण किसी कंटेंट को हटाता है, जो एक बड़ी-सी पोस्ट में केवल एक शब्द या वाक्यांश के रूप में है, तो उन्हें तुरंत ऐसा दावा करने वाले यूज़र को सूचित करना चाहिए, ताकि वह यूज़र चरित्र से जुड़े उस नकारात्मक दावे के बिना उस कंटेंट को दोबारा पोस्ट कर सके.

*केस के सारांश से केस का ओवरव्यू पता चलता है और आगे के किसी फ़ैसले के लिए इसको आधार नहीं बनाया जा सकता है.

केस का पूरा फ़ैसला

1. फ़ैसले का सारांश

ओवरसाइट बोर्ड ने Facebook का उस कमेंट को हटाने का फ़ैसला बदल दिया है, जिसमें जेल में बंद रूस के विपक्षी नेता एलेक्सी नवालनी के एक समर्थक ने किसी दूसरे यूज़र को "cowardly bot" (कायर चमचा) कहा था. Facebook ने स्पष्ट किया कि “cowardly” (कायर) शब्द का उपयोग करने के कारण कमेंट हटा दिया था, जिसे किसी के चरित्र से जुड़े नकारात्मक दावे के रूप में माना गया था. बोर्ड ने पाया कि कमेंट हटाने का फ़ैसला, डराने-धमकाने और उत्पीड़न से जुड़े कम्युनिटी स्टैंडर्ड के अनुरूप था, लेकिन यह स्टैंडर्ड, अंतरराष्ट्रीय मानवाधिकार मानकों के तहत स्वतंत्र अभिव्यक्ति पर एक अनावश्यक और असंगत प्रतिबंध था. यह Facebook के मूल्यों के अनुरूप भी नहीं था.

2. केस का विवरण

24 जनवरी को रूस के एक यूज़र ने 23 जनवरी को सेंट पीटर्सबर्ग और पूरे रूस में विपक्षी नेता एलेक्सी नवालनी के समर्थन में हुए विरोध प्रदर्शनों की कई फ़ोटो, एक वीडियो और टेक्स्ट वाली एक पोस्ट (मूल पोस्ट) की. दूसरे यूज़र (विरोध प्रदर्शन का आलोचक) ने मूल पोस्ट का जवाब देते हुए लिखा कि उन्हें नहीं पता कि सेंट पीटर्सबर्ग में क्या हुआ, लेकिन मॉस्को में मौजूद सभी प्रदर्शनकारी स्कूली बच्चे थे, जो “slow” (सही-गलत न समझने वाले) थे और जिनका “shamelessly used” (बेशर्मी के साथ फ़ायदा उठाया) गया था. विरोध प्रदर्शन के आलोचक ने आगे कहा कि प्रदर्शनकारी लोगों के लिए आवाज़ नहीं उठा रहे थे बल्कि वो सब एक "नाटक" था.

इसके बाद, अन्य यूज़र्स ने मूल पोस्ट पर आगे और कमेंट करते हुए विरोध प्रदर्शन के आलोचक को चुनौती दी. इन अन्य यूज़र्स ने प्रदर्शनकारियों का बचाव करते हुए कहा कि विरोध प्रदर्शन के आलोचक निरर्थक बातें फैला रहे थे और उन्होंने नवालनी से जुड़े आंदोलन को गलत समझा. विरोध प्रदर्शन के आलोचक ने इन आपत्तियों को लगातार खारिज करते हुए और नवालनी को “pocket clown” (किसी के हाथों की कठपुतली) और “rotten” (घटिया) जैसे शब्दों से संबोधित करते हुए कई कमेंट के जवाब दिए और यह दावा भी किया कि उसका समर्थन करने वाले लोगों का कोई आत्म-सम्मान नहीं है. उन्होंने विरोध प्रदर्शनों में अपने दादा-दादी या नाना-नानी को साथ लाने वाले लोगों को “morons” (बेवकूफ़) भी कहा.

विरोध प्रदर्शन में शामिल एक यूज़र (प्रदर्शनकारी) वह आखिरी व्यक्ति था जिसने विरोध प्रदर्शन के आलोचक को जवाब दिया था. उन्होंने खुद अपनी पहचान बताते हुए कहा कि वे बुज़ुर्ग हैं और वे सेंट पीटर्सबर्ग में हुए विरोध प्रदर्शन में शामिल हुए थे. उन्होंने गौर किया कि विरोध प्रदर्शनों में दिव्यांग और बुज़ुर्ग लोगों सहित कई लोग थे और युवाओं को विरोध प्रदर्शन करते देख उन्हें गर्व हुआ था. उन्होंने कहा कि विरोध प्रदर्शन के आलोचक से यह सोचने में बहुत बड़ी गलती हुई कि युवा प्रदर्शनकारियों को बहकाया गया था. प्रदर्शनकारी ने कमेंट के अंत में विरोध प्रदर्शन के आलोचक को “cowardly bot” (कायर चमचा) कहा.

इसके बाद, विरोध प्रदर्शन के आलोचक ने डराने-धमकाने और उत्पीड़न के कारण Facebook को प्रदर्शनकारी के कमेंट की रिपोर्ट की. Facebook ने तय किया कि “cowardly” (कायर) शब्द एक “private adult” (वयस्क व्यक्ति) (यानी, जो सार्वजनिक हस्ती न हो) के चरित्र से जुड़ा नकारात्मक दावा था और चूँकि हमले का “target” (शिकार हुए व्यक्ति) ने कंटेंट की रिपोर्ट की थी, इसलिए Facebook ने उसे हटा दिया. Facebook को “bot” (चमचा) शब्द किसी के चरित्र से जुड़ा नकारात्मक दावा नहीं लगा. प्रदर्शनकारी ने Facebook को इस फ़ैसले के विरुद्ध अपील की. Facebook ने अपील का रिव्यू करके यह तय किया कि कमेंट से डराने-धमकाने और उत्पीड़न से जुड़ी पॉलिसी का उल्लंघन हुआ था. प्रदर्शनकारी के अपील करने के चार मिनट के भीतर कंटेंट रिव्यू कर लिया गया था, जो Facebook के अनुसार अपील करने पर कंटेंट रिव्यू करने की "सामान्य समयावधि के अंतर्गत आता है."

3. प्राधिकार और दायरा

बोर्ड को उस यूज़र के अपील करने के बाद Facebook के फ़ैसले का रिव्यू करने का अधिकार है, जिसकी पोस्ट हटा दी गई थी (चार्टर अनुच्छेद 2, सेक्शन 1; उपनियम अनुच्छेद 2, सेक्शन 2.1). बोर्ड उस फ़ैसले को कायम रख सकता है या उसे बदल सकता है (चार्टर अनुच्छेद 3, सेक्शन 5).

बोर्ड के फ़ैसले बाध्यकारी होते हैं और उनमें पॉलिसी से जुड़ी सलाह के कथनों के साथ सुझाव भी शामिल हो सकते हैं. ये सुझाव बाध्यकारी नहीं होते हैं, लेकिन Facebook को उनका जवाब देना होगा (चार्टर अनुच्छेद 3, सेक्शन 4).

पारदर्शी और नैतिक तरीके से विवादों को सुलझाने के लिए यह बोर्ड एक स्वतंत्र शिकायत निवारण प्रणाली है.

4. प्रासंगिक स्टैंडर्ड

ओवरसाइट बोर्ड ने इन स्टैंडर्ड पर विचार करते हुए अपना फ़ैसला दिया है:

I. Facebook के कम्युनिटी स्टैंडर्ड

डराने-धमकाने और उत्पीड़न से जुड़े कम्युनिटी स्टैंडर्ड को दो भागों में बाँटा गया है. इसमें पॉलिसी बनाने का कारण होता है, उसके बाद “ये न करें” की लिस्ट होती है, जिसमें किस तरह के कंटेंट को पोस्ट नहीं करना चाहिए और उसे कब निकाला जा सकता है, इससे जुड़े अलग-अलग नियम होते हैं.

इस पॉलिसी बनाने के कारण की शुरुआत में ही कहा गया है कि डराना-धमकाना और उत्पीड़न कई अलग-अलग तरीके से हो सकता है, जिसमें धमकी भरे मैसेज और अवांछित दुर्भावनापूर्ण संपर्क शामिल हैं. इसमें फिर यह स्पष्ट रूप से कहा गया है कि Facebook इस तरह के व्यवहार को बिल्कुल भी बर्दाश्त नहीं करता है, क्योंकि इससे लोग असुरक्षित और अपमानित महसूस करते हैं.” उस कारण में यह भी बताया जाता है कि Facebook मौजूदा हालातों पर खुली चर्चा की परमिशन देने के लिए सार्वजनिक हस्तियों और आम लोगों को डराने-धमकाने और उत्पीड़न किए जाने को अलग-अलग नज़रिए से देखता है. पॉलिसी बनाने का कारण यह भी कहता है कि आम लोगों की रक्षा करने के लिए Facebook ऐसा कोई भी कंटेंट निकाल देता है, जिसका “उद्देश्य किसी को नीचा दिखाना या शर्मिंदा करना” है.

कारण के बाद में आने वाले “ये न करें” नियमों में से एक नियम यह स्पष्ट रूप से कहता है कि “वयस्कों के खिलाफ़ लगाए जाने वाले आपराधिक आरोपों के संदर्भ को छोड़कर” “लोगों (जिन्हें खुद ही रिपोर्ट करना चाहिए) को चरित्र या क्षमता से जुड़े नकारात्मक दावों के साथ निशाना बनाने” की परमिशन नहीं है. कम्युनिटी स्टैंडर्ड में “चरित्र से जुड़े नकारात्मक दावे” का अर्थ नहीं समझाया गया है. वहीं Facebook ने बोर्ड को बताया कि उनके पास “ऐसी कोई पूरी लिस्ट नहीं है, जो यह बताए कि कौन से शब्दों को चरित्र से जुड़े नकारात्मक दावे के रूप में माना जाता है.” हालाँकि “क्षेत्रीय रूप से काम करने वाली Facebook की कई टीमें उनसे संबंधित जगह पर उपयोग की जाने वाली भाषा के शब्दों की ऐसी डायनेमिक लिस्ट बनाती हैं, जिसमें उस भाषा से जुड़ा हर एक शब्द तो नहीं होता, लेकिन उससे उन शब्दों की एक समझ मिल जाती है, जिन्हें नकारात्मक दावे के रूप में समझना मुश्किल हो सकता है, जैसे कि ऐसे शब्द, जो नए हैं या अलग-अलग तरह से उपयोग किए जाते हैं.”

Facebook के पास डराने-धमकाने और उत्पीड़न पर आंतरिक कार्यान्वयन से जुड़े स्टैंडर्ड और पॉलिसी को लागू करने के तरीके की पूरी जानकारी देने वाले डॉक्यूमेंट भी हैं. सार्वजनिक रूप से उपलब्ध न होने वाली ये गाइडलाइन प्रमुख शब्दों को परिभाषित करती हैं और मॉडरेटर को मार्गदर्शन और उदाहरण देकर यह बताती हैं कि पॉलिसी के तहत कौन-सा कंटेंट हटाया जा सकता है. बोर्ड को दी गई जानकारी के एक भाग में “चरित्र से जुड़े नकारात्मक दावे” को “ऐसे विशिष्ट शब्दों या विवरणों के रूप में परिभाषित किया गया था, जो किसी व्यक्ति की मानसिक या चारित्रिक विशेषताओं पर हमला करते हैं. इसमें शामिल हैं: स्वभाव, मिज़ाज, व्यक्तित्व, मानसिकता आदि. इसमें केवल किसी व्यक्ति के कार्यों से जुड़े दावे शामिल नहीं हैं, न ही आपराधिक आरोपों से जुड़े दावे शामिल हैं.”

II. Facebook के मूल्य

Facebook के मूल्यों की रूपरेखा कम्युनिटी स्टैंडर्ड के परिचय सेक्शन में दी गई है.

“अभिव्यक्ति” के महत्व को “सर्वोपरि” बताया गया है:

हमारे कम्युनिटी स्टैंडर्ड का लक्ष्य हमेशा एक ऐसा प्लेटफ़ॉर्म बनाना रहा है, जहाँ लोग अपनी बात रख सकें और अपनी भावनाओं को व्यक्त कर सकें. […] हम चाहते हैं कि लोग अपने लिए महत्व रखने वाले मुद्दों पर खुलकर बातें कर सकें, भले ही कुछ लोग उन बातों पर असहमति जताएँ या उन्हें वे बातें आपत्तिजनक लगें.

Facebook "अभिव्यक्ति” को चार मूल्यों के मामले में सीमित करता है, जिनमें से दो यहाँ प्रासंगिक हैं.

“सुरक्षा”: हम Facebook को एक सुरक्षित जगह बनाने के लिए प्रतिबद्ध हैं. धमकी भरी अभिव्यक्ति से लोगों में डर, अलगाव की भावना आ सकती या दूसरों के विचार दब सकते हैं और Facebook पर इसकी परमिशन नहीं है.

“गरिमा” : हमारा मानना है कि सभी लोगों को एक जैसा सम्मान और एक जैसे अधिकार मिलने चाहिए. हम उम्मीद करते है कि लोग एक-दूसरे की गरिमा का ध्यान रखेंगे और दूसरों को परेशान नहीं करेंगे या नीचा नहीं दिखाएँगे.

III. मानवाधिकार स्टैंडर्ड

बिज़नेस और मानव अधिकारों के बारे में संयुक्त राष्ट्र संघ के मार्गदर्शक सिद्धांत (UNGP), जिन्हें 2011 में संयुक्त राष्ट्र संघ की मानव अधिकार समिति का समर्थन मिला है, प्राइवेट बिज़नेस की मानवाधिकारों से जुड़ी ज़िम्मेदारियों का स्वैच्छिक ढांचा तैयार करते हैं. मार्च 2021 में Facebook ने अपनी कॉर्पोरेट मानवाधिकार पॉलिसी की घोषणा की जिसमें उन्होंने UNGP के अनुसार अधिकारों का सम्मान करने की अपनी प्रतिज्ञा को फिर से दोहराया. इस केस में बोर्ड ने इन मानवाधिकार स्टैंडर्ड को ध्यान में रखते हुए विश्लेषण किया:

  • अभिव्यक्ति की स्वतंत्रता: अनुच्छेद 19, नागरिक और राजनीतिक अधिकारों पर अंतरराष्ट्रीय प्रतिज्ञापत्र ( ICCPR); मानवाधिकार समिति, सामान्य टिप्पणी संख्या 34 (2011); विचार और अभिव्यक्ति की स्वतंत्रता पर विशेष रैपर्टर, A/74/486 (2019); महिलाओं के खिलाफ़ हिंसा पर विशेष रैपर्टर, A/HRC/38/47 (2018); अभिव्यक्ति की स्वतंत्रता और “फ़र्ज़ी ख़बर”, दुष्प्रचार और प्रचार-प्रसार को लेकर संयुक्त घोषणा, FOM.GAL/3/17 (2017);
  • शांतिपूर्ण तरीके से किसी जगह पर इकट्ठा होने का अधिकार: अनुच्छेद 21, ICCPR; शांतिपूर्ण तरीके से कहीं पर इकट्ठा होने और संघ बनाने की स्वतंत्रता के अधिकार पर विशेष रैपर्टर A/HRC/20/27 (2012);
  • स्वास्थ्य का अधिकार: अनुच्छेद 12, आर्थिक, सामाजिक और सांस्कृतिक अधिकारों पर अंतरराष्ट्रीय प्रतिज्ञापत्र (ICESCR).

5. यूज़र का कथन

बोर्ड के समक्ष पेश की गई अपील में उस प्रदर्शनकारी ने बताया कि उनका कमेंट अपमानजनक नहीं था और उसमें बस विरोध प्रदर्शन के आलोचक के झूठे दावों का खंडन किया गया था. प्रदर्शनकारी ने यह दावा किया कि विरोध प्रदर्शन के आलोचक ने विरोधी विचारों की ओर से लोगों का ध्यान भटकाने की कोशिश की और “कई प्रकाशनों में वे अपनी राय थोप रहे थे”, जिससे उन्हें लगा कि वे पैसा लेकर इस तरह का काम करने वाले एक ऐसे व्यक्ति हैं, जिन्हें उस विरोध प्रदर्शन की वास्तविकता के बारे में कुछ पता नहीं है.

6. Facebook के फ़ैसले का स्पष्टीकरण

Facebook ने कहा कि उन्होंने “गरिमा” और “सुरक्षा” के अपने मूल्यों के अनुरूप डराना-धमकाना और उत्पीड़न से जुड़ी उनकी पॉलिसी का उल्लंघन करने के लिए उस प्रदर्शनकारी के कमेंट को हटाया था. उन्होंने बताया कि कम्युनिटी स्टैंडर्ड के तहत किसी वयस्क व्यक्ति के चरित्र के बारे में नकारात्मक दावे करने वाले कंटेंट को हटाना तब ज़रूरी हो जाता है, जब भी उसकी रिपोर्ट उस दावे के ज़रिए निशाना बनाया गया व्यक्ति करता है. किसी यूज़र को किसी कंटेंट से निशाना बनाए गए व्यक्ति के तौर पर तब समझा जाता है, जब उस कंटेंट में उनके नाम का उल्लेख होता है. इस केस में Facebook ने कहा कि विरोध प्रदर्शन के आलोचक को निशाना बनाते हुए “cowardly” (कायर) शब्द के उपयोग से “बड़ी आसानी से समझ में आ जाता है कि यह चरित्र के बारे में किया गया नकारात्मक दावा है”.

Facebook ने बताया कि अगर किसी कंटेंट से निशाना बनाया गया व्यक्ति खुद उसकी रिपोर्ट करता है, तो वे लोगों को नीचा दिखाने या शर्मसार करने वाला कोई भी कंटेंट हटा देते हैं. निशाना बनाए गए व्यक्ति की ओर से कंटेंट की रिपोर्ट किए जाने की शर्त इसलिए रखी गई थी, ताकि Facebook को बेहतर ढंग से समझने में मदद मिले कि कब लोग खुद को डराने-धमकाने या उत्पीड़न से परेशान महसूस करते हैं.

Facebook के अनुसार ऐसे हमलों से लोग इस प्लेटफ़ॉर्म पर सुरक्षित और सम्मानित महसूस नहीं करते, जिससे उनके बहस या चर्चा में शामिल होने की संभावना कम हो जाती है और इसी आधार पर यूज़र के चरित्र पर किए गए हमलों को प्रतिबंधित करना उचित ठहराया. डर और धमकी भरे माहौल के खिलाफ़ काम करने वाली चैरिटी Ditch the Label के एक लेख का हवाला देते हुए Facebook ने दोहराया कि डर-धमकी से “अभिव्यक्ति की स्वतंत्रता के अधिकार पर विपरीत असर पड़ता है. . . और एक ऐसा माहौल बनता है, जिसमें दूसरों (अक्सर हाशिए पर मौजूद समूहों) की आत्म-अभिव्यक्ति को दबा दिया जाता है.” Facebook ने अन्य शोधों का भी हवाला देते हुए सुझाव दिया कि जिन यूज़र्स के साथ उत्पीड़न हुआ है, उनके द्वारा खुद को सीमित कर लिए जाने की आशंका रहती है.

Facebook ने बताया कि जहाँ निशाना बनाया गया व्यक्ति वयस्क है और वह उस कंटेंट से आहत होने की रिपोर्ट करता है, केवल उन्हीं मामलों तक कंटेंट हटाने की कार्रवाई को सीमित करके कंपनी सुनिश्चित करती है कि हर कोई “अपनी बात” रख सके. Facebook के अनुसार, इसे एक ऐसे अपील सिस्टम की मदद मिलती है, जो एन्फ़ोर्समेंट से जुड़ी गलतियों से बचने में मदद करने के लिए यूज़र्स को डराने-धमकाने और उत्पीड़न से जुड़ी पॉलिसी का उल्लंघन करने पर हटाए गए कंटेंट के रिव्यू का अनुरोध करने देता है.

Facebook ने यह भी कहा कि उनका फ़ैसला अंतरराष्ट्रीय मानवाधिकार मानकों के अनुरूप था. Facebook ने बताया कि (a) उनकी पॉलिसी सार्वजनिक रूप से उपलब्ध थी, (b) उस कंटेंट को हटाने का फ़ैसला अन्य लोगों की अभिव्यक्ति की स्वतंत्रता की रक्षा करने के लिए कानूनी रूप से सही था, और (c) अवांछित उत्पीड़न को खत्म करने के लिए उस कंटेंट को हटाना ज़रूरी था. Facebook की नज़र में उनका फ़ैसला अानुपातिक रूप से सही था, क्योंकि इसके अलावा कोई और उपाय किया जाता, तो भी विरोध प्रदर्शन के आलोचक का उत्पीड़न होता और जो अन्य लोग इस कंटेंट को देख सकते हैं, उन पर इसका विपरीत असर पड़ने की आशंका रहती.

7. थर्ड पार्टी सबमिशन

बोर्ड को इस केस के संबंध में 23 पब्लिक कमेंट मिले. इनमें से आठ कमेंट यूरोप से, 13 अमेरिका और कनाडा से, एक एशिया से और एक लैटिन अमेरिका और कैरिबियन से किया गया था. सबमिट किए गए कमेंट में जिन मुद्दों पर बात की गई, उनमें ये शामिल थे: क्या Facebook रूस में विरोध को दबाने में योगदान दे रहा है और इस तरह से रूसी राष्ट्रपति व्लादिमीर पुतिन का समर्थन कर रहा है, रूस में सरकार द्वारा प्रायोजित, स्थानीय सोशल मीडिया में हेरफेर का संदर्भ और क्या वह कंटेंट इतना गंभीर था कि उसे डराने-धमकाने या उत्पीड़ित करने वाला माना जाए.

कई तरह के संगठनों और लोगों ने कमेंट सबमिट किए, इनमें एक्टिविस्ट, पत्रकार, डराने-धमकाने के विरोध में काम करने वाले समूहों के साथ ही रूसी विपक्षी दल के सदस्य शामिल हैं.

इस केस के बारे में सबमिट किए गए पब्लिक कमेंट देखने के लिए यहाँ क्लिक करें.

8. ओवरसाइट बोर्ड का विश्लेषण

इस केस में लोगों को डराने-धमकाने और उत्पीड़न से बचाने वाली पॉलिसी और अभिव्यक्ति की स्वतंत्रता की रक्षा करने की ज़रूरत के बीच की खींचतान सामने आती है. यह किसी ऐसे देश में राजनीतिक विरोध के मामले में विशेष रूप से प्रासंगिक है, जहाँ मानवाधिकारों की सुरक्षा के लिए प्रभावी और स्वतंत्र प्रणाली न होने के बारे में विश्वसनीय शिकायतें सामने आ चुकी हों.

बोर्ड इन तीन पैमानों के ज़रिए यह तय करना चाहता है कि इस कंटेंट को Facebook पर रीस्टोर किया जाना चाहिए या नहीं: Facebook के कम्युनिटी स्टैंडर्ड; इस कंपनी के मूल्य; और मानवाधिकारों से जुड़ी इनकी ज़िम्मेदारियाँ.

8.1 कम्युनिटी स्टैंडर्ड का अनुपालन

बोर्ड ने पाया कि Facebook की ओर से उस कंटेंट को निकाला जाना चरित्र से जुड़ा नकारात्मक दावा करके किसी व्यक्ति को निशाना बनाने पर रोक लगाने वाले “ये न करें” नियम के अनुसार सही था. डराने-धमकाने और उत्पीड़न से जुड़ा कम्युनिटी स्टैंडर्ड कहता है कि Facebook किसी व्यक्ति के चरित्र को लेकर किए गए ऐसे किसी भी नकारात्मक दावे को तब हटाता है, जब उस दावे के ज़रिए निशाना बनाया गया व्यक्ति उस कंटेंट की रिपोर्ट करता है. अगर उसी कंटेंट की रिपोर्ट कोई ऐसा व्यक्ति करे, जिसे उस कंटेंट के ज़रिए निशाना नहीं बनाया गया था, तो उस कंटेंट को नहीं निकाला जाएगा.

उस बहस के लहज़े को देखते हुए इस केस के संदर्भ में “cowardly” (कायर) शब्द बोर्ड को गंभीर या नुकसानदेह नहीं नज़र आता है. फिर भी बोर्ड Facebook के इस निष्कर्ष पर आपत्ति नहीं उठाता कि आंदोलन का आलोचक एक व्यक्ति है और "cowardly" (कायर) शब्द को किसी के चरित्र से जुड़े नकारात्मक दावे के रूप में माना जा सकता है.

बोर्ड डराने-धमकाने और उत्पीड़न से जुड़ी पॉलिसी के महत्व को समझता है. नेशनल एंटी-बुलीइंग रिसर्च एंड रिसोर्स सेंटर के अनुसार डराना-धमकाना और उत्पीड़न करना दो अलग-अलग बातें हैं. हालाँकि डराने-धमकाने या उत्पीड़न करने की कोई व्यापक रूप से सम्मत परिभाषा नहीं है, किताबी परिभाषाओं की सामान्य बातों में जानबूझकर और बार-बार हमले करने के साथ-साथ शक्ति असंतुलन शामिल हैं. ये बातें Facebook के कम्युनिटी स्टैंडर्ड में नज़र नहीं आती हैं.

केट क्लोनिक ने लिखा है कि स्पष्ट परिभाषा के न होने और अत्यधिक संदर्भ-विशिष्ट तथा नुकसान की व्यक्तिपरक प्रकृति को देखते हुए, Facebook ने बताया कि उसके पास दो विकल्प थे: स्वतंत्र अभिव्यक्ति के हित में नुकसान पहुँचाने की आशंका वाले कंटेंट को प्लेटफ़ॉर्म पर बनाए रखना या फिर नुकसान पहुँचाने की आशंका वाली हर बात को हटाने की भूल करना (भले ही उस कंटेंट के सही होने की बात सामने आ जाए). ऑनलाइन रूप से डराने-धमकाने से जुड़े कुछ समर्थक समूहों और मीडिया बहस से प्रेरित होकर Facebook ने दूसरे विकल्प को चुना. कंटेंट में जिस व्यक्ति को निशाना बनाया गया है, उसके द्वारा ही रिपोर्ट किए जाने की शर्त सही कंटेंट को निकाले जाने के मामलों पर रोक लगाने की एक कोशिश नज़र आती है.

बोर्ड इस क्षेत्र से जुड़ी पॉलिसी के निर्धारण में आने वाली मुश्किलों को समझने के साथ-साथ यूज़र्स की सुरक्षा के महत्व को भी जानता है. यह विशेष रूप से उन महिलाओं और संवेदनशील समूहों पर लागू होता है, जिनके ऑनलाइन रूप से डराने-धमकाने और उत्पीड़न का शिकार होने की सबसे ज़्यादा आशंका है. हालाँकि, इस केस में बोर्ड के देखने में आया कि चरित्र को लेकर किया गया वह नकारात्मक दावा जनहित से जुड़े मुद्दे पर चल रही तीखी बहस में किया गया था और वह दावा विरोध प्रदर्शन के आलोचक द्वारा उपयोग की गई भाषा जैसा ही था. आंदोलन का वह आलोचक अपनी इच्छा से जनहित से जुड़े उस मामले पर हो रही बहस में शामिल हुआ था. इस केस से पता चलता है कि Facebook की असंवेदनशील और बिना संदर्भ की सोच, अभिव्यक्ति की स्वतंत्रता पर असंगत तरीके से रोक लगा सकती है. कम्युनिटी स्टैंडर्ड के तहत कार्रवाई करना इस बात का निर्धारण करने में नाकाफ़ी साबित होता है कि क्या कोई एक शब्द किसी व्यक्ति के चरित्र के बारे में नकारात्मक दावा करता है और क्या इसकी रिपोर्ट उस यूज़र ने की है, जिसे लेकर वह दावा किया गया था. उससे व्यापक संदर्भ या बातचीत का मूल्यांकन नहीं होता है.

इस केस में Facebook ने नवालनी समर्थक आंदोलनकारी के बारे में आंदोलन के आलोचक की अपमानजनक भाषा पर गौर नहीं किया. Facebook ने आंदोलन के आलोचक द्वारा उस आंदोलन के बारे में किए गए झूठे दावों का खंडन करने के आंदोलनकारी के इरादे पर भी गौर नहीं किया और न ही रिपोर्ट किए गए डराने-धमकाने से जुड़े मामले की समस्या को दूर करने का कोई उचित प्रयास किया. इसके बजाय कंपनी ने कहा कि कार्रवाई में संतुलन लाने का यह काम कम्युनिटी स्टैंडर्ड का मसौदा तैयार करते समय किया जाता है, ताकि मॉडरेशन से जुड़े फ़ैसले केवल रिपोर्ट किए गए हर एक कंटेंट पर लिए जाएँ. कुल मिलाकर ऐसा लगता है कि कंटेंट को हटाने का फ़ैसला उस एक शब्द के आधार पर ले लिया जाता है, अगर उस शब्द को किसी व्यक्ति के चरित्र के बारे में नकारात्मक दावे के रूप में माना जाता है, फिर भले ही कंटेंट किसी भी बहस के संदर्भ का हिस्सा हो.

8.2 Facebook के मूल्यों का अनुपालन

बोर्ड के यह देखने में आया है कि कंटेंट हटाने से जुड़ा Facebook का यह फ़ैसला Facebook के मूल्यों के अनुसार नहीं लिया गया था. साथ ही यह कंपनी “गरिमा” और “सुरक्षा” की तुलना में “अभिव्यक्ति” के साथ न्याय करने में विफल रही.

बोर्ड ने पाया कि वह राजनीतिक भाषण “अभिव्यक्ति” के मूल्य का मुख्य हिस्सा है. इस हिसाब से उस पर रोक सिर्फ़ उन्हीं हालातों में लगाई जानी चाहिए, जहाँ “सुरक्षा” या “गरिमा” को लेकर साफ़ तौर पर चिंतित करने वाली बातें नज़र आती हैं. किसी ऑनलाइन राजनीतिक बहस के मामले में एक निश्चित स्तर तक असहमति चलती है. उस आंदोलन के आलोचक ने अपनी अभिव्यक्ति की स्वतंत्रता का उपयोग पूरी तरह से किया, लेकिन उनकी बातों पर आपत्ति जताते हुए उन्हें “cowardly bot” (कायर चमचा) कहा गया. हालाँकि आंदोलनकारी के “cowardly” (कायर) और “bot” (चमचा) शब्द के उपयोग को किसी के चरित्र के बारे में नकारात्मक दावे के रूप में देखा जा सकता है, लेकिन यह जनहित के मुद्दे पर हुई व्यापक बहस में सामने आया है.

राजनीतिक मामलों के संबंध में “अभिव्यक्ति” उन देशों में ख़ास तौर पर बेहद ज़रूरी हो जाती है, जहाँ रोज़ाना लोगों से अभिव्यक्ति की स्वतंत्रता का अधिकार छीना जाता है. बोर्ड ने रूसी सरकार के समर्थकों के ऑनलाइन तौर पर विपक्ष विरोधी विचार पेश करने के काम में लगे होने के ठोस दस्तावेज़ी सबूत वाले उदाहरणों पर विचार किया. हालाँकि इस केस में सरकारी हस्तक्षेप होने का कोई सबूत नहीं मिला है, ऑनलाइन बहस में हेरफेर करने और विपक्षी आवाज़ों को दबाने की रूसी अधिकारियों की सामान्य कोशिशों से इस मामले में “अभिव्यक्ति” पर रोक लगाने के Facebook के फ़ैसले का आकलन करने के लिए महत्वपूर्ण संदर्भ मिलता.

“सुरक्षा” और “गरिमा” के मूल्य यूज़र्स को डराने-धमकाने, उनकी आवाज़ दबाने या उनका बहिष्कार होने से बचाते हैं. डराना-धमकाना और उत्पीड़न करना हमेशा पूरी तरह से निश्चित संदर्भ पर आधारित होता है और उन लोगों की सुरक्षा और गरिमा को बुरी तरह से प्रभावित करता है, जिन्हें इसके ज़रिए निशाना बनाया जाता है. बोर्ड के देखने में आया है कि “ऑनलाइन हिंसा की अलग-अलग अभिव्यक्तियों के परिणाम और नुकसान विशेष रूप से लिंग आधारित होते हैं, क्योंकि महिलाओं और लड़कियों पर ही संरचनात्मक असमानता, भेदभाव और पितृसत्ता के मामले में लांछन लगाए जाते हैं” (A/HRC/38/47, पैरा. 25).

चूँकि आंदोलन के आलोचक को उनके विचार पेश करने के लिए नहीं बुलाया गया था, इसलिए उन पर इस पोस्ट से पड़े प्रभाव का पता नहीं चल पाया है. हालाँकि, कमेंट थ्रेड के विश्लेषण से पता चलता है कि वह यूज़र सक्रिय रूप से एक विवादास्पद राजनीतिक चर्चा में शामिल था और नवालनी, उनके समर्थकों और 23 जनवरी के आंदोलन में शामिल लोगों पर बिना किसी झिझक के हमले करने के साथ उनका अपमान करता है. “cowardly bot” (कायर चमचा) शब्द को आम तौर पर कंटेंट की रिपोर्ट करने वाले यूज़र के लिए अपमानजनक और उनकी “गरिमा” को ठेस पहुँचाने वाला माना जा सकता है. हालाँकि, बोर्ड ने पाया है कि पूरी बहस के दौरान के लहज़े पर गौर करें, तो विरोध प्रदर्शन के आलोचक के आहत होने की आशंका बहुत ही कम थी.

8.3 Facebook के मानवाधिकार ज़िम्मेदारियों का अनुपालन

बोर्ड ने पाया कि डराने-धमकाने और उत्पीड़न से जुड़े कम्युनिटी स्टैंडर्ड के तहत उस प्रदर्शनकारी के कंटेंट का निकाला जाना Facebook की मानवाधिकार से जुड़ी ज़िम्मेदारियों के अनुसार सही नहीं था.

अभिव्यक्ति की स्वतंत्रता (अनुच्छेद 19 ICCPR)

अनुच्छेद 19, पैरा. 2, राजनीतिक बहस और “नागरिकों में सार्वजनिक तथा राजनीतिक मुद्दों के बारे में जानकारी और विचारों के बेझिझक आदान-प्रदान” सहित “हर तरह” की अभिव्यक्ति के लिए व्यापक संरक्षण ज़रूरी है (सामान्य कमेंट सं. 34, पैरा. 13). संयुक्त राष्ट्र मानवाधिकार समिति ने यह स्पष्ट किया है कि अनुच्छेद 19 के संरक्षण में ऐसी अभिव्यक्ति भी शामिल है जिसे "अत्यंत आपत्तिजनक" माना जा सकता है (सामान्य कमेंट सं. 34, पैरा. 11, 12).

अभिव्यक्ति की स्वतंत्रता का अधिकार बुनियादी है, लेकिन यह संपूर्ण नहीं है. इसे प्रतिबंधित किया जा सकता है, लेकिन प्रतिबंधों के लिए वैधानिकता, वैधानिक लक्ष्य और आवश्यकता तथा समानता की शर्तों को पूरा करना ज़रूरी है (अनुच्छेद 19, पैरा. 3, ICCPR). Facebook को डराने-धमकाने और उत्पीड़न से जुड़ी अपनी पॉलिसी को इन सिद्धांतों के अनुकूल बनाने की कोशिश करनी चाहिए (अभिव्यक्ति की स्वतंत्रता पर संयुक्त राष्ट्र का विशेष रैपर्टर, रिपोर्ट A/74/486, पैरा. 58(b)).

I. वैधानिकता

अंतरराष्ट्रीय मानवाधिकार कानून के तहत वैधानिकता के सिद्धांत के अनुसार अभिव्यक्ति पर रोक लगाने वाले नियम स्पष्ट और आसानी से उपलब्ध होने चाहिए (सामान्य कमेंट सं. 34, पैरा. 25). लोगों के लिए यह समझना ज़रूरी है कि किस चीज़ की परमिशन है और किसकी नहीं. साथ ही नियम बनाने में सटीकता रखने से सुनिश्चित होता है कि अभिव्यक्ति पर रोक भेदभावपूर्ण तरीके से नहीं लगाई जाएगी. हालाँकि, इस मामले में बोर्ड को डराने-धमकाने और उत्पीड़न से जुड़ा Facebook का कम्युनिटी स्टैंडर्ड अस्पष्ट और बहुत ज़्यादा जटिल लगा.

कुल मिलाकर कम्युनिटी स्टैंडर्ड इस तरह से बनाया गया है कि उसे समझना और उसका पालन करना मुश्किल हो जाता है. पॉलिसी बनाने के कारण में उन लक्ष्यों के बारे में व्यापक रूप से बताया गया है, जिन्हें पाने के लिए ये स्टैंडर्ड बनाए गए हैं. इनमें यूज़र्स को सुरक्षित महसूस करवाने के साथ-साथ ऐसे कंटेंट पर भी रोक लगाने का भी लक्ष्य है, जिससे किसी का अपमान हो या वे शर्मिंदगी महसूस करें. पॉलिसी बनाने के कारण दिए जाने के बाद “ये न करें” वाले कई नियमों के अलावा दो पीले रंग के चेतावनी संकेतों के अंतर्गत अतिरिक्त नियम भी बताए गए हैं. इन नियमों में प्रतिबंधित कंटेंट, Facebook कब और कैसे एक्शन लेता है, साथ ही अलग-अलग यूज़र्स के समूहों को मिलने वाली सुरक्षा के स्तर के बारे में बताया गया है. कम्युनिटी स्टैंडर्ड में यह स्पष्ट नहीं किया गया है कि पॉलिसी से जुड़े तर्क का उद्देश्य क्या केवल उससे जुड़े विशिष्ट नियमों के लिए मार्गदर्शन देना है या क्या उन नियमों के साथ उसकी संयुक्त रूप से व्याख्या की जाना है. इसके अलावा उपलब्ध जानकारी को देखकर लगता है कि इसे बड़े ही बेतरतीब तरीके से रखा गया है. जैसे कि लोगों से जुड़े नियम, सार्वजनिक हस्तियों से जुड़े नियमों के पहले होते हैं, उनके बाद में होते हैं और कभी-कभी तो उनमें मिले हुए होते हैं.

कम्युनिटी स्टैंडर्ड डराने-धमकाने और उत्पीड़न के बीच अंतर करने में भी विफल रहा है. जैसा कि पहले बताया जा चुका है, इस विषय के विशेषज्ञ इस बात से सहमत हैं कि ये दोनों ही बातें अलग-अलग हैं. इसके अलावा, नागरिक समाज संगठन के अनुच्छेद 19 में दिए तर्क के अनुसार कम्युनिटी स्टैंडर्ड का स्तर अभिव्यक्ति की स्वतंत्रता पर बने अंतरराष्ट्रीय मानकों से कम है, क्योंकि कम्युनिटी स्टैंडर्ड में धमकी और उत्पीड़न, अन्य तरह की अपमानजनक बातों से धमकाने से किस तरह अलग है, यह नहीं दिया गया है. बोर्ड ने पाया कि डराना-धमकाना और उत्पीडन करना इन दो अलग-अलग बातों को एक ही परिभाषा के तहत लाने और उससे जुड़े नियमों के चलते सही बात को भी निकाल दिया गया.

साथ ही जब डराने-धमकाने और उत्पीड़न की पॉलिसी कई तरह की कैटेगरी के व्यक्तियों और समूहों पर अलग-अलग तरह से लागू होती है, वहीं यह पॉलिसी इन कैटेगरी को परिभाषित करने में विफल हो जाती है. अन्य महत्वपूर्ण शब्द, जैसे कि “चरित्र के बारे में नकारात्मक दावे” में भी स्पष्ट परिभाषाओं का अभाव है. इस आधार पर बोर्ड ने यह निष्कर्ष निकाला है कि यह कम्युनिटी स्टैंडर्ड वैधानिकता की कसौटी पर खरा नहीं उतरता है.

II. वैधानिक लक्ष्य

अंतरराष्ट्रीय मानवाधिकार कानून के तहत अभिव्यक्ति पर रोक लगाने की कोई भी कार्यवाही ICCPR के अनुच्छेद 19 के पैरा. 3 में बताए किसी उद्देश्य से होनी चाहिए. वैधानिक लक्ष्यों में अन्य लोगों के अधिकारों या प्रतिष्ठा की रक्षा करने के साथ-साथ राष्ट्रीय सुरक्षा, सार्वजनिक व्यवस्था या सार्वजनिक स्वास्थ्य या नैतिकता की सुरक्षा भी शामिल है (सामान्य कमेंट सं. 34, पैरा. 28).

बोर्ड यह मानता है कि डराने-धमकाने और उत्पीड़न से जुड़े कम्युनिटी स्टैंडर्ड का लक्ष्य अन्य लोगों के अधिकारों की सुरक्षा करना है. यूज़र की अभिव्यक्ति की स्वतंत्रता दब सकती है, अगर उन्हें इस प्लेटफ़ॉर्म से डराने-धमकाने और उत्पीड़न करने के लिए बाहर निकाला जाता है. इस पॉलिसी से ऐसे व्यवहार पर भी रोक लगाने की कोशिश की जाती है, जो किसी को गंभीर रूप से भावनात्मक आघात पहुँचाने और मनोवैज्ञानिक रूप से आहत करने का कारण बन सकता है, जिससे यूज़र के स्वास्थ्य के अधिकार पर विपरीत असर पड़ सकता है. हालाँकि, बोर्ड ने ये ध्यान दिया कि अभिव्यक्ति की स्वतंत्रता पर किसी भी तरह की रोक लगाने का मसौदा सावधानी से तैयार किया जाना चाहिए और किसी वैधानिक उद्देश्य से जुड़े नियम का मौजूद होना भर अभिव्यक्ति की स्वतंत्रता के बारे में मानवाधिकार मानकों को पूरा करने के लिए पर्याप्त नहीं है. (सामान्य टिप्पणी सं. 34, पैरा. 28, 30, 31, 32)

III.आवश्यकता और आनुपातिकता

अभिव्यक्ति की स्वतंत्रता पर लगाए जाने वाले सभी प्रतिबंध "उनके सुरक्षात्मक कार्य को पूरा करने के लिए उपयुक्त होने चाहिए; वे अपने सुरक्षात्मक कार्य कर सकने वाले उपायों में से कम से कम हस्तक्षेप करने वाले उपाय होने चाहिए; उन्हें सुरक्षित रखे जाने वाले हित के अनुपात में होना चाहिए” (सामान्य कमेंट 34, पैरा. 34).

Facebook सार्वजनिक हस्तियों और आम लोगों के बीच सही तरीके से अंतर कायम रखता है, लेकिन यह उस संदर्भ पर विचार नहीं करता, जिसे लेकर चर्चाएँ हो सकती हैं. जैसे कि कुछ मामलों में आम लोग जो सार्वजनिक मसलों पर आधारित सार्वजनिक बहस में शामिल होते हैं, उन्हें अपने बयान को लेकर आलोचना झेलनी पड़ सकती है. कंपनी ने निशाना बनाए गए यूज़र की ओर से संबंधित कंटेंट की रिपोर्ट किए जाने की शर्त शामिल करके आम वयस्कों के चरित्र के बारे में किए जाने वाले नकारात्मक दावों पर आधारित अपने नियम की संभावित पहुँच को सीमित किया है. बोर्ड ने यह भी नोट किया कि अपमानजनक कंटेंट की रिपोर्ट करने के अलावा Facebook यूज़र्स को एक-दूसरे को ब्लॉक या म्यूट भी करने देता है. हालाँकि यह दुर्व्यवहार से निपटने का सीमित उपाय है, लेकिन यह उपयोगी है. क्योंकि इन विकल्पों को अन्य विकल्पों की तुलना में अभिव्यक्ति पर रोक लगाने के लिए कम प्रतिबंधात्मक उपायों के रूप में देखा जा सकता है, वहीं इस केस में कंटेंट को हटाना सही नहीं था.

आवश्यकता और आनुपातिकता का आकलन करने में संदर्भ की भूमिका बहुत ही महत्वपूर्ण है. अभिव्यक्ति की स्वतंत्रता पर संयुक्त राष्ट्र के विशेष रैपर्टर में नफ़रत फैलाने वाली भाषा के बारे में बताया गया है कि “कुछ मामलों में संदर्भ का मूल्यांकन करने से कंटेंट को अपवाद के तौर पर छूट देने के फ़ैसले भी लिए जा सकते हैं, जैसे की राजनीतिक मामलों पर आधारित बातचीत के जैसे कंटेंट की रक्षा की जानी चाहिए” (A/74/486 का पैरा. 47(d)). इस नज़रिए का उपयोग डराने-धमकाने और उत्पीडन से जुड़े मामलों के मूल्यांकन में भी किया जा सकता है. इस केस में Facebook को आम तौर पर अभिव्यक्ति की स्वतंत्रता के बारे में रूस के हालातों पर विचार करना चाहिए था, और ख़ास तौर पर जनवरी में हुए विरोध प्रदर्शन के संदर्भ में विपक्षी दलों और उनके समर्थकों के खिलाफ़ चलाए जा रहे दुष्प्रचार के सरकारी अभियान के बारे में सोचना चाहिए था. इस केस में विरोध प्रदर्शन के आलोचक की प्रदर्शनकारियों के साथ बातचीत में उस झूठे दावे को दोहराया गया कि नवालनी से जुड़े प्रदर्शनकारी बहकावे में आए बच्चे थे. इन मुद्दों पर हुई गरमागरम बहस के मामले में “कायर चमचा” कहकर लगाए गए आरोप से किसी के आहत होने की आशंका नहीं थी, ख़ास तौर से विरोध प्रदर्शन के आलोचक के इसी तरह के शत्रुतापूर्ण आरोपों को देखते हुए.

Facebook ने बोर्ड को बताया कि जनवरी 2021 में यह तय किया गया था कि नवालनी के समर्थन में बड़े पैमाने पर होने वाले राष्ट्रव्यापी विरोध प्रदर्शन से कोई बड़ा खतरा पैदा होने की आशंका है और अपने मॉडरेटर्स को ऐसे सभी ट्रेंड और कंटेंट को फ़्लैग करने के लिए कहा था, जहाँ यह स्पष्ट नहीं हो पा रहा है कि कम्युनिटी स्टैंडर्ड का उल्लंघन हुआ है. Facebook ने बताया कि मार्च 2021 में उसने नवालनी का समर्थन करने वाले रूस के यूज़र्स को निशाना बनाने वाली समन्वित अप्रमाणिक गतिविधियों में शामिल 530 Instagram अकाउंट को हटा दिया था. इस प्रकार से Facebook इस केस में कंटेंट के व्यापक संदर्भ को जानता था, और बड़ी चेतावनी को देखते हुए विरोध प्रदर्शन से संबंधित कंटेंट का पूरी सावधानी के साथ मूल्यांकन किया जाना चाहिए था.

इसके अलावा हटाए गए कंटेंट में ऐसी चीज़ें नज़र नहीं आती हैं, जिनसे आम तौर पर डराया-धमकाया और उत्पीड़न किया जाता है, जैसे कि बार-बार हमले करना या शक्ति के असंतुलन का संकेत मिलना. हालाँकि किसी को कायर कहना चरित्र से जुड़े नकारात्मक दावे की तरह लग सकता है, वह कंटेंट रूस की मौजूदा घटनाओं पर तीखी राजनीतिक बहस का परिणाम था. इन बातों को ध्यान में रखते हुए, बोर्ड इस निष्कर्ष पर पहुँचा कि डराने-धमकाने और उत्पीड़न से जुड़े कम्युनिटी स्टैंडर्ड के तहत उस कंटेंट को हटाने Facebook का फ़ैसला गलत और असंगत था.

9.ओवरसाइट बोर्ड का फ़ैसला

ओवरसाइट बोर्ड ने Facebook के कंटेंट हटाने के फ़ैसले को बदल दिया है और पोस्ट को रीस्टोर करने के लिए कहा है.

10. पॉलिसी से जुड़े सुझाव का कथन

अंतरराष्ट्रीय मानवाधिकार मानकों का पालन करने के लिए, Facebook को डराने-धमकाने और उत्पीड़न से जुड़े अपने कम्युनिटी स्टैंडर्ड में बदलाव करना चाहिए और फिर से उसका मसौदा तैयार करना चाहिए, ताकि:

1. पॉलिसी बनाने का कारण और “ये न करें” के साथ-साथ इनके बाद बताए गए इनसे जुड़े अन्य नियमों के बीच के संबंध को स्पष्ट किया जा सके, जो किसी कंटेंट पर रोक लगाते हैं.

2. डराने-धमकाने और उत्पीड़न के बीच अंतर किया जा सके, साथ ही इन दोनों ही व्यवहारों के अंतर को समझाने वाली परिभाषाएँ उपलब्ध करवाई जा सकें. इसके अलावा, कम्युनिटी स्टैंडर्ड में यूज़र्स को स्पष्ट रूप से यह बताना चाहिए कि डराना-धमकाना और उत्पीड़न करना उन बातों से किस तरह अलग है, जिनसे केवल किसी का अपमान होता है, साथ ही उसे अंतरराष्ट्रीय मानवाधिकार कानून के तहत संरक्षण दिया जा सकता है.

3. अलग-अलग टार्गेट यूज़र की कैटेगरी के बारे में इसके नज़रिए को स्पष्ट रूप से परिभाषित किया जा सके और हर एक टार्गेट कैटेगरी के बारे में बताने वाले उदाहरण दिए जा सकें (जैसे कि सार्वजनिक हस्ती कहलाने की पात्रता कौन पूरी करता है). मौजूदा पॉलिसी में दर्ज यूज़र्स की कैटेगरी के अनुसार डराने-धमकाने और उत्पीड़न से जुड़े कम्युनिटी स्टैंडर्ड को व्यवस्थित किया जा सके.

4. डराना-धमकाना और उत्पीड़न से जुड़े कम्युनिटी स्टैंडर्ड में उल्लंघन करने वाले और नहीं करने वाले कंटेंट के उदाहरण शामिल किए जा सकें, जिससे पॉलिसी की तय की गईं सीमाएँ स्पष्ट करने के साथ यह बताया जा सकेे कि ये अंतर निशाना बनाए गए व्यक्ति की पहचान के स्टेटस पर कैसे निर्भर कर सकते हैं.

5. किसी वयस्क के खिलाफ़ ‘चरित्र से जुड़े नकारात्मक दावे’ वाले कंटेंट का मूल्यांकन करते समय किसी कंटेंट के सामाजिक और राजनीतिक संदर्भ का मूल्यांकन करने की ज़रूरत को पूरा करने के लिए Facebook को कम्युनिटी स्टैंडर्ड में बदलाव करना चाहिए. Facebook को राजनीतिक या सार्वजनिक बहसों पर इस नियम के तहत की गई कार्रवाई पर फिर से विचार करना चाहिए, जहाँ कंटेंट को हटाने से बहस प्रभावित हुई होगी.

6. जब भी Facebook किसी चरित्र से जुड़े नकारात्मक दावे के कारण किसी कंटेंट को हटाता है, जो एक बड़ी सी पोस्ट में केवल एक शब्द या वाक्यांश के रूप में है, तो उन्हें तुरंत ऐसा दावा करने वाले यूज़र को सूचित करना चाहिए, ताकि वह यूज़र चरित्र से जुड़े उस नकारात्मक दावे के बिना उस कंटेंट को दोबारा पोस्ट कर सके.

*प्रक्रिया सबंधी नोट:

ओवरसाइट बोर्ड के फ़ैसले पाँच सदस्यों के पैनल द्वारा लिए जाते हैं और बोर्ड के अधिकांश सदस्य इन पर सहमति देते हैं. ज़रूरी नहीं है कि बोर्ड के फ़ैसले उसके हर एक मेंबर की निजी राय को दर्शाएँ.

इस केस के फ़ैसले के लिए, बोर्ड की ओर से स्वतंत्र शोध को अधिकृत किया गया. एक स्वतंत्र शोध संस्थान जिसका मुख्यालय गोथेनबर्ग यूनिवर्सिटी में है और छह महाद्वीपों के 50 से भी ज़्यादा समाजशास्त्रियों की टीम के साथ ही दुनिया भर के देशों के 3,200 से भी ज़्यादा विशेषज्ञों ने सामाजिक-राजनैतिक और सांस्कृतिक संदर्भ में विशेषज्ञता मुहैया कराई है.

मामले के निर्णयों और नीति सलाहकार राय पर लौटें