पलट जाना

नाज़ी उद्धरण

ओवरसाइट बोर्ड ने Facebook के उस फ़ैसले पर असहमति जताते हुए उसे बदल दिया है, जिसमें इस कंपनी ने खतरनाक लोग और संगठन पर बने कम्युनिटी स्टैंडर्ड का उल्लंघन होने का दावा करते हुए एक पोस्ट को हटा दिया था.

निर्णय का प्रकार

मानक

नीतियां और विषय

विषय
राजनीति
सामुदायिक मानक
ख़तरनाक लोग और संगठन

क्षेत्र/देश

जगह
अमेरिका

प्लैटफ़ॉर्म

प्लैटफ़ॉर्म
Facebook

केस का सारांश

ओवरसाइट बोर्ड ने Facebook के उस फ़ैसले पर असहमति जताते हुए उसे बदल दिया है, जिसमें इस कंपनी ने खतरनाक लोग और संगठन पर बने कम्युनिटी स्टैंडर्ड का उल्लंघन होने का दावा करते हुए एक पोस्ट को हटा दिया था. बोर्ड को लगता है कि यूज़र्स के सामने ये नियम पूरी स्पष्टता के साथ नहीं रखे गए.

केस के बारे में जानकारी

अक्टूबर 2020 में किसी यूज़र ने एक उद्धरण पोस्ट किया, जिस उद्धरण को गलती से नाज़ी जर्मनी में प्रोपेगेंडा के रीश मिनिस्टर जोसेफ़ गोएबेल्स का बताया गया था. वह उद्धरण अंग्रेज़ी भाषा में था, जिसमें ज़ोर देकर कहा था कि बुद्धिजीवियों के अनुसार तर्क रखने के बजाय भावनाओं और सहजज्ञान के हिसाब उन्हें पेश किया जाना चाहिए. इसमें कहा गया था कि सत्य कोई मायने नहीं रखता है और यह पूरी तरह से रणनीति और मनोविज्ञान के वश में होता है. पोस्ट में जोसेफ़ गोएबेल्स का कोई फ़ोटो नहीं था न ही कोई नाज़ी प्रतीक था. बोर्ड को दिए अपने बयान में यूज़र ने कहा कि उनका इरादा उद्धरण में रखी भावना और डोनाल्ड ट्रंप की प्रेसिडेंसी के बीच तुलना करना था.

उस यूज़र ने वह कंटेंट पहली बार दो साल पहले पोस्ट किया था और Facebook के “याद” फ़ीचर ने उन्हें इस पोस्ट को फिर से शेयर करने का संकेत दिया, इस फ़ीचर से यूज़र्स देख सकते हैं कि पिछले साल उन्होंने किसी दिन पर क्या पोस्ट किया था, जिसमें उस पोस्ट को फिर से शेयर करने का विकल्प भी होता है.

Facebook ने उस पोस्ट को खतरनाक लोग और संगठन पर बने उनके कम्युनिटी स्टैंडर्ड का उल्लंघन करने के लिए हटा दिया था.

मुख्य निष्कर्ष

बोर्ड को दिए अपने जवाब में Facebook ने कन्फ़र्म किया कि जोसेफ़ गोएबेल्स का नाम खतरनाक लोगों से जुड़ी कंपनी की लिस्ट में है. Facebook ने दावा किया कि उस पोस्ट में जो उद्धरण शेयर किया गया, वह खतरनाक लोगों की लिस्ट में शामिल व्यक्ति का है और इसे तब तक उस व्यक्ति का समर्थन करना माना जाएगा, जब तक कि संबंधित यूज़र अपनी मंशा स्पष्ट रूप से बताने के लिए अन्य संदर्भ नहीं देता है.

Facebook ने उस पोस्ट को इसलिए हटा दिया, क्योंकि संबंधित यूज़र ने यह स्पष्ट नहीं किया था कि उन्होंने उस उद्धरण को जोसेफ़ गोएबेल्स की निंदा करने, उग्रवाद या नफ़रत फैलाने वाली भाषा का विरोध करने, शैक्षणिक या ख़बर से जुड़े उद्देश्यों के लिए शेयर किया था.

केस रिव्यू करते समय बोर्ड ने पाया कि वह उद्धरण नाज़ी पार्टी की विचारधारा या उस शासन-काल में फैलाई गई नफ़रत और लोगों द्वारा की गई हिंसा का समर्थन नहीं करता है. उस पोस्ट पर यूज़र के दोस्तों के कमेंट यूज़र के उस दावे का समर्थन करते हैं, जिसमें उन्होंने डोनाल्ड ट्रंप की प्रेसिडेंसी की तुलना नाज़ी शासन से करने की कोशिश की थी.

अंतरराष्ट्रीय मानवाधिकार स्टैंडर्ड के अनुसार अभिव्यक्ति की स्वतंत्रता पर रोक लगाने वाला कोई भी नियम स्पष्ट, सटीक और सार्वजनिक रूप से उपलब्ध होना चाहिए, ताकि लोग उसके अनुसार आचरण कर सकें. बोर्ड यह नहीं मानता है कि खतरनाक लोग और संगठन पर बने Facebook के नियम इस शर्त को पूरा करते हैं.

बोर्ड को Facebook के कम्युनिटी स्टैंडर्ड के माध्यम से सार्वजनिक रूप से उपलब्ध करवाए गए नियमों और इसी कंपनी के कंटेंट मॉडरेटर द्वारा उपयोग किए जाने वाले उन अन्य नियमों में अंतर देखने को मिला, जिन्हें सार्वजनिक नहीं किया गया था. सार्वजनिक रूप से उपलब्ध उनके नियमों में Facebook ने पूरी तरह से स्पष्ट नहीं किया है कि किसी खतरनाक व्यक्ति से जुड़ा उद्धरण पोस्ट करते समय संबंधित यूज़र को यह स्पष्ट करना होगा कि वे उस व्यक्ति की प्रशंसा या समर्थन नहीं कर रहे हैं.

खतरनाक लोग और संगठन पर बनी Facebook की पॉलिसी भी ऐसे स्पष्ट उदाहरण पेश नहीं करती है, जो "प्रशंसा" और "समर्थन" जैसे शब्दों का अर्थ समझा सकें, ऐसे में यूज़र्स के लिए इस कम्युनिटी स्टैंडर्ड को समझना मुश्किल हो जाता है.

हालाँकि Facebook ने बोर्ड के सामने यह बात तो रखी कि जोसेफ़ गोएबेल्स को खतरनाक व्यक्ति घोषित किया गया है, लेकिन कंपनी ने न तो खतरनाक लोग और संगठन की किसी लिस्ट को सार्वजनिक रूप से उपलब्ध करवाया है या न ही इनका कोई उदाहरण दिया है. बोर्ड ने एक और बात नोट की कि इस केस में संबंधित यूज़र को यह भी नहीं बताया गया था कि उनके कंटेंट से आखिर किस कम्युनिटी स्टैंडर्ड का उल्लंघन हुआ है.

ओवरसाइट बोर्ड का फ़ैसला

ओवरसाइट बोर्ड ने Facebook के कंटेंट हटाने के फ़ैसले को बदलने के साथ उस पोस्ट को रीस्टोर करने की बात कही.

पॉलिसी से जुड़े सुझाव के कथन में बोर्ड ने कहा कि Facebook:

  • इस बात का ध्यान रखे कि किसी भी कम्युनिटी स्टैंडर्ड के तहत यूज़र्स पर एन्फ़ोर्समेंट किए जाने पर उन्हें हमेशा इसकी जानकारी दी जाए, जिसमें Facebook के उस नियम के बारे में बताया गया हो, जिसे लेकर एन्फ़ोर्समेंट किया जा रहा है.
  • “प्रशंसा”, “समर्थन” और “प्रतिनिधित्व” के अर्थ सहित खतरनाक लोग और संगठन की पॉलिसी के महत्वपूर्ण शब्दों के उपयोग को समझाएँ और उनसे जुड़े उदाहरण भी दें. कम्युनिटी स्टैंडर्ड में इस बारे में बेहतर सलाह दी जानी चाहिए कि यूज़र्स खतरनाक लोगों या संगठनों के बारे में बात करते समय अपनी मंशा स्पष्ट रूप से कैसे सबके सामने रखें.
  • खतरनाक लोग और संगठन के कम्युनिटी स्टैंडर्ड के तहत ‘खतरनाक’ घोषित संगठनों और व्यक्तियों की सार्वजनिक लिस्ट दें या कम से कम उनसे जुड़े उदाहरणों की लिस्ट दें.

*केस के सारांश से केस का ओवरव्यू पता चलता है और आगे के किसी फ़ैसले के लिए इसको आधार नहीं बनाया जा सकता है.

केस का पूरा फ़ैसला

1.फ़ैसले का सारांश

ओवरसाइट बोर्ड ने Facebook के उस फ़ैसले पर असहमति जताते हुए उसे बदल दिया है, जिसमें इस कंपनी ने खतरनाक लोग और संगठन पर बने कम्युनिटी स्टैंडर्ड का उल्लंघन होने का दावा करते हुए एक पोस्ट को हटा दिया था. बोर्ड को लगता है कि यूज़र्स के सामने ये नियम पूरी स्पष्टता के साथ नहीं रखे गए.

2. केस का विवरण

अक्टूबर 2020 में किसी यूज़र ने एक उद्धरण पोस्ट किया, जिस उद्धरण को गलती से नाज़ी जर्मनी में प्रोपगेंडा के रीश मिनिस्टर जोसेफ़ गोएबेल्स का बताया गया था. वह उद्धरण अंग्रेज़ी भाषा में है, जिसमें ज़ोर देकर यह बात कही थी कि बुद्धिजीवियों से अपील करने का कोई मतलब नहीं है, क्योंकि वे अपनी सोच नहीं बदलेंगे और किसी भी मामले में, स्थिति में जो व्यक्ति मज़बूत होगा उसके साथ रहेंगे. जैसा कि उस उद्धरण में कहा गया कि तर्कों को भावनाओं और सहज ज्ञान के अनुसार रखना चाहिए. उस उद्धरण के अंत में ज़ोर देते हुए कहा गया कि सत्य कोई मायने नहीं रखता है और यह पूरी तरह से रणनीति और मनोविज्ञान के वश में होता है. पोस्ट में गोएबेल्स का कोई फ़ोटो नहीं था न कोई नाज़ी प्रतीक था. उस यूज़र ने वह कंटेंट पहली बार दो साल पहले पोस्ट किया था और Facebook के “याद” फ़ीचर ने उन्हें इस पोस्ट को फिर से शेयर करने का संकेत दिया, इस फ़ीचर से यूज़र्स देख सकते हैं कि पिछले साल उन्होंने किसी दिन पर क्या पोस्ट किया था, जिसमें उस पोस्ट को फिर से शेयर करने का विकल्प भी होता है. किसी भी यूज़र ने उस कंटेंट की रिपोर्ट नहीं की थी. Facebook ने उस पोस्ट को खतरनाक लोग और संगठन पर बने कम्युनिटी स्टैंडर्ड का उल्लंघन करने के लिए हटा दिया था.

उस पोस्ट में सिर्फ़ वह उद्धरण था, जिसे गोएबेल्स का बताया गया था. उसमें इसके अलावा ऐसी कोई जानकारी नहीं थी, जिससे उस कंटेंट को शेयर करने से जुड़ा यूज़र का इरादा ज़ाहिर हो. बोर्ड को दिए अपने बयान में उन्होंने बताया कि उनके उद्धरण में महत्वपूर्ण सामाजिक मुद्दे उठाए गए और उस उद्धरण का कंटेंट “हमारे देश के मौजूदा हालातों के हिसाब से काफ़ी महत्व रखता है, क्योंकि हमारे एक ‘नेता’ हैं, जिनकी प्रेसिडेंसी में फासीवादी मॉडल अपनाया जा रहा है.” उनका इरादा उद्धरण में रखी भावना और डोनाल्ड ट्रंप की प्रेसिडेंसी के बीच तुलना करना था. पोस्ट पर किए गए कमेंट से पता चलता है कि यूज़र के दोस्तों ने उस कंटेंट को समझकर उसे सही ठहराया है.

3. प्राधिकार और दायरा

बोर्ड के पास बोर्ड के चार्टर के अनुच्छेद 2 (रिव्यू करने का प्राधिकार) के तहत Facebook के फ़ैसले को रिव्यू करने का प्राधिकार है और वह उसी चार्टर के अनुच्छेद 3, सेक्शन 5 (रिव्यू की प्रक्रियाएँ: रिज़ॉल्यूशन) के तहत उस फ़ैसले को कायम रख सकता है या बदल सकता है. Facebook ने बोर्ड के उपनियम के सेक्शन 1.2.1 (कंटेंट, बोर्ड के रिव्यू के लिए उपलब्ध नहीं) के अनुच्छेद 2 के अनुसार कंटेंट को अलग रखे जाने के लिए कोई कारण पेश नहीं किया न ही Facebook ने यह संकेत दिया कि वह उपनियमों के सेक्शन 1.2.2 (कानूनी दायित्व) के अनुच्छेद 2 के तहत केस को अयोग्य मानता है.

4.प्रासंगिक स्टैंडर्ड

ओवरसाइट बोर्ड ने इन स्टैंडर्ड पर विचार करते हुए अपना फ़ैसला दिया है:

I. Facebook के कम्युनिटी स्टैंडर्ड:

खतरनाक लोग और संगठन के बारे में बने कम्युनिटी स्टैंडर्ड, में कहा गया है कि “वास्तविक दुनिया से जुड़े नुकसान को रोकने और नाकाम करने के लिए हम ऐसे किसी भी संगठन या व्यक्ति को Facebook पर मौजूद रहने की परमिशन नहीं देते हैं जो किसी हिंसक मिशन की घोषणा करता है या हिंसा में शामिल होता है.” इसमें आगे कहा है कि Facebook “इन गतिविधियों में शामिल समूहों, नेताओं या लोगों का समर्थन करने वाले या इनकी प्रशंसा करने वाले कंटेंट को भी हटा देगा”.

II. Facebook के मूल्य:

इस केस से संबंधित Facebook के मूल्यों की रूपरेखा, कम्युनिटी स्टैंडर्ड के परिचय सेक्शन में बताई गई है. इसका पहला मूल्य है “अभिव्यक्ति”, जिसे सबसे “अहम” बताया गया है:

हमारे कम्युनिटी स्टैंडर्ड का लक्ष्य हमेशा एक ऐसा प्लेटफ़ॉर्म बनाना रहा है, जहाँ लोग अपनी बात रख सकें और अपनी भावनाओं को व्यक्त कर सकें. […] हम चाहते हैं कि लोग अपने लिए महत्व रखने वाले मुद्दों पर खुलकर बातें कर सकें, भले ही कुछ लोग उन बातों पर असहमति जताएँ या उन्हें वे बातें आपत्तिजनक लगें.

Facebook "अभिव्यक्ति” को चार अन्य मूल्यों का पालन करने के लिए सीमित करता है. बोर्ड का मानना है कि “सुरक्षा” का मूल्य इस फ़ैसले के लिए प्रासंगिक है:

सुरक्षा: हम Facebook को एक सुरक्षित जगह बनाने के लिए प्रतिबद्ध हैं. धमकी भरी अभिव्यक्ति से लोगों में डर, अलगाव की भावना आ सकती या दूसरों का आवाज़ दब सकती है और Facebook पर इसकी परमिशन नहीं है.

III. बोर्ड ने मानवाधिकारों से जुड़े इन प्रासंगिक स्टैंडर्ड पर विचार किया:

बिज़नेस और मानवाधिकार के बारे में संयुक्त राष्ट्र संघ के मार्गदर्शक सिद्धांत ( UNGP), जिन्हें 2011 में संयुक्त राष्ट्र संघ की मानवाधिकार समिति का समर्थन मिला है, प्राइवेट बिज़नेस के मानवाधिकारों से जुड़ी ज़िम्मेदारियों का स्वैच्छिक फ़्रेमवर्क बनाते हैं. UNGP से प्रेरणा लेते हुए, इस केस में अंतरराष्ट्रीय मानवाधिकारों के इन स्टैंडर्ड को ध्यान में रखा गया:

  • अभिव्यक्ति की स्वतंत्रता का अधिकार: नागरिक और राजनीतिक अधिकारों पर अंतरराष्ट्रीय प्रतिज्ञापत्र ( ICCPR), अनुच्छेद 19 और 20; सामान्य टिप्पणी सं. 34, मानव अधिकार समिति (2011) ( सामान्य टिप्पणी 34); विचार और अभिव्यक्ति की स्वतंत्रता की रिपोर्ट पर संयुक्त राष्ट्र का विशेष रैपर्टर: A/69/335 (2014); A/HRC/38/35 (2018); A/73/348 (2018), और A/HRC/44/49 (2020); डिजिटल युग में अभिव्यक्ति और चुनाव की स्वतंत्रता पर संयुक्त घोषणा (2020); और एक्शन के लिए रैबट प्लान;
  • भेदभाव न करने का अधिकार: ICCPR अनुच्छेद 2 और 26; हर तरह के नस्लीय भेदभाव के उन्मूलन पर अंतरराष्ट्रीय सम्मेलन ( ICERD), अनुच्छेद 1, 4 और 5; नस्लीय भेदभाव के उन्मूलन की समिति, सामान्य अनुशंसा संख्या 35 (2013) (GR35); नस्लीय भेदभाव की रिपोर्ट पर संयुक्त राष्ट्र का विशेष रैपर्टर: A/HRC/38/53 (2018);
  • जीवन का अधिकार: ICCPR अनुच्छेद 6; सामान्य टिप्पीणी संख्या 36, मानवाधिकार समित (2018) (GC36);
  • व्यक्ति की सुरक्षा का अधिकार: ICCPR अनुच्छेद 9; जैसे कि इसकी व्याख्या सामान्य कमेंट सं. 35, पैरा. 9, मानवाधिकार समिति (2014) में की गई है.

5. यूज़र का कथन

यूज़र ने कहा कि उन्होंने पहली बार यह कंटेंट दो साल पहले पोस्ट किया था और Facebook के “याद” फ़ीचर ने उन्हें इस पोस्ट को फिर से पोस्ट करने का संकेत मिला था. उन्होंने बताया कि वह पोस्ट इसलिए महत्वपूर्ण, क्योंकि अमेरिका के एक ऐसे नेता हैं, जिनकी प्रेसिडेंसी में फासीवादी मॉडल अपनाया जा रहा है. उन्होंने आगे यह बताया कि उस कंटेंट को पोस्ट करने के बाद Facebook का उपयोग करने की उनकी क्षमता प्रतिबंधित कर दी गई थी.

6. Facebook के फ़ैसले का स्पष्टीकरण

Facebook का कहना है कि वह ऐसे कंटेंट को, जिसमें किसी खतरनाक व्यक्ति के उद्धरण हों या उनके नाम के उद्धरण (उनकी सटीकता की परवाह किए बिना) शामिल हों, उस व्यक्ति के लिए समर्थन मानता है, जब तक कि उसमें संबंधित यूज़र अपनी मंशा स्पष्ट करने के लिए अतिरिक्त संदर्भ नहीं देता है. उन्होंने कहा कि इस केस में संबंधित यूज़र ने यह दर्शाने के लिए कोई अतिरिक्त संदर्भ नहीं दिया कि उस उद्धरण को उन्होंने चरमपंथी या नफ़रत फैलाने वाली भाषा का विरोध करने, या किसी शैक्षणिक या फिर ख़बर योग्य खुलासा करने के तहत गोएबेल्स की निंदा करने के लिए शेयर किया था. Facebook का कहना है कि अगर उस यूज़र की पोस्ट में साफ़ तौर पर बताया होता कि उसे इन कारणों के चलते शेयर किया गया है, तो वह उस कंटेंट को नहीं हटाता. हालाँकि उस यूज़र की पोस्ट पर किए गए कमेंट से पता चलता है कि उनका इरादा जोसेफ़ गोएबेल्स का गुणगान या उसका समर्थन करना नहीं था, Facebook ने स्पष्ट किया कि मॉडरेशन का फ़ैसला लेते समय वे सिर्फ़ उस पोस्ट का ही रिव्यू करते हैं. मूल रूप से पोस्ट किए जाने पर कंटेंट को हटाया नहीं गया था, क्योंकि इसके खिलाफ़ किसी यूज़र ने रिपोर्ट नहीं की थी और न ही ऑटोमेटिक रूप से इसका पता लगाया गया था.

बोर्ड ने एक और बात नोट की कि जब Facebook ने संबंधित यूज़र को उनकी पोस्ट हटाए जाने की जानकारी दी, तब कंपनी ने उन्हें यह नहीं बताया था कि उनकी पोस्ट से आखिर किस कम्युनिटी स्टैंडर्ड का उल्लंघन हुआ था.

7. थर्ड पार्टी सबमिशन

ओवरसाइट बोर्ड को लोगों की ओर से इस केस पर मिले 12 कमेंट पर ध्यान दिया. इनमें से तीन कमेंट यूरोप से और नौ कमेंट अमेरिका और कनाडा से सबमिट किए गए थे.

इन कमेंट में ये विषय शामिल थे: प्रासंगिक कम्युनिटी स्टैंडर्ड का अनुपालन; क्या इसमें राजनीतिक भाषण शामिल है; Facebook के “याद” फ़ीचर की इसमें भूमिका; प्रतिबंधों का यूज़र्स पर प्रभाव; साथ ही लोगों द्वारा कमेंट किए जाने की प्रोसेस को बेहतर बनाने के फ़ीडबैक.

8. ओवरसाइट बोर्ड का विश्लेषण

8.1 कम्युनिटी स्टैंडर्ड का अनुपालन

बोर्ड ने यह पाया कि संबंधित यूज़र की पोस्ट हटाने के Facebook के फ़ैसले में खतरनाक लोग और संगठन से जुड़े कम्युनिटी स्टैंडर्ड का पालन नहीं किया गया है .

Facebook का कहना है कि वास्तविक दुनिया से जुड़े नुकसान को रोकने और नाकाम करने के लिए वह ऐसे संगठनों और व्यक्तियों (जीवित या मृत) को Facebook पर मौजूदगी बनाने से रोकता है, जो संगठित होकर नफ़रत फ़ैलाने से जुड़े काम में शामिल हैं. वे ऐसी गतिविधियों में शामिल समूहों, नेताओं या लोगों के प्रति समर्थन दिखाने वाले या इनका गुणगान करने वाले कंटेंट पर भी रोक लगाते हैं. Facebook ने जिन लोगों और संगठनों को खतरनाक के रूप में चिह्नित किया है, उनकी ऐसी कोई लिस्ट प्रकाशित नहीं की है.

बोर्ड को बताए गए अपने फ़ैसले के तर्क में Facebook ने खतरनाक लोग और संगठन की पॉलिसी से जुड़े कुछ पहलुओं को स्पष्ट किया, जिनकी व्याख्या कम्युनिटी स्टैंडर्ड में नहीं की गई है. पहली बात, जो Facebook ने बताई कि नाज़ी पार्टी (नेशनल सोशलिस्ट जर्मन वर्कर्स पार्टी, जो 1920 और 1945 में सक्रिय थी) को Facebook ने 2009 से नफ़रत फ़ैलाने वाला संगठन घोषित कर रखा है. जोसेफ़ गोएबेल्स, इसी पार्टी का एक नेता है, जिसे खतरनाक व्यक्ति घोषित कर रखा है. दूसरी बात कि Facebook ऐसे किसी भी कंटेंट को, जिसमें किसी खतरनाक व्यक्ति के उद्धरण शामिल हैं, उस व्यक्ति का गुणगान या उसका समर्थन मानता है, जब तक कि उसमें संबंधित यूज़र अपनी मंशा स्पष्ट करने के लिए अतिरिक्त संदर्भ नहीं देता है. तीसरी बात कि Facebook पोस्ट को मिले रिएक्शन या उस पर किए गए कमेंट का मूल्यांकन किए बिना केवल उस पोस्ट में मौजूद टेक्स्ट और/या चित्रण के आधार पर तय करता है कि वह पॉलिसी के अनुसार है या नहीं.

इस केस में कंटेंट में केवल एक उद्धरण था, जो कि जोसेफ़ गोएबेल्स का बताया गया था. बोर्ड ने पाया कि वह उद्धरण नाज़ी पार्टी की विचारधारा का प्रचार नहीं करता है और न ही उस शासन-काल में फैलाई गई नफ़रत और लोगों द्वारा की गई हिंसा का समर्थन करता है. उस पोस्ट पर यूज़र के दोस्तों के कमेंट यूज़र के उस दावे का समर्थन करते हैं, जिसमें उन्होंने डोनाल्ड ट्रंप की प्रेसिडेंसी की तुलना नाज़ी शासन से करने की कोशिश की थी.

बोर्ड ने देखा कि खतरनाक लोग और संगठन की पॉलिसी के बारे में सार्वजनिक रूप से उपलब्ध जानकारी और Facebook के कंटेंट मॉडरेटर द्वारा अमल में लाए जाने वाले अतिरिक्त आंतरिक नियमों में उपलब्ध जानकारी में अंतर है. सार्वजनिक रूप से उपलब्ध जानकारी में यह स्पष्ट रूप से नहीं बताया गया है कि किसी खतरनाक व्यक्ति का उद्धरण पोस्ट करते समय यूज़र्स को अपनी पोस्ट में अतिरिक्त संदर्भ देना होगा, ताकि यह स्पष्ट हो सके कि वे नफ़रत फ़ैलाने में शामिल किसी व्यक्ति या संगठन का गुणगान या समर्थन नहीं कर रहे हैं. इसी तरह की शर्तें कम्युनिटी स्टैंडर्ड में खतरनाक घोषित लोग और संगठनों के चिह्न शामिल करने वाली पोस्ट के लिए भी हैं, लेकिन इस तरह की कोई भी बात ऐसे लोग और संगठनों का गुणगान करने या उनका समर्थन करने वाले कंटेंट को लेकर नहीं कही गई है. जैसा कि इस केस में देखने को मिला है, जिसके कारण एक ऐसे विचार पर रोक लगाई गई, जिससे किसी भी तरह का नुकसान होने का जोखिम नहीं है. हालाँकि बोर्ड नाज़ी विचारधारा और नफ़रत फैलाने वाली भाषा को फैलने से रोकने की ज़रूरत को समझता है, साथ ही इस तरह के उद्देश्यों को बड़े पैमाने पर पूरा करने में आने वाली मुश्किलों को भी जानता है, इस मामले में पोस्ट को हटाना साफ़ तौर से इस पॉलिसी की मूल भावना के दायरे में नहीं आता है.

8.2 Facebook के मूल्यों का अनुपालन

बोर्ड ने यह पाया है कि उस पोस्ट को हटाने में Facebook के मूल्यों का पालन नहीं हुआ है. खतरनाक लोग और संगठन की पॉलिसी के तहत कंटेंट को हटाने के बारे में विचार करते समय “सुरक्षा” के मूल्य और “सबसे अहम” मूल्य “अभिव्यक्ति” के बीच संतुलन हो. Facebook का कहना है कि जब किसी कंटेंट के कारण शारीरिक नुकसान पहुँचने आशंका हो, तो “सुरक्षा” को ज़्यादा महत्व दिया जा सकता है. हालाँकि, इस केस में संबंधित यूज़र की पोस्ट से “सुरक्षा” के मूल्य पर पड़ने वाले बेहद कम असर को देखते हुए बोर्ड ने पाया है कि उस पोस्ट का हटना अनावश्यक रूप से “अभिव्यक्ति” के मूल्य को कम करता है.

8.3 मानवाधिकारों के स्टैंडर्ड का अनुपालन

  1. अभिव्यक्ति की स्वतंत्रता (अनुच्छेद 19 ICCPR)

अभिव्यक्ति की स्वतंत्रता के अधिकार पर बने अंतरराष्ट्रीय मानवाधिकार स्टैंडर्ड को देखते हुए बोर्ड को लगता है कि उस कंटेंट को रीस्टोर किया ही जाना चाहिए. राजनीतिक हस्तियों के बारे में सार्वजनिक रूप से चर्चा करते समय विशेष रूप से अभिव्यक्ति की स्वतंत्रता को बहुत ज़्यादा महत्व दिया गया है, जो इस पोस्ट के अंतर्गत आता था (ICCPR अनुच्छेद 19, पैरा. 2, सामान्य कमेंट 34, पैरा. 34).

अभिव्यक्ति की स्वतंत्रता का अधिकार ही अंतिम लक्ष्य नहीं है. हालाँकि, इस अधिकार पर किसी भी तरह का प्रतिबंध में वैधानिकता, वैधानिक लक्ष्य और आवश्यकता और आनुपातिकता की शर्तों को पूरा करना ज़रूरी है. Facebook के उस पोस्ट को हटाने का फ़ैसला इस शर्त की पहली और तीसरी दोनों ही बातों पर खरा नहीं उतरता है.

a. वैधानिकता

अभिव्यक्ति की स्वतंत्रता को सीमित करने वाला कोई भी नियम स्पष्ट, सटीक और सार्वजनिक रूप से उपलब्ध होना चाहिए, (सामान्य कमेंट 34, पैरा. 25) ताकि लोग उसके अनुसार अपना व्यवहार बदल सकें. खतरनाक लोगों और संगठनों पर आधारित Facebook की पॉलिसी वैधानिकता के स्टैंडर्ड पर खरा नहीं उतरती है. पॉलिसी में “समर्थन,” “गुणगान” और “प्रतिनिधित्व” के उपयोग को समझाने वाले स्पष्ट उदाहरणों के न होने से यूज़र्स के लिए इस कम्युनिटी स्टैंडर्ड को समझना मुश्किल हो जाता है. इससे वैधानिकता से जुड़ी चिंताएँ बढ़ती हैं और यूजर्स ये धारणा बना सकते हैं कि पॉलिसी मनमाने तरीके से लागू की जा रही है. बोर्ड इस बात से भी चिंतित है कि इस केस में यूज़र को यह बताया नहीं गया है कि उनका कंटेंट किस कम्युनिटी स्टैंडर्ड का उल्लंघन करने पर हटाया गया था.

Facebook खतरनाक घोषित किए गए लोग और संगठनों की लिस्ट उपलब्ध करवाने, या कम से कम खतरनाक घोषित किए गए समूहों या व्यक्तियों के उदाहरण देने में विफल रहा है. सबसे आखिरी बात यह कि पॉलिसी यह समझाने में विफल हो जाती है कि वह यूज़र के इरादे का पता कैसे लगाती है, जिससे यूज़र्स के लिए यह समझना मुश्किल हो जाता है कि पॉलिसी कब और कैसे लागू होगी और वे पॉलिसी के अनुसार व्यवहार कैसे करें.

b. वैधानिक लक्ष्य

अनुच्छेद 19, पैरा. 3 के अनुसार वैधानिक लक्ष्यों में अन्य लोगों के अधिकारों या प्रतिष्ठा का ध्यान रखने के साथ-साथ राष्ट्रीय सुरक्षा, सार्वजनिक व्यवस्था या सार्वजनिक स्वास्थ्य या नैतिकता की सुरक्षा भी शामिल है. Facebook के तर्क से पता चलता है कि “नफ़रत फैलाने वाले संगठनों” के संबंध में खतरनाक लोग और संगठन की पॉलिसी का उद्देश्य दूसरों के अधिकारों की रक्षा करना है. बोर्ड इस बात से संतुष्ट है कि “नफ़रत फैलाने वाले संगठनों” पर आधारित विशिष्ट प्रावधान, व्यक्तियों को भेदभाव से बचाने और उनकी जान को खतरा पैदा करने वाले या जानबूझकर शारीरिक या मानसिक चोट पहुँचाने के उद्देश्य से किए जाने वाले हमलों से उन्हें बचाने के लिए हैं.

c. आवश्यकता और आनुपातिकता

कोई भी प्रतिबंध “उनके सुरक्षात्मक कार्य को सही तरीके से पूरा करने वाला होना चाहिए; उनसे उन लोगों के अधिकारों के साथ कम से कम हस्तक्षेप होना चाहिए, जिन्हें उन प्रतिबंधों से होने वाले सुरक्षात्मक कार्यों का लाभ मिल सकता है; जिन हितों की सुरक्षा की जानी है, उसके अनुसार ही प्रतिबंध होने चाहिए” (सामान्य कमेंट 34, पैरा. 34).

आवश्यकता और आनुपातिकता का आकलन करने में संदर्भ की भूमिका बहुत ही महत्वपूर्ण है. बोर्ड ने एक बात गौर की है कि कथित तौर पर नई नाज़ी विचारधारा का समर्थन और स्वीकार्यता दुनिया भर में बढ़ती जा रही है, वहीं Facebook को प्लेटफ़ॉर्म पर “नफ़रत फैलाने वाले संगठनों” पर रोक लगाने में मुश्किल का सामना करना पड़ रहा है (रिपोर्ट A/HRC/38/53, 2018). बोर्ड का मानना है कि खतरनाक संगठनों के बारे में कंटेंट को बड़े पैमाने पर मॉडरेट करते समय उन पोस्टों को हटाने की ज़रूरत पड़ सकती है, जिनमें पर्याप्त संदर्भ न हो. इस केस में उस उद्धरण का कंटेंट और उस पर आए अन्य यूज़र्स के रिस्पॉन्स, उस यूज़र की लोकेशन और चुनाव अभियान के दौरान उस कंटेंट को पोस्ट करने का समय, ये सभी चीज़ें प्रासंगिक हैं. Facebook की कार्यप्रणाली के कारण कंटेंट मॉडरेटरों को कंटेंट के संदर्भ से जुड़े संकेतों पर ध्यान दिए बिना कंटेंट का रिव्यू करना पड़ा, जिसके कारण अभिव्यक्ति की स्वतंत्रता पर अनावश्यक और असंगत प्रतिबंध लग गया.

d. समानता रखना और भेदभाव न किया जाना

अभिव्यक्ति के किसी भी प्रतिबंध में समानता रखने और भेदभाव न किए जाने के सिद्धांत का ध्यान रखा जाना चाहिए (सामान्य टिप्पणी 34, पैरा. 26 और 32). Facebook द्वारा नाज़ी विचारधारा पर रोक लगाने के लिए इस प्लेटफ़ॉर्म पर किए जा रहे कामों के महत्व को बोर्ड समझता है, ख़ास तौर पर दुनिया भर में इस तरह की विचारधारा और यहूदी विरोधी विचारों के समर्थन में प्रमाणित बढ़ोतरी को देखते हुए. हालाँकि, किसी राजनेता के शासन की कार्यशैली की तुलना नाज़ी विचारधारा से करके उसकी निंदा करने की मंशा वाले कंटेंट को हटाने से समानता रखने और भेदभाव नहीं किए जाने को बढ़ावा नहीं मिलता है.

9. ओवरसाइट बोर्ड का फ़ैसला

9.1 कंटेंट से जुड़ा फ़ैसला

ओवरसाइट बोर्ड ने Facebook के कंटेंट हटाने के फ़ैसले को बदल दिया है और पोस्ट को रीस्टोर करने के लिए कहा गया है.

9.2 पॉलिसी से जुड़े सुझाव का कथन

बोर्ड ने Facebook को सुझाव दिया कि वह:

  • इस बात का ध्यान रखे कि किसी भी कम्युनिटी स्टैंडर्ड के तहत यूज़र्स पर एन्फ़ोर्समेंट किए जाने पर उन्हें हमेशा इसकी जानकारी दी जाए, जिसमें Facebook के उस नियम के बारे में बताया गया हो, जिसे लेकर एन्फ़ोर्समेंट किया जा रहा है. (जैसे कि नफ़रत फैलाने वाले संगठन का समर्थन).
  • “प्रशंसा”, “समर्थन” और “प्रतिनिधित्व” के अर्थ सहित खतरनाक लोग और संगठन की पॉलिसी में शामिल महत्वपूर्ण शब्दों के उपयोग को समझाएँ और उनसे जुड़े उदाहरण भी दें. इनकी परिभाषाएँ Facebook के आंतरिक रूप से उपयोग में लाए जाने वाले स्टैंडर्ड में दी गई परिभाषाओं के समान होनी चाहिए. कम्युनिटी स्टैंडर्ड में यूज़र को खतरनाक घोषित लोग या संगठनों पर चर्चा करते समय अपना इरादा साफ़ तौर से ज़ाहिर करने के तरीके पर स्पष्ट मार्गदर्शन मिलना चाहिए.
  • खतरनाक लोग और संगठन के कम्युनिटी स्टैंडर्ड में “खतरनाक” घोषित संगठनों और व्यक्तियों की सार्वजनिक लिस्ट दें. कम से कम इन लोगों और संगठनों से जुड़े उदाहरण दिए गए हों. इससे यूज़र्स को पॉलिसी अच्छी तरह से समझने और उसके अनुसार व्यवहार करने में मदद मिलेगी.

*प्रक्रिया सबंधी नोट:

ओवरसाइट बोर्ड के फ़ैसले पाँच सदस्यों के पैनल द्वारा लिए जाते हैं और बोर्ड के अधिकांश सदस्य का इन पर सहमति देना ज़रूरी है. ज़रूरी नहीं है कि बोर्ड के फ़ैसले उसके हर एक मेंबर की निजी राय को दर्शाएँ.

मामले के निर्णयों और नीति सलाहकार राय पर लौटें