पलट जाना

भारत में RSS पर पंजाबी चिंता

ओवरसाइट बोर्ड ने Facebook के उस फ़ैसले पर असहमति जताते हुए उसे बदल दिया है, जिसमें खतरनाक लोग और संगठन पर बने उनके कम्युनिटी स्टैंडर्ड के तहत एक पोस्ट को हटा दिया गया था.

निर्णय का प्रकार

मानक

नीतियां और विषय

विषय
राजनीति
सामुदायिक मानक
ख़तरनाक लोग और संगठन

क्षेत्र/देश

जगह
भारत

प्लैटफ़ॉर्म

प्लैटफ़ॉर्म
Facebook

इस फ़ैसले को पंजाबी भाषा में पढ़ने के लिए यहाँ क्लिक करें.

ਇਹ ਫ਼ੈਸਲਾ ਪੰਜਾਬੀ ਵਿੱਚ ਪੜ੍ਹਨ ਲਈ,"ਇੱਥਕਲਿੱਕ ਕਰੋ।

केस का सारांश

ओवरसाइट बोर्ड ने Facebook के उस फ़ैसले पर असहमति जताते हुए उसे बदल दिया है, जिसमें खतरनाक लोग और संगठन पर बने उनके कम्युनिटी स्टैंडर्ड के तहत एक पोस्ट को हटा दिया गया था. बोर्ड द्वारा इस केस को रिव्यू के लिए चुने जाने के बाद, Facebook ने कंटेंट रीस्टोर कर दिया. बोर्ड ने चिंता व्यक्त की कि Facebook ने अपने मूल फ़ैसले के खिलाफ़ संबंधित यूज़र की अपील का रिव्यू नहीं किया. बोर्ड ने कंपनी को ज़ोर देते हुए कहा कि वे धार्मिक अल्पसंख्यकों की आवाज़ को दबाने वाली गलतियों से बचने के लिए कोई एक्शन ले.

केस की जानकारी

नवंबर 2020 में एक यूज़र ने पंजाबी भाषा की ऑनलाइन मीडिया कंपनी Global Punjab TV की एक वीडियो पोस्ट शेयर की. इसमें प्रोफ़ेसर मंजीत सिंह का 17 मिनट का इंटरव्यू था, जिन्हें “पंजाबी संस्कृति के लिए काम करने वाले एक सामाजिक कार्यकर्ता और समर्थक” के रूप में दिखाया गया था. उस पोस्ट में एक कैप्शन भी था, जिसमें हिन्दू राष्ट्रवादी संगठन राष्ट्रीय स्वयंसेवक संघ (RSS) और भारत के सत्तारूढ़ राजनीतिक दल भारतीय जनता पार्टी (BJP) का उल्लेख करते हुए कहा गया था कि: “RSS एक नया खतरा. राम नाम सत्य है. कट्टरता की ओर बढ़ती BJP.”

पोस्ट के साथ दिए गए टेक्स्ट में संबंधित यूज़र ने दावा किया कि RSS सिक्खों, जो कि भारत का एक धार्मिक अल्पसंख्यक समूह है, को मारने और 1984 के उस “भयावह दौर” को दोहराने की धमकी दे रहा था, जब हिन्दुओं ने सिक्ख पुरुषों, महिलाओं और बच्चों का नरसंहार किया और उन्हें जिंदा जला दिया था. उस यूज़र ने आरोप लगाया कि RSS प्रमुख मोहन भागवत के कहने पर खुद प्रधानमंत्री मोदी “सिक्खों के नरसंहार” को लेकर डर का माहौल बना रहे हैं. उस यूज़र ने यह दावा भी किया कि सेना की सिक्ख रेजिमेंट ने प्रधानमंत्री मोदी को चेताया है कि वे पंजाब के सिक्ख किसानों और उनकी ज़मीन की रक्षा करने के लिए अपनी जान कुर्बान करने को भी तैयार हैं.

एक यूज़र के रिपोर्ट करने के बाद, एक ह्यूमन रिव्यूवर इस फ़ैसले पर पहुँचा कि उस पोस्ट से Facebook के खतरनाक लोग और संगठन से जुड़े कम्युनिटी स्टैंडर्ड का उल्लंघन हुआ है और रिव्यूवर ने उस पोस्ट को निकाल दिया. इससे वह पोस्ट करने वाले यूज़र के अकाउंट पर अपने आप प्रतिबंध लग गए. Facebook ने उस यूज़र को कहा कि COVID-19 की वजह से रिव्यू करने की क्षमता में आई अस्थायी कमी के चलते वे पोस्ट निकालने के बारे में की गई उनकी अपील का रिव्यू नहीं कर सकते हैं.

मुख्य निष्कर्ष

बोर्ड द्वारा इस केस को रिव्यू करने के लिए चुने जाने के बाद, लेकिन जब यह केस एक पैनल को असाइन किया जा रहा था, उसके पहले Facebook को लगा कि उस कंटेंट को निकालने का फ़ैसला गलत था और उसे रीस्टोर कर दिया. Facebook ने यह पाया कि उस कंटेंट में ऐसे किसी समूह या व्यक्ति का उल्लेख नहीं किया गया था, जिसे उनके नियमों के तहत “खतरनाक” ठहराया गया हो. कंपनी को उस पोस्ट में ऐसे कोई शब्द भी नहीं देखने को नहीं मिले, जिनकी वजह से इसे गलती के तहत निकाला गया था.

बोर्ड ने पाया कि उस पोस्ट को निकालने का Facebook का मूल फ़ैसला कंपनी के कम्युनिटी स्टैंडर्ड या मानवाधिकार ज़िम्मेदारियों के अनुरूप नहीं था.

बोर्ड ने गौर किया कि उस पोस्ट में भारत के अल्पसंख्यकों की समस्याओं और विपक्षी दलों के मुद्दों को प्रमुखता से पेश किया गया था, जिनके साथ कथित रूप से सरकार द्वारा भेदभाव किया जा रहा है. ख़ास तौर पर इसलिए यह ज़रूरी है कि Facebook ऐसी गलतियों से बचने के लिए ज़रूरी कदम उठाए, जो अभिव्यक्ति की स्वतंत्रता छीनती हैं. COVID-19 की विशेष परिस्थितियों को समझते हुए बोर्ड ने तर्क दिया कि Facebook ने इस कंटेंट का रिव्यू करने के लिए पर्याप्त समय या ध्यान नहीं दिया. उन्होंने ज़ोर देते हुए कहा कि यूज़र्स के पास ऐसी सुविधा होनी चाहिए, जिसके ज़रिए वे बोर्ड के पास आने से पहले Facebook को केस की अपील पेश कर सकें और कंपनी से अपील की कि वह इस सुविधा को फिर से शुरू करने के काम को प्राथमिकता दे.

इन सभी चीज़ों को देखते हुए बोर्ड ने पाया कि संबंधित यूज़र को Facebook से बाहर करने वाले अकाउंट से जुड़े प्रतिबंध गलत हैं. उन्होंने यह भी चिंता जताई कि इस तरह के प्रतिबंधों से जुड़े Facebook के नियम कई अलग-अलग जगहों पर हैं और सारे नियम कम्युनिटी स्टैंडर्ड में नहीं मिलते हैं, जबकि ये एक जगह पर मिलने चाहिए.

आखिरकार, बोर्ड ने नोट किया कि Facebook की पारदर्शिता रिपोर्टिंग से यह पता लगाना मुश्किल हो जाता है कि क्या खतरनाक व्यक्तियों और संगठनों से जुड़ी पॉलिसी को अमल में लाने का असर भारत में अल्पसंख्यक भाषा बोलने वालों या धार्मिक अल्पसंख्यकों पर विशेष रूप से पड़ता है.

ओवरसाइट बोर्ड का फ़ैसला

बोर्ड ने संबंधित कंटेंट को हटाने के Facebook के मूल फ़ैसले से असहमित जताते हुए उसे बदला है. पॉलिसी से जुड़े सुझाव के कथन में बोर्ड ने सुझाव दिया कि Facebook:

  • अपने कम्युनिटी स्टैंडर्ड और आंतरिक कार्यान्वयन से जुड़े स्टैंडर्ड पंजाबी भाषा में उपलब्ध करवाए. Facebook को अपने कम्युनिटी स्टैंडर्ड उन सभी भाषाओं में उपलब्ध करवाना चाहिए, जिन भाषाओं का उपयोग व्यापक रूप से उनके यूज़र्स करते हैं.
  • Facebook के स्टाफ़ और कॉन्ट्रैक्टर के स्वास्थ्य की सुरक्षा करते हुए, कंटेंट मॉडरेशन से जुड़े फ़ैसलों के ह्यूमन रिव्यू और ह्यूमन अपील की प्रोसेस, इन दोनों ही सुविधाओं को महामारी के पहले के स्तरों तक जल्द से जल्द उपलब्ध करवाए.
  • अपनी पारदर्शिता रिपोर्टिंग में हर कम्युनिटी स्टैंडर्ड के लिए एरर रेट की जानकारी, देश और भाषा के अनुसार देखने योग्य बनाकर इसके बारे में लोगों की जानकारी बढ़ाए.

*केस के सारांश से किसी केस का ओवरव्यू पता चलता है और इसका आधिकारिक फ़ैसले से संबंधित और कोई महत्व नहीं है.

केस का पूरा फ़ैसला

1. फ़ैसले का सारांश

ओवरसाइट बोर्ड ने Facebook के कंटेंट हटाने से जुड़े एक फ़ैसले को बदल दिया है. बोर्ड ने ध्यान दिया कि जब बोर्ड ने केस को चुन लिया था लेकिन इसे किसी पैनल को असाइन नहीं किया था, तब Facebook को यह समझ आया कि उस कंटेंट को निकालने का फ़ैसला गलत था और उसे रीस्टोर कर दिया. बोर्ड ने पाया कि जिस कंटेंट पर सवाल उठाए गए थे, उसमें किसी भी खतरनाक व्यक्ति या संगठन का गुणगान, समर्थन या प्रतिनिधित्व नहीं किया गया था. उस पोस्ट में सरकार और उससे जुड़े लोगों द्वारा भारत में कथित रूप से अल्पसंख्यकों के साथ किए जाने वाले दुर्व्यवहार को हाइलाइट किया गया था और वह सार्वजनिक हित के हिसाब से महत्वपूर्ण थी. बोर्ड उस कंटेंट के रिव्यू में हुई गलतियों और संबंधित यूज़र के लिए प्रभावी अपील प्रक्रिया मौजूद न होने को लेकर चिंतित था. Facebook की गलतियों की वजह से संबंधित यूज़र की अभिव्यक्ति की स्वतंत्रता के साथ-साथ जानकारी हासिल करने से जुड़े भारत के अल्पसंख्यक वर्ग के लोगों के अधिकार भी प्रभावित हुए.

2. केस का विवरण

उस कंटेंट में “राष्ट्रीय स्वयंसेवक संघ” (RSS) और भारतीय जनता पार्टी (BJP) द्वारा भारत में अल्पसंख्यकों के साथ भेदभाव करने और विपक्ष की आवाज़ दबाने के आरोपों के बारे में बात की गई थी. RSS एक हिंदू राष्ट्रवादी संगठन है, जो कथित रूप से भारत में धार्मिक अल्पसंख्यकों के खिलाफ़ होने वाली हिंसा में शामिल रहा है. “BJP” भारत की सत्तारूढ़ पार्टी है, जिससे मौजूदा भारतीय प्रधानमंत्री नरेंद्र मोदी जुड़े हुए हैं, और उनके RSS के साथ घनिष्ठ संबंध हैं.

नवंबर 2020 में एक यूज़र ने पंजाबी भाषा की ऑनलाइन मीडिया Global Punjab TV की एक वीडियो पोस्ट और उसके साथ टेक्स्ट शेयर किया. उस पोस्ट में प्रोफ़ेसर मंजीत सिंह का 17 मिनट का इंटरव्यू था, जिन्हें “पंजाबी संस्कृति के लिए काम करने वाले एक सामाजिक कार्यकर्ता और समर्थक” के रूप में दिखाया गया था. Global Punjab TV ने अपनी पोस्ट का कैप्शन रखा था “RSS, एक नया खतरा. राम नाम सत्य है. कट्टरता की ओर बढ़ती BJP.” इस मीडिया कंपनी ने उसमें अलग से जानकारी भी शामिल की कि “नया खतरा. राम नाम सत्य है! कट्टरता की ओर बढ़ती BJP. प्रोफ़ेसर की मोदी को सीधी चुनौती!” इस कंटेंट को भारत में बड़े पैमाने पर हो रहे किसान आंदोलन के दौरान पोस्ट किया गया था और उसमें आंदोलन के पीछे के कारणों के बारे में संक्षिप्त में बताने के साथ आंदोलनकारियों की प्रशंसा भी की गई थी.

Global Punjab TV की पोस्ट शेयर करते समय संबंधित यूज़र ने उसमें टेक्स्ट शामिल किया, जिसमें उन्होंने कहा कि CIA ने RSS को एक “कट्टर हिंदू आतंकवादी संगठन” घोषित किया है और भारतीय प्रधानमंत्री नरेंद्र मोदी कभी उसी संघ के नेता थे. उस यूज़र ने लिखा कि RSS सिक्खों, जो कि भारत का एक धार्मिक अल्पसंख्यक समूह है, को मारने और 1984 के उस “भयावह दौर” को दोहराने की धमकी दे रहा था, जब हिन्दुओं ने सिक्खों पर हमला किया था. उन्होंने लिखा कि “RSS ने मृत्यु के समय बोले जाने वाले वाक्यांश ‘राम नाम सत्य है’ का उपयोग किया था.” बोर्ड को इस बात की जानकारी है कि "राम नाम सत्य है" को किसी के अंतिम संस्कार के समय बोला जाता है और इसे कथित रूप से कुछ हिन्दू राष्ट्रवादियों द्वारा धमकाने के लिए इस्तेमाल किया गया है. उस यूज़र ने आरोप लगाया कि RSS प्रमुख मोहन भागवत के कहने पर खुद प्रधानमंत्री मोदी “सिक्खों के नरसंहार” को लेकर डर का माहौल बना रहे हैं. उस पोस्ट से जुड़े टेक्स्ट के आखिर में भारत में सिक्खों को हाई अलर्ट पर रहने की सलाह देते हुए यह दावा किया गया कि सेना की सिक्ख रेजिमेेंट ने प्रधानमंत्री मोदी को चेताया है कि वे पंजाब के सिक्ख किसानों और उनकी ज़मीन की रक्षा करने के लिए अपनी जान कुर्बान करने को भी तैयार हैं.

उस पोस्ट के बारे में किसी अन्य यूज़र द्वारा “आतंकवाद” को लेकर रिपोर्ट करने से पहले, वह इस प्लेटफ़ॉर्म पर 14 दिनों तक रही और उसे 500 से भी कम लोगों ने देखा था. एक ह्यूमन रिव्यूवर इस फ़ैसले पर पहुँचा कि उस पोस्ट से खतरनाक लोग और संगठन से जुड़े कम्युनिटी स्टैंडर्ड का उल्लंघन हुआ है और उन्होंने उस कंटेंट को निकाल दिया, जिससे उस कंटेंट को पोस्ट करने वाले अकाउंट के उपयोग पर अपने आप एक निश्चित समय के लिए प्रतिबंध भी लग गया. उस यूज़र को भेजे गए नोटिफ़िकेशन में Facebook ने उल्लेख किया कि उनका फ़ैसला अंतिम था और COVID-19 के कारण उनकी रिव्यू क्षमता में आई थोड़े समय की कमी के चलते उस फ़ैसले का रिव्यू नहीं किया जा सका. इसी वजह से संबंधित यूज़र ने ओवरसाइट बोर्ड के सामने अपील पेश की.

केस चयन कमेटी द्वारा इस केस को रिव्यू के लिए चुने जाने के बाद, लेकिन जब यह केस एक पैनल को असाइन किया जा रहा था, उसके पहले Facebook को लगा कि उस कंटेंट को निकालने का फ़ैसला गलत था और उन्होंनेे उसे रीस्टोर कर दिया. बोर्ड ने फिर भी पैनल को वह केस असाइन किया.

3. प्राधिकार और दायरा

बोर्ड के पास बोर्ड के चार्टर के अनुच्छेद 2 (रिव्यू करने का प्राधिकार) के तहत Facebook के फ़ैसले का रिव्यू करने का अधिकार है और वह चार्टर के अनुच्छेद 3, सेक्शन 5 (रिव्यू की प्रक्रियाएँ: चार्टर का रिज़ॉल्यूशन) के तहत उस फ़ैसले को बनाए रख सकता है या बदल सकता है. Facebook ने बोर्ड के उपनियमों के अनुच्छेद 2 के सेक्शन 1.2.1 (कंटेंट, बोर्ड के रिव्यू के लिए उपलब्ध नहीं) के अनुसार कंटेंट को हटाने के लिए कोई कारण पेश नहीं किया, न ही Facebook ने यह संकेत दिया कि वह उपनियमों के अनुच्छेद 2 के सेक्शन 1.2.2 (कानूनी दायित्व) के तहत केस को अयोग्य मानता है. बोर्ड के चार्टर के अनुच्छेद 3 के सेक्शन 4 के तहत (रिव्यू की प्रक्रियाएँ: फ़ैसले) अंतिम निर्णय में नीति सलाहकार के कथन शामिल हो सकते हैं, जिन्हें आधार मानकर ही Facebook अपनी भविष्य की पॉलिसी तैयार करेगा.

अपनी गलती का पता चलते ही Facebook ने संबंधित यूज़र का कंटेंट रीस्टोर कर दिया, जो कि शायद नहीं होता, अगर बोर्ड इस केस को नहीं चुनता. केस के फ़ैसले 2020-004-IG-UA के अनुसार Facebook द्वारा उस कंटेंट को रीस्टोर करना चुनने से यह केस रिव्यू से बाहर नहीं हो जाता है. यह गलती क्यों हुई, इससे हुए नुकसान और यह गलती फिर न दोहराई जाए, यह सुनिश्चित करने को लेकर चिंता अपनी जगह है. बोर्ड यूज़र्स को अपनी बात रखने और उनके साथ जो हुआ है उसका पूरा स्पष्टीकरण पाने का एक मौका देता है.

4. प्रासंगिक स्टैंडर्ड

ओवरसाइट बोर्ड ने इन स्टैंडर्ड पर विचार करते हुए अपना फ़ैसला दिया है:

I. Facebook के कम्युनिटी स्टैंडर्ड:

Facebook की खतरनाक लोग और संगठनसे जुड़ी पॉलिसी में बताया गया है कि “वास्तविक दुनिया से जुड़े नुकसान को रोकने और उससे जुड़ी कोशिशों को नाकाम करने के लिए हम ऐसे किसी भी संगठन या व्यक्ति को Facebook पर मौजूद रहने की परमिशन नहीं देते हैं, जो किसी हिंसक मिशन की घोषणा करता है या हिंसा में शामिल होता है.” इस स्टैंडर्ड में आगे कहा है कि Facebook “इन गतिविधियों में शामिल समूहों, नेताओं या लोगों का समर्थन करने वाले या इनका गुणगान करने वाले कंटेंट को भी हटा देता है”.

II. Facebook के मूल्य:

Facebook के मूल्यों की रूपरेखा कम्युनिटी स्टैंडर्ड के परिचय सेक्शन में बताई गई है.

“अभिव्यक्ति” के महत्व को “सर्वोपरि” बताया गया है:

हमारे कम्युनिटी स्टैंडर्ड का लक्ष्य हमेशा एक ऐसा प्लेटफ़ॉर्म बनाने का रहा है, जहाँ लोग अपनी बात रखे सकें और अपनी भावनाएँ व्यक्त कर सकें […] हम चाहते हैं कि लोग उनके लिए महत्व रखने वाले मुद्दों पर खुलकर बातें कर सकें, भले ही कुछ लोग उन बातों पर असहमति जताएँ या उन्हें ये बातें आपत्तिजनक लगें.

Facebook “सुरक्षा” और “गरिमा” सहित चार मूल्यों के महत्व का ध्यान रखते हुए “अभिव्यक्ति” को सीमित कर सकता है:

“सुरक्षा” : हम Facebook को एक सुरक्षित जगह बनाने के लिए प्रतिबद्ध हैं. धमकी भरी अभिव्यक्ति से लोगों में डर, अलगाव की भावना आ सकती या दूसरों का आवाज़ दब सकती है और Facebook पर इसकी परमिशन नहीं है.

“गरिमा” : हमारा मानना है कि सभी लोगों को एक जैसा सम्मान और एक जैसे अधिकार मिलने चाहिए. हम उम्मीद करते है कि लोग एक-दूसरे की गरिमा का ध्यान रखेंगे और दूसरों को परेशान नहीं करेंगे या नीचा नहीं दिखाएँगे.

III. मानवाधिकार के स्टैंडर्ड:

बिज़नेस और मानव अधिकार के बारे में संयुक्त राष्ट्र संघ के मार्गदर्शक सिद्धांत (UNGP), जिन्हें 2011 में संयुक्त राष्ट्र संघ की मानव अधिकार समिति का समर्थन मिला है, प्राइवेट बिज़नेस की मानवाधिकारों से जुड़ी ज़िम्मेदारियों का स्वैच्छिक ढांचा तैयार करते हैं. UNGP के अनुरूप मानवाधिकार स्टैंडर्ड को कायम रखने के लिए Facebook की प्रतिबद्धता के बारे में मार्च 2021 को जारी की गई एक नई कॉर्पोरेट पॉलिसी में विस्तार से बताया गया है. इस केस में बोर्ड ने इन मानवाधिकार स्टैंडर्ड को ध्यान में रखते हुए विश्लेषण किया:

अभिव्यक्ति की स्वतंत्रता: अनुच्छेद 19, नागरिक और राजनीतिक अधिकार पर अंतर्राष्ट्रीय प्रतिज्ञापत्र ( ICCPR); मानवाधिकार समिति, सामान्य टिप्पणी संख्या 34 (2011); विचार और अभिव्यक्ति की स्वतंत्रता पर विशेष रैपर्टर, रिपोर्ट: A/HRC/38/35 (2018) और A/74/486 (2019)

भेदभाव न किए जाने का अधिकार: अनुच्छेद 2, पैरा. 1 और अनुच्छेद 26, ICCPR; मानवाधिकार समिति, सामान्य कमेंट संख्या 23 (1994); महासभा की राष्ट्रीय या नस्लीय, धार्मिक और भाषाई अल्पसंख्यकों से संबंधित व्यक्ति के अधिकारों पर घोषणा, जिसकी A/HRC/22/49 पैरा. 57-58 (2012) में अल्पसंख्यक मामलों के बारे स्वतंत्र विशेषज्ञों ने व्याख्या की है; अल्पसंख्यक मामलों पर विशेष रैपर्टर, A/HRC/46/57 (2021)

प्रभावी उपाय का अधिकार: अनुच्छेद 2, पैरा. 3, ICCPR; मानवाधिकार समिति, सामान्य कमेंट 31 (2004); मानवाधिकार समिति, सामान्य टिप्पणी संख्या 29 (2001);

व्यक्ति की सुरक्षा का अधिकार: अनुच्छेद 9, पैरा. 1, ICCPR, जिस तरह सामान्य कमेंट सं. 35, पैरा. 9 में इसकी व्याख्या की गई है.

5. यूज़र का कथन

संबंधित यूज़र ने बोर्ड को बताया कि वह पोस्ट डराने-धमाकने वाली या आपराधिक नहीं है, लेकिन बस उसमें उस वीडियो के सार को पेश करने के साथ उसकी भावना को दर्शाया है. उस यूज़र ने बोर्ड को उन पर लगाए गए अकाउंट से जुड़े प्रतिबंधों की शिकायत की. उन्होंने सुझाव दिया कि Facebook को बस उन वीडियो को डिलीट करना चाहिए, जिनसे उन्हें समस्या है और तब तक यूज़र्स के अकाउंट पर प्रतिबंध लगाने से बचना चाहिए, जब तक कि वे किसी को डराने-धमाकने या आपराधिक व्यवहार में शामिल न हों. यूज़र ने यह दावा भी किया कि हज़ारों लोग उनका कंटेंट देखते हैं और उन्होंने उस अकाउंट को तुरंत रीस्टोर करने की अपील की है.

6. Facebook के फ़ैसले का स्पष्टीकरण

Facebook के अनुसार, उस पोस्ट के खिलाफ़ एक रिपोर्ट आने के बाद, जिस व्यक्ति ने उस कंटेंट का रिव्यू किया, उसने गलती से उस कंटेंट को खतरनाक व्यक्तियों और संगठनों के कम्युनिटी स्टैंडर्ड का उल्लंघन करने वाला माना. Facebook ने बोर्ड को बताया कि संबंधित यूज़र की पोस्ट में खतरनाक माने गए किसी भी व्यक्ति या संगठन का उल्लेख नहीं किया गया है. इसलिए उस पोस्ट में ऐसी किसी भी चीज़ का गुणगान नहीं किया गया है, जिससे उल्लंघन होता हो.

Facebook ने बताया कि रिव्यू में गलती उस वीडियो को अवधि (17 मिनट), वक्ताओं की संख्या (दो वक्ता), उसके कंटेंट की जटिलता और कई राजनीतिक समूहों के बारे में उसमें किए गए दावों के कारण हुई. कंपनी ने सफ़ाई देते हुए यह भी कहा कि कंटेंट रिव्यूवर हर रोज़ हज़ारों तरह के कंटेंट की जाँच करते हैं और उस प्रोसेस में गलतियाँ हो जाती हैं. कंटेंट की मात्रा के कारण, Facebook ने बताया कि कंटेंट रिव्यूअर कभी-कभी वीडियो को पूरा नहीं देख पाते हैं. Facebook, कंटेंट के उस हिस्से के बारे में नहीं बता पाया जिसे रिव्यूअर ने कंपनी के नियमों का उल्लंघन बताया था.

जब यूज़र ने Facebook के फ़ैसले पर अपील की, तब उन्हें यह सूचित किया गया था कि COVID-19 के चलते कर्मचारियों की कमी के कारण Facebook पोस्ट का फिर से रिव्यू नहीं कर सकता.

7. थर्ड पार्टी सबमिशन

ओवरसाइट बोर्ड को इस केस से जुड़े छह पब्लिक कमेंट मिले. दो कमेंट यूरोप से तथा चार कमेंट अमेरिका और कनाडा से सबमिट किए गए थे. सबमिट किए गए इन कमेंट में ये विषय शामिल थे: राजनीतिक अभिव्यक्ति का दायरा, कंटेंट को मॉडरेट करने के लिए Facebook का कानूनी अधिकार और भारत में राजनीतिक संदर्भ

सबमिट किए गए पब्लिक कमेंट देखने के लिए कृपया यहाँ क्लिक करें.

8. ओवरसाइट बोर्ड का विश्लेषण

8.1 कम्युनिटी स्टैंडर्ड का अनुपालन

बोर्ड ने यह निष्कर्ष निकाला कि Facebook का कंटेंट को हटाने का शुरुआती फ़ैसला, खतरनाक लोग और संगठन से जुड़े इसके कम्युनिटी स्टैंडर्ड से संगत नहीं था.

कंटेंट में BJP के साथ-साथ RSS और इसके कई नेताओं का उल्लेख किया गया था. Facebook ने यह बताया कि इनमें से किसी भी समूह या व्यक्ति को इसके कम्युनिटी स्टैंडर्ड के तहत "खतरनाक" चिह्नित नहीं किया गया है और वह कंटेंट में ऐसे विशेष शब्दों का पता नहीं लगा पाया जिनके कारण इसे हटाया गया था. बोर्ड ने इस बात पर ध्यान दिया कि अगर इन संगठनों को खतरनाक चिह्नित किया गया था, तो भी कंटेंट में उनकी स्पष्ट रूप से आलोचना की गई थी. कंटेंट में एक समूह की प्रशंसा की गई, जो प्रदर्शन करने वाले भारतीय किसान थे. इसलिए, ऐसा लगता है कि इस कंटेंट का रिव्यू करने में पर्याप्त समय या ध्यान नहीं दिया गया था.

बोर्ड ने यह पाया कि खतरनाक लोगों और संगठनों से जुड़े कम्युनिटी स्टैंडर्ड में यह साफ़ है कि उल्लंघन करने वाला कंटेंट हटा दिया जाएगा. कम्युनिटी स्टैंडर्ड के परिचय के साथ-साथ Facebook के हेल्प सेंटर और न्यूज़रूम में यह बताया गया है कि गंभीर या लगातार उल्लंघन के कारण कुछ फ़ीचर्स की एक्सेस वापस ली जा सकती है. इस केस में, Facebook ने बोर्ड को यह बताया कि उसने लगातार उल्लंघन के कारण यूज़र के अकाउंट पर एक निश्चित समयावधि के लिए ऑटोमेटिक प्रतिबंध लगाया था. बोर्ड ने यह पाया कि उल्लंघन की स्थिति में यह कंपनी के कम्युनिटी स्टैंडर्ड के साथ संगत होता.

Facebook ने बोर्ड को यह बताया कि अकाउंट पर लगने वाले प्रतिबंध ऑटोमेटिक होते हैं. जब यह तय हो जाता है कि कम्युनिटी स्टैंडर्ड का उल्लंघन हुआ है, तब ये प्रतिबंध लगाए जाते हैं और ये व्यक्ति के पिछले उल्लंघनों पर आधारित होते हैं. इसका मतलब यह है कि कंटेंट का रिव्यू करने वाले व्यक्ति को यह जानकारी नहीं है कि हटाने के एक्शन से अकाउंट प्रतिबंधित कर दिया जाएगा और वह उस प्रतिबंध को चुनने की प्रक्रिया में शामिल नहीं है. बोर्ड ने बताया कि प्रवर्तन की गलतियों के परिणाम गंभीर हो सकते हैं और इस बात पर चिंता व्यक्त की कि इस केस में अकाउंट लेवल के प्रतिबंध गलत ढंग से लागू किए गए थे.

8.2 Facebook के मूल्यों का अनुपालन

बोर्ड ने यह पाया कि Facebook का कंटेंट को हटाने का फ़ैसला, "अभिव्यक्ति", "गरिमा" और "सुरक्षा" के इसके मूल्यों से संगत नहीं था. कंटेंट किसी मीडिया रिपोर्ट से लिंक किया गया था और राजनीति से जुड़े अहम मुद्दों से संबंधित था, जिसमें अल्पसंख्यकों के अधिकारों के कथित उल्लंघन के बारे में टिप्पणी तथा BJP के वरिष्ठ राजनेताओं और RSS द्वारा विपक्ष को चुप कराना शामिल है. इसलिए, पोस्ट को गलत ढंग से हटाने के एक्शन ने "अभिव्यक्ति" और "गरिमा" के मूल्यों को कमज़ोर बना दिया.

Facebook ने यह बताया है कि वह खतरनाक लोगों और संगठनों से जुड़े कम्युनिटी स्टैंडर्ड को लागू करते समय "सुरक्षा" के मूल्य को प्राथमिकता देता है. हालाँकि, इस केस में, कंटेंट के ज़रिए किसी भी चिह्नित खतरनाक व्यक्ति या संगठन का उल्लेख या उसकी प्रशंसा नहीं की गई थी. इसके बजाय, बोर्ड ने यह पाया कि कंटेंट में सरकारी कामकाज से जुड़े लोगों और राजनीतिक समूहों की आलोचना की गई थी.

8.3 Facebook के मानवाधिकार ज़िम्मेदारियों का अनुपालन

Facebook द्वारा ख़तरनाक लोगों और संगठनों से जुड़े कम्युनिटी स्टैंडर्ड का लागू किया जाना, कंपनी की मानवाधिकार संबंधी ज़िम्मेदारियों और UNGP में सार्वजनिक रूप से बताई गईं इसकी प्रतिबद्धताओं से संगत नहीं था. सिद्धांत 11 और 13 में बिज़नेस को मानवाधिकारों पर उनकी स्वयं की गतिविधियों या सरकारी संस्था के प्रतिनिधियों सहित, अन्य पार्टियों के साथ उनके संबंधों से उत्पन्न होने वाले प्रतिकूल प्रभाव डालने या ऐसा करने में सहायक होने से बचने और उन्हें कम करने के लिए कहा गया है.

I. अभिव्यक्ति और जानकारी की स्वतंत्रता (अनुच्छेद 19 ICCPR)

ICCPR का अनुच्छेद 19, अभिव्यक्ति की स्वतंत्रता के अधिकार की गारंटी और उन्मुक्त सार्वजनिक विचार-विमर्श को विशेष महत्व देता है, जिसमें खास तौर पर राजनीतिक हस्तियाँ और मानवाधिकारों पर चर्चा शामिल हैं (सामान्य कमेंट 34, पैरा 11 और 34).

अनुच्छेद 19 जानकारी माँगने और पाने के अधिकार की गारंटी भी देता है, जिसमें मीडिया से मिलने वाली जानकारी शामिल है (सामान्य कमेंट 34, पैरा. 13). इसकी गारंटी भेदभाव के बिना दी जाती है और मानवाधिकार कानून स्वतंत्र और विविध मीडिया के महत्व पर विशेष रूप से ज़ोर देता है, जिसमें खास तौर पर जातीय और भाषा संबंधी अल्पसंख्यक शामिल हैं (सामान्य कमेंट 34, पैरा. 14).

a. वैधानिकता

बोर्ड ने इससे पहले खतरनाक लोगों और संगठनों से जुड़े कम्युनिटी स्टैंडर्ड की उपलब्धता के विषय में चिंताएँ व्यक्त की हैं, जिसमें “प्रशंसा” के लिए Facebook की व्याख्या तथा खतरनाक लोगों और संगठनों को निर्धारित करने की प्रक्रिया से संबंधित चिंताएँ शामिल हैं ( 2020-005-FB-UA केस का फ़ैसला). विवेक का उपयोग करने, मनमाने फ़ैसले लेने पर रोक लगाने और पक्षपात से बचाव के लिए सटीक नियम महत्वपूर्ण हैं (सामान्य कमेंट सं. 34, पैरा. 25). इनसे Facebook के यूज़र्स को उन पर लगाए जा रहे नियमों को समझने में भी मदद मिलती है. अभिव्यक्ति की स्वतंत्रता पर संयुक्त राष्ट्र के विशेष रैपर्टर ने ऐसे अस्पष्ट नियमों को अपनाने वाली सोशल मीडिया कंपनियों पर चिंता ज़ाहिर की है, जो खतरनाक संगठनों के लीडर्स की "प्रशंसा" और "समर्थन" पर बड़े पैमाने पर प्रतिबंध लगाते हैं (रिपोर्ट A/HRC/38/35, पैरा. 26).

किसी नियम का उल्लंघन करने के परिणाम भी स्पष्ट होने चाहिए, जैसे अकाउंट से जुड़े कामों पर रोक लगाना या अकाउंट बंद करना. बोर्ड इस बात से चिंतित है कि अकाउंट के प्रतिबंधों से संबंधित जानकारी कई जगहों पर फैली हुई है और व्यक्ति की अपेक्षा अनुसार कम्युनिटी स्टैंडर्ड में इसके बारे में पूरी तरह नहीं बताया गया है. यूज़र्स की तरफ़ से नियमों का उल्लंघन होने पर उन्हें पर्याप्त सूचना और जानकारी देना ज़रूरी है, ताकि वे इसके अनुसार अपने व्यवहार में बदलाव कर सकें. बोर्ड ने अपने पिछले सुझावों का उल्लेख किया जिसमें कहा गया था कि Facebook को यूज़र्स से यह अपेक्षा नहीं रखनी चाहिए कि वे कई स्रोतों से नियमों को पढ़ें और नियमों को कम्युनिटी स्टैंडर्ड में समेकित होना चाहिए ( केस का फ़ैसला 2020-006- FB-FBR, सेक्शन 9.2).

बोर्ड इस बात से चिंतित है कि कम्युनिटी स्टैंडर्ड का पंजाबी भाषा में अनुवाद नहीं किया गया है, जो भारत में 3 करोड़ लोगों और दुनियाभर में बहुत से लोगों द्वारा बोली जाती है. पंजाबी भाषा में काम करने वाले मॉडरेटर्स के लिए इस भाषा में Facebook के आंतरिक कार्यान्वयन से जुड़े स्टैंडर्ड भी उपलब्ध नहीं हैं. इससे यूज़र्स को नियम समझ में न आने की समस्या और मॉडरेटर्स की तरफ़ से प्रवर्तन की गलतियाँ होने की संभावना बढ़ेगी. अल्पसंख्यकों पर पड़ने वाले संभावित विशिष्ट प्रभावों से मानवाधिकार संबंधी चिंताएँ उत्पन्न होती हैं (A/HRC/22/49, पैरा. 57).

b. वैधानिक लक्ष्य

अनुच्छेद 19, पैरा. 3 के अनुसार वैधानिक लक्ष्यों में अन्य लोगों के अधिकारों या प्रतिष्ठा का ध्यान रखने के साथ-साथ राष्ट्रीय सुरक्षा, सार्वजनिक व्यवस्था या सार्वजनिक स्वास्थ्य या नैतिकता की सुरक्षा भी शामिल है. Facebook ने बताया है कि खतरनाक लोगों और संगठनों से जुड़े कम्युनिटी स्टैंडर्ड का उद्देश्य दूसरों के अधिकारों की रक्षा करना है. बोर्ड इस बात से संतुष्ट है कि इस पॉलिसी के माध्यम से एक वैधानिक लक्ष्य पूरा करने का प्रयास किया जाता है, जो विशेष रूप से जीवन का अधिकार सुरक्षित रखने, व्यक्ति की सुरक्षा तथा समानता और गैर-भेदभाव से जुड़ा है (सामान्य कमेंट 34, पैरा. 28; ओवरसाइट बोर्ड का फ़ैसला 2020-005-FB-UA).

c. आवश्यकता और आनुपातिकता

वैधानिक लक्ष्य को हासिल करने के लिए प्रतिबंध आवश्यक और आनुपातिक होने चाहिए. कोई विशिष्ट एक्शन लेने की आवश्यकता और आनुपातिकता तथा अभिव्यक्ति से उत्पन्न होने वाले ख़तरे के बीच सीधा संबंध होना चाहिए (सामान्य कमेंट 34, पैरा. 35). Facebook ने स्वीकार किया है कि कंटेंट को हटाने का उसका फ़ैसला एक गलती थी और वह यह तर्क नहीं देता है कि यह एक्शन आवश्यक या आनुपातिक था.

राजनीतिक मुद्दों से संबंधित अभिव्यक्ति पर रोक लगाने वाली गलतियाँ एक गंभीर चिंता का विषय हैं. अगर ऐसी गलतियाँ बड़े पैमाने पर होती हैं तो यह विशेष रूप से चिंताजनक है और खास तौर पर अगर इससे अल्पसंख्यक भाषा बोलने वाले या धार्मिक अल्पसंख्यक प्रभावित होते हैं, जो शायद राजनीतिक रूप से पहले ही उपेक्षित हैं. अल्पसंख्यक मुद्दों पर संयुक्त राष्ट्र के विशेष रैपर्टर ने नफ़रत फैलाने वाली उस भाषा पर चिंता जाहिर की है जो भारत में Facebook पर अल्पसंख्यक समूहों को टार्गेट करती है (A/HRC/46/57, पैरा. 40). ऐसे क्षेत्रीय संदर्भों में, गलतियों से ऐसे अल्पसंख्यक चुप रहने के लिए मजबूर हो सकते हैं, जो घृणित और भेदभावपूर्ण कथनों का मुकाबला करना चाहते हैं, जैसा कि इस केस में है.

इस पोस्ट को बनाए जाने के समय सरकारी-विरोधी किसानों का बड़ी संख्या में विरोध प्रदर्शन और संबंधित कंटेंट को हटाने के लिए सोशल मीडिया पर बढ़ते सरकारी प्रभाव के साथ भारत में राजनीतिक संदर्भ से सही ढंग से फ़ैसले लेने का महत्व बढ़ जाता है. इस केस में, विरोध और विपक्षी दलों की आवाज़ों को दबाने से संबंधित कंटेंट. इसमें विषयों के बारे में अल्पसंख्यक भाषा के मीडिया आउटलेट के किसी इंटरव्यू का लिंक भी शामिल था. प्रभावी प्लेटफ़ॉर्म को अपनी सरकार का विरोध करने वाले अल्पसंख्यकों की अभिव्यक्ति को कमज़ोर करने से बचना चाहिए तथा मीडिया की अनेकता और विविधता को कायम रखना चाहिए (सामान्य कमेंट 34, पैरा. 40). इस महत्वपूर्ण अवधि के दौरान प्लेटफ़ॉर्म से यूज़र को गलत तरीके से बाहर करने वाले अकाउंट प्रतिबंध विशेष रूप से असंगत थे.

Facebook ने बताया कि वह COVID-19 वैश्विक महामारी के दौरान क्षमता कम होने के कारण यूज़र के कंटेंट पर अपील की नहीं कर सका. जबकि बोर्ड इन अद्वितीय परिस्थितियों को मान्य करता है, लेकिन वह फिर से Facebook के फ़ैसलों पर अपील करने के लिए पारदर्शिता और सुलभ प्रक्रिया उपलब्ध करवाने के महत्व पर ज़ोर देता है (UNGP, सिद्धांत 11; A/74/486, पैरा. 53). जैसा कि बोर्ड ने केस के फ़ैसले 2020-004-IG-UA में बताया है कि बोर्ड के पास केस आने से पहले उनकी अपील Facebook को की जानी चाहिए. यूज़र्स के पास उपाय होना सुनिश्चित करने के लिए Facebook को इस काम को प्राथमिकता देनी चाहिए कि यह अपील प्रक्रिया की सुविधा जल्द से जल्द वापस उपलब्ध हो.

बोर्ड यह स्वीकार करता है कि बड़े पैमाने पर कंटेंट को मॉडरेट करते समय गलतियाँ हो सकती हैं. इसके बावजूद, Facebook की मानवाधिकारों पर पड़ने वाले प्रतिकूल प्रभावों को रोकने, कम करने और उनका समाधान करने की ज़िम्मेदारी को पूरा करने के लिए इन गलतियों से सीख लेना ज़रूरी है (UNGP, सिद्धांत 11 और 13).

एक केस के ज़रिए यह बताना संभव नहीं है कि क्या रिव्यूअर की ओर से यह प्रवर्तन जान-बूझकर या अनजाने में किए गए पक्षपात का सूचक था. Facebook ने किसानों के विरोध प्रदर्शन, किसानों के प्रति सरकार के आचरण संबंधी महत्वपूर्ण कंटेंट और विरोध प्रदर्शन से संबंधित कंटेंट को प्रतिबंधित करने के लिए भारतीय अधिकारियों के साथ संभावित बातचीत के बारे में बोर्ड के सवालों के विस्तृत जवाब देने से भी इनकार कर दिया. Facebook ने यह तय किया कि चार्टर के उद्देश्य के अनुसार फ़ैसला लेने के लिए माँगी गई जानकारी की यथोचित आवश्यकता नहीं थी और/या कानूनी, प्राइवेसी, सुरक्षा या डेटा की सुरक्षा के प्रतिबंधों या चिंताओं के कारण इसे नहीं दिया जा सकता या नहीं दिया जाना चाहिए. Facebook ने ओवरसाइट बोर्ड के उपनियमों में अनुच्छेद 2 के सेक्शन 2.2.2 का हवाला देकर अपनी अस्वीकृति को सही ठहराया.

Facebook ने इस बारे में बोर्ड के सवाल का जवाब दिया कि भारत में Facebook का मॉडरेशन, सरकार के प्रभाव से किस तरह स्वतंत्र है. कंपनी ने बताया कि वैश्विक नीति और अनुपालन से संबंधित पहल की प्रक्रिया के रूप में उसके कर्मचारियों को उनके क्षेत्र, मार्केट या रोल से जुड़ा विशेष प्रशिक्षण दिया जाता है, जो ईमानदारी, पारदर्शिता, अखंडता, जवाबदेही और नैतिक मूल्यों की संस्कृति को बढ़ावा देता है. इसके अतिरिक्त, Facebook के कर्मचारी आचार संहिता और भ्रष्टाचार विरोधी पॉलिसी का पालन करने के लिए बाध्य हैं.

बोर्ड विशेष रूप से संकट और अशांति का सामना करने वाली जगहों के संबंध में, फ़ैसले लेने की मैन्युअल और ऑटोमेटेड प्रक्रिया में किसी भी तरह के पक्षपात का पता लगाने और उसे सुधारने के लिए ऑडिटिंग सहित कंटेंट के मॉडरेशन से जुड़े फ़ैसले रिव्यू करने की प्रक्रियाओं पर ज़ोर देता है. इन मूल्यांकनों में सरकार और सरकारी संस्था के प्रतिनिधियों द्वारा मतभेद की दुर्भावनापूर्ण ढंग से रिपोर्ट करने के लिए मिल-जुलकर किए जाने वाले कैंपेन की संभावना पर भी ध्यान दिया जाना चाहिए.

इस क्षेत्र में Facebook के एक्शन की सार्वजनिक जाँच सुनिश्चित करने के लिए पारदर्शिता ज़रूरी है. Facebook की पारदर्शिता रिपोर्टिंग में जानकारी की कमी से बोर्ड या अन्य प्रतिनिधियों के लिए यह पता लगाना मुश्किल हो जाता है कि़, उदाहरण के लिए, क्या खतरनाक लोगों और संगठनों से जुड़ी पॉलिसी को लागू करने का असर विशेष रूप से यूज़र्स पर और ख़ास तौर पर भारत में अल्पसंख्यक भाषा बोलने वालों पर पड़ता है. विचार-विमार्श की जानकारी देने के लिए, Facebook को और अधिक डेटा सार्वजनिक करना चाहिए और इसके अर्थ बताने वाला विश्लेषण उपलब्ध करवाना चाहिए.

9. ओवरसाइट बोर्ड का फ़ैसला

ओवरसाइट बोर्ड ने Facebook के कंटेंट हटाने के फ़ैसले को बदल दिया है और पोस्ट को रीस्टोर करने के लिए कहा है. बोर्ड ने ध्यान दिया कि Facebook ने इस तरह का एक्शन पहले ही ले लिया है.

10. पॉलिसी से जुड़े सुझाव का कथन

इन सुझावों की गिनती की जाती है और बोर्ड यह अनुरोध करता है कि Facebook ड्राफ़्ट किए गए अनुसार हर सुझाव के अलग-से जवाब दे.

उपलब्धता

1. Facebook को अपने कम्युनिटी स्टैंडर्ड और आंतरिक कार्यान्वयन से जुड़े स्टैंडर्ड पंजाबी भाषा में उपलब्ध करवाना चाहिए. Facebook को अपने कम्युनिटी स्टैंडर्ड उन सभी भाषाओं में उपलब्ध करवाना चाहिए, जिन भाषाओं का उपयोग उसके यूज़र्स व्यापक रूप से करते हैं. इससे उन नियमों को पूरी तरह से समझा जा सकेगा जिनका यूज़र्स को Facebook के प्रोडक्ट उपयोग करते समय पालन करना चाहिए. इससे यूज़र्स के लिए उनके अधिकारों का उल्लंघन करने वाले कंटेंट को लेकर Facebook से जुड़ना भी आसान होगा.

उपाय का अधिकार

2. केस 2020-004-IG-UA में बोर्ड के सुझावों के अनुसार, कंपनी को Facebook के कर्मचारी और कॉन्ट्रैक्टर के स्वास्थ्य को पूरी तरह सुरक्षित रखते हुए, ह्यूमन रिव्यू और ह्यूमन अपील की प्रोसेस, इन दोनों ही सुविधाओं को वैश्विक महामारी के पहले के स्तरों पर जल्द से जल्द उपलब्ध करवाना चाहिए.

पारदर्शिता रिपोर्टिंग

3. हर एक कम्युनिटी स्टैंडर्ड के लिए देश और भाषा के हिसाब से इस जानकारी को देखने योग्य बनाकर एरर रेट के बारे में लोगों की जानकारी बढ़ाने के लिए Facebook को अपनी पारदर्शिता रिपोर्टिंग को बेहतर बनाना चाहिए. बोर्ड ने इस बात पर ज़ोर दिया कि अधिक विस्तृत पारदर्शिता रिपोर्ट से अल्पसंख्यक समूहों पर पड़ने वाले संभावित विशेष प्रभावों सहित लोगों को ऐसी जगहों का पता लगाने में मदद मिलेगी जहाँ गलतियाँ अक्सर होती हैं और वे इन्हें सुधारने के लिए Facebook को सूचित भी कर पाएँगे.

*प्रक्रिया सबंधी नोट:

ओवरसाइट बोर्ड के फ़ैसले पाँच सदस्यों के पैनल द्वारा लिए जाते हैं और बोर्ड के अधिकांश सदस्य इन पर सहमति देते हैं. ज़रूरी नहीं है कि बोर्ड के फ़ैसले उसके हर एक मेंबर की निजी राय को दर्शाएँ.

इस केस के फ़ैसले के लिए, बोर्ड की ओर से स्वतंत्र शोध को अधिकृत किया गया. एक स्वतंत्र शोध संस्थान जिसका मुख्यालय गोथेनबर्ग यूनिवर्सिटी में है और छह महाद्वीपों के 50 से भी ज़्यादा समाजशास्त्रियों की टीम के साथ ही दुनिया भर के देशों के 3,200 से भी ज़्यादा विशेषज्ञों ने सामाजिक-राजनैतिक और सांस्कृतिक संदर्भ में विशेषज्ञता मुहैया कराई है. Lionbridge Technologies, LLC कंपनी ने भाषा संबंधी विशेषज्ञता की सेवा दी, जिसके विशेषज्ञ 350 से भी ज़्यादा भाषाओं में अपनी सेवाएँ देते हैं और वे दुनिया भर के 5,000 शहरों से काम करते हैं.

मामले के निर्णयों और नीति सलाहकार राय पर लौटें