सही ठहराया

अज़रबैजान में आर्मेनियाई

ओवरसाइट बोर्ड ने अपमानजनक गाली वाली ऐसी पोस्ट को हटाने के Facebook के फ़ैसले को कायम रखा है जिससे नफ़रत फैलाने वाली भाषा से जुड़े Facebook के कम्युनिटी स्टैंडर्ड का उल्लंघन हुआ था.

निर्णय का प्रकार

मानक

नीतियां और विषय

विषय
धर्म, भेदभाव, संस्कृति
सामुदायिक मानक
नफ़रत फ़ैलाने वाली भाषा

क्षेत्र/देश

जगह
अज़रबैजान, आर्मेनिया

प्लैटफ़ॉर्म

प्लैटफ़ॉर्म
Facebook

यह फैसला आर्मेनियाई, अज़रबैजानी और रूसी भाषा में भी उपलब्ध है.

Որոշման ամբողջական տարբերակը հայերենով կարդալու համար սեղմեք այստեղ.

Qərarın tam mətnini oxumaq üçün bura klikləyin.

Чтобы прочесть полное решение на русском языке, нажмите здесь.

केस का सारांश

ओवरसाइट बोर्ड ने बदनाम करने वाले शब्दों वाली ऐसी पोस्ट को हटाने के Facebook के फैसले को कायम रखा है जिनसे नफ़रत फैलाने वाली भाषा से जुड़े Facebook के कम्युनिटी स्टैंडर्ड का उल्लंघन हुआ था.

केस की जानकारी

नवंबर 2020 में एक यूज़र ने ऐसा कंटेंट पोस्ट किया जिसमें कुछ ऐतिहासिक फ़ोटो शामिल थे, जिनके बारे में कहा गया कि वे बाकु, अज़रबैजान में मौजूद चर्च हैं. रूसी भाषा में इसके साथ दिए गए टेक्स्ट में क्लेम किया गया था कि आर्मेनियाई लोगों ने चर्च सहित बाकु का निर्माण किया था और इस विरासत को नष्ट कर दिया गया है. यूज़र ने अज़रबैजानी लोगों के बारे में बताने के लिए “тазики” (“ताज़िक्स”) शब्द का उपयोग किया, जिनके बारे में यूज़र का क्लेम था कि वे खानाबदोश हैं और आर्मेनियाई लोगों की तुलना में उनका कोई इतिहास नहीं है.

यूज़र ने पोस्ट में हैशटैग शामिल किए जिसमें अज़रबैजानी आक्रमण और बर्बरता को खत्म करने की मांग की. दूसरे हैशटैग में आर्टसाख को मान्यता देने की मांग की गई, जो कि नागोर्नो-कराबाख इलाके का आर्मेनियाई नाम है, यह आर्मेनिया और अज़रबैजान के बीच टकराव का बिंदु है. पोस्ट को 45,000 से भी ज़्यादा व्यू मिले और इसे दोनों देशों के बीच हालिया सैन्य टकराव के दौरान पोस्ट किया गया था.

मुख्य निष्कर्ष

Facebook ने नफ़रत फैलाने वाली भाषा से जुड़े कम्युनिटी स्टैंडर्ड का उल्लंघन करने की वजह से यह क्लेम करते हुए इस पोस्ट को हटा दिया, कि इस पोस्ट में संरक्षित विशेषताओं (राष्ट्रीय मूल) पर आधारित लोगों के एक समूह के लिए अपमानित करने वाले शब्दों का इस्तेमाल किया.

पोस्ट में अज़रबैजानी लोगों के लिए "тазики" (“ताज़िक्स”) शब्द का इस्तेमाल किया गया. जहाँ रूसी से इसका अनुवाद शाब्दिक तौर पर “वॉश बाउल” के रूप में किया जा सकता है, इसे रूसी भाषा के शब्द “азики” (“आज़िक्स”) से खिलवाड़ करने के तौर पर भी समझा जा सकता है, जो अज़रबैजानी लोगों के लिए ऐसा अपमानजनक शब्द है, जो कि अपमानित करने से जुड़े शब्दों की Facebook की आंतरिक सूची में दिखाया गया है. बोर्ड की ओर से संचालित स्वतंत्र भाषा के विश्लेषण ने "тазики" के बारे में Facebook की इस समझ को सही बताया कि यह मानवीय विशेषताओं को हीन दिखाने वाला ऐसा अपमानजनक शब्द है, जो राष्ट्रीय मूल पर हमला करता है.

जिस संदर्भ मे इस शब्द का उपयोग किया गया था उससे यह साफ़ पता चलता है कि इसका इरादा अपने टार्गेट को हीन दिखाने का था. इस तरह, बोर्ड का मानना है कि पोस्ट ने Facebook के कम्युनिटी स्टैंडर्ड का उल्लंघन किया.

बोर्ड ने यह भी पाया कि Facebook का कंटेंट हटाने का फैसला कंपनी के मूल्यों के अनुपालन में था. हालांकि Facebook “वॉइस” को सबसे ज़्यादा अहमियत देता है, लेकिन इसके मूल्यों में “सुरक्षा” और “गरिमा” भी शामिल हैं.

सितंबर से लेकर नवंबर 2020 तक, नागोर्नो-कराबाख के विवादित इलाके में हुई लड़ाई की वजह से कई हज़ार लोगों की मौत हुई, उक्त कंटेंट, सीज़फ़ायर के थोड़ा पहले पोस्ट किया गया.

लोगों को हीन बताने वाले ऐसे अपमानजनक शब्दों के स्वभाव और इस खतरे के मद्देनज़र कि ऐसे अपमानजनक शब्दों की वजह से शारीरिक हिंसा हो सकती है, Facebook को इस मामले में यूज़र की "वॉइस” से ज़्यादा लोगों की "सुरक्षा" और "गरिमा" को प्राथमिकता देने की अनुमति दी गई.

बोर्ड के अधिकांश सदस्यों ने पाया कि इस पोस्ट को हटाया जाना अभिव्यक्ति की स्वतंत्रता को सीमित करने के मानव अधिकार स्टैंडर्ड के संगत था.

बोर्ड का मानना है कि यूज़र के लिए यह बात साफ़ है कि अज़रबैजानी लोगों के लिए “тазики” शब्द का उपयोग, एक खास राष्ट्रीयता वाले लोगों से जुड़े समूह को हीन दिखाने के लेबल के रूप में वर्गीकृत होगा, और यह कि इस पोस्ट को हटाने का Facebook का लक्ष्य मान्य है.

बोर्ड के अधिकांश सदस्यों ने पोस्ट को Facebook द्वारा हटाए जाने को अन्य लोगों के अधिकारों की सुरक्षा के लिए आवश्यक और आनुपातिक तौर पर सही कदम माना. लोगों को हीन बताने वाले शब्द भेदभाव और हिंसा का ऐसा माहौल पैदा कर सकते हैं, जिससे दूसरे यूज़र की आवाज़ दब सकती है. सैन्य टकराव के दौरान लोगों के समानता के अधिकार, व्यक्ति की सुरक्षा और जीवन को संभावित तौर पर होने वाले खतरे खासतौर से बढ़ जाते हैं.

जहाँ बोर्ड के अधिकांश सदस्यों ने यह पाया कि इन जोखिमों ने Facebook के रिस्पॉन्स को आनुपातिक तौर पर सही कदम बनाया, लेकिन कुछ लोगों ने यह माना कि Facebook की कार्रवाई में अंतर्राष्ट्रीय स्टैंडर्ड का पालन नहीं हुआ और वह आनुपातिक तौर पर सही नहीं थी. कुछ लोगों ने यह सोचा कि Facebook को इसे हटाने के बजाय एन्फ़ोर्समेंट से जुड़े दूसरे उपायों पर विचार करना चाहिए था.

ओवरसाइट बोर्ड का फैसला

बोर्ड ने कंटेंट को हटाने के Facebook के फैसले को कायम रखा.

पॉलिसी से जुड़े सुझाव के कथन में बोर्ड ने सुझाव दिया कि Facebook:

  • इस बात का ध्यान रखे कि कम्युनिटी स्टैंडर्ड के तहत किसी भी तरह का एन्फ़ोर्समेंट किए जाने पर यूज़र्स को हमेशा इसकी जानकारी दी जाए, जिसमें Facebook के उस नियम के बारे में बताया गया हो, जिसे लेकर एन्फ़ोर्समेंट किया जा रहा है. इस केस में, यूज़र को सूचित किया गया कि पोस्ट ने नफ़रत फैलाने वाली भाषा के बारे में Facebook के कम्युनिटी स्टैंडर्ड का उल्लंघन किया था, लेकिन यह नहीं बताया गया कि ऐसा इसलिए किया गया क्योंकि पोस्ट में राष्ट्रीय मूल का अपमान करने वाले शब्द शामिल थे. Facebook की पारदर्शिता की कमी के कारण उसके फैसले को गलत तरीके से यह समझने की संभावना पैदा हुई, कि कंपनी ने कंटेंट को इसलिए हटाया क्योंकि वह यूज़र के नज़रिए से असहमत थी.

*केस के सारांश से केस का ओवरव्यू पता चलता है और आगे के किसी फ़ैसले के लिए इसको आधार नहीं बनाया जा सकता है.

पूरे केस का फ़ैसला

1. फ़ैसले का सारांश

ओवरसाइट बोर्ड ने अज़रबैजान में चर्च के कथित विध्वंस के बारे में यूज़र की पोस्ट को हटाने के फैसले को कायम रखा क्योंकि वह नफ़रत फैलाने वाली भाषा के बारे में कम्युनिटी स्टैंडर्ड का उल्लंघन करती थी.

बोर्ड द्वारा संचालित स्वतंत्र मूल्यांकन ने Facebook के इस मूल्यांकन की पुष्टि की, कि पोस्ट में अज़रबैजानी राष्ट्रीय मूल को हीन दिखाने वाले ऐसे अपमानजनक शब्द शामिल थे, जो कम्युनिटी स्टैंडर्ड का उल्लंघन करते हैं. हालाँकि पोस्ट में राजनीतिक स्पीच शामिल है, लेकिन Facebook को खासतौर पर आर्मेनिया और अज़रबैजान के बीच चल रहे सैन्य टकराव के मद्देनज़र पोस्ट को हटाकर यूज़र की सुरक्षा और गरिमा की सुरक्षा करने की अनुमति दी गई.

पोस्ट को हटाना, अंतर्राष्ट्रीय मानव अधिकार स्टैंडर्ड के साथ भी संगत था, जो अन्य लोगों के अधिकारों की सुरक्षा के उद्देश्य से अभिव्यक्ति से जुड़े प्रतिबंधों में कुछ खास फेरबदल की अनुमति देते हैं.

बोर्ड ने Facebook को यह भी सुझाव दिया कि वह इस बारे में और जानकारी मुहैया कराए कि पोस्ट को क्यों हटाया गया ताकि यूज़र को ज़्यादा स्पष्टता और नोटिस मिले.

2. केस का विवरण

नवंबर 2020 में एक यूज़र ने ऐसा कंटेंट पोस्ट किया जिसमें कुछ ऐतिहासिक फ़ोटो शामिल थे, जिनके बारे में कहा गया कि वे बाकु, अज़रबैजान में मौजूद चर्च हैं. रूसी भाषा में इसके साथ दिए गए टेक्स्ट में क्लेम किया गया था कि आर्मेनियाई लोगों ने चर्च सहित बाकु का निर्माण किया था और इस विरासत को नष्ट कर दिया गया है. यूज़र ने अज़रबैजानी लोगों के बारे में बताने के लिए “т.а.з.и.к.и” (“ताज़िक्स”) शब्द का उपयोग किया, जिनके बारे में यूज़र का क्लेम था कि वे खानाबदोश हैं और आर्मेनियाई लोगों की तुलना में उनका कोई इतिहास नहीं है. “ताज़िक”, जिसका रूसी भाषा में मतलब “वॉश बाउल” है, का उपयोग पोस्ट में “azik” शब्द के साथ खिलवाड़ करने के तौर पर देखा गया है, जो कि अज़रबैजानी लोगों के लिए अपमानजनक शब्द है.

यूज़र ने पोस्ट में हैशटैग शामिल किए जिसमें अज़रबैजानी आक्रमण और बर्बरता को खत्म करने की मांग की. दूसरे हैशटैग में आर्टसाख को मान्यता देने की मांग की गई, जो कि नागोर्नो-कराबाख इलाके का आर्मेनियाई नाम है, यह आर्मेनिया और अज़रबैजान के बीच टकराव का बिंदु है. पोस्ट को 45,000 से भी ज़्यादा व्यू मिले और इसे दोनों देशों के बीच हालिया सैन्य टकराव के दौरान पोस्ट किया गया था. Facebook ने नफ़रत फैलाने वाली भाषा से जुड़े अपने कम्युनिटी स्टैंडर्ड के उल्लंघन के कारण उस पोस्ट को हटा दिया है. यूज़र ने ओवरसाइट बोर्ड को रिव्यू के लिए अनुरोध किया था.

3. प्राधिकार और दायरा

बोर्ड के पास बोर्ड के चार्टर के अनुच्छेद 2 (रिव्यू करने का प्राधिकार) के तहत Facebook के फ़ैसले को रिव्यू करने का प्राधिकार है और वह उसी चार्टर के अनुच्छेद 3, सेक्शन 5 (रिव्यू की प्रक्रियाएँ: रिज़ॉल्यूशन) के तहत उस फ़ैसले को कायम रख सकता है या बदल सकता है. Facebook ने बोर्ड के उपनियम के अनुच्छेद 2 के सेक्शन 1.2.1 (कंटेंट, बोर्ड के रिव्यू के लिए उपलब्ध नहीं) के अनुसार कंटेंट को अलग रखे जाने के लिए कोई कारण पेश नहीं किया न ही Facebook ने यह संकेत दिया कि वह अनुच्छेद 2 के सेक्शन 1.2.2 (कानूनी दायित्व) के तहत केस को अयोग्य मानता है.

4. प्रासंगिक स्टैंडर्ड

ओवरसाइट बोर्ड ने इन स्टैंडर्ड पर विचार करते हुए अपना फ़ैसला दिया है:

I. Facebook के कम्युनिटी स्टैंडर्ड:

नफ़रत फैलाने वाली भाषा से जुड़े Facebook के कम्युनिटी स्टैंडर्ड इसे “लोगों की संरक्षित विशेषताओं — नस्ल, धर्म, राष्ट्रीय मूल, धार्मिक मान्यता, यौन अभिविन्यास, जाति, लिंग या लैंगिक पहचान और बीमारी या अक्षमता के आधार पर उन पर सीधे हमले” के रूप में परिभाषित करते हैं. प्रतिबंधित कंटेंट में “वह कंटेंट शामिल है, जो अपमानजनक शब्दों से लोगों का वर्णन करता हो या नकारात्मक रूप से उन्हें निशाना बनाता हो, जहाँ अपमानजनक शब्दों को अपमानजनक लेबल के तौर पर उपयोग किए जाने वाले आम शब्दों के रूप में परिभाषित किया जाता है.”

Facebook पर नफ़रत फैलाने वाली भाषा की अनुमति नहीं है क्योंकि इससे धमकी और अलगाव वाला परिवेश बन जाता है और कुछ मामलों में दुनिया में वास्तविक हिंसा का प्रचार हो सकता है.

II. Facebook के मूल्य:

इस केस से संबंधित Facebook के मूल्यों की रूपरेखा, कम्युनिटी स्टैंडर्ड के परिचय सेक्शन में बताई गई है. इसका पहला मूल्य है “वॉइस”, जिसे “सबसे अहम” बताया गया है:

हमारे कम्युनिटी स्टैंडर्ड का लक्ष्य हमेशा एक ऐसा प्लेटफ़ॉर्म बनाना रहा है, जहाँ लोग अपनी बात रख सकें और अपनी भावनाओं को व्यक्त कर सकें. […] हम चाहते हैं कि लोग अपने लिए महत्व रखने वाले मुद्दों पर खुलकर बातें कर सकें, भले ही कुछ लोग उन बातों पर असहमति जताएँ या उन्हें वे बातें आपत्तिजनक लगें.

Facebook "वॉइस” को चार अन्य मूल्यों के मामले में सीमित करता है. बोर्ड का मानना है कि इनमें से दो मूल्य इस फ़ैसले के लिए प्रासंगिक हैं:

सुरक्षा:हम Facebook को एक सुरक्षित जगह बनाने के लिए प्रतिबद्ध हैं. धमकी भरी अभिव्यक्ति से लोगों में डर, अलगाव की भावना आ सकती या दूसरों का आवाज़ दब सकती है और Facebook पर इसकी परमिशन नहीं है.

गरिमा: हमारा मानना है कि सभी लोगों को एक जैसा सम्मान और एक जैसे अधिकार मिलने चाहिए. हम उम्मीद करते है कि लोग एक-दूसरे की गरिमा का सम्मान करेंगे और दूसरों को परेशान नहीं करेंगे या नीचा नहीं दिखाएँगे.

III. बोर्ड ने मानवाधिकारों से जुड़े इन प्रासंगिक स्टैंडर्ड पर विचार किया:

बिज़नेस और मानवाधिकार के बारे में संयुक्त राष्ट्र संघ के मार्गदर्शक सिद्धांत ( UNGP), जिन्हें 2011 में संयुक्त राष्ट्र संघ की मानवाधिकार समिति का समर्थन मिला है, प्राइवेट बिज़नेस के मानवाधिकारों से जुड़ी ज़िम्मेदारियों का स्वैच्छिक फ़्रेमवर्क बनाते हैं. मानव अधिकारों और ट्रांसनेशनल कॉरपोरेशन के बारे में UN के वर्किंग ग्रुप, जिसे UNGP की मॉनिटरिंग और क्रियान्वयन का काम सौंपा गया है, ने टकराव वाली स्थितियों में उनकी प्रयोजनीयता का समाधान किया है ( A/75/212, 2020). UNGP से प्रेरणा लेते हुए, इस केस में अंतरराष्ट्रीय मानवाधिकारों के इन स्टैंडर्ड को ध्यान में रखा गया:

  • अभिव्यक्ति की स्वतंत्रता का अधिकार: नागरिक और राजनैतिक अधिकारों पर अंतर्राष्ट्रीय प्रतिज्ञापत्र ( ICCPR), अनुच्छेद 19 और 20; जैसा कि सामान्य कमेंट नं. 34, मानव अधिकार समिति (2011) द्वारा व्याख्या की गई है ( सामान्य कमेंट 34); विचार और अभिव्यक्ति की स्वतंत्रता की रिपोर्ट पर संयुक्त राष्ट्र का विशेष प्रतिवेदक: A/69/335 (2014); A/HRC/38/35 (2018); A/73/348 (2018), A/74/486 (2019) और A/HRC/44/49 (2020); और रबात योजना, OHCHR, (2012);
  • भेदभाव न किए जाने का अधिकार: ICCPR अनुच्छेद 2 और 26; हर तरह के नस्लीय भेदभाव के उन्मूलन पर अंतर्राष्ट्रीय सम्मेलन ( ICERD), अनुच्छेद 1, 4 और 5; जैसे कि नस्लीय भेदभाव के उन्मूलन के बारे में समिति द्वारा व्याख्या की गई, सामान्य सुझाव No. 35 (2013) ( GR35);
  • जीवन का अधिकार: ICCPR अनुच्छेद 6; जैसे कि इसकी व्याख्या सामान्य कमेंट नं 36, मानव अधिकार समिति (2018) (GC36);
  • व्यक्ति की सुरक्षा का अधिकार: ICCPR अनुच्छेद 9, पैरा. 1; जैसे कि इसकी व्याख्या सामान्य कमेंट सं. 35, पैरा. 9, मानवाधिकार समिति (2014) में की गई है.

5. यूज़र का कथन

बोर्ड को दिए गए अपने कथन में यूज़र ने क्लेम किया कि उनकी पोस्ट कोई नफ़रत फैलाने वाली भाषा नहीं थी बल्कि उसका इरादा बाकु की सांस्कृतिक और धार्मिक विरासत के विनाश के बारे में बताने का था. उन्होंने यह भी क्लेम किया कि पोस्ट को सिर्फ़ इसलिए हटाया गया क्योंकि जिन अज़रबैजानी यूज़र्स में “आर्मेनिया और आर्मेनियाई लोगों के लिए घृणा है”, वे आर्मेनियाई लोगों द्वारा पोस्ट किए गए कंटेंट की रिपोर्ट कर रहे हैं.

6. Facebook के फ़ैसले का स्पष्टीकरण

Facebook ने नफ़रत फैलाने वाली भाषा से जुड़े अपने कम्युनिटी स्टैंडर्ड का उल्लंघन करने की वजह से, यह क्लेम करते हुए इस पोस्ट को हटा दिया, कि इस पोस्ट में संरक्षित विशेषताओं (राष्ट्रीय मूल) के आधार पर किसी व्यक्ति या लोगों के समूह का वर्णन करने के लिए अपमानित करने वाले शब्दों का इस्तेमाल किया गया था. Facebook ने कहा कि उसने यह कंटेंट अज़रबैजानी लोगों का वर्णन करने के लिए "тазики" (“ताज़िक्स”) शब्द के उपयोग की वजह से हटाया है. इस शब्द का अनुवाद शाब्दिक तौर पर रूसी भाषा से “वॉश बाउल” के तौर पर किया जा सकता है लेकिन इसे रूसी शब्द “азики” (“आज़िक्स”) के साथ खिलवाड़ के तौर पर भी समझा जा सकता है – Facebook ने बोर्ड को जानकारी दी, कि यह शब्द अपमानजनक शब्दों की उनकी आंतरिक लिस्ट में शामिल है, जिसका अनुपालन वह क्षेत्रीय विशेषज्ञों और सिविल सोसायटी के संगठनों की सलाह से करता है. पूरी पोस्ट का और जिस संदर्भ में उसे पोस्ट किया गया था, उसका मूल्यांकन करने के बाद Facebook ने यह फैसला किया कि यूज़र ने अज़रबैजानी लोगों का अपमान करने के लिए अपमानजनक शब्द को पोस्ट किया.

7. थर्ड पार्टी सबमिशन

ओवरसाइट बोर्ड ने इस केस के संबंध में 35 सार्वजनिक कमेंट को ध्यान में रखा. सबमिट किए गए दो कमेंट मध्य और दक्षिणी एशिया से, छह यूरोप से और 24 अमेरिका और कनाडा क्षेत्र से थे.

सबमिशन में नीचे दी गई थीम को कवर किया गया: अपमानजनक शब्दों और हीन दिखाने वाली भाषा का उपयोग जिससे कम्युनिटी स्टैंडर्ड का उल्लंघन होता है; पोस्ट के क्लेम की तथ्यात्मक सटीकता; क्या पोस्ट में मान्य राजनैतिक या ऐतिहासिक चर्चा शामिल है; और नागोर्नो-कराबाख के टकराव सहित पृष्ठभूमि और प्रसंग का मूल्यांकन करने का महत्व.

8. ओवरसाइट बोर्ड का विश्लेषण

8.1 कम्युनिटी स्टैंडर्ड का अनुपालन

यूज़र की पोस्ट ने नफ़रत फैलाने वाली भाषा के बारे में Facebook के कम्युनिटी स्टैंडर्ड का उल्लंघन किया. कम्युनिटी स्टैंडर्ड नस्लीय और राष्ट्रीय मूल के आधार पर अपमानजनक शब्दों के उपयोग को स्पष्ट तौर पर निषेध करते हैं. बोर्ड ने स्वतंत्र भाषाई विश्लेषण का संचालन किया जिसने इस शब्द को Facebook द्वारा अपमानजनक शब्द के तौर पर समझे जाने का समर्थन किया. भाषा संबंधी रिपोर्ट इस बात को कन्फ़र्म करती है कि पोस्ट, “тазики” या “वॉश बेसिन” और अज़रबैजानी लोगों के बारे में अपमानजनक तरीके से बताने के लिए उपयोग किए गए शब्द “азики” के बीच कनेक्शन को व्यक्त किया गया है.

ऐसे मौके हो सकते हैं, जिनमें किसी एक संदर्भ में बदनाम करने वाले शब्द दूसरे संदर्भ में कुछ मान्य या यहाँ तक कि प्रशंसात्मक भी हो सकते हैं. स्पीच से जुड़ा Facebook का कम्युनिटी स्टैंडर्ड इस बात को स्वीकार करता है कि कुछ केस में “ऐसे शब्दों या पदों, जो अन्यथा [उसके] स्टैंडर्ड का उल्लंघन करते हैं, का उपयोग अपने-आप में संदर्भ देने के तौर पर या प्रशंसात्मक तौर पर किया जाता है.” हालाँकि इस पोस्ट में जिस संदर्भ में “тазики” का इस्तेमाल किया गया उससे साफ़ होता है कि अज़रबैजानी लोगों को वॉश बाउल से जोड़ने में इसका इरादा अपने टार्गेट को हीन दिखाने का था.

8.2 Facebook के मूल्यों का अनुपालन

बोर्ड ने पाया है कि इसे हटाया जाना Facebook की “सुरक्षा” और “गरिमा” के मूल्य के संगत था, जिसे इस केस में “वॉइस” के मूल्य के ऊपर तरजीह दी गई.

Facebook के मूल्य, “वॉइस” को प्राथमिकता पर रखते हैं ताकि प्लेटफ़ॉर्म के यूज़र खुद को स्वतंत्र रूप से अभिव्यक्त कर सकें. हालाँकि Facebook के मूल्यों में “सुरक्षा” और “गरिमा” भी शामिल हैं. इस कंटेंट और इसके जैसी दूसरी पोस्ट को प्लेटफ़ॉर्म पर छोड़ देने से आमतौर पर संरक्षित स्पीच प्रतिबंधित हो सकती है, जिससे Facebook की सुरक्षा में कमी आती है, और संबंधित तौर पर इससे लोगों की गरिमा और समानता में गिरावट आती है. राष्ट्रीय मूल को निशाना बनाने वाले अपमानजनक शब्दों के उपयोग पर Facebook के प्रतिबंध का इरादा यूज़र को ऐसा कंटेंट पोस्ट करने से रोकना है, जिसका आशय दूसरे यूज़र की आवाज़ को दबाने, अलग करने, उत्पीड़न करने या उसे हीन दिखाने का होता है. छोड़ दिए जाने पर, इस तरह का कंटेंट के इकट्ठे होने से ऐसा माहौल बन सकता है, जिससे भेदभाव और हिंसा होने की ज़्यादा संभावना होगी.

इस केस में, Facebook को अपमानजनक शब्द के उपयोग को “सुरक्षा” और “गरिमा” के मूल्यों के साथ गंभीर हस्तक्षेप के तौर पर मानने की अनुमति दी गई. दक्षिणपूर्व कराकास के दो पड़ौसी देशों आर्मेनिया और अज़रबैजान के बीच टकराव लंबे समय से है. अभी हाल ही में, सितंबर से लेकर नवंबर 2020 तक, नागोर्नो-कराबाख के विवादित इलाके में हुई लड़ाई की वजह से कई हज़ार लोगों की मौत हुई. उक्त कंटेंट को सीज़फ़ायर लागू होने से ठीक पहले Facebook पर पोस्ट किया गया था. यह संदर्भ, बोर्ड के लिए खासतौर से प्रासंगिक था. जहाँ इंगित की गई भाषा, खासतौर से टकरावपूर्ण स्थितियों में मानवीय इंटरैक्शन का भाग हो सकती है, मनुष्यता की विशेषताओं को हीन दिखाने वाले अपमानजनक शब्दों के इस तरह से फैलाव के खतरे को, जिससे हिंसा के कृत्यों को बढ़ावा मिलता है, Facebook द्वारा गंभीरता से लिया जाना चाहिए.

8.3 मानवाधिकारों के स्टैंडर्ड का अनुपालन

  1. अभिव्यक्ति की स्वतंत्रता (अनुच्छेद 19 ICCPR)

Facebook ने बिज़नेस और मानवाधिकारों के बारे में संयुक्त राष्ट्र के मार्गदर्शक सिद्धांतों के तहत मानवाधिकारों का सम्मान करने की अपनी ज़िम्मेदारी को पहचाना है और यह इंगित किया है कि सैन्य टकरावों की स्थितियों सहित कंटेंट से जुड़े फैसले लेते समय यह प्राधिकरणों जैसे ICCPR और रबात योजना की राय लेता है.

बोर्ड, अभिव्यक्ति की स्वतंत्रता के बारे में संयुक्त राष्ट्र के विशेष प्रतिवेदक से सहमत है कि हालाँकि “कंपनियों का सरकारों के प्रति दायित्व नहीं है, लेकिन उनका प्रभाव इस तरह का है जिसके लिए उनके लिए अपने यूज़र की सुरक्षा के बारे में इस तरह के सवालों का मूल्यांकन करना आवश्यक है” (A/74/486, पैरा. 41). उन सवालों की प्रकृति को स्पष्ट करना और यह फ़ैसला सुनाना कि क्या Facebook के जवाब संयुक्त राष्ट्र के मार्गदर्शक सिद्धांतों के दायरे में आते हैं, इस बोर्ड के सामने आने वाला मुख्य काम है.

बोर्ड का शुरुआती बिंदु यह है कि अभिव्यक्ति की स्वतंत्रता के अधिकार का दायरा व्यापक है. ICCPR का अनुच्छेद 19, पैरा. 2 राजनीतिक मुद्दों की अभिव्यक्ति को और ऐसे ऐतिहासिक क्लेम की चर्चा को, जिसमें धार्मिक साइट और लोगों की सांस्कृतिक विरासत से जुड़े क्लेम भी शामिल हैं, अधिक सुरक्षा देता है. वह सुरक्षा वहाँ भी बनी रहती है जहाँ वे क्लेम गलत हों या उनका प्रतिवाद किया जाए और तब भी जब वे क्लेम अपराध की वजह बन सकते हों. अनुच्छेद 19, पैरा. 3 में वैधानिकता, मान्य होने और आवश्यकता व आनुपातिकता के तीन हिस्सों में होने वाले टेस्ट में खरा उतरने के लिए अभिव्यक्ति की स्वतंत्रता पर सीमाओं को आवश्यक बनाया गया है.

बोर्ड के अधिकांश मेंबर्स ने यह पाया कि इस पोस्ट को प्लेटफ़ॉर्म से हटा कर Facebook उस टेस्ट पर खरा उतरा है.

a. वैधानिकता

“वैधानिकता” की आवश्यकता पूरी करने के लिए अभिव्यक्ति पर प्रतिबंध लगाने वाला कोई भी नियम स्पष्ट और आसानी से उपलब्ध होना चाहिए. लोगों के पास यह तय करने के लिए पर्याप्त जानकारी होनी चाहिए कि क्या उनकी बातों पर रोक लगाई जा सकती है और ऐसा करने की वजह क्या हो सकती है, ताकि इसके हिसाब से वे अपने व्यवहार में बदलाव ला सकें. यह शर्त मनमानी सेंसरशिप के विरुद्ध सुरक्षा देती है (सामान्य कमेंट सं. 34, पैरा. 25).

नफ़रत फैलाने वाली भाषा से जुड़े Facebook के कम्युनिटी स्टैंडर्ड में बताया गया है कि “अपमानजनक शब्द” प्रतिबंधित हैं और यह कि इन्हें “ऐसे शब्दों के रूप में परिभाषित किया गया है जो निहित तौर पर आपत्तिजनक हों और जिनका उपयोग नस्लीयता और राष्टीय मूल सहित कई "सुरक्षित विशिष्टताओं” के संबंध में अपमानजनक लेबल के तौर पर किया जाता है”.

इस केस में, बोर्ड ने माना कि वैधानिकता की शर्त पूरी हुई. ऐसी स्थितियाँ हो सकती हैं, जिनमें अपमानजनक शब्द के एक से ज़्यादा मतलब हो सकते हैं या उनका इस्तेमाल उन तरीकों से किया गया हो, जिससे उन्हें “हमला” नहीं माना जा सकता. ज़्यादा चुनौतीपूर्ण स्थितियों में, “निहित रूप से आपत्तिजनक” और “अपमानजनक” की अवधारणाओं को भी बेहद व्यक्तिपरक माना जा सकता है और इनकी वैधानिकता के लिए चिंताएँ ज़ाहिर की जा सकती हैं (A/74/486, पैरा. 46). इस केस में नियम को लागू करने से वह चिंता ज़ाहिर नहीं होती है. यूज़र द्वारा इस्तेमाल में लाए गए शब्द लोगों को हीन दिखाने की स्पीच के बारे में प्रतिबंध के अंतर्गत साफ़तौर से आते हैं, जिनके बारे में बोर्ड द्वारा देखा गया है कि वे स्पष्ट तौर पर कहे गए और यूज़र के लिए आसानी से उपलब्ध हैं. किसी बेजान गंदी चीज़ से किसी राष्ट्रीय पहचान को कनेक्ट करने के लिए “т.а.з.и.к.и” का उपयोग “अपमानजनक लेबल” होने के रूप में बिल्कुल खरा उतरता है.

जहाँ नियमों के बारे में यूज़र की व्यक्तिपरक समझ, उसकी वैधानिकता के लिए निर्धारक तत्व नहीं है, बोर्ड ने यह नोट किया कि यूज़र ने अपमानजनक शब्द के हर एक अक्षर के बीच में विराम चिह्न लगाकर उसे Facebook के ऑटोमेटेड डिटेक्शन टूल से छिपाने की कोशिश की. इससे यह कन्फ़र्म हो जाता है कि यूज़र इस बात से अवगत था कि वह ऐसी भाषा का उपयोग कर रहा था, जो Facebook पर प्रतिबंधित है.

b. मान्यता

अभिव्यक्ति की स्वतंत्रता पर किसी भी प्रतिबंध का उद्देश्य “वैधानिक लक्ष्य” प्राप्त करना ही होना चाहिए. ये लक्ष्य ICCPR की लिस्ट में दिए गए हैं और इनमें “अन्य लोगों के अधिकारों” (सामान्य कमेंट नं 34, पैरा. 28). Facebook द्वारा गालियों पर प्रतिबंध लगाने का उद्देश्य लोगों के समानता और भेदभाव न किए जाने के अधिकारों को सुरक्षित रखना है (अनुच्छेद 2, पैरा. 1, ICCPR), ताकि वे प्लेटफ़ोर्म पर उत्पीड़न या धमकी के बिना अपनी अभिव्यक्ति की स्वतंत्रता के अधिकार का उपयोग कर सकें (अनुच्छेद 19 ICCPR), किसी व्यक्ति के सुरक्षा के अधिकार को पूर्वाभासी और जानबूझकर चोट पहुँचाने से (अनुच्छेद 9, ICCPR, सामान्य कमेंट सं. 35, पैरा. 9), और यहाँ तक कि जीवन के अधिकार की रक्षा की जा सके (अनुच्छेद 6 ICCPR).

c. आवश्यकता और आनुपातिकता

आवश्यकता और आनुपातिकता के लिए Facebook को यह दिखाना आवश्यक है कि अभिव्यक्ति की स्वतंत्रता पर उसका प्रतिबंध खतरे का निराकरण करने के लिए आवश्यक था, जो इस केस में दूसरे व्यक्तियों के अधिकारों को खतरा है, और यह कि वह बहुत ज़्यादा व्यापक नहीं था (सामान्य कमेंट सं. 34, पैरा. 34). बोर्ड ने नोट किया कि अंतरराष्ट्रीय मानवाधिकार कानून, “व्यक्तियों या समूहों या क्षेत्राधिकारों का अपमान, उपहास या बदनाम करने पर प्रतिबंध लगाने की अनुमति देते हैं” अगर ऐसी अभिव्यक्ति, जाति, रंग, अग्रजों या राष्ट्रीय या नस्लीय मूल के आधार पर “स्पष्ट तौर पर घृणा या भेदभाव भड़काने के लिए हो” (A/74/486, पैरा. 17; GR35, पैरा. 13).

Facebook के नफ़रत फैलाने वाली भाषा से जुड़े कम्युनिटी स्टैंडर्ड में कुछ भेदभावपूर्ण अभिव्यक्ति को प्रतिबंधित किया गया है, जिनमें अपमानजनक शब्द, ऐसी किसी भी शर्त का गैर-मौजूद होना, जिससे अभिव्यक्ति से हिंसा या भेदभावपूर्ण काम को बढ़ावा मिलता है. हालाँकि इस प्रकार के प्रतिबंध बड़े स्तर पर सरकार द्वारा लागू किए जाने पर चिंताएँ उत्पन्न करेंगे (A/74/486, पैरा. 48), खास तौर से तब, जब इन्हें आपराधिक या नागरिक प्रावधानों के ज़रिए लागू किया जाए, इसलिए विशेष रैपर्टर ने यह संकेत दिया है कि कंटेंट मॉडरेशन में शामिल निकाय जैसे कि Facebook ऐसी भाषा को नियंत्रित कर सकते हैं:

घृणास्पद अभिव्यक्ति का निराकरण करने के दायरे और जटिलता से लंबे समय की चुनौतियाँ सामने आती हैं और इनके कारण कंपनियाँ ऐसी अभिव्यक्ति को प्रतिबंधित कर सकती हैं, भले ही यह विपरीत परिणामों से संबंधित नहीं हो (क्योंकि घृणा का समर्थन ICCPR के अनुच्छेद 20(2) के अंतर्गत उकसावे से संबंधित है). हालाँकि, कंपनियों को ऐसे प्रतिबंधों के आधारों को समझना चाहिए और कंटेंट से जुड़ी किसी भी एक्शन की आवश्यकता और आनुपातिकता के स्तर की जानकारी देनी चाहिए. (A/HRC/38/35, पैरा. 28)

बोर्ड के अधिकांश मेंबर्स ने यह पाया कि इस केस में उपयोग किया गया अपमानजनक शब्द घृणास्पद और हीन दिखाने वाला है. जबकि इसकी वजह से कोई उकसावा पैदा नहीं होता है, फिर भी इसमें विपरीत परिणाम पैदा करने की संभावना मौजूद थी. संदर्भ ही कुंजी है. बोर्ड ने Facebook के उस स्पष्टीकरण को स्वीकार किया कि अपमानजनक शब्द के तौर पर इस शब्द के उसके निर्धारण में स्थानीय विशेषज्ञों और सिविल सोसायटी के संगठनों की राय ली गई जो इसके प्रासंगिक उपयोग से अवगत हैं. अधिकांश सदस्यों ने नोट किया कि जब पोस्ट को पूरी तरह पढ़े जाने पर, यह स्पष्ट हो गया कि यूज़र द्वारा अपमानजनक शब्द चुना जाना, आकस्मिक नहीं था बल्कि यूज़र के उस तर्क का केंद्रीय भाग था कि टार्गेट समूह हीन है. इसके अलावा उक्त पोस्ट, यूज़र के राज्य और जिस राज्य के नागरिकों पर पोस्ट द्वारा हमला किया गया है उनके बीच बड़े सैन्य टकराव की स्थिति में व्यापक तौर पर फैलाई गई. इस संदर्भ में लोगों को हीन दिखाने वाली भाषा के उपयोग के ऑनलाइन असर हो सकते हैं, जिनमें भेदभाव का माहौल बनना शामिल है जिससे अन्य लोगों द्वारा खुद को अभिव्यक्त करने की स्वतंत्रता बाधित हो सकती है. खासतौर से सैन्य टकराव की स्थितियों में, प्लेटफ़ॉर्म पर घृणास्पद, हीन बताने की अभिव्यक्तियाँ इकट्ठी होती और फैलती हैं, जिसके कारण ऐसी ऑफ़लाइन कार्रवाइयाँ होती हैं, जिनसे व्यक्ति की सुरक्षा के अधिकार पर और संभावित तौर पर जीवन पर काफ़ी ज़्यादा गंभीर असर पड़ता है. इस खास मामले में, बोर्ड के अधिकांश सदस्यों ने माना कि इन जोखिमों की मौजूदगी और उन्हें बढ़ावा देने से रोकने की Facebook की मानव अधिकारों से जुड़ी ज़िम्मेदारी के उद्देश्य से उसे अपमानजनक शब्द को हटाने की अनुमति दी गई.

इसके अलावा, बोर्ड ने हटाए जाने को आनुपातिक तौर पर सही पाया. कम गंभीर दखलअंदाज़ी जैसे लेबल, चेतावनी स्क्रीन या इसके फैलाव को कम करने के अन्य उपायों से इस तरह की सुरक्षा नहीं मिलती. ध्यान देने वाली बात यह है कि, यूज़र द्वारा उल्लंघन करने वाले कंटेंट को कई बार फिर से पोस्ट करने के बाद भी Facebook ने ऐसे और ज़्यादा गंभीर उपाय नहीं किए जो कि उसके पास उपलब्ध थे, जैसे यूज़र के अकाउंट पर रोक लगाना. यह दर्शाता है कि कंटेंट के इस खास हिस्से को हटाने के बावज़ूद यूज़र, कम्युनिटी स्टैंडर्ड के दायरे में रहकर इन्हीं मुद्दों के बारे में चर्चा करने के लिए स्वतंत्र रहा.

Facebook द्वारा अल्पमत की राय वाली पोस्ट को हटाया जाना इस आधार पर आनुपातिक नहीं था, कि बहुमत द्वारा बताया जा रहा जोखिम बहुत दूर स्थित था और उसका अनुमान नहीं लगाया जा सकता था. इसलिए वैकल्पिक कम-हस्तक्षेप वाले एन्फ़ोर्समेंट विकल्पों पर विचार किया गया. इसके उदाहरणों में कंटेंट पर संवेदनशीलता की स्क्रीन लगाना, उसका वायरल होना कम करना, काउंटर-मैसेजिंग को बढ़ावा देना या अन्य तकनीकें शामिल हैं. इस अल्पमत वाले दृष्टिकोण के चलते पूरी पोस्ट को इस वजह से हटा देने से कि उसमें अपमानजनक शब्द का उपयोग किया गया, सार्वजनिक सरोकार के मामले के बारे में स्पीच को हटाया गया और उस प्रतिबंध की आवश्यकता और आनुपातिकता की शर्त को पूरा नहीं किया गया.

अल्पमत का दूसरा नज़रिया यह था कि किसी बेजान चीज़ का संदर्भ देना आपत्तिजनक था लेकिन वह मानवीय विशेषताओं को हीन दिखाने वाला नहीं था. इस नज़रिए में ऐसा माना गया कि अपमानजनक शब्द से सैन्य या दूसरी हिंसक कार्रवाई में कोई योगदान नहीं होता.

9. ओवरसाइट बोर्ड का फ़ैसला

9.1 कंटेंट का फैसला

बोर्ड ने यूज़र की पोस्ट को हटाने के Facebook के फैसले को कायम रखा.

9.2 पॉलिसी से जुड़े सुझाव का कथन

बोर्ड ने सुझाव दिया कि Facebook:

  • इस बात का ध्यान रखे कि कम्युनिटी स्टैंडर्ड के तहत किसी भी तरह का एन्फ़ोर्समेंट किए जाने पर यूज़र्स को हमेशा इसकी जानकारी दी जाए, जिसमें Facebook के उस नियम के बारे में बताया गया हो, जिसे लेकर एन्फ़ोर्समेंट किया जा रहा है. ऐसा करने से Facebook, यूज़र के प्रति प्रतिकूल रुख अपनाने के बजाय, ऐसी अभिव्यक्ति को प्रोत्साहन दे सकेगा, जो उसके कम्युनिटी स्टैंडर्ड का पालन करती हैं. इस केस में, यूज़र को सूचित किया गया कि पोस्ट ने नफ़रत फैलाने वाली भाषा से जुड़े Facebook के कम्युनिटी स्टैंडर्ड का उल्लंघन किया था लेकिन उसे यह नहीं बताया गया कि पोस्ट ने स्टैंडर्ड का उल्लंघन किया क्योंकि इसमें राष्ट्रीय मूल को निशाना बनाने वाले अपमानजनक शब्द शामिल थे. Facebook ने इस घटना में वैधानिकता के सिद्धांत का पालन किया लेकिन Facebook की पारदर्शिता की कमी के कारण उसके फैसले को गलत तरीके से यह समझने की संभावना पैदा हुई, कि कंपनी ने कंटेंट को इसलिए हटाया क्योंकि वह यूज़र किसी विवादास्पद विषय पर संबोधित कर रहा था या ऐसा नज़रिया अभिव्यक्त कर रहा था, जिससे Facebook असहमत था.

*प्रक्रिया सबंधी नोट:

ओवरसाइट बोर्ड के फैसले पाँच मेंबर के पैनल द्वारा तैयार किए जाते हैं और बोर्ड के अधिकांश मेंबर द्वारा इन पर सहमति दी जानी आवश्यक है. यह ज़रूरी नहीं है कि बोर्ड के फैसले सभी मेंबरों के निजी फैसलों को दर्शाएँ.

इस केस के फ़ैसले के लिए, बोर्ड की ओर से स्वतंत्र शोध को अधिकृत किया गया. एक स्वतंत्र शोध संस्थान जिसका मुख्यालय गोथेनबर्ग यूनिवर्सिटी में है और छह महाद्वीपों के 50 से भी ज़्यादा समाजशास्त्रियों की टीम के साथ ही दुनिया भर के देशों के 3,200 से भी ज़्यादा विशेषज्ञों ने सामाजिक-राजनैतिक और सांस्कृतिक संदर्भ में विशेषज्ञता मुहैया कराई है. Lionbridge Technologies, LLC कंपनी ने भाषा संबंधी विशेषज्ञता की सेवा दी, जिसके विशेषज्ञ 350 से भी ज़्यादा भाषाओं में अपनी सेवाएँ देते हैं और वे दुनिया भर के 5,000 शहरों से काम करते हैं.

मामले के निर्णयों और नीति सलाहकार राय पर लौटें