पलट जाना

ट्रांसजेंडर लोगों को टार्गेट करने के लिए पोलिश भाषा में की गई पोस्ट

ओवरसाइट बोर्ड ने एक ऐसी Facebook पोस्ट को बनाए रखने के Meta के मूल फ़ैसले को पलट दिया है, जिसमें यूज़र ने ट्रांसजेंडर लोगों को हिंसा फैलाने वाली भाषा से टार्गेट करते हुए कहा कि इस ग्रुप के लोगों को आत्महत्या कर लेनी चाहिए.

निर्णय का प्रकार

मानक

नीतियां और विषय

विषय
LGBT, लैंगिक समानता

क्षेत्र/देश

जगह
पोलैंड

प्लैटफ़ॉर्म

प्लैटफ़ॉर्म
Facebook

इस फ़ैसले को पोलिश भाषा में पढ़ने के लिए, यहाँ क्लिक करें.

Kliknij tutaj, aby przeczytać postanowienie w języku polskim.

सारांश

ओवरसाइट बोर्ड ने एक ऐसी Facebook पोस्ट को बनाए रखने के Meta के मूल फ़ैसले को पलट दिया है, जिसमें यूज़र ने ट्रांसजेंडर लोगों को हिंसा फैलाने वाली भाषा से टार्गेट करते हुए कहा कि इस ग्रुप के लोगों को आत्महत्या कर लेनी चाहिए. बोर्ड ने पाया कि इस पोस्ट से नफ़रत फैलाने वाली भाषा व आत्महत्या और खुद को चोट पहुँचाने से जुड़े कम्युनिटी स्टैंडर्ड का उल्लंघन होता है. हालाँकि, इस केस की मौलिक समस्या पॉलिसी नहीं, बल्कि उनके एन्फ़ोर्समेंट की है. पोस्ट में नुकसानदेह कंटेंट की मौजूदगी के कई सिग्नलों के बावजूद, एन्फ़ोर्समेंट के बारे में सही कार्रवाई करने में Meta की बार-बार विफलता से बोर्ड इस नतीजे पर पहुँचा कि कंपनी, LGBTQIA+ की सुरक्षा के संबंध में अपने आदर्शों के अनुसार काम नहीं कर रही है. बोर्ड ने Meta से कहा कि वह रिव्यूअर्स को दिए जाने वाले आंतरिक निर्देशों को बेहतर बनाते हुए एन्फ़ोर्समेंट की इन कमियों को दूर करे.

केस के बारे में जानकारी

अप्रैल 2023 में, पोलैंड के एक Facebook यूज़र ने ट्रांसजेंडर फ़्लैग के नीले, गुलाबी और सफ़ेद रंगों वाले एक पट्टीदार पर्दे की फ़ोटो पोस्ट की. इसके साथ पोलिश भाषा में लिखा गया था “नई टेक्नोलॉजी … पर्दे जो खुद ही लटक जाते हैं” और उसके ऊपर लिखा था “बसंत ऋतु की सफ़ाई <3.” यूज़र की बायोग्राफ़ी में लिखा है “मुझे ट्रांसजेंडर लोगों से नफ़रत है.” पोस्ट को 50 से कम रिएक्शन मिले थे.

अप्रैल और मई 2023 के दौरान, पोस्ट के खिलाफ़ 11 अलग-अलग यूज़र्स ने कुल 12 बार रिपोर्ट की थी. 12 में से सिर्फ़ दो रिपोर्ट को Meta के ऑटोमेटेड सिस्टमों ने ह्यूमन रिव्यू के लिए प्राथमिकता दी और अन्य सभी को बंद कर दिया गया. जिन दो पोस्ट को Facebook की आत्महत्या और खुद को चोट पहुँचाने से जुड़े स्टैंडर्ड के संभावित उल्लंघन की वजह से ह्यूमन रिव्यू के लिए भेजा गया था, उन्हें उल्लंघन न करने वाला पाया गया. नफ़रत फैलाने वाली भाषा पर आधारित किसी भी रिपोर्ट को ह्यूमन रिव्यू के लिए नहीं भेजा गया.

तीन यूज़र्न ने फिर Facebook पोस्ट को बनाए रखने के Meta के फ़ैसले के खिलाफ़ अपील की, जिनमें से एक अपील के परिणामस्वरूप एक ह्यूमन रिव्यूअर ने आत्महत्या और खुद को चोट पहुँचाने से जुड़े कम्युनिटी स्टैंडर्ड के आधार पर मूल फ़ैसले को कायम रखा. इस बार भी, नफ़रत फैलाने वाली भाषा से जुड़े कम्युनिटी स्टैंडर्ड के तहत की गई अन्य अपीलों को ह्यूमन रिव्यू के लिए नहीं भेजा गया. आखिर में, इस कंटेंट की मूल रूप से रिपोर्ट करने वाले यूज़र्स में से एक ने बोर्ड से अपील की. बोर्ड द्वारा इस केस का चयन किए जाने के बाद, Meta ने पाया कि पोस्ट से उसकी नफ़रत फैलाने वाली भाषा व आत्महत्या और खुद को चोट पहुँचाने से जुड़ी पॉलिसी का उल्लंघन होता है और उसने पोस्ट को Facebook से हटा दिया. इसके अलावा, कंपनी ने पिछले कई उल्लंघनों की वजह से कंटेंट पोस्ट करने वाले यूज़र के अकाउंट को बंद कर दिया.

मुख्य बातें

बोर्ड ने पाया कि कंटेंट से Meta की नफ़रत फैलाने वाली भाषा से जुड़ी पॉलिसी का उल्लंघन होता है, क्योंकि इसमें आत्महत्या द्वारा एक सुरक्षित विशिष्टता वाले ग्रुप की मृत्यु के आह्वान के रूप में “हिंसा फैलाने वाली भाषा” शामिल है. पोस्ट में ट्रांसजेंडर लोगों के लिए आत्महत्या की वकालत की गई है, जिससे डर और बहिष्कार का माहौल बना और उससे जान-माल का नुकसान हो सकता था. टेक्स्ट और फ़ोटो की प्रकृति को देखते हुए, पोस्ट ने ट्रांसजेंडर कम्युनिटी द्वारा झेले जा रहे मानसिक स्वास्थ्य के संकट को भी बढ़ाया. गे एंड लेस्बियन अलायंस अगेंस्ट डीफ़ेमेशन (GLAAD) की एक हालिया रिपोर्ट में कहा गया है कि ऑनलाइन “गालियों और नफ़रत वाले लगातार व्यवहार से ट्रांसजेंडर्स को गहरा मनोवैज्ञानिक आघात” लगा है. पोलैंड में LGBTQIA+ कम्युनिटी द्वारा झेले जा रहे ऑनलाइन और ऑफ़लाइन नुकसान के व्यापक संदर्भ में अपने निष्कर्ष में बोर्ड को इससे अतिरिक्त मदद मिली, जिसमें प्रभावशाली सरकारी और सार्वजनिक हस्तियों द्वारा हमले और राजनीतिक बयानबाजी शामिल है.

बोर्ड इस बात से चिंतित है कि Meta के ह्यूमन रिव्यूअर्स को संदर्भ से जुड़े ये संकेत समझ नहीं आए. आत्महत्या के बढ़े हुए जोखिम (“पर्दे जो खुद ही लटक जाते हैं”) और ग्रुप की मृत्यु के समर्थन (“बसंत ऋतु की सफ़ाई”) की पोस्ट में दिया गया संदर्भ, नफ़रत फैलाने वाली भाषा से जुड़े कम्युनिटी स्टैंडर्ड का स्पष्ट उल्लंघन था. कंटेंट क्रिएटर द्वारा खुद को ट्रांसजेंडर्स से नफ़रत करने वाला बताया जाना ही अपने आप में एक अन्य उल्लंघन है. बोर्ड ने Meta से कहा कि वह LGBTQIA+ लोगों के प्रति नफ़रत फैलाने वाली भाषा के एन्फ़ोर्समेंट के संबंध में अपनी सटीकता बढ़ाए, ख़ास तौर पर जब पोस्ट में ऐसी फ़ोटो और टेक्स्ट हों, जिन्हें समझने के लिए संदर्भ की ज़रूरत पड़े. इस केस में आत्महत्या के कुछ हद तक कोड किए गए संदर्भ और साथ में संरक्षित ग्रुप के विज़ुअल चित्रण (ट्रांसजेंडर का फ़्लैग) ने साथ मिलकर “नुकसानदेह रचनात्मकता” का निर्माण किया. इससे पता चलता है कि गलत इरादों वाले लोग, LGBTQIA+ कम्युनिटी को पोस्ट और मीम के ज़रिए टार्गेट करने के नए-नए तरीके अपना रहे हैं, जिन्हें वे “हास्यकर या व्यंग्यात्मक” बताते हैं, लेकिन वास्तव में उनका उद्देश्य नफ़रत फैलाना या उत्पीड़न करना होता है.

इसके अलावा, बोर्ड, Meta के इस कथन से चिंतित है कि कंटेंट को हटाने में ह्यूमन रिव्यूअर्स की विफलता, उसके आंतरिक निर्देश के कठोर उपयोग को देखते हुए सही है. इससे पता चलता है कि Meta के आंतरिक निर्देश इस तथ्य को पर्याप्त रूप से कैप्चर नहीं करते कि किस तरह टेक्स्ट और फ़ोटो, किसी ग्रुप के सदस्यों की लैंगिक पहचान द्वारा परिभाषित ग्रुप को दर्शाने के लिए इंटरैक्ट कर सकते हैं.

इस पोस्ट से Facebook के आत्महत्या और खुद को चोट पहुँचाने से जुड़े कम्युनिटी स्टैंडर्ड का स्पष्ट उल्लंघन भी हुआ है, इसलिए बोर्ड ने पाया कि इस पॉलिसी को ज़्यादा स्पष्ट रूप से ऐसे कंटेंट को प्रतिबंधित करना चाहिए जो लोगों के पहचाने जाने लायक ग्रुप के एक व्यक्ति के बजाय पूरे ग्रुप के लिए आत्महत्या को बढ़ावा देता है.

इस केस में, रिव्यू को प्राथमिकता देने वाले Meta के ऑटोमेटेड सिस्टम से एन्फ़ोर्समेंट पर अत्यधिक प्रभाव पड़ा, जिसमें यह शामिल है कि एक ही कंटेंट की कई रिपोर्ट पर कंपनी क्या कार्रवाई करती है. Meta “रिव्यूअर के फ़ैसलों और एन्फ़ोर्समेंट की कार्रवाइयों में एकरूपता सुनिश्चित करने” के लिए इन रिपोर्ट को मॉनीटर करता है और उन्हें डीडुप्लिकेट करता (हटाता) है. रिपोर्ट को अपने आप बंद करने के लिए दिए गए अन्य कारणों में कंटेंट की कम गंभीरता और उनका कम वायरल होने (कंटेंट को देखे जाने की संख्या) का स्कोर शामिल है, जिनके कारण उन्हें ह्यूमन रिव्यू में प्राथमिकता नहीं दी गई. इस केस में, बोर्ड यह मानता है कि गंभीरता के स्कोर तय करते समय एक प्रासंगिक सिग्नल के रूप में यूज़र की बायोग्राफ़ी पर भी विचार किया जा सकता था.

बोर्ड मानता है कि Meta को ऐसे क्लासिफ़ायर के निर्माण में ज़्यादा निवेश करना चाहिए जिनसे LGBTQIA+ कम्युनिटी पर असर डालने वाले संभावित रूप से उल्लंघनकारी कंटेंट की पहचान की जा सके और उसे लैंगिक पहचान से जुड़े नुकसानों के बारे में ह्यूमन रिव्यूअर्स को और बेहतर ट्रेनिंग देनी चाहिए.

ओवरसाइट बोर्ड का फ़ैसला

ओवरसाइट बोर्ड ने संबंधित कंटेंट को प्लेटफ़ॉर्म पर बनाए रखने के Meta के मूल फ़ैसले को पलट दिया है.

बोर्ड ने Meta को सुझाव दिया है कि वह:

  • अपने आत्महत्या और खुद को चोट पहुँचाने से जुड़ी पॉलिसी में यह स्पष्ट करे कि पॉलिसी ऐसे कंटेंट पर रोक लगाती है जिसमें लोगों के किसी पहचाने जाने लायक ग्रुप पर लक्षित आत्महत्या को बढ़ावा दिया जाता है या उन्हें आत्महत्या करने के लिए प्रेरित किया जाता है.
  • शुरुआती रिव्यू करने वाले रिव्यूअर्स को दिए जाने वाले आंतरिक निर्देश में यह सुनिश्चित करने के लिए बदलाव करे कि लैंगिक पहचान के फ़्लैग आधारित ऐसे विज़ुअल चित्रण, जिनमें कोई मनुष्य शामिल न हो, उन्हें उसके सदस्यों की लैंगिक पहचान द्वारा परिभाषित ग्रुप का प्रतिनिधित्व समझा जाए.

* केस के सारांश से केस का ओवरव्यू पता चलता है और आगे के किसी फ़ैसले के लिए इसे आधार नहीं बनाया जा सकता है.

केस का पूरा फ़ैसला

1. फ़ैसले का सारांश

ओवरसाइट बोर्ड ने पोलिश भाषा में एक ऐसे कंटेंट को Facebook पर बनाए रखने के Meta के मूल फ़ैसले को पलट दिया, जिसमें यूज़र ने ट्रांसजेंडर लोगों को हिंसा फैलाने वाली भाषा से टार्गेट करते हुए कहा कि इस ग्रुप के लोगों को आत्महत्या कर लेनी चाहिए. बोर्ड द्वारा इस केस को रिव्यू के लिए चुने जाने के बाद, Meta इस निष्कर्ष पर पहुँचा कि पोस्ट को प्लेटफ़ॉर्म पर बनाए रखने का उसका मूल फ़ैसला गलत था. इसके बाद उसने कंटेंट को हटा दिया और अकाउंट पर प्रतिबंध लगा दिए. बोर्ड ने पाया कि इस पोस्ट से नफ़रत फैलाने वाली भाषा और आत्महत्या और खुद को चोट पहुँचाने से जुड़ी पॉलिसी का उल्लंघन होता है. बोर्ड ने इसे Meta से यह अनुरोध करने के अवसर के रूप में लिया कि वह अपने प्लेटफ़ॉर्म पर ट्रांसजेंडर लोगों की बेहतर रक्षा के लिए अपने रिव्यूअर्स को दी जाने वाली अपनी पॉलिसी और निर्देश को और बेहतर बनाए. ख़ास तौर पर, यह तय करने के लिए कि क्या पोस्ट एक नफ़रत फैलाने वाली भाषा है, Meta को यह सुनिश्चित करना चाहिए कि लैंगिक पहचान के फ़्लैग आधारित ऐसे विज़ुअल चित्रण जिनमें कोई मनुष्य शामिल न हो, उन्हें उसके सदस्यों की लैंगिक पहचान द्वारा परिभाषित ग्रुप का प्रतिनिधित्व समझा जाए. Meta को यह भी स्पष्ट करना चाहिए कि पूरे ग्रुप को आत्महत्या करने के लिए प्रेरित करना भी उतना ही उल्लंघनकारी है जितना कि किसी एक व्यक्ति को आत्महत्या करने के लिए प्रेरित करना. हालाँकि, बोर्ड ने पाया कि इस केस की मौलिक समस्या पॉलिसी की नहीं, बल्कि उनके एन्फ़ोर्समेंट की है. जैसा कि लिखा भी गया है, पॉलिसी के अनुसार यह पोस्ट स्पष्ट रूप से प्रतिबंधित है, जिसमें लैंगिक पहचान के आधार पर लोगों के ग्रुप को टार्गेट करने वाली नफ़रत फैलाने वाली भाषा के कई संकेत मौजूद हैं. यूज़र्स की कई रिपोर्ट के बावजूद, एन्फ़ोर्समेंट के बारे में सही कार्रवाई करने में Meta की बार-बार विफलता से बोर्ड इस नतीजे पर पहुँचा कि Meta, LGBTQIA+ की सुरक्षा के संबंध में अपने आदर्शों के अनुसार काम नहीं कर रहा है. बोर्ड ने Meta से एन्फ़ोर्समेंट की इन कमियों को दूर करने के लिए कहा.

2. केस की जानकारी और बैकग्राउंड

अप्रैल 2023 में पोलैंड के एक Facebook यूज़र ने अलग-अलग रंगों की पट्टियों वाले पैटर्न के पर्दे की फ़ोटो पोस्ट की, जिसमें ट्रांसजेंडर फ़्लैग के नीले, गुलाबी और सफ़ेद रंग की पट्टियाँ थीं. फ़ोटो में पोलिश भाषा में कहा गया है: “नई टेक्नोलॉजी. पर्दे जो खुद ही लटक जाते हैं.” उस लाइन के पहले, पोलिश भाषा के अन्य टेक्स्ट में कहा गया है: “बसंत ऋतु की सफ़ाई <3.” यूज़र ने अपने परिचय में पोलिश भाषा में लिखा है “मुझे ट्रांसजेंडर लोगों से नफ़रत है.” पोस्ट को अन्य लोगों के 50 से कम रिएक्शन मिले, जिनमें से अधिकांश इसका समर्थन करते थे. सबसे ज़्यादा उपयोग किया गया इमोजी “Haha” था.

अप्रैल और मई 2023 के दौरान, इस कंटेंट के खिलाफ़ 11 अलग-अलग यूज़र्स ने कुल 12 बार रिपोर्ट की. इनमें से 10 रिपोर्टों को “कम गंभीरता और वायरल होने के स्कोर” समेत अलग-अलग कारणों के चलते Meta के ऑटोमेटेड सिस्टम ने ह्यूमन रिव्यू के लिए प्राथमिकता नहीं दी. Meta आम तौर पर ह्यूमन रिव्यू के लिए कंटेंट की प्राथमिकता उसके उल्लंघन की गंभीरता, उसके वायरल होने की क्षमता और कंटेंट से जुड़े पॉलिसी के उल्लंघन की आशंका के आधार पर तय करता है. आत्महत्या और खुद को चोट पहुँचाने पर बने Facebook के कम्युनिटी स्टैंडर्ड के तहत आने वाली सिर्फ़ दो रिपोर्ट के कारण उस कंटेंट को ह्यूमन रिव्यू के लिए आगे बढ़ाया गया. नफ़रत फैलाने वाली भाषा से जुड़ी पॉलिसी पर आधारित कोई भी रिपोर्ट को ह्यूमन रिव्यू के लिए आगे नहीं बढ़ाया गया. Meta के अनुसार, रिव्यूअर्स के पास उनकी तय पॉलिसी कतार (जैसे नफ़रत फैलाने वाली भाषा या आत्महत्या और खुद को चोट पहुँचाना) के अलावा कंटेंट का “आकलन करने और उस पर कार्रवाई करने” के लिए ज़रूरी ट्रेनिंग और टूल होते हैं. इसके बावजूद, दोनों ही रिव्यूवर ने इस कंटेंट को उल्लंघन नहीं करने वाला बताया और आगे एस्केलेट नहीं किया.

तीन यूज़र्स ने उस कंटेंट को Facebook पर बनाए रखने के Meta के फ़ैसले के खिलाफ़ अपील की. एक अपील की सुनवाई में ह्यूमन रिव्यूवर ने Meta के असल फ़ैसले को बरकरार रखते हुए कहा कि उस कंटेंट से आत्महत्या और खुद को नुकसान पहुँचाने से जुड़ी कंपनी की पॉलिसी का उल्लंघन नहीं हो रहा है. नफ़रत फैलाने वाली भाषा से जुड़ी Facebook की पॉलिसी के तहत की गई अन्य दो अपीलें ह्यूमन रिव्यू के लिए आगे नहीं बढ़ाई गईं. ऐसा इसलिए क्योंकि Meta यह सुनिश्चित करने के लिए एक ही कंटेंट की कई रिपोर्ट को “मॉनीटर और डीडुप्लिकेट” करेगा कि रिव्यूअर्स के फ़ैसलों और एन्फ़ोर्समेंट की कार्रवाइयों में एकरूपता रहे.

इस कंटेंट की रिपोर्ट करने वाले यूज़र्स में से एक ने बोर्ड से अपील की. बोर्ड द्वारा इस केस का चयन किए जाने के बाद, Meta ने पाया कि कंटेंट से उसकी नफ़रत फैलाने वाली भाषा और आत्महत्या और खुद को चोट पहुँचाने से जुड़ी पॉलिसी का उल्लंघन होता है और उसने पोस्ट को हटा दिया. इसके अलावा, केस में Meta के रिव्यू के भाग के रूप में, कंपनी ने पाया कि कंटेंट क्रिएटर के अकाउंट से पहले ही कम्युनिटी स्टैंडर्ड के कई उल्लंघन हो चुके थे और वे अकाउंट को बंद करने के लिए बहुत थे. Meta ने इस अकाउंट को अगस्त 2023 में बंद कर दिया.

बोर्ड ने इस केस में अपना फ़ैसला करते समय नीचे दिए संदर्भ पर ध्यान दिया:

पोलैंड में LGBTQIA+ कम्युनिटी के विरोध की घटनाएँ अक्सर रिपोर्ट की जाती रही हैं. [नोट: सेक्शुअल ओरिएंटेशन, लैंगिक पहचान और/या लिंग अभिव्यक्ति के आधार पर ग्रुप्स का संदर्भ देते समय बोर्ड “LGBTQIA+” (लेस्बियन, गे, बाइसेक्शुअल, क्वीर, इंटरसेक्स और एसेक्शुअल) का उपयोग करता है. हालाँकि, बोर्ड अन्य लोगों द्वारा उनका उल्लेख या उन्हें कोट किए जाते समय संक्षेपाक्षरों या उपयोग को सुरक्षित करेगा.] मानवाधिकारों के बारे में यूरोप कमिश्नर की काउंसिल ने पहले “LGBTI लोगों के विरोध” को “पोलैंड में लंबे समय से चली आ रही समस्या” बताते हुए उस पर ध्यान खींचा था. इंटरनेशनल लेस्बियन, गे, बाइसेक्शुअल, ट्रांस एंड इंटरसेक्स एसोसिएशन (ILGA) की रेनबो यूरोप रिपोर्ट में देशों को उन कानूनों और पॉलिसी के आधार पर रैंक किया गया है, जो LGBTI लोगों के मानवाधिकारों पर असर डालती हैं. रिपोर्ट में पोलैंड को यूरोपियन यूनियन (EU) का सबसे खराब प्रदर्शन करने वाला और आकलन किए गए 49 देशों में से 42वें क्रम का देश बताया गया. राष्ट्रीय और स्थानीय सरकारों और प्रमुख सार्वजनिक हस्तियों द्वारा भेदभावपूर्ण भाषा और कानूनी कार्रवाई के ज़रिए LGBTQIA+ कम्युनिटी को टार्गेट करने की घटनाएँ बढ़ती जा रही हैं.

2018 की शुरुआत से ILGA-यूरोप ने ऐसी घटनाओं को ट्रैक करना शुरू किया, जिन्हें “पोलिश राजनेताओं द्वारा LGBTI लोगों के खिलाफ़ हाई प्रोफ़ाइल नफ़रत फैलाने वाली भाषा” कहा जाता है. इसमें ऐसे कथन शामिल हैं कि “पूरा LGBT आंदोलन” पोलैंड के लिए एक “खतरा” है. उसी साल, पोलैंड के लुबलिन के मेयर ने शहर के इक्वेलिटी मार्च को बैन करने की कोशिश की. हालाँकि कोर्ट ऑफ़ अपील ने तय मार्च से कुछ समय पहले वह बैन हटा दिया. 2019 में वारसॉ के मेयर शहर में “LGBT लोगों की स्थिति बेहतर बनाने” के लिए वारसॉ LGBT+ चार्टर लेकर आए. पोलैंड की सत्तारूढ़ लॉ एंड जस्टिस पार्टी (PiS) और धार्मिक नेताओं ने चार्टर की आलोचना की. पोलैंड के राष्ट्रपति और केंद्र सरकार ने भी ट्रांसजेंडर कम्युनिटी को टार्गेट करने की ओर इशारा किया. उदाहरण के लिए, सत्तारूढ़ PiS पार्टी के अध्यक्ष ने ट्रांसजेंडर लोगों को “असामान्य” लोग बताया. पोलैंड के न्याय मंत्री ने भी पोलैंड की सुप्रीम कोर्ट से इस बात पर विचार करने के लिए कहा कि “जब ट्रांस लोग LGR [कानूनी लैंगिक मान्यता] को एक्सेस करना चाहें, तो उन्हें अपने माता-पिता के अलावा, अपने बच्चों या जीवनसाथी पर भी मुकदमा कर देना चाहिए [ट्रांज़िशन की परमिशन के लिए].”

पोलैंड ने LGBTQIA+ विरोधी कानून भी पारित किया है. वर्ल्ड राइट्स वॉच के अनुसार, 2019 में विभिन्न शहरों ने अन्य उपायों के अलावा “LGBT मुक्त क्षेत्र” बनाकर “पोलिश समाज से LGBT लोगों के बहिष्कार” का आह्वान शुरू किया. ह्यूमन राइट्स वॉच ने रिपोर्ट किया है कि ये ऐसे क्षेत्र हैं “जहाँ स्थानीय अधिकारियों ने भेदभावपूर्ण ‘फ़ैमिली चार्टर’ अपनाते हुए ‘बच्चों को नैतिक भ्रष्टाचार से बचाने’ का निवेदन किया है या जिन्होंने खुद को ‘LGBT विचारधारा’ से मुक्त घोषित किया है.” 100 से ज़्यादा शहरों ने ऐसे क्षेत्र बनाए हैं. ILGA-यूरोप ने रिपोर्ट किया है कि स्थानीय, EU और अंतरराष्ट्रीय दबाव के कारण इनमें से कुछ नगरीय निकायों ने “LGBT विरोधी रिज़ॉल्यूशन या फ़ैमिली राइट्स चार्टर” वापस ले लिए हैं. 28 जून 2022 को पोलैंड की सुप्रीम एडमिनिस्ट्रेटिव कोर्ट ने चार नगरीय निकायों को आदेश दिया कि वे LGBTQI+ विरोधी अपने रिज़ॉल्यूशन वापस लें. इसके बावजूद, जैसा कि रेनबो यूरोप में पोलैंड की रैंकिंग से पता चलता है, देश में LGBTQIA+ कम्युनिटी के लिए माहौल काफ़ी खराब है.

EU में LGBTI लोगों के 2019 में किए गए एक सर्वे, जिसे मौलिक अधिकारों के लिए यूरोपियन यूनियन की एजेंसी ने करवाया था, में हमलों और उत्पीड़न के बारे में पोलैंड के LGBTI लोगों के अनुभवों की तुलना यूरोपियन यूनियन के अन्य भागों से की गई थी. सर्वे के अनुसार, पोलैंड में 51% LGBTI लोग अक्सर या हमेशा हमले के डर से कुछ ख़ास जगहों पर जाने से बचते हैं. शेष यूरोपियन यूनियन में यह संख्या 33% है. सर्वे में यह भी पाया गया कि पाँच में से एक ट्रांसजेंडर पर सर्वे से पहले के पाँच वर्षों के दौरान शारीरिक या यौन हमला किया गया था, जो अन्य LGBTI ग्रुप्स की तुलना में दोगुना है.

बोर्ड ने पोलिश सरकार के अधिकारियों द्वारा किए गए अपमानजनक कथनों के सोशल मीडिया पर दिए गए जवाबों का विश्लेषण करने के लिए बाहरी विशेषज्ञों की मदद ली. उन विशेषज्ञों ने नोट किया कि “2015 के बाद से पोलैंड में LGBTQIA+ कम्युनिटी के साथ अल्पसंख्यक कम्युनिटी के खिलाफ़ ऑनलाइन नफ़रत फैलाने वाली भाषा में चिंताजनक बढ़ोतरी हुई है.” Facebook पर पोलिश भाषा में LGBTQIA+ विरोधी कंटेंट के अपने विश्लेषण में इन विशेषज्ञों ने नोट किया कि “LGBTQIA+ विरोधी कानून के बारे में कोर्ट के आदेशों” के दौरान इनमें तेज़ी देखी गई है. इनमें सुप्रीम एडमिनिस्ट्रेटिव कोर्ट का ऊपर बताया गया फ़ैसला और मानवाधिकार कमिश्नर के लिए पोलिश ओम्बुड्समैन द्वारा स्थानीय एडमिनिस्ट्रेटिव कोर्ट के समक्ष लाई गई कई LGBT विरोधी घोषणाओं की स्वीकार्यता में आने वाली कानूनी चुनौतियों से संबंधित निर्धारण शामिल हैं, जो 2019 से जारी हैं.

बोर्ड ने भाषाई विशेषज्ञों से पोस्ट में शामिल दो पोलिश वाक्यांशों के अर्थ के बारे में भी बात की. “पर्दे जो खुद लटक जाते हैं” के बारे में विशेषज्ञों ने पाया कि “खिड़की में लटके ट्रांस फ़्लैग” के संदर्भ में, यह वाक्यांश शब्दों की ऐसी “बाज़ीगरी” थी जिसमें “पर्दे लटकाने” को “लटककर आत्महत्या करने” के संबंध में प्रस्तुत किया गया था. विशेषज्ञ इस नतीजे पर पहुँचे कि यह वाक्यांश एक “अस्पष्ट ट्रांसफ़ोबिक गाली” थी. “बसंत ऋतु की सफ़ाई” वाक्यांश के बारे में, विशेषज्ञों ने कहा कि “सामान्य तौर पर इसका अर्थ बसंत ऋतु में घर की पूरी साफ़-सफ़ाई” होता है, लेकिन कुछ ख़ास संदर्भों में “इसका अर्थ ‘पूरा कचरा बाहर फेंकना’ और ‘सभी अनचाहे सामानों (और/या लोगों) से छुटकारा पाना’ भी होता है.” ह्यूमन राइट्स कैंपेन फ़ाउंडेशन (PC-16029) के सबमिशन सहित कई अन्य सार्वजनिक सबमिशन में यह तर्क दिया गया कि “बसंत ऋतु की सफ़ाई” से संबंधित पोस्ट का संदर्भ “पोलिश समाज से ट्रांस लोगों के बहिष्कार और अलगाव (उनकी मृत्यु के ज़रिए) की प्रशंसा करना है.”

इस केस में ऑनलाइन और ऑफ़लाइन नुकसानों की समस्याएँ पोलैंड के अलावा पूरी दुनिया में LGBTQIA+ कम्युनिटी के लोगों को प्रभावित कर रही हैं. विश्व स्वास्थ्य संगठन के अनुसार, पूरी दुनिया में 15-29 वर्ष के लोगों में आत्महत्या, मृत्यु का चौथा सबसे प्रमुख कारण है. WHO ने नोट किया कि “आत्महत्या की दर उन कमज़ोर ग्रुप में भी बहुत ज़्यादा है, जिनके साथ भेदभाव किया जाता है, जैसे शरणार्थी और अप्रवासी, मूल निवासी लोग; और लेस्बियन, गे, बाइसेक्शुअल, ट्रांसजेंडर, इंटरसेक्स (LGBTI) लोग.” अन्य रिसर्च स्टडीज़ में पाया गया है कि साइबर-उत्पीड़न और खुद को चोट पहुँचाने से जुड़े विचार और व्यवहार के बीच एक “सकारात्मक संबंध” है.

आत्महत्या का जोखिम, ट्रांसजेंडर और नॉनबाइनरी कम्युनिटी के लिए एक विशेष चिंता है. LGBTQ मानसिक स्वास्थ्य के बारे में ट्रेवर प्रोजेक्ट के 2023 के राष्ट्रीय सर्वे में पाया गया है कि अमेरिका में आधे ट्रांसजेंडर और नॉनबाइनरी युवाओं के बारे में यह माना जाता है कि 2022 में उनके मन में आत्महत्या का विचार आया था. इसी स्टडी में यह अनुमान लगाया गया है कि 14% LGBTQ युवाओं ने पिछले वर्ष के दौरान आत्महत्या की कोशिश की थी, जिनमें से लगभग पाँच में से एक युवा ट्रांसजेंडर और नॉनबाइनरी था. CDC के युवा जोखिम व्यवहार सर्वे के अनुसार, अमेरिका के 10% हाई स्कूल स्टूडेंट ने 2021 में आत्महत्या की कोशिश की थी. पूरी दुनिया की कईस्टडीज़ में यह पाया गया है कि ट्रांसजेंडर या नॉनबाइनरी लोगों में आत्महत्या करने के बारे में सोचने और उसकी कोशिश करने का जोखिम सिसजेंडर लोगों से ज़्यादा होता है.

बोर्ड को भेजे गए सार्वजनिक कमेंट में, गे एंड लेस्बियन अलायंस अगेंस्ट डिफ़ेमेशन (GLAAD) (PC-16027) ने अपने वार्षिक सर्वे सोशल मीडिया सेफ़्टी इंडेक्स के नतीजों पर ज़ोर दिया. यह सर्वे पाँच मुख्य सोशल मीडिया प्लेटफ़ॉर्म पर LGBTQ यूज़र की सुरक्षा के संबंध में किया जाता है. 2023 की रिपोर्ट में Facebook को 12 LGBTQ विशिष्ट संकेतों के आधार पर 61% का स्कोर दिया गया है. यह स्कोर 2022 के मुकाबले 15 अंकों की बढ़ोतरी दर्शाता है जिसमें Facebook को Instagram के बाद दूसरे स्थान पर और तीन अन्य प्रमुख प्लेटफ़ॉर्म से पहले रखा गया है. हालाँकि, GLAAD ने लिखा है कि “LGBTQ यूज़र्स की सुरक्षा और उनके बचाव की क्वालिटी अभी भी संतोषजनक नहीं है.” रिपोर्ट ने पाया कि “LGBTQ लोगों को ऑनलाइन वास्तविक नुकसान हुए हैं, जिनमें टार्गेट किए जाने के डर से LGBTQ लोगों की अभिव्यक्ति की आज़ादी समाप्त होना शामिल है. इसके अलावा उन्हें गालियों और नफ़रत वाले लगातार व्यवहार से गहरा मनोवैज्ञानिक आघात भी लगा है.”

3. ओवरसाइट बोर्ड की अथॉरिटी और स्कोप

बोर्ड को उस यूज़र के अपील करने के बाद Meta के फ़ैसले का रिव्यू करने का अधिकार है, जिसने पहले ऐसे कंटेंट की रिपोर्ट की थी, जिसे छोड़ दिया गया था (चार्टर अनुच्छेद 2, सेक्शन 1; उपनियम आर्टिकल 3, सेक्शन 1).

बोर्ड Meta के फ़ैसले को कायम रख सकता है या उसे बदल सकता है (चार्टर अनुच्छेद 3, सेक्शन 5) और उसका फ़ैसला कंपनी पर बाध्यकारी होता है (चार्टर अनुच्छेद 4). Meta को मिलते-जुलते संदर्भ वाले समान कंटेंट पर अपने फ़ैसले को लागू करने की संभावना का भी आकलन करना चाहिए (चार्टर अनुच्छेद 4). बोर्ड के फ़ैसलों में गैर-बाध्यकारी सलाह शामिल हो सकती हैं, जिन पर Meta को जवाब देना ज़रूरी है (चार्टर अनुच्छेद 3, सेक्शन 4; अनुच्छेद 4). जहाँ Meta, सुझावों पर एक्शन लेने की प्रतिबद्धता व्यक्त करता है, वहाँ बोर्ड उनके क्रियान्वयन की निगरानी करता है.

जब बोर्ड इस केस जैसे केस चुनता है, जहाँ बाद में Meta यह मानता है कि उसने गलती की है, तो बोर्ड मूल फ़ैसले को रिव्यू करके उस कंटेंट मॉडरेशन प्रोसेस को बेहतर तरीके से समझता है और बोर्ड आगे गलतियों को कम करने और Facebook और Instagram का उपयोग करने वाले लोगों के साथ निष्पक्षता बढ़ाने के सुझाव देता है.

4. अथॉरिटी और निर्देश के सोर्स

इस केस में बोर्ड ने इन स्टैंडर्ड और पुराने फ़ैसलों को ध्यान में रखते हुए विश्लेषण किया:

I. ओवरसाइट बोर्ड के फ़ैसले

ओवरसाइट बोर्ड के कुछ सबसे प्रासंगिक पुराने फ़ैसलों में ये शामिल हैं:

II. Meta की कंटेंट पॉलिसी

नफ़रत फैलाने वाली भाषा से जुड़ी पॉलिसी को बनाने के कारण में नफ़रत फैलाने वाली भाषा को सेक्स और लिंग सहित “सुरक्षित विशिष्टताओं के आधार पर लोगों पर - अवधारणाओं या संस्थाओं के बजाय - सीधे हमले के रूप में परिभाषित किया गया है.” Meta “हमले” को “हिंसक या अमानवीय भाषा, नुकसानदायक रूढ़िवादिता, हीन भावना महसूस करवाने वाले बयान, अवमानना, घृणा या खारिज करने के भाव, कोसने, और बहिष्कार अथवा अलग-थलग करने की माँग” के रूप में परिभाषित करता है. पॉलिसी बनाने के कारण में Meta ने आगे बताया है कि: “हमारा मानना है कि लोग तब खुलकर अपनी बात रख पाते हैं और अन्य लोगों से कनेक्ट हो पाते हैं, जब उन्हें लगता है कि कोई भी व्यक्ति उनकी पहचान के आधार पर उनका विरोध नहीं करेगा. इसी वजह से हम Facebook पर नफ़रत फैलाने वाली भाषा की परमिशन नहीं देते हैं. इससे न सिर्फ़ डराने-धमकाने वाला माहौल बनता है, बल्कि लोगों को बहिष्कृत किए जाने का भी डर होता है और कुछ मामलों में तो यह ऑफ़लाइन हिंसा को बढ़ावा दे सकता है.”

Meta ने नफ़रत फैलाने वाली भाषा से जुड़े कम्युनिटी स्टैंडर्ड को कई “टियर” में बाँटा है. टियर 1 के हमलों में वह कंटेंट शामिल है जिसमें किसी व्यक्ति या लोगों के ग्रुप को उनकी सुरक्षित विशिष्टताओं के आधार पर “लिखित या विज़ुअल रूप में हिंसा फैलाने वाली भाषा या उसके समर्थन से निशाना बनाया जाता है.” Meta ने आखिरकार पाया कि इस केस में शामिल पोस्ट से इस पॉलिसी का उल्लंघन हुआ है. 6 दिसंबर 2023 को, Meta ने कम्युनिटी स्टैंडर्ड को यह बताने के लिए अपडेट किया कि सुरक्षित विशिष्टता वाले ग्रुप्स के खिलाफ़ हिंसा फैलाने वाली भाषा पर प्रतिबंध को हिंसा और उकसावे से जुड़ी पॉलिसी के तहत ले जाया गया है.

टियर 2 के हमलों में वह कंटेंट शामिल है जिसमें किसी व्यक्ति या लोगों के ग्रुप को उनकी सुरक्षित विशिष्टताओं के आधार पर “अपमान की अभिव्यक्ति (लिखित या विज़ुअल रूप में) से निशाना बनाया जाता है.” नफ़रत फैलाने वाली भाषा से जुड़े कम्युनिटी स्टैंडर्ड में Meta ने अपमान की अभिव्यक्ति को परिभाषित करते हुए कहा है कि इसमें “सुरक्षित विशिष्टता के आधार पर असहिष्णुता को खुद स्वीकार करना शामिल है” और साथ ही इसमें “ऐसी अभिव्यक्तियाँ भी शामिल हैं कि सुरक्षित विशिष्टता का अस्तित्व ही नहीं होना चाहिए.”

आत्महत्या और खुद को चोट पहुँचाने से जुड़े कम्युनिटी स्टैंडर्ड में “ऐसे कंटेंट को प्रतिबंधित किया गया है जो आत्महत्या या खुद को चोट पहुँचाने को प्रोत्साहित करता है, जिसमें काल्पनिक कंटेंट जैसे कि मीम या फ़ोटो शामिल हैं.” इस पॉलिसी के तहत, Meta ऐसे कंटेंट को हटा देता है “जो आत्महत्या और खुद को चोट पहुँचाने को प्रमोट करता है, उसे बढ़ावा देता है या उनके निर्देश देता है.”

बोर्ड का विश्लेषण, Meta की अभिव्यक्ति की प्रतिबद्धता, जिसे कंपनी “सर्वोपरि” बताती है, और सुरक्षा, गरिमा की उसकी वैल्यू के आधार पर किया गया था.

III. Meta की मानवाधिकारों से जुड़ी ज़िम्मेदारियाँ

बिज़नेस और मानवाधिकारों के बारे में संयुक्त राष्ट्र संघ के मार्गदर्शक सिद्धांत (UNGP), जिन्हें 2011 में संयुक्त राष्ट्र संघ की मानवाधिकार समिति ने स्वीकृति दी है, प्राइवेट बिज़नेस के मानवाधिकारों से जुड़ी ज़िम्मेदारियों का स्वैच्छिक ढाँचा तैयार करते हैं. 2021 में Meta ने मानवाधिकारों से जुड़ी अपनी कॉर्पोरेट पॉलिसी की घोषणा की, जिसमें उसने UNGP के अनुसार मानवाधिकारों का ध्यान रखने की अपनी प्रतिबद्धता को दोहराया. इस केस में बोर्ड ने Meta के मानवाधिकारों से जुड़ी ज़िम्मेदारियों का विश्लेषण इन अंतरराष्ट्रीय स्टैंडर्ड को ध्यान में रखते हुए किया:

  • विचार और अभिव्यक्ति की आज़ादी के अधिकार: आर्टिकल 19, नागरिक और राजनीतिक अधिकार पर अंतरराष्ट्रीय प्रतिज्ञापत्र ( ICCPR); सामान्य कमेंट संख्या 34, मानवाधिकार समिति 2011; विचार और अभिव्यक्ति की आज़ादी के बारे में संयुक्त राष्ट्र संघ का ख़ास रैपर्टर (UNSR), रिपोर्ट: A/HRC/38/35 (2018), A/74/486 (2019); और रबात एक्शन प्लान, संयुक्त राष्ट्र मानवाधिकार उच्चायुक्त की रिपोर्ट: A/HRC/22/17/Add.4 (2013).
  • जीवन का अधिकार: अनुच्छेद 6, ICCPR.
  • शारीरिक और मानसिक स्वास्थ्य के उच्चतम पाने योग्य स्तर का उपभोग करने का अधिकार: अनुच्छेद 12, आर्थिक, सामाजिक और सांस्कृतिक अधिकारों पर अंतरराष्ट्रीय प्रतिज्ञापत्र ( ICESCR).
  • समानता और भेदभाव न होने देने के अधिकार: अनुच्छेद 2, पैरा. 1 और अनुच्छेद 26, ICCPR.

5. यूज़र सबमिशन

बोर्ड को की गई अपनी अपील में, कंटेंट की रिपोर्ट करने वाले यूज़र ने नोट किया कि फ़ोटो पोस्ट करने वाले व्यक्ति ने पहले भी ट्रांसजेंडर लोगों का ऑनलाइन उत्पीड़न किया था और Facebook पर अकाउंट सस्पेंड होने के बाद उसने नया अकाउंट बना लिया है. यूज़र ने यह भी कहा कि ट्रांसजेंडर कम्युनिटी में आत्महत्या की उच्च दर पर खुशी जताने की “परमिशन नहीं दी जानी चाहिए.”

6. Meta के सबमिशन

Meta ने आखिरकार इस पोस्ट को नफ़रत फैलाने वाली भाषा से जुड़े अपने कम्युनिटी स्टैंडर्ड के टियर 1 के तहत हटा दिया, क्योंकि कंटेंट से किसी व्यक्ति या लोगों के ग्रुप को उनकी सुरक्षित विशिष्टता के आधार पर निशाना बनाने वाले कंटेंट (नफ़रत फैलाने वाली भाषा या लिखित या विज़ुअल रूप में समर्थन से) को प्रतिबंधित करने वाली पॉलिसी लाइन का उल्लंघन होता है. इस पॉलिसी को लागू करने के बारे में अपनी आंतरिक गाइडलाइन में, Meta कहता है कि ऐसे कंटेंट को हटा दिया जाना चाहिए, जिसमें “मृत्यु, बीमारी या नुकसान पहुँचाने के कॉल ऑफ़ एक्शन, उनके बारे में आकांक्षापूर्ण या सशर्त कथन या उनकी तरफ़दारी या समर्थन करने के रूप में हिंसा फैलाने वाली भाषा हो (लिखित या विज़ुअल रूप में).”

उन आंतरिक गाइडलाइन में, कंपनी यह भी बताती है कि वह किसी फ़ोटो या वीडियो में सुरक्षित विशिष्टता वाले ग्रुप का विज़ुअल प्रदर्शन तय करते समय किन बातों पर विचार करती है. Meta ने बोर्ड को इस गाइडलाइन के बारे में ज़्यादा जानकारी प्रकाशित करने की परमिशन नहीं दी थी. इसके बजाय कंपनी ने कहा कि “नफ़रत फैलाने वाली भाषा से जुड़ी पॉलिसी के तहत, यह तय करते समय कि किसी कंटेंट से किसी व्यक्ति या लोगों के ग्रुप को उनकी सुरक्षित विशिष्टताओं के आधार पर निशाना बनाया जाता है कि नहीं, Meta उस कंटेंट के विज़ुअल एलिमेंट पर विचार कर सकता है.”

Meta ने कहा कि उसके रिव्यूअर्स द्वारा कई बार कंटेंट को नफ़रत फैलाने वाली भाषा से जुड़े कम्युनिटी स्टैंडर्ड का उल्लंघन नहीं करने वाला ठहराया जाना, “हमारी आंतरिक गाइडलाइन के कठोरता से उपयोग के अनुसार सही है.” उसने आगे बताया कि: “हालाँकि, पर्दे का रंग ट्रांस प्राइड फ़्लैग जैसा है, हम सिर्फ़ किसी फ़्लैग पर होने वाले हमले को किसी विचार या संस्था पर हमला मानते हैं, जिससे हमारी पॉलिसी का उल्लंघन नहीं होता और ऐसा हमला किसी व्यक्ति या लोगों के ग्रुप के खिलाफ़ नहीं है.” हालाँकि, Meta ने बाद में यह तय किया कि “इस पोस्ट में लटकाने का संबंध लोगों के ग्रुप पर हमला करने से है.” यह आकलन इस निर्धारण पर आधारित था कि वाक्यांश “पर्दे जो खुद लटक जाते हैं” अप्रत्यक्ष रूप से ट्रांसजेंडर कम्युनिटी में आत्महत्या की बढ़ती हुई दर की ओर इशारा करता है, क्योंकि पर्दे ट्रांस प्राइड फ़्लैग जैसे दिखते हैं और फ़ोटो में पर्दों को लटका हुआ दिखाया जाना (साथ ही टेक्स्ट ओवरले), लटककर आत्महत्या करने के लिए एक रूपक है.” Meta ने यह भी नोट किया कि “विचारधारा या संस्थाएँ खुद को ‘लटका’ नहीं सकतीं, कम से कम शाब्दिक अर्थ में तो नहीं.” इस वजह से, Meta ने पाया कि यूज़र का इशारा “ट्रांसजेंडर लोगों की ओर था, सिर्फ़ किसी विचारधारा की ओर नहीं.” इसलिए, Meta के अनुसार, “यह कंटेंट, नफ़रत फैलाने वाली भाषा से जुड़ी पॉलिसी का उल्लंघन करता है, क्योंकि इसका इरादा यह है कि इस कथन को किसी सुरक्षित विशिष्टता वाले ग्रुप की आत्महत्या द्वारा मृत्यु के संबंध में समझा जाए.”

नफ़रत फैलाने वाली भाषा से जुड़ी पॉलिसी में एक अपडेट, जिसमें सुरक्षित विशिष्टता वाले ग्रुप के खिलाफ़ हिंसा फैलाने वाली भाषा को प्रतिबंधित करने वाली पॉलिसी लाइन को हिंसा और उकसावे से जुड़ी पॉलिसी के तहत ले जाया गया, इसके बाद Meta ने बोर्ड से कहा कि कंटेंट अब भी उल्लंघन करता है.

Meta ने यह भी रिपोर्ट किया कि यूज़र के अकाउंट की बायोग्राफ़ी में मौजूद यह कथन कि “मुझे ट्रांसजेंडर लोगों से नफ़रत है”, नफ़रत फैलाने वाली भाषा से जुड़ी पॉलिसी का टियर 2 का उल्लंघन है, क्योंकि उसमें “सुरक्षित विशिष्टताओं के आधार पर असहिष्णुता को खुद स्वीकार किया गया है.” Meta के अनुसार बोर्ड द्वारा इस केस को चुने जाने के बाद, इस कथन का आकलन, केस और यूज़र के अकाउंट के Meta द्वारा रिव्यू के भाग के रूप में उल्लंघन करने वाले के रूप में किया गया. Meta ने कहा कि इस कथन से उसे केस के कंटेंट के संबंध में यूज़र के इरादे को समझने में मदद मिली.

बोर्ड द्वारा यह पूछे जाने पर कि क्या कंटेंट से आत्महत्या और खुद को चोट पहुँचाने से जुड़ी पॉलिसी का उल्लंघन होता है, Meta ने यह कन्फ़र्म किया कि “कंटेंट से आत्महत्या और खुद को चोट पहुँचाने से जुड़ी पॉलिसी का उल्लंघन होता है, क्योंकि वह आत्महत्या के लिए प्रेरित करता है. यह हमारे उस निर्धारण के अनुरूप है जिसमें कहा गया है कि कंटेंट में सुरक्षित विशिष्टता वाले ग्रुप की आत्महत्या द्वारा मृत्यु के पक्ष में बात की गई है.” Meta ने यह भी रिपोर्ट किया कि आत्महत्या और खुद को चोट पहुँचाने से जुड़ी पॉलिसी “किसी ख़ास व्यक्ति और लोगों के ग्रुप को लक्ष्य बनाकर आत्महत्या को बढ़ावा देने या उसके लिए प्रेरित करने वाले कंटेंट के बीच अंतर नहीं करती.”

बोर्ड ने Meta से 13 लिखित सवाल पूछे. ट्रांसजेंडर और LGBTQIA+ समस्याओं से जुड़े कंटेंट के Meta द्वारा मॉडरेशन के तरीके से जुड़े सवाल; नफ़रत फैलाने वाली भाषा और आत्महत्या और खुद को चोट पहुँचाने से जुड़े कम्युनिटी स्टैंडर्ड के बीच संबंध; नफ़रत फैलाने वाली भाषा से जुड़े उल्लंघनों के लिए कंटेंट का रिव्यू करते समय मॉडरेटर, “हास्य” और “व्यंग्य” का आकलन किस तरह करते हैं; ह्यूमन रिव्यू के लिए प्राथमिकता देते समय “वायरल होने” और “गंभीरता” से जुड़े स्कोर की भूमिका; और कंटेंट मॉडरेशन के संबंध में Meta की प्रक्रियाएँ, उस कंटेंट को ह्यूमन रिव्यू के लिए किस तरह प्राथमिकता देती हैं जिनके बारे में यूज़र्स की कई रिपोर्ट मिली हैं. Meta ने सभी 13 सवालों के जवाब दिए.

7. पब्लिक कमेंट

ओवरसाइट बोर्ड को इस केस के संबंध में 35 पब्लिक कमेंट मिले, जिनमें से 25 अमेरिका और कनाडा से, सात यूरोप से और तीन एशिया पैसिफ़िक और ओशियानिया से मिले. इसमें ऐसे पब्लिक कमेंट शामिल हैं जो या तो डुप्लिकेट थे या प्रकाशित करने की सहमति के साथ सबमिट किए गए थे, लेकिन प्रकाशन के लिए बोर्ड की शर्तें पूरी नहीं करते थे. उन्हें शामिल न करना कमेंट की दुर्व्यवहार संबंधित प्रकृति, यूज़र की प्राइवेसी संबंधी चिंताओं और/या अन्य कानूनी कारणों पर आधारित हो सकता है. पब्लिक कमेंट को प्रकाशन की सहमति के साथ या उसके बगैर और एट्रिब्यूट करने की सहमति के साथ या उसके बगैर बोर्ड को सबमिट किया जा सकता है.

सबमिशन में इन विषयों पर बात की गई थी: पोलैंड में मानवाधिकार की स्थिति, ख़ास तौर पर जिनका अनुभव ट्रांसजेंडर लोग कर रहे हैं; सोशल मीडिया प्लेटफ़ॉर्म पर LGBTQIA+ की सुरक्षा; पोलैंड में ऑनलाइन और ऑफ़लाइन नुकसान के बीच का रिलेशनशिप; सोशल मीडिया प्लेटफ़ॉर्म पर ट्रांसजेंडर लोगों के खिलाफ़ हास्य, व्यंग्य, मीम और नफ़रत/उत्पीड़न के बीच रिलेशनशिप; और ऐसे कंटेंट को मॉडरेट करने में आने वाली चुनौतियाँ जिन्हें समझने के लिए ज़्यादा संदर्भ की ज़रूरत होती है.

इस केस को लेकर लोगों की ओर से सबमिट किए गए कमेंट देखने के लिए कृपया यहाँ क्लिक करें.

8. ओवरसाइट बोर्ड का विश्लेषण

बोर्ड ने इस बात का परीक्षण किया कि क्या Meta की कंटेंट पॉलिसी, मानवाधिकार ज़िम्मेदारियों और वैल्यू का विश्लेषण करके इस कंटेंट को हटा दिया जाना चाहिए. बोर्ड ने यह भी आकलन किया कि कंटेंट गवर्नेंस को लेकर Meta के व्यापक दृष्टिकोण पर इस केस का क्या असर पड़ेगा.

बोर्ड ने इस केस को यह पता लगाने के लिए चुना कि Meta द्वारा नफ़रत फैलाने से जुड़ी अपनी पॉलिसी के तहत इस कंटेंट पर कार्रवाई सही तरीके से की गई या नहीं. साथ ही, यह बेहतर ढंग से समझने के लिए किया है कि Meta ऐसे कंटेंट से किस तरह निपटता है जिसमें नफ़रत फैलाने वाली भाषा और आत्महत्या या खुद को नुकसान पहुँचाने की पॉलिसी, दोनों का उल्लंघन करने वाला कंटेंट होता है.

8.1 Meta की कंटेंट पॉलिसी का अनुपालन

I. कंटेंट नियम

नफ़रत फैलाने वाली भाषा

बोर्ड ने यह पाया कि इस केस से जुड़ा कंटेंट, नफ़रत फैलाने वाली भाषा से जुड़े कम्युनिटी स्टैंडर्ड का उल्लंघन करता है. पोस्ट में आत्महत्या द्वारा एक सुरक्षित विशिष्टता वाले ग्रुप की मृत्यु के आह्वान के रूप में “हिंसा फैलाने वाली भाषा का समर्थन” (टियर 1) शामिल है जो स्पष्ट रूप से नफ़रत फैलाने वाली भाषा से जुड़ी पॉलिसी का उल्लंघन करता है.

बोर्ड इस बात से सहमत है कि Meta का यह अंतिम निष्कर्ष कि पोस्ट में लटकने का संदर्भ, एक विचार के बजाय लोगों के एक ग्रुप पर हमला है, क्योंकि “विचार या संस्थाएँ खुद को ‘लटका’ नहीं सकतीं.” LGBTQIA+ कम्युनिटी के सदस्य और ख़ास तौर पर ट्रांसजेंडर लोग, पोलैंड में जिस तरह के ऑनलाइन और ऑफ़लाइन नुकसानों का सामना करते हैं, उसके व्यापक संदर्भ से बोर्ड के निष्कर्ष को समर्थन मिलता है. ऐसी पोस्ट जिसमें आत्महत्या द्वारा ट्रांसजेंडर लोगों की मृत्यु की तरफ़दारी और समर्थन करने के हिंसा फैलाने वाली भाषा का उपयोग किया जाता है, उससे डर और बहिष्कार का माहौल बनता है और उससे जान-माल का नुकसान हो सकता है. जिस संदर्भ में इस पोस्ट की भाषा का उपयोग किया गया था, उससे यह साफ़ तौर पर पता चलता है कि इसका इरादा अपने टार्गेट को नीचा दिखाने का था. टेक्स्ट और फ़ोटो की प्रकृति को देखते हुए, पोस्ट ने ट्रांसजेंडर कम्युनिटी द्वारा अभी झेले जा रहे मानसिक स्वास्थ्य के जारी संकट को भी बढ़ाया. कई स्टडीज़ के अनुसार, ट्रांसजेंडर या नॉनबाइनरी लोगों को सिसजेंडर लोगों के मुकाबले आत्महत्या करने के बारे में सोचने या उसकी कोशिश करने का ज़्यादा खतरा होता है. इसके अलावा, ऑनलाइन हमलों और अत्याचार के अनुभव का आत्महत्या करने के बारे में सोचने से सीधा संबंध देखा गया है. इस संदर्भ में बोर्ड ने पाया कि ट्रांसजेंडर फ़्लैग की मौजूदगी और ट्रांसजेंडर कम्युनिटी में आत्महत्या का ज़्यादा जोखिम (“पर्दे जो खुद लटक जाते हैं”), इस बात का स्पष्ट संकेत है कि इस पोस्ट का टार्गेट, ट्रांसजेंडर लोग ही हैं. बोर्ड ने पाया कि “बसंत ऋतु की साफ़-सफ़ाई” और उसके बाद “<3” (दिल) इमोटिकॉन भी ग्रुप की मृत्यु के समर्थन का इशारा करता है. वैसे तो इससे नफ़रत फैलाने वाली भाषा से जुड़े कम्युनिटी स्टैंडर्ड के प्रतिबंध (टियर 2) का भी उल्लंघन होता है, क्योंकि इसमें कहा गया है कि “सुरक्षित विशिष्टता का आस्तित्व ही नहीं होना चाहिए.”

इस कम्युनिटी स्टैंडर्ड के संबंध में, बोर्ड का मानना है कि पॉलिसी और उसके एन्फ़ोर्समेंट के संबंध में आंतरिक गाइडलाइन, ऐसे कंटेंट ट्रेंड्स के संबंध में “ नुकसानदेह रचनात्मकता” के प्रति ज़्यादा प्रतिक्रियात्मक हो सकती हैं जो हमेशा से उपेक्षित रहे ग्रुप्स को निशाना बनाती हैं. लैंगिक और यौन उत्पीड़न पर रिसर्च करने के बाद विल्सन सेंटर ने यह वाक्यांश बनाया था और GLAAD ने भी अपने पब्लिक कमेंट (PC-16027) में इसकी प्रासंगिकता समझी है. “नुकसानदेह रचनात्मकता” का तात्पर्य “कोड की गई भाषा; दोहराए जाने वाले, संदर्भ पर आधारित विज़ुअल और टेक्स्ट वाले मीम; और उन अन्य तरीकों से है जिनका उपयोग सोशल मीडिया प्लेटफ़ॉर्म पर पकड़े जाने से बचने के लिए किया जाता है.” इस केस की पोस्ट पर लागू करते हुए, GLAAD ने कहा कि “नुकसानदेह रचनात्मकता” में “गलत इरादों वाले लोग LGBTQ कम्युनिटी और कमज़ोर ग्रुप को निशाना बनाने के नए-नए तरीके ढूँढते हैं,” सामान्य तौर पर ऐसी पोस्ट और मीम के ज़रिए जिनका बचाव वे “हास्यकर या व्यंग्यात्मक” कहकर करते हैं लेकिन वे “वास्तव में LGBTQ विरोधी नफ़रत या उत्पीड़न” फैलाते हैं. ख़ास तौर पर “नुकसानदेह रचनात्मकता” ने एक ऐसी पोस्ट का रूप लिया जिसमें आत्महत्या के दो कुछ हद तक कोड किए गए संदर्भ थे (“पर्दे जो खुद लटक जाते हैं” और “बसंत ऋतु की साफ़-सफ़ाई”) और साथ ही में आत्महत्या के लिए प्रेरित करने के लिए एक सुरक्षित ग्रुप का विज़ुअल चित्रण (ट्रांसजेंडर फ़्लैग) था. अज़रबैजान में आर्मेनियाई फ़ैसले में, बोर्ड ने यह निर्धारित करने में संदर्भ का महत्व नोट किया कि इस केस में जिस शब्द पर विचार किया जा रहा है, वह किसी सुरक्षित विशिष्टता पर आधारित ग्रुप को निशाना बनाने के लिए उपयोग किया गया था. उस केस में युद्ध का संदर्भ मौजूद था, लेकिन पोलैंड में ट्रांसजेंडर लोगों को मिल रही धमकियाँ बताती हैं कि युद्ध न होने के बावजूद भी स्थितियाँ किसी कम्युनिटी के लिए बेहत खराब हो सकती हैं. जैसा कि ऊपर नोट किया गया है, पोलैंड में हर पाँच ट्रांसजेंडर लोगों में से एक ने 2019 से पहले के पाँच वर्षों के दौरान उन पर शारीरिक या यौन हमला होने की बात कही है. यह संख्या, ऐसे हमलों की रिपोर्ट करने वाले अन्य LGBTI ग्रुप्स के लोगों की संख्या से दोगुनी से भी ज़्यादा है.

बोर्ड इस बात से चिंतित है कि Meta के शुरुआती ह्यूमन रिव्यूअर्स ने कंटेंट में मौजूद ये संदर्भात्मक संकेतों को नहीं पहचाना और इसके कारण कंटेंट को उल्लंघन नहीं करने वाला ठहराया. भले ही बोर्ड, नफ़रत फैलाने वाली भाषा से जुड़े कम्युनिटी स्टैंडर्ड को एन्फ़ोर्स करने के निर्देशों में कुछ बदलावों के सुझाव दे रहा है, लेकिन यह इस बात को रेखांकित करता है कि पोस्ट से उसी समय लिखी गई पॉलिसी का भी उल्लंघन होता है. पोस्ट में कहे गए दोनों कथन, ट्रांसजेंडर लोगों द्वारा आत्महत्या का समर्थन करते हैं. यूज़र की बायोग्राफ़ी में मौजूद एक अन्य सिग्नल इस निष्कर्ष का समर्थन करता है. यूज़र द्वारा खुद को ट्रांसजेंडर लोगों से नफ़रत करने वाला बताना अपने आप में ही नफ़रत फैलाने वाली भाषा से जुड़े स्टैंडर्ड के प्रतिबंध का टियर 2 उल्लंघन करता है जिसमें “सुरक्षित विशिष्टताओं के आधार पर असहिष्णुता की आत्म स्वीकारोक्ति” को प्रतिबंधित किया गया है. Meta को LGBTQIA+ कम्युनिटी के खिलाफ़ नफ़रत फैलाने वाली भाषा पर अपने एन्फ़ोर्समेंट की सटीकता को बेहतर बनाना चाहिए, या तो ऑटोमेशन के ज़रिए या ह्यूमन रिव्यू के ज़रिए, ख़ास तौर पर जब पोस्ट में ऐसी फ़ोटो और टेक्स्ट हों जिन्हें समझने के लिए संदर्भ की ज़रूरत पड़े. जैसा कि GLAAD ने पाया (PC-16027), Meta “उस कंटेंट के बारे में रिपोर्ट्स का रिव्यू करते समय अपनी पॉलिसीज़ को एन्फ़ोर्स करने में लगातार विफल रहा है जिनमें ‘नुकसानदेह रचनात्मकता’ शामिल थी.’”

बोर्ड, Meta के इस कथन से भी चिंतित है कि कंटेंट को हटाने में रिव्यूअर्स की विफलता, उसकी “आंतरिक गाइडलाइन के कठोर उपयोग को देखते हुए सही है.” Meta के कथन से पता चलता है कि रिव्यूअर्स को दिया जाने वाला आंतरिक निर्देश इस तथ्य को पूरी तरह से कैप्चर नहीं करते हैं कि किसी सोशल मीडिया पोस्ट में किस तरह टेक्स्ट और फ़ोटो, किसी ग्रुप के सदस्यों की लैंगिक पहचान द्वारा परिभाषित ग्रुप को दर्शाने के लिए इंटरैक्ट कर सकते हैं. बोर्ड ने पाया कि निर्देश, शुरुआती रिव्यूअर्स के लिए इतने काफ़ी नहीं हैं कि वे उस कंटेंट के बारे में एन्फ़ोर्समेंट का सही फ़ैसला कर पाएँ जिसमें सुरक्षित विशिष्टता वाले ग्रुप पर विज़ुअल हमला किया गया है, लेकिन उसमें कोई नाम नहीं लिया गया है या उसमें कोई मानवीय आकृति शामिल नहीं है. Meta ने बोर्ड को ऐसी अतिरिक्त जानकारी प्रकाशित करने की परमिशन नहीं दी, जिससे इस बात पर बेहतर चर्चा हो पाती कि इस तरह के कंटेंट पर एन्फ़ोर्समेंट को कैसे बेहतर बनाया जा सकता है. हालाँकि, बोर्ड यह मानता है कि Meta को अपने निर्देशों में यह पक्का करने के लिए बदलाव करने चाहिए कि लैंगिक पहचान के विज़ुअल को हमलों के लिए कंटेंट का आकलन करते समय बेहतर ढंग से समझा जाना चाहिए. बोर्ड ने इस बात पर ज़ोर दिया कि यह उपाय सुझाते समय वह ऐसा नहीं चाहता कि अवधारणाओं, संस्थाओं, विचारों, प्रथाओं या मान्यताओं की चुनौतियों के लिए Meta की सुरक्षा को समाप्त किया जाए. इसके बजाय, बोर्ड चाहता है कि Meta यह स्पष्ट करे कि लोगों पर हमला समझने के लिए यह ज़रूरी नहीं है कि पोस्ट में कोई मानवीय आकृति मौजूद हो.

आत्महत्या और खुद को चोट पहुँचाना

बोर्ड ने पाया कि इस केस में शामिल कंटेंट में आत्महत्या और खुद को चोट पहुँचाने से जुड़े कम्युनिटी स्टैंडर्ड का भी उल्लंघन होता है. यह पॉलिसी ऐसे कंटेंट को प्रतिबंधित करती है “जो आत्महत्या और खुद को चोट पहुँचाने को बढ़ावा देता है, उसके लिए प्रेरित करता है या उसमें सहयोग करता है.” रिव्यूअर्स को दी जाने वाली Meta की आंतरिक गाइडलाइन के अनुसार, “बढ़ावा देने” का मतलब है “उसके बारे में सकारात्मक बातें करना.” बोर्ड, Meta के इस अंतिम निष्कर्ष से सहमत है कि कंटेंट, एक सुरक्षित विशिष्टता वाले ग्रुप की आत्महत्या के समर्थन में कथन का निर्माण करता है और इसलिए वह आत्महत्या को बढ़ावा देता है.

बोर्ड ने यह भी पाया कि आत्महत्या और खुद को चोट पहुँचाने से जुड़े कम्युनिटी स्टैंडर्ड को ऐसे कंटेंट को ज़्यादा स्पष्ट रूप से प्रतिबंधित करना चाहिए जो लोगों के पहचाने जाने लायक ग्रुप के एक व्यक्ति के बजाय पूरे ग्रुप के लिए आत्महत्या को बढ़ावा देता है या उसके लिए प्रेरित करता है. Meta ने बोर्ड को बताया कि पॉलिसी, कंटेंट के इन दो रूपों के बीच कोई अंतर नहीं करती है. हालाँकि इस केस में ग्रुप की आत्महत्या के लिए प्रेरित करने वाले कथन को पहचानने में रिव्यूअर्स को आई चुनौतियों को देखते हुए, बोर्ड ने Meta से यह स्पष्ट करने के लिए कहा कि पॉलिसी के तहत ऐसे कंटेंट की अनुमति नहीं, है जिसमें लोगों के किसी पहचाने जाने लायक ग्रुप की आत्महत्या को बढ़ावा दिया गया हो या उन्हें इसके लिए प्रेरित किया गया हो. Meta को आत्महत्या और खुद को चोट पहुँचाने से जुड़ी अपनी पॉलिसी के पेज के साथ-साथ रिव्यूअर्स को इस संबंध में दी जाने वाली आंतरिक गाइडलाइन में इस बिंदु को स्पष्ट करना चाहिए.

II. एन्फ़ोर्समेंट एक्शन

बोर्ड ने पाया कि रिव्यू को प्राथिमकता देने वाले Meta के ऑटोमेटेड सिस्टम ने इस केस में एन्फ़ोर्समेंट की कार्रवाइयों को सबसे ज़्यादा प्रभावित किया. पोस्ट के लिए मिली12 यूज़र रिपोर्ट में से 10 रिपोर्ट को Meta के ऑटोमेटेड सिस्टम ने अपने आप बंद कर दिया. Meta के फ़ैसलों के खिलाफ़ यूज़र्स द्वारा की गई तीन अपीलों में से दो को Meta के ऑटोमेटेड सिस्टम ने अपने आप बंद कर दिया. बोर्ड इस बात से चिंतित है कि बोर्ड के साथ शेयर की गई केस हिस्ट्री में उल्लंघन के कई संकेत मौजूद हैं और इसलिए उनसे यह पता चलता है कि Meta की पॉलिसी को पर्याप्त रूप से एन्फ़ोर्स नहीं किया गया है.

बोर्ड ने यह नोट किया कि कई यूज़र रिपोर्ट को एक ही कंटेंट के बारे में कई रिपोर्ट का समाधान करने के Meta के कंटेंट मॉडरेशन के तरीकों की वजह से बंद कर दिया गया था. नफ़रत फैलाने वाली भाषा के बारे में पहली यूज़र रिपोर्ट को ह्यूमन रिव्यू के लिए इसलिए प्राथमिकता नहीं दी गई, क्योंकि उसकी “गंभीरता और वायरल होने का स्कोर कम था.” नफ़रत फैलाने वाली भाषा से जुड़ी बाद की रिपोर्ट्स को ह्यूमन रिव्यू के लिए इसलिए प्राथमिकता नहीं दी गई, क्योंकि अगर एक ही कंटेंट के बारे में कई रिपोर्ट दी जाती हैं, तो Meta “उन रिपोर्ट को यह पक्का करने के लिए डीडुप्लिकेट कर देता है कि रिव्यूअर्स के फ़ैसलों और एन्फ़ोर्समेंट की कार्रवाइयाँ लगातार एक जैसी बनी रहें.” बोर्ड इस बात को स्वीकार करता है कि बड़े पैमाने पर कंटेंट मॉडरेशन के लिए डीडुप्लिकेशन एक सही तरीका है. हालाँकि, बोर्ड ने नोट किया कि यह तरीका किसी रिपोर्ट के बारे में किए गए शुरुआती निर्धारण पर अधिक दबाव डालती है, क्योंकि उसी रिपोर्ट से उसके साथ जुड़ी अन्य सभी रिपोर्ट का भविष्य भी तय होगा.

बोर्ड यह मानता है कि Meta के लिए उन ऑटोमेटेड सिस्टम की सटीकता को बेहतर बनाने को प्राथमिकता देना ज़रूरी होगा जो कंटेंट पॉलिसीज़ को एन्फ़ोर्स करते हैं और कंटेंट को रिव्यू के लिए प्राथमिकता देते हैं. ख़ास तौर पर ऐसे कंटेंट से डील करते समय जो LGBTQIA+ लोगों को संभावित रूप से प्रभावित करता है. इस केस में जिस तरह की कोड वाली भाषा और संदर्भ आधारित फ़ोटो पर विचार किया गया है, उन्हें पहचानने की ऑटोमेटेड सिस्टम की योग्यता में ऐसे सुधार करने से निसंदेह रूप से उस कंटेंट का एन्फ़ोर्समेंट बेहतर बनेगा जो अन्य सुरक्षित विशिष्टता वाले ग्रुप को भी निशाना बनाते हैं. बोर्ड यह मानता है कि यूज़र की बायोग्राफ़ी, उदाहरण के लिए, जिसमें ट्रांसजेंडर्स से नफ़रत करने की बात स्वीकार की गई है, को एक उस समय एक प्रासंगिक सिग्नल माना जा सकता था जब यह तय करने के लिए गंभीरता के स्कोर का निर्धारण किया जाता है कि कंटेंट को रिव्यू के लिए प्राथमिकता देनी है या नहीं और/या उस पर एन्फ़ोर्समेंट की कार्रवाई करनी है या नहीं. यह संकेत, व्यवहार और सोशल-नेटवर्क के उन मौजूदा विश्लेषणों के पूरक के रूप में काम कर सकता है जिनका उपयोग Meta संभावित रूप से उल्लंघन करने वाले कंटेंट का पता लगाने के लिए कर सकता है.

इसके अलावा, बोर्ड ने इस बात पर ज़ोर दिया कि Meta के लिए यह सुनिश्चित करना महत्वपूर्ण होगा कि ऑटोमेटेड सिस्टम को LGBTQIA+ कम्युनिटी से संबंधित पोस्ट को बड़े पैमाने पर रिव्यू करने के लिए अच्छी तरह कैलीब्रेट किया गया है और रिव्यूअर्स को प्रभावी रूप से ट्रेन किया गया है. बोर्ड, Meta के उस मौजूदा तरीके को लेकर भी चिंतित है जिसके तहत अपीलों का आकलन करने का काम उन्हीं रिव्यूअर्स को दे दिया जाता है जिनकी विशेषज्ञता का स्तर वही होता है जो पहला कंटेंट आकलन करने वाले रिव्यूअर्स का होता है. बोर्ड मानता है कि Meta को ऐसे क्लासिफ़ायर के निर्माण और ट्रेनिंग में ज़्यादा निवेश करना चाहिए जो LGBTQIA+ कम्युनिटी पर असर डालने वाले संभावित रूप से उल्लंघनकारी कंटेंट की पहचान करें और उस कंटेंट को ह्यूमन रिव्यू में प्राथमिकता दें. नफ़रत फैलाने वाली भाषा, ख़ास तौर पर सबसे ज़्यादा गंभीरता वाला कंटेंट जो Meta की पॉलिसी के तहत टियर 1 में आता है, को रिव्यू के लिए हमेशा प्राथमिकता दी जानी चाहिए. बोर्ड यह भी सुझाव देता है कि प्रोसेस संबंधी सुधारों में इनकी भी मदद ली जाए: i) रिव्यूअर्स के लिए लैंगिक पहचान संबंधी नुकसानों पर विस्तृत ट्रेनिंग; ii) Meta के प्लेटफ़ॉर्म पर ट्रांसजेंडर और नॉन-बाइनरी लोगों के अनुभवों पर एक टास्क फ़ोर्स; और iii) LGBTQIA+ कम्युनिटी को प्रभावित करने वाली समस्याओं से संबंधित कंटेंट का रिव्यू करने के लिए विषयवस्तु विशेषज्ञों के विशेष ग्रुप का निर्माण. भले ही इस केस के तथ्य ख़ास तौर पर Facebook पर ट्रांसजेंडर लोगों को हो रहे नुकसानों से संबंधित हैं, बोर्ड यह भी सुझाव देता है कि Meta सुरक्षित विशिष्टता वाले अन्य ग्रुप्स को प्रभावित करने वाले नफ़रत फैलाने वाले कंटेंट पर एन्फ़ोर्समेंट को बेहतर बनाने के तरीके ढूँढे.

भले ही बोर्ड नीचे बताए गए सिर्फ़ दो औपचारिक सुझाव दे रहा है, बोर्ड ने इस बात पर ज़ोर दिया कि ऐसा इसलिए किया जा रहा है क्योंकि इस केस द्वारा प्रस्तुत चुनौतियों का संबंध पॉलिसी की भाषा से कम है और उसके एन्फ़ोर्समेंट से ज़्यादा है. बोर्ड ने इस केस में नुकसानदेह कंटेंट के कम से कम पाँच संकेत पाए: (1) पोस्ट में “खुद लटकने वाले पर्दों” के पोस्ट के संदर्भ; (2) “बसंत ऋतु की साफ़-सफ़ाई &lt;3” के पोस्ट के संदर्भ; (3) एक ऐसे देश के संदर्भ में यूज़र द्वारा खुद को “ट्रांसजेंडर्स से नफ़रत करने वाला” बताया जाना जहाँ LGBTQIA+ कम्युनिटी पर बड़ी संख्या में अत्याचार रिपोर्ट किए जाते हैं; (4) कंटेंट के बारे में यूज़र रिपोर्ट और अपीलों की संख्या; और (5) कंटेंट के वायरल होने के संबंध में रिपोर्ट और अपीलों की संख्या. बोर्ड इस बात से चिंतित है कि Meta इन सिग्नलों को पहचानने से चूक गया और बोर्ड यह मानता है कि इससे उसकी पॉलिसी के ज़रूरत से कम एन्फ़ोर्समेंट की जानकारी मिलती है. बोर्ड इस बात को लेकर दृढ़ है कि Meta को इस बात पर गहनता और रचनात्मकता से विचार करना चाहिए कि वह अपने प्लेटफ़ॉर्म पर LGBTQIA+ लोगों की सुरक्षा करने के आदर्शों और उन आदर्शों के एन्फ़ोर्समेंट के बीच की कमी को कैसे दूर करे.

8.2 Meta की मानवाधिकारों से जुड़ी ज़िम्मेदारियों का अनुपालन

अभिव्यक्ति की आज़ादी (अनुच्छेद 19 ICCPR)

नागरिक और राजनैतिक अधिकारों पर अंतरराष्ट्रीय प्रतिज्ञापत्र (ICCPR) का अनुच्छेद 19, पैरा. 2 कहता है कि "सभी को अभिव्यक्ति की आज़ादी का अधिकार होगा; इस अधिकार में सभी प्रकार की जानकारी और सुझाव लेने, प्राप्त करने और प्रदान करने की आज़ादी शामिल होगी, चाहे वह किसी भी तरह की हो, मौखिक, लिखित रूप में या प्रिंट में हो, कला के रूप में, या किसी अन्य माध्यम से हो". सामान्य कमेंट सं. 34 (2011) आगे बताता है कि सुरक्षित विशिष्टता में वह अभिव्यक्ति शामिल है जिसे “घोर आपत्तिजनक” माना जा सकता है (पैरा. 11).

जहाँ राज्य, अभिव्यक्ति पर प्रतिबंध लगाता है, वहाँ प्रतिबंधों को वैधानिकता, वैधानिक लक्ष्य और आवश्यकता तथा आनुपातिकता की शर्तों को पूरा करना चाहिए (अनुच्छेद 19, पैरा. 3, ICCPR). इन आवश्यकताओं को अक्सर “तीन भागों वाला परीक्षण” कहा जाता है. Meta की स्वैच्छिक मानवाधिकार प्रतिबद्धताओं को समझने के लिए बोर्ड इस फ़्रेमवर्क का उपयोग करता है - रिव्यू में मौजूद कंटेंट से जुड़े व्यक्तिगत फ़ैसले के लिए और यह जानने के लिए कि कंटेंट गवर्नेंस के प्रति Meta के व्यापक नज़रिए के बारे में यह क्या कहता है. जैसा कि अभिव्यक्ति की आज़ादी के बारे में संयुक्त राष्ट्र के खास रैपर्टर में कहा गया है कि भले ही “कंपनियों का सरकारों के प्रति दायित्व नहीं है, लेकिन उनका प्रभाव इस तरह का है जो उनके लिए अपने यूज़र की सुरक्षा के बारे में इस तरह के सवालों का मूल्यांकन करना ज़रूरी बनाता है” ( A/74/486, पैरा. 41).

I. वैधानिकता (नियमों की स्पष्टता और सुलभता)

अंतरराष्ट्रीय मानवाधिकार कानून के तहत वैधानिकता के सिद्धांत के अनुसार अभिव्यक्ति पर रोक लगाने वाले नियम स्पष्ट और सार्वजनिक रूप से उपलब्ध होने चाहिए (सामान्य कमेंट सं. 34, पैरा. 25). अभिव्यक्ति को प्रतिबंधित करने वाले नियम “उन लोगों को अभिव्यक्ति की स्वतंत्रता को प्रतिबंधित करने के निरंकुश अधिकार नहीं दे सकते जिन पर इन्हें लागू करने की ज़िम्मेदारी है” और नियमों में "उन लोगों के लिए पर्याप्त निर्देश भी होने चाहिए जिन पर इन्हें लागू करने की ज़िम्मेदारी है ताकि वे यह पता लगा सकें कि किस तरह की अभिव्यक्ति को उचित रूप से प्रतिबंधित किया गया है और किसे नहीं" ( पूर्वोक्त). ऑनलाइन अभिव्यक्ति की निगरानी करने वाले नियमों के मामले में, अभिव्यक्ति की आज़ादी पर संयुक्त राष्ट्र के ख़ास रैपर्टर में कहा गया है कि उन्हें स्पष्ट और विशिष्ट होना चाहिए ( A/HRC/38/35, पैरा. 46). Meta के प्लेटफ़ॉर्म का उपयोग करने वाले लोगों के लिए ये नियम एक्सेस करने और समझने लायक होने चाहिए और उनके एन्फ़ोर्समेंट के लिए कंटेंट रिव्यूअर्स को स्पष्ट निर्देश दिया जाना चाहिए.

बोर्ड ने पाया कि लिखित या विज़ुअल रूप में सुरक्षित विशिष्टता वाले ग्रुप्स को निशाना बनाने वाली “हिंसा फैलाने वाली भाषा या समर्थन” पर, इस बात पर कि सुरक्षित विशिष्टता का आस्तित्व ही नहीं होना चाहिए और उस भाषा पर जो आत्महत्या और खुद को चोट पहुँचाने को बढ़ावा देती है या उसके लिए प्रेरित करती है, Meta के प्रतिबंध पर्याप्त रूप से स्पष्ट हैं.

बोर्ड ने हालाँकि नोट किया कि Meta अपने ह्यूमन रिव्यूअर्स को स्पष्ट निर्देश देकर इस केस में शामिल पॉलिसी के संबंध में एन्फ़ोर्समेंट की सटीकता को बेहतर बना सकता है, जैसा कि ऊपर सेक्शन 8.1 में कहा गया है. Meta को यह स्पष्ट करना चाहिए कि लैंगिक पहचान का चित्रण करने वाले विज़ुअल, जैसे कि फ़्लैग के ज़रिए, के मामले में यह ज़रूरी नहीं होना चाहिए कि नफ़रत फैलाने वाली भाषा से जुड़ी पॉलिसी के तहत हमला करने के लिए उसमें कोई मानवीय आकृति मौजूद हो. Meta को यह भी स्पष्ट करना चाहिए कि किसी ग्रुप (एक व्यक्ति की तुलना में) को आत्महत्या करने के लिए कहना, आत्महत्या और खुद को चोट पहुँचाने से जुड़ी पॉलिसी का उल्लंघन है.

II. वैधानिक लक्ष्य

अभिव्यक्ति से संबंधित प्रतिबंध में ICCPR के वैधानिक लक्ष्यों में से किसी एक का अनुसरण किया जाना चाहिए, जिसमें "अन्य लोगों के अधिकार" शामिल हैं. कई फ़ैसलों में, बोर्ड ने पाया है कि Meta की नफ़रत फैलाने वाली भाषा से जुड़ी पॉलिसी, जिसका लक्ष्य लोगों को नफ़रत फैलाने वाली भाषा के नुकसान से बचाना है, का एक वैधानिक लक्ष्य है जिसे अंतरराष्ट्रीय मानवाधिकार कानून मानकों की मान्यता प्राप्त है (उदाहरण के लिए क्निन कार्टून फ़ैसला देखें). इसके अलावा, बोर्ड ने पाया कि इस केस में, आत्महत्या और खुद को चोट पहुँचाने को बढ़ावा देने वाले कंटेंट के संबंध में आत्महत्या और खुद को चोट पहुँचाने से जुड़ी पॉलिसी लाइन, शारीरिक और मानसिक स्वास्थ्य के उच्चतम प्राप्त करने योग्य स्टैंडर्ड का आनंद लेने के लोगों के अधिकार (ICESCR 12) और जीवन के अधिकार (अनुच्छेद 5, ICCPR) की सुरक्षा करने के वैधानिक लक्ष्य की पूर्ति करती है. इस तरह के केसों में, जहाँ सुरक्षित विशिष्टता वाले किसी ग्रुप को आत्महत्या करने के लिए प्रेरित किया जाता है, आत्महत्या और खुद को चोट पहुँचाने से जुड़ी पॉलिसी, समानता और खुद से भेदभाव न होने देने के लोगों के अधिकारों की सुरक्षा भी करती है (अनुच्छेद 2, पैरा. 1, ICCPR).

III. आवश्यकता और आनुपातिकता

आवश्यकता और आनुपातिकता के सिद्धांत के अनुसार यह ज़रूरी है कि अभिव्यक्ति की आज़ादी से संबंधित प्रतिबंध "रक्षा करने के उनके कार्य को सही तरीके से पूरा करने वाले होने चाहिए; उनसे उन लोगों के अधिकारों में कम से कम हस्तक्षेप होना चाहिए, जिन्हें उन प्रतिबंधों से होने वाले रक्षात्मक कार्यों का लाभ मिल सकता है [और] जिन हितों की सुरक्षा की जानी है, उसके अनुसार ही सही अनुपात में प्रतिबंध लगाए जाने चाहिए" ( सामान्य टिप्पणी सं. 34, पैरा. 34).

हिंसक कंटेंट से होने वाले जोखिमों का आकलन करते समय, बोर्ड आम तौर पर छह कारकों वाले परीक्षण से निर्देश लेता है जिसकी जानकारी रबात एक्शन प्लान में दी गई है. यह परीक्षण राष्ट्रीय, नस्लीय या धार्मिक घृणा के समर्थन का समाधान करता है जिससे शत्रुता, भेदभाव या हिंसा को उकसावा मिलता है. प्रासंगिक कारकों के आकलन, ख़ास तौर पर कंटेंट और अभिव्यक्ति के रूप, स्पीकर के इरादे और नीचे बताए गए अतिरिक्त संदर्भ, के आधार पर, बोर्ड ने पाया कि कंटेंट को हटाना Meta की मानवाधिकारों से जुड़ी ज़िम्मेदारियों के अनुरूप है क्योंकि इससे तुरंत और संभावित नुकसान की आशंका है. कंटेंट को हटाना, जीवन के अधिकार की रक्षा करने के लिए और व्यापक LGBTQIA+ कम्युनिटी और ख़ास तौर पर पोलैंड के ट्रांसजेंडर लोगों के शारीरिक और मानसिक स्वास्थ्य के प्राप्त करने लायक उच्चतम स्तर का आनंद लेने के अधिकार की रक्षा करने के लिए अभिव्यक्ति पर एक आवश्यक और आनुपातिक प्रतिबंध है.

बोर्ड ने पहले गलत जानकारी का मुकाबला करने के लिए LGBTQIA+ लोगों के लिए अपमानजनक शब्दों को रीक्लेम करने के महत्व को नोट किया था (अरबी शब्दों को स्वीकार्य उपयोग में लाना फ़ैसला देखें), लेकिन यहाँ वह केस नहीं है. इस पोस्ट में राजनैतिक या ख़बरों में रहने लायक कंटेंट भी नहीं है (कोलंबिया का विरोध प्रदर्शन फ़ैसला देखें). इस केस की पोस्ट में ट्रांसजेंडर फ़्लैग की एक फ़ोटो दिखाई गई है जिसे पर्दे के रूप में लटकाया गया है और साथ में यह लिखा गया है कि ये पर्दे खुद ही लटक जाते हैं. बोर्ड ने जिन विशेषज्ञों से परामर्श किया, उनके अनुसार - विज़ुअल और टेक्स्ट दोनों रूपों में - पर्दे का उपयोग ट्रांसजेंडर कम्युनिटी को निशाना बनाने वाली कोड की गई भाषा नहीं लगती. इसके बावजूद, जैसी कि ऊपर चर्चा की गई है, “नुकसानदेह रचनात्मकता” की अवधारणा या नफ़रत और उत्पीड़न की अभिव्यक्ति दर्शाने के लिए नए तरह की भाषा या स्ट्रेटेजी के उपयोग से कंटेंट के ऐसे नए ट्रेंड सामने आए हैं जिनमें ट्रांसजेंडर लोगों को निशाना बनाया जाता है. बोर्ड ने पाया कि इस केस का कंटेंट स्पष्ट रूप से उसी ट्रेंड के तहत आता है. हालाँकि, पोस्ट में ऐसी इमेजरी का उपयोग किया गया है जिसे कुछ लोगों ने “हास्यकर” पाया (जैसा कि “हा हा” इमोजी रिएक्शन से पता चलता है), पोस्ट को फिर भी ट्रांसजेंडर कम्युनिटी को निशाना बनाने वाला हिंसक और भड़काऊ कथन समझा जा सकता है. निसंदेह हास्य और व्यंग्य का उपयोग करके वैधानिक आलोचना की सीमाओं को तोड़ा जा सकता है, लेकिन इसमें नफ़रत फैलाने वाली भाषा को फिर भी शामिल नहीं किया जा सकता. पोस्ट में ट्रांसजेंडर कम्युनिटी में आत्महत्या की उच्च दर के विषय में ही बात की गई है और इस तथ्य पर खुशी जताई गई है.

कंटेंट क्रिएटर के इरादे पर विचार करने के बाद, बोर्ड ने नोट किया कि उनकी बायोग्राफ़ी में स्पष्ट रूप से लिखा है कि वे “ट्रांसजेंडर लोगों से नफ़रत करते हैं.” हालाँकि Meta ने खुद केस के कंटेंट के सिलसिले में इस कथन की जटिलताओं पर बाद में विचार किया, बोर्ड ने माना कि यूज़र का इरादा जानने में यह जानकारी अत्यधिक प्रासंगिक है. यह भी नफ़रत फैलाने वाली भाषा से जुड़ी पॉलिसी के टियर 2 उल्लंघन के रूप में कंटेंट को हटाने का स्वतंत्र आधार है. पोस्ट में आत्महत्या द्वारा ट्रांसजेंडर लोगों की मौत को “बसंत ऋतु की सफ़ाई” का नाम भी दिया गया है, जिसके पास में दिल का इमोटिकॉन बना है. आत्महत्या द्वारा ग्रुप की मृत्यु के समर्थन के इस कथन को देखते हुए, बोर्ड ने पोस्ट, उपयोग की गई फ़ोटो और साथ दिए गए टेक्स्ट और कैप्शन के कंटेंट के आधार पर इरादे को भेदभाव और हिंसा को प्रेरित करने वाला पाया. इस केस का कंटेंट न सिर्फ़ ट्रांसजेंडर लोगों को खुद के खिलाफ़ हिंसक कार्रवाई करने के लिए प्रेरित करता है, बल्कि दूसरे लोगों को भी उकसाता है कि वे ट्रांसजेंडर लोगों से भेदभाव करें और उनसे शत्रुतापूर्ण व्यवहार करें. यह बात इस तथ्य से कन्फ़र्म हुई कि कंटेंट से एंगेज होने वाले अन्य यूज़र्स द्वारा बार-बार “हा हा” इमोजी का उपयोग करके रिएक्शन दी गई थी.

अंत में, बोर्ड ने उन गंभीर ऑफ़लाइन जोखिमों को नोट किया जिनका सामना पोलैंड की LGBTQIA+ कम्युनिटी, कानूनी और प्रशासकीय कार्रवाई के ज़रिए बढ़ते हुए हमलों के रूप में करती है. साथ ही ऐसे हमलो केंद्र सरकार के लोगों और प्रभावशाली सार्वजनिक हस्तियों द्वारा भी राजनैतिक रूप से अलंकारपूर्ण भाषा के रूप में किए जाते हैं. ILGA-यूरोप के अनुसार, LGBTQIA+ के अधिकारों की रक्षा के संबंध में पोलैंड को EU के सदस्य देश के रूप में 2020 से लगातार कम रैंक प्राप्त होती आ रही है. यह नोट करना भी ज़रूरी है कि पोलैंड के नफ़रत फैलाने वाली भाषा और नफ़रत से जुड़े अपराध के कानूनों में LGBTQIA+ को कोई सुरक्षा नहीं दी गई है. यह एक ऐसी समस्या है जिसका समाधान करने के लिए अन्य संस्थाओं के अलावा ILGA-यूरोप और एमनेस्टी इंटरनेशनल ने पोलैंड को कहा है. इसके अलावा, Facebook पर पोलिश भाषा में LGBTQIA+ विरोधी कंटेंट में बढ़ोतरी, जिसे बाहरी विशेषज्ञों और कई पब्लिक कमेंट में फ़्लैग किया गया, बिना किसी की नज़र में आए नहीं हो रही है. कई संगठनों और संस्थाओं ने सोशल मीडिया पर LGBTQIA+ विरोधी भाषा की व्यापकता पर चिंता जताई है. सेक्शुअल ओरिएंटेशन और लैंगिक पहचान पर संयुक्त राष्ट्र के स्वतंत्र विशेषज्ञ (IE SOGI) विक्टर मेड्रिगल-बोरलोज़ ने कहा है कि जेंडर डाइवर्स और ट्रांसजेंडर लोगों के खिलाफ़ हिंसा और भेदभाव के स्तरों से “मानवीय विवेक को चोट पहुँचती है.” GLAAD की रिसर्च और रिपोर्टिंग से पता चला है कि “LGBTQ लोगों को ऑनलाइन बहुत वास्तविक नुकसान हुए हैं … वे गालियों और नफ़रत वाले लगातार व्यवहार से गहरा मनोवैज्ञानिक आघात झेल रहे हैं.” इस केस की पोस्ट जैसे कंटेंट, ख़ास तौर से पड़े पैमाने पर विचार किए जाने पर, से ऐसा माहौल बन सकता है जो ट्रांसजेंडर कम्युनिटी में पहले से आत्महत्या द्वारा मौत से बिगड़ी हुई स्थिति को और बिगाड़ सकता है. इसके अलावा, ट्रांसजेंडर विरोधी हिंसक भाषा को सामान्य बताने वाले कंटेंट, जैसा कि इस पोस्ट में है, से मानसिक स्वास्थ्य के जारी संकट को इस तरह बढ़ावा मिलता है जो ट्रांसजेंडर कम्युनिटी को प्रभावित करता है और साथ ही इससे कम्युनिटी को निशाना बनाने वाली ऑफ़लाइन हिंसा का जोखिम भी होता है.

9. ओवरसाइट बोर्ड का फ़ैसला

ओवरसाइट बोर्ड ने संबंधित कंटेंट को प्लेटफ़ॉर्म पर बनाए रखने के Meta के मूल फ़ैसले को पलट दिया है.

10. सुझाव

कंटेंट पॉलिसी

1. Meta के आत्महत्या और खुद को चोट पहुँचाने से जुड़ी पॉलिसी के पेज में यह स्पष्ट किया जाना चाहिए कि पॉलिसी ऐसे कंटेंट को निषिद्ध करती है जिसमें लोगों के किसी पहचाने जाने लायक ग्रुप को निशाना बनाकर आत्महत्या को बढ़ावा दिया जाता है या उन्हें आत्महत्या करने के लिए प्रेरित किया जाता है.

बोर्ड इस सुझाव को तब लागू मानेगा जब आत्महत्या और खुद को चोट पहुँचाने से जुड़े कम्युनिटी स्टैंडर्ड के लोगों को दिखाई देने वाले भाग में प्रस्तावित बदलाव दिखाई देगा.

एन्फ़ोर्समेंट

2. Meta को शुरुआती रिव्यू करने वाले रिव्यूअर्स को दिए जाने वाले आंतरिक निर्देश में यह पक्का करने के लिए बदलाव करना चाहिए कि लैंगिक पहचान के फ़्लैग आधारित ऐसे विज़ुअल चित्रण जिनमें कोई मनुष्य शामिल न हो, उन्हें उसके सदस्यों की लैंगिक पहचान द्वारा परिभाषित ग्रुप का प्रतिनिधित्व समझा जाए. इस बदलाव से इस तरह के कंटेंट पर एन्फ़ोर्समेंट के निर्देशों में उस समय स्पष्टता आएगी जब उसमें उल्लंघन करने वाला हमला शामिल होगा.

बोर्ड इसे तब लागू मानेगा जब Meta की ओर से बोर्ड को अपने आंतरिक निर्देश में किए गए बदलाव दिखाए जाएँगे.

*प्रक्रिया संबंधी नोट:

ओवरसाइट बोर्ड के फ़ैसले पाँच सदस्यों के पैनल द्वारा लिए जाते हैं और बोर्ड के अधिकांश सदस्य इन पर सहमति देते हैं. ज़रूरी नहीं है कि बोर्ड के फ़ैसले सभी मेंबर्स की निजी राय दर्शाएँ.

इस केस के फ़ैसले के लिए, बोर्ड की ओर से स्वतंत्र रिसर्च करवाई गई थी. बोर्ड की सहायता एक स्वतंत्र शोध संस्थान ने की जिसका मुख्यालय गोथेनबर्ग यूनिवर्सिटी में है और जिसके पास छह महाद्वीपों के 50 से भी ज़्यादा समाजशास्त्रियों की टीम के साथ ही दुनियाभर के देशों के 3,200 से भी ज़्यादा विशेषज्ञ हैं. Memetica ने भी विश्लेषण उपलब्ध कराया जो सोशल मीडिया ट्रेंड पर ओपन-सोर्स रिसर्च में एंगेज होने वाला संगठन है. Lionbridge Technologies, LLC कंपनी ने भाषा संबंधी विशेषज्ञता की सेवा दी, जिसके विशेषज्ञ 350 से भी ज़्यादा भाषाओं में कुशल हैं और वे दुनियाभर के 5,000 शहरों से काम करते हैं.

मामले के निर्णयों और नीति सलाहकार राय पर लौटें