पलट जाना

क्निन कार्टून

सर्बियाई मूल के लोगों को चूहे के रूप में दिखाने वाली एक पोस्ट को Facebook से नहीं हटाने का Meta का फ़ैसला ओवरसाइट बोर्ड ने बदल दिया है.

निर्णय का प्रकार

मानक

नीतियां और विषय

विषय
अभिव्यक्ति की स्वतंत्रता, जाति और नस्ल, भेदभाव
सामुदायिक मानक
नफ़रत फ़ैलाने वाली भाषा

क्षेत्र/देश

जगह
क्रोएशिया

प्लैटफ़ॉर्म

प्लैटफ़ॉर्म
Facebook

यह फ़ैसला सर्बियाई और क्रोएशियाई भाषा में भी उपलब्ध है.

Да бисте прочитали ову одлуку на српском језику, кликните овде.

Da biste ovu odluku pročitali na hrvatskom, kliknite ovdje.

केस का सारांश

सर्बियाई मूल के लोगों को चूहे के रूप में दिखाने वाली एक पोस्ट को Facebook से नहीं हटाने का Meta का फ़ैसला ओवरसाइट बोर्ड ने बदल दिया है. Meta को आखिरकार उस पोस्ट को नफ़रत फैलाने वाली भाषा से जुड़ी अपनी पॉलिसी का उल्लंघन मानते हुए निकालना पड़ा, लेकिन इसके पहले लगभग 40 मॉडरेटर्स ने यह फ़ैसला लिया था कि उस पोस्ट के कंटेंट से इस पॉलिसी का उल्लंघन नहीं होता है. इससे यह पता चलता है कि मॉडरेटर लगातार यही समझते रहे कि नफ़रत फैलाने वाली भाषा से जुड़ी पॉलिसी के अनुसार, वह कंटेंट उल्लंघन करने वाला तभी कहलाता, जब उसमें सर्बियाई मूल के लोगों और चूहों की साफ़ तौर पर तुलना की गई होती.

केस की जानकारी

दिसंबर 2021 में, Facebook पर एक पब्लिक पेज ने Disney के कार्टून “द पाइड पाइपर” का एडिट किया हुआ वर्जन क्रोएशिया की भाषा में लिखे कैप्शन के साथ पोस्ट किया, जिस कैप्शन का Meta ने यह अनुवाद किया - “कावोग्लेव का बाँसुरी वादक और क्निन के चूहे.”

वीडियो में दिखाया गया है कि एक शहर पर बहुत सारे चूहों ने कब्ज़ा कर रखा है. जहाँ असली कार्टून में शहर के प्रवेश द्वार पर उस शहर का नाम “हैमेलिन” लिखा हुआ था, वहीं इस एडिट किए गए वीडियो में उस नाम को बदलकर “क्निन” कर दिया गया, जो कि क्रोएशिया के एक शहर का नाम है. नैरेटर बताता है कि फिर चूहों ने तय किया कि वे “सिर्फ़ चूहों के देश” में रहना चाहते हैं, इसलिए उन्होंने उस शहर में रहने वाले लोगों को प्रताड़ित करना और सताना शुरू कर दिया.

नैरेटर आगे बताता है कि जब उस शहर पर चूहों का कब्ज़ा हो जाता है, तो क्रोएशिया के कावोग्लेव गाँव का एक बाँसुरी बजाने वाला वहाँ आता है. बाँसुरी वाले ने जैसे ही अपनी “जादुई बाँसुरी” पर एक प्यारी से धुन बजाई, तो वे सभी चूहे “अपना पसंदीदा गीत” गाते हुए उस बाँसुरी वाले के पीछे-पीछे चल पड़े और शहर के बाहर आ पहुँचे. वह गीत मॉमचिलो जूइच की याद में लिखा गया था, जो कि एक सर्बियाई रूढ़ीवादी पादरी था, जिसने दूसरे विश्व युद्ध के दौरान सर्बियाई विरोधी दलों की कमान संभाली थी.

बाँसुरी वाला अपनी बाँसुरी की धुन में फाँसकर सभी चूहों को एक ट्रैक्टर में भर लेता है, जो बाद में गायब हो जाता है. कहानी के आखिरी में नैरेटर बताता है कि सभी चूहे “उस जगह से हमेशा के लिए गायब हो गए” और “उसके बाद सभी लोग खुशी-खुशी रहने लगे.”

इस केस से जुड़े कंटेंट को 380,000 से भी ज़्यादा बार देखा गया. यूज़र्स ने Meta को इस कंटेंट की रिपोर्ट 397 बार की, फिर भी कंपनी ने वह कंटेंट नहीं हटाया. जब इस केस से जुड़ी अपील बोर्ड के पास आई, तब Meta ने इसे लेकर अलग से एक ह्यूमन रिव्यू करवाया और उसमें भी यही बात सामने आई कि यह कंटेंट उनकी किसी पॉलिसी का उल्लंघन नहीं करता है.

जनवरी 2022 में, जब बोर्ड ने इस केस का रिव्यू नए सिरे से करने का फ़ैसला लिया, तब Meta ने तय किया कि भले ही यह पोस्ट नफ़रत फैलाने वाली भाषा से जुड़ी उनकी पॉलिसी के कथन का उल्लंघन न करती हो, फिर भी इससे पॉलिसी की मूल भावना का उल्लंघन हुआ है और उन्होंने उस पोस्ट को Facebook से हटा दिया. बाद में, बोर्ड के लिए अपने फ़ैसले से जुड़ा स्पष्टीकरण बनाते समय, Meta ने अपनी राय फिर से बदलते हुए यह निष्कर्ष दिया कि उस पोस्ट से नफ़रत फैलाने वाली भाषा से जुड़ी पॉलिसी के कथन का उल्लंघन हुआ है और पिछले सारे रिव्यू गलत थे.

जबकि Meta ने उस पोस्ट की रिपोर्ट करने वाले 397 यूज़र्स को अपने शुरुआती फ़ैसले के समय यह जानकारी दी थी कि वह पोस्ट उनकी पॉलिसी का उल्लंघन नहीं करती है, बाद में कंपनी ने इन यूज़र्स को यह नहीं बताया कि उसने अपने फ़ैसले को बदल दिया है.

मुख्य निष्कर्ष

बोर्ड ने यह पाया कि इस केस से जुड़ा कंटेंट Facebook के नफ़रत फैलाने वाली भाषा, हिंसा और उकसावे से जुड़े कम्युनिटी स्टैंडर्ड का उल्लंघन करता है.

Meta की नफ़रत फैलाने वाली भाषा से जुड़ी पॉलिसी नस्ल समेत सुरक्षित विशिष्टताओं को आधार बनाकर लोगों पर किए जाने वाले हमलों पर रोक लगाती है. इस केस से जुड़ा कंटेंट अमानवीय और घिनौना है, जो कि सर्बियाई मूल के लोगों को चूहों के समान बताता है और पुराने समय में हुए भेदभाव की बढ़ाई करता है.

हालाँकि इस पोस्ट में सर्बियाई मूल के लोगों का उल्लेख नाम लेकर नहीं किया गया है, लेकिन कंटेंट में दिए गए ऐतिहासिक संदर्भों से यह स्पष्ट होता है कि उन्हें उस शहर से निकाले जा रहे चूहों के रूप में दिखाया गया है. “हैमेलिन” की जगह पर क्रोएशिया के शहर “क्निन” का नाम दिखाना, बाँसुरी बजाने वाले को क्रोएशिया के ज़ावोग्लावे गाँव का रहने वाला बताना (सर्बिया के लोगों के विरोध में ‘थॉम्पसन’ बैंड द्वारा प्रस्तुत गीत “बोज़ना कावोग्लेव” का उल्लेख करना, जिस बैंड का मुख्य गायक कावोग्लेव से है) और ट्रैक्टरों पर बैठकर भागते हुए चूहों की फ़ोटो, ये सारी चीज़ें क्रोएशियाई सेना के “ऑपरेशन स्टॉर्म” की ओर इशारा करती हैं. 1995 चलाए गए इस ऑपरेशन की वजह से कथित तौर पर सर्बियाई मूल के लोगों का पलायन होने के साथ-साथ उनकी हत्या और जबरन उनके गायब होने जैसी घटनाएँ हुई थीं. पोस्ट पर आए कमेंट्स से यह साफ़ हो जाता है कि उस कंटेंट को देखने वाले लोगों को साफ़ तौर से पता चल रहा था कि वह पोस्ट किस बारे में है.

बोर्ड इस बात से चिंतित है कि लगभग 40 क्रोएशियाई-भाषी मॉडरेटरों ने उस कंटेंट को नफ़रत फैलाने वाली भाषा से जुड़े Facebook के कम्युनिटी स्टैंडर्ड का उल्लंघन करने वाला नहीं माना. इससे पता चलता है कि रिव्यूवर्स लगातार यही समझते रहे कि पॉलिसी के अनुसार, वह कंटेंट उल्लंघन करने वाला तभी कहलाता, जब उसमें सर्बियाई मूल के लोगों और चूहों की साफ़ तौर पर तुलना की गई होती.

बोर्ड ने यह भी पाया कि यह कंटेंट Facebook के हिंसा और उकसावे से जुड़े कम्युनिटी स्टैंडर्ड का उल्लंघन करता है. बोर्ड Meta की उस राय से असहमत है कि उस कंटेंट में बिना हिंसा किए लोगों का निष्कासन करने की अपील की गई है. उस पोस्ट का उद्देश्य “ऑपरेशन स्टॉर्म” से जुड़ी घटनाओं का हवाला देकर लोगों को पुराने टकराव याद दिलाना था और उसमें हिंसक धमकी भी थी. वह कार्टून, क्निन में रह रहे सर्बियाई मूल के लोगों के हिंसक निष्कासन पर खुशी जाहिर करता है और एक ऐसा माहौल बना सकता है, जहाँ लोग सर्बियाई समुदाय पर हमला करने को सही ठहराने लगें.

इस केस के ज़रिए सबसे गंभीर सवाल यह उठता है कि Meta ने यह निष्कर्ष क्यों निकाला कि उस कंटेंट से उनकी पॉलिसी का उल्लंघन नहीं हुआ, जबकि उस कंटेंट का कई बार रिव्यू किया जा चुका था. असल बात यह है कि बोर्ड के पास वह कंटेंट आने से पहले मूल्यांकन के लिए Meta की विशेषज्ञ टीमों को नहीं पहुँचाया गया था, जिससे यह पता चलता है कि किसी कंटेंट को रिव्यू के लिए आगे बढ़ाने की कंपनी की सभी प्रोसेस पर्याप्त रूप से स्पष्ट और प्रभावी नहीं हैं. इसलिए बोर्ड ने Meta से इस बारे में और जानकारी माँगी है कि वह किसी कंटेंट को रिव्यू के लिए आगे कैसे बढ़ाता है.

ओवरसाइट बोर्ड का फ़ैसला

ओवरसाइट बोर्ड ने संबंधित कंटेंट को प्लेटफ़ॉर्म पर बनाए रखने के Meta के मूल फ़ैसले को बदल दिया है.

पॉलिसी सलाहकार के तौर पर राय देते हुए ओवरसाइट बोर्ड ने मोटा को सुझाव दिया है कि वह:

  • नफ़रत फैलाने वाली भाषा से जुड़े कम्युनिटी स्टैंडर्ड और रिव्यूवर्स को उसके बारे में दिए जाने वाले गाइडेंस में यह समझाते हुए स्पष्टता लाए कि संरक्षित समूहों के बारे में ऐसे निहित रेफ़रेंस देना भी पॉलिसी के खिलाफ़ है, जब वह संदर्भ सही रूप से समझ आ रहा हो.
  • "वैंपम बेल्ट" केस (2021-012-FB-UA) के बाद Meta ने जो वादा किया था उसकी याद दिलाते हुए बोर्ड ने सुझाव दिया है कि Meta किसी कंटेंट की रिपोर्ट करने वाले हर उस यूज़र को तब भी जानकारी दे, जब कंपनी बाद में होने वाले रिव्यू के आधार पर अपना शुरुआती फ़ैसला बदलती है. सार्वजनिक रूप से यह बदलाव लागू करते समय उसकी व्यावहारिकता जाँचने के लिए Meta जो भी प्रयोग करता है, उसे उनके परिणामों का भी खुलासा करना चाहिए.

*केस के सारांश से केस का ओवरव्यू पता चलता है और आगे के किसी फ़ैसले के लिए इसको आधार नहीं बनाया जा सकता है.

केस का पूरा फ़ैसला

1. फ़ैसले का सारांश

ओवरसाइट बोर्ड ने संबंधित कंटेंट को Facebook पर बनाए रखने के Meta के मूल फ़ैसले को बदल दिया. 390 से ज़्यादा यूज़र द्वारा इस कंटेंट को हटाने की रिपोर्ट करने और बोर्ड द्वारा केस के चुने जाने के बाद Meta के अतिरिक्त रिव्यू में Meta ने पाया कि यह कंटेंट उल्लंघन नहीं करता. हालाँकि, बोर्ड के लिए अपने इस फ़ैसले का स्पष्टीकरण तैयार करते समय, Meta ने अपनी यह राय बदल दी और बताया कि यह एक “एन्फ़ोर्समेंट की गलती” थी और कंटेंट को नफ़रत फैलाने वाली भाषा की पॉलिसी के उल्लंघन में हटा दिया. बोर्ड ने यह पाया कि कंटेंट, Meta की नफ़रत फैलाने वाली भाषा और हिंसा और उकसावे से जुड़े कम्युनिटी स्टैंडर्ड का उल्लंघन करता है. उसने पाया कि लोगों की तुलना पशुओं से करने के बारे में नफ़रत फैलाने वाली भाषा की पॉलिसी उस कंटेंट पर लागू होती है जो सुरक्षित विशिष्टताओं के अस्पष्ट रेफ़रेंस के ज़रिए ग्रुप को टार्गेट करता है. इस केस में, कंटेंट में सर्बियाई लोगों की तुलना चूहों से की गई थी. बोर्ड ने यह भी पाया कि कंटेंट को हटाना, Meta की वैल्यू और मानवाधिकारों से जुड़ी ज़िम्मेदारियों के अनुसार सही है.

2. केस का डिस्क्रिप्शन और बैकग्राउंड

दिसंबर 2021 की शुरुआत में, खुद को क्रोएशिया का न्यूज़ पोर्टल बताने वाले एक Facebook पेज ने क्रोएशियाई भाषा कैप्शन वाला एक वीडियो पोस्ट किया. कैप्शन का Meta ने यह अनुवाद किया - “कावोग्लेव का बाँसुरी वादक और क्निन के चूहे.” वह वीडियो Disney के कार्टून “द पाइड पाइपर” का एडिट किया गया वर्जन था. दो मिनट 10 सेकंड के इस वीडियो में क्रोएशियाई भाषा में वॉइसओवर था और उस पर “pretjerivač” शब्द लिखा था जो इसी नाम के क्रोएशियाई ऑनलाइन प्लेटफ़ॉर्म को दर्शाता था.

वीडियो में दिखाया गया था कि एक शहर पर बहुत सारे चूहों ने कब्ज़ा कर रखा है. जहाँ Disney के ओरिजनल कार्टून में शहर के प्रवेश द्वार पर उस शहर का नाम “हैमेलिन” लिखा हुआ था, वहीं इस एडिट किए गए वीडियो में उस नाम को बदलकर “क्निन” कर दिया गया था, जो कि क्रोएशिया के एक शहर का नाम है. वीडियो की शुरुआत में, एक नैरेटर ने बताया कि कैसे क्निन नाम के रॉयल शहर में कई सालों से चूहे और मनुष्य साथ-साथ रहते आए हैं. नैरेटर आगे बताता है कि फिर चूहों ने तय किया कि वे “सिर्फ़ चूहों के देश” में रहना चाहते हैं, इसलिए उन्होंने उस शहर में रहने वाले लोगों को प्रताड़ित करना और सताना शुरू कर दिया. नैरेटर आगे बताता है कि जब उस शहर पर चूहों का कब्ज़ा हो गया, तो क्रोएशिया के कावोग्लेव गाँव का एक बाँसुरी वादक वहाँ आता है. शुरू में, चूहे उस बाँसुरी वादक पर ध्यान नहीं देते और अपनी “चूहों की महान क्रांति” जारी रखते हैं. लेकिन, जब बाँसुरी वादक अपनी “जादुई बाँसुरी” से एक धुन बजाना शुरू करता है, तो उस धुन से मंत्रमुग्ध चूहे “अपना पसंदीदा गाना” गाने लगते हैं और बाँसुरी वादक के पीछे-पीछे चलकर शहर से बाहर निकल जाते हैं. Meta ने चूहों द्वारा गाए जा रहे गाने का अनुवाद कुछ इस तरह किया: “वह क्या चीज़ है, जो दिनारा के ऊपर चमक रही है, दिनारा जिसके माथे पर जूइच का मुकुट है [...] आज़ादी का सूरज दिनारा से निकलेगा और सेनापति मॉमचिलो आज़ादी लाएँगे.” वीडियो में इसके बाद दिखाया गया कि बाँसुरी वादक और चूहों के बाहर निकल जाने के बाद शहर के लोगों ने शहर का दरवाज़ा बंद कर लिया. बाँसुरी वादक अपनी बाँसुरी की धुन में फाँसकर सभी चूहों को एक ट्रैक्टर में ले गया, जो बाद में गायब हो गया. कहानी के आखिरी में नैरेटर ने बताया कि जब बाँसुरी वादक सभी चूहों को अपनी धुन के जाल में फँसाकर “जादुई ट्रैक्टर” में ले गया, तब चूहे “उस जगह से हमेशा के लिए गायब हो गए” और “उसके बाद सभी लोग खुशी-खुशी रहने लगे.”

नीचे दिया गया तथ्यात्मक ऐतिहासिक बैकग्राउंड, बोर्ड के फ़ैसले के लिए प्रासंगिक है. क्रोएशिया ने 25 जून 1991 को यूगोस्लाविया संघीय गणराज्य से अपनी आज़ादी की घोषणा की थी. यूगोस्लाविया राज्य के शेष भाग (जिसे बाद में यूगोस्लाविया संघीय गणराज्य कहा गया), जो मुख्य रूप से सर्ब जाति के लोग बच गए लेकिन उसमें क्रोएशियाई सहित कई जातीय अल्पसंख्यक भी थे, ने धर्मत्याग से बचने की कोशिश में सशस्त्र बलों का उपयोग किया. इसके बाद की लड़ाई, जो 1995 तक चली, में दोनों तरफ से खूब बर्बरता हुई जिसमें क्रोएशिया से 200,000 से ज़्यादा जातीय सर्ब लोगों को बलपूर्वक विस्थापित कर दिया गया ( ह्यूमन राइट्स वॉच रिपोर्ट, क्रोएशिया, अगस्त 1996). क्रोएशिया के सर्ब जातीय अल्पसंख्यकों ने यूगोस्लाव नेशनल आर्मी के सहयोग से क्रोएशिया की आज़ादी का विरोध किया और (अन्य एक्शन के अलावा) एक राज्य जैसी एंटिटी की स्थापना की जिसे रिपब्लिक ऑफ़ सर्बियन क्राजिना (RSK) के नाम से जाना जाता है. क्निन को RSK की राजधानी बनाया गया. इस अवधि के दौरान, कई क्रोएशियाई लोग क्निन से बाहर चले गए. 1995 में, क्रोएशियाई सेनाओं ने “ऑपरेशन स्टॉर्म” नाम का एक सैन्य ऑपरेशन चला कर क्निन पर फिर से कब्ज़ा कर लिया. यह युद्ध की आखिरी बड़ी लड़ाई थी. चूँकि कुछ सर्बियाई लोग ट्रैक्टरों में भागे थे, इसलिए ट्रैक्टर का उपयोग सर्बियाई लोगों को अपमानित करने और धमकाने के लिए किया जा सकता है.

कावोग्लेव, क्रोएशिया में क्निन के पास एक गाँव है जो थॉम्पसन बैंड के प्रमुख गायक और गीतकार का जन्मस्थान है. इस क्रोएशियाई बैंड को क्रोएशिया की आज़ादी की लड़ाई के दौरान उनके सर्ब विरोधी गीत “बोजना कावोग्लेव” के लिए पहचाना जाने लगा जो अभी भी ऑनलाइन उपलब्ध है. वीडियो में जोड़े गए इस गीत में हिंसक दृश्य थे और उनमें ऑपरेशन स्टॉर्म के दौरान क्निन पर फिर से कब्ज़े का जश्न मनाया गया था. कार्टून में जिस पाइपर ने चूहों को क्निन से बाहर निकाला, उसे “कावोग्लेव का पाइपर” बताया गया. कार्टून के चूहों द्वारा गाई गई धुन और बोल के भी कुछ ख़ास मतलब होते हैं. गीत के बोल “What is that thing that shines above Dinara,” नाम के एक गीत से लिए गए थे जिसमें सर्बियाई लोगों के इतिहास और मॉमचिलो जूइच को याद किया गया था जो एक सर्बियाई रूढ़िवादी पादरी थे और जिन्होंने द्वितीय विश्वयुद्ध के दौरान सर्बिया की विरोधी सेनाओं का नेतृत्व किया था.

जिस पेज से यह कंटेंट शेयर किया गया, उसके 50,000 से ज़्यादा फ़ॉलोअर हैं. कंटेंट को 380,000 से ज़्यादा बार देखा गया, 540 से ज़्यादा बार शेयर किया गया और इसे 2,400 से ज़्यादा रिएक्शन और 1,200 से ज़्यादा कमेंट मिले. इस कंटेंट पर रिएक्शन देने वाले, कमेंट करने वाले और इसे शेयर करने वाले अधिकतर यूज़र्स के अकाउंट क्रोएशिया में हैं. क्रोएशियाई में लिखे कमेंट के अलावा उसमें कुछ स्टेटमेंट थे जिनका अनुवाद Meta ने इस तरह किया: “नफ़रत एक बीमारी है” और “क्या आपको अंदाज़ा भी है कि इस और ऐसी दूसरी मूर्खताएँ करके आप सर्बिया में रह रहे अपने क्रोएशियाई लोगों का कितना नुकसान कर रहे हो?”

यूज़र्स ने Meta को इस कंटेंट की रिपोर्ट 397 बार की, लेकिन Meta ने कंटेंट नहीं हटाया. रिपोर्ट करने वाले लोगों में से 362 लोगों ने नफ़रत फैलाने वाली भाषा के लिए इसकी रिपोर्ट की. कई यूज़र्स ने इसे बनाए रखने के फ़ैसले के खिलाफ बोर्ड में अपील की. यह फ़ैसला इनमें से किसी एक यूज़र की अपील पर आधारित है, जिसका अकाउंट शायद सर्बिया में है. यूज़र की रिपोर्ट को ऑटोमैटिक सिस्टम ने अपने आप अस्वीकार कर दिया. यह सिस्टम उन केस में आने वाली रिपोर्ट का समाधान करता है जिनका Meta के ह्यूमन रिव्यूअर द्वारा कई बार पहले ही रिव्यू किया जा चुका है और जिन्हें उल्लंघन नहीं करने वाला माना गया है ताकि उसी कंटेंट का फिर से रिव्यू न किया जाए. इस केस में ऑटोमैटिक फ़ैसले के ट्रिगर होने से पहले कंटेंट को कई ह्यूमन रिव्यूअर ने उल्लंघन नहीं करने वाला पाया था. दूसरे शब्दों में, इस अपील को जेनरेट करने वाली यूज़र रिपोर्ट का रिव्यू भले ही ऑटोमैटिक सिस्टम द्वारा किया गया हो, उसी कंटेंट की पहले की रिपोर्ट का रिव्यू ह्यूमन रिव्यूअर ने किया था और पाया था कि कंटेंट उल्लंघन नहीं करता है.

कंटेंट की रिपोर्ट करने वाले यूज़र द्वारा बोर्ड को Meta द्वारा कोई एक्शन न लेने के फ़ैसले के खिलाफ अपील करने के बाद, अपील के लेवल पर एक अन्य ह्यूमन रिव्यू किया गया और फिर से यही पाया गया कि कंटेंट Meta की पॉलिसी का उल्लंघन नहीं करता. Meta ने आगे बताया कि कुल मिलाकर लगभग 40 “ह्यूमन रिव्यूअर के फ़ैसलों (…) ने कंटेंट को उल्लंघन नहीं करने वाला बताया" और यह कि “किसी भी ह्यूमन रिव्यूअर ने कंटेंट को एस्केलेट नहीं किया.” इन में अधिकांश ह्यूमन रिव्यू, अपील के लेवल पर हुए थे. Meta ने आगे बताया कि कंटेंट का रिव्यू करने वाले सभी रिव्यूअर, क्रोएशियाई भाषा बोलने वाले थे.

जब बोर्ड ने Meta को भेजी गई अपनी शॉर्टलिस्ट में इस केस को पूरे रिव्यू की कानूनी योग्यता कन्फ़र्म करने के लिए शामिल किया, तो Meta ने कंटेंट के अपने आकलन में कोई बदलाव नहीं किया, जैसा कि वह इस स्थिति में कभी-कभी करता है. जनवरी 2022 के अंतिम दिनों में, जब बोर्ड ने पूरे रिव्यू के लिए इस केस को चुना, तो Meta की कंटेंट पॉलिसी टीम ने इस पर एक बार और विचार किया. उस समय Meta ने पाया कि क्निन कार्टून ने नफ़रत फैलाने वाली भाषा की पॉलिसी के कथन का उल्लंघन नहीं किया, लेकिन उसने उस पॉलिसी की भावना का उल्लंघन किया और उसे Facebook से हटाने का फ़ैसला किया. Meta ने बताया कि “’पॉलिसी की भावना’ से जुड़ा फ़ैसला तब किया जाता है जब कम्युनिटी स्टैंडर्ड का पॉलिसी बनाने का कारण सेक्शन यह स्पष्ट करता है कि पॉलिसी को ऐसी स्थितियों को समाधान करना होगा जिनका समाधान पॉलिसी की भाषा सीधे तौर पर नहीं करती. उन स्थितियों में, हम तब भी ‘पॉलिसी की भावना’ से जुड़े फ़ैसले के ज़रिए कंटेंट को हटा सकते हैं.” बाद में, बोर्ड के लिए पॉलिसी बनाने का कारण तैयार करते समय, Meta ने अपनी राय फिर से बदलते हुए इस बार यह निष्कर्ष दिया कि पोस्ट से नफ़रत फैलाने वाली भाषा से जुड़ी पॉलिसी के कथन का उल्लंघन हुआ है और पिछले सारे रिव्यू गलत थे.

Meta के अनुसार, कंटेंट की रिपोर्ट करने वाले 397 यूज़र्स ने सिर्फ़ Meta के इस प्रारंभिक निर्धारण के बारे में सूचित किया कि कंटेंट ने Meta की पॉलिसी का उल्लंघन नहीं किया. जब Meta ने अपना फ़ैसला बदला और कंटेंट को हटा दिया, तो उन्हें इसकी सूचना नहीं दी गई. Meta ने बताया कि “तकनीकी और रिसोर्स संबंधी सीमाओं” के कारण वे यूज़र्स को तब सूचित नहीं कर पाए जब रिपोर्ट किए गए कंटेंट का प्रारंभिक मूल्यांकन उल्लंघन न करने वाले कंटेंट के रूप में हुआ और उसे छोड़ दिया गया. उसे सिर्फ़ बाद में उल्लंघन करने वाला ठहराया गया और हटा दिया गया.

3. ओवरसाइट बोर्ड की अथॉरिटी और स्कोप

बोर्ड को उस यूज़र के अपील करने के बाद Meta के फ़ैसले का रिव्यू करने का अधिकार है, जिसने ऐसे कंटेंट की रिपोर्ट की जिसे तब छोड़ दिया गया था (चार्टर अनुच्छेद 2, सेक्शन 1; उपनियम अनुच्छेद 3, सेक्शन 1). बोर्ड Meta के फ़ैसले को कायम रख सकता है या उसे बदल सकता है (चार्टर अनुच्छेद 3, सेक्शन 5) और उसका फ़ैसला कंपनी पर बाध्यकारी होता है (चार्टर अनुच्छेद 4). Meta को मिलते-जुलते संदर्भ वाले समान कंटेंट पर अपने फ़ैसले को लागू करने की संभावना का भी आकलन करना चाहिए (चार्टर अनुच्छेद 4). बोर्ड के फ़ैसलों में गैर-बाध्यकारी सलाहों के साथ पॉलिसी से जुड़े सुझाव हो सकते हैं, जिन पर Meta को जवाब देना होगा (चार्टर अनुच्छेद 3, सेक्शन 4; अनुच्छेद 4).

4. अथॉरिटी के सोर्स

ओवरसाइट बोर्ड ने अथॉरिटी के नीचे दिए गए सोर्स पर विचार किया:

I. ओवरसाइट बोर्ड के फ़ैसले:

ओवरसाइट बोर्ड के पुराने प्रासंगिक फ़ैसलों में ये शामिल हैं:

  • केस का फ़ैसला 2021-002-FB-UA (“ज़्वार्टे पिएट”): इस केस में बहुसंख्यक बोर्ड ने कहा कि “नफ़रत फैलाने वाली भाषा के बढ़ते हुए नुकसानों का समाधान करने के लिए कंटेंट को मॉडरेट करना, भले ही जहाँ अभिव्यक्ति से सीधे हिंसा या भेदभाव के लिए न उकसाया जाता हो, कुछ परिस्थितियों में मानवाधिकारों के लिए Facebook की ज़िम्मेदारियों के अनुकूल हो सकता है.” बोर्ड ने यह भी पाया कि “लेबल, चेतावनी स्क्रीन या प्रसार कम करने के अन्य उपाय करने जैसे कम गंभीर हस्तक्षेप वाले एक्शन से प्लेटफ़ॉर्म पर इस तरह के कंटेंट को बने रहने (...) के सामूहिक प्रभावों से उचित सुरक्षा नहीं मिलती.”
  • केस का फ़ैसला 2020-003-FB-UA (“अज़रबैजान में आर्मेनियाई”): ऐसी भाषा के संदर्भ में जिसने संघर्ष के दौरान राष्ट्रीय मूल के आधार पर एक ग्रुप को टार्गेट किया, बोर्ड ने कहा कि “ऐसे कंटेंट का छोड़ा गया संग्रह एक ऐसा माहौल बना सकता है जहाँ भेदभाव और हिंसा की ज़्यादा संभावना हो.”
  • केस का फ़ैसला 2021-011-FB-UA (“दक्षिण अफ़्रीका की गाली”): बोर्ड ने तय किया कि “कुछ भेदभावपूर्ण अभिव्यक्तियों” को रोकना Meta की मानवाधिकार से जुड़ी ज़िम्मेदारियों के अनुरूप है” भले ही “उससे ऐसी कोई शर्त पूरी न हो कि अभिव्यक्ति से हिंसा या भेदभावपूर्ण व्यवहार को उकसावा मिलता है”.

II. Meta की कंटेंट पॉलिसी:

Facebook के नफ़रत फैलाने वाली भाषा से जुड़े कम्युनिटी स्टैंडर्ड के लिए पॉलिसी बनाने के कारण में कहा गया है कि इस प्लेटफ़ॉर्म पर नफ़रत फैलाने वाली भाषा का उपयोग करने की अनुमति नहीं है "क्योंकि इससे डराने-धमकाने और बहिष्कार का माहौल बनता है और कुछ मामलों में इससे सचमुच में हिंसा भड़क सकती है." कम्युनिटी स्टैंडर्ड में नफ़रत फैलाने वाली भाषा को सुरक्षित विशिष्टताओं, जिसमें नस्ल, जाति और/या राष्ट्रीय मूल शामिल हैं, के आधार पर लोगों पर सीधे हमले के रूप में परिभाषित किया गया है. Meta ऐसे कंटेंट को प्रतिबंधित करता है जिसमें किसी व्यक्ति या लोगों के ग्रुप को उनकी सुरक्षित विशिष्टताओं के आधार पर टार्गेट किया जाता है. इसमें उनकी “किसी संस्कृति में दिमागी या शारीरिक तौर पर हीन माने जाने वाले जानवरों से तुलना करने, उनकी स्थिति को सामान्य बताने और उनके व्यवहार से जुड़े अप्रमाणित कथन करने के लिए अमानवीय भाषा और चित्रण का उपयोग करना शामिल है.” Meta “कृत्य के लिए बुलावे, इरादे के कथन, आकांक्षापूर्ण या सशर्त कथन या पक्ष या सपोर्ट में कथन को भी प्रतिबंधित करता है जिसे [...] बहिष्कार की अपील के रूप में परिभाषित किया गया है. इसका अर्थ है कुछ ख़ास ग्रुप का बहिष्कार करना या यह कहना कि आपको परमिशन नहीं है, जैसी चीज़ें शामिल हैं.”

Facebook के हिंसा और उकसावे से जुड़े कम्युनिटी स्टैंडर्ड के लिए पॉलिसी बनाने के कारण में कहा गया है कि Meta "का लक्ष्य ऐसे संभावित ऑफ़लाइन नुकसान को रोकना है जो Facebook से जुड़ा हो सकता है” और यह कि वह ऐसी स्थितियों में अभिव्यक्ति को प्रतिबंधित करता है “जब वह यह मानता हो कि जान और माल के नुकसान का वास्तव में जोखिम है या लोगों की सुरक्षा के लिए सीधा खतरा है.” ख़ास तौर पर, Meta “कोड में लिखे गए कथनों को प्रतिबंधित करता है जहाँ हिंसा या नुकसान का तरीका स्पष्ट रूप से न बताया गया हो, लेकिन छिपा हुआ या अप्रत्यक्ष खतरा हो.” इसमें ऐसा कंटेंट शामिल है जिसमें “हिंसा की ऐतिहासिक [...] घटनाओं के रेफ़रेंस हों.”

III. Meta की वैल्यू:

Meta की वैल्यू के बारे में Facebook के कम्युनिटी स्टैंडर्ड के परिचय में बताया गया है. “वॉइस” के महत्व को “सर्वोपरि” बताया गया है:

  • हमारे कम्युनिटी स्टैंडर्ड का लक्ष्य हमेशा एक ऐसा प्लेटफ़ॉर्म बनाना रहा है, जहाँ लोग अपनी बात रख सकें और अपनी भावनाओं को व्यक्त कर सकें. [...] हम चाहते हैं कि लोग अपने लिए महत्व रखने वाले मुद्दों पर खुल कर बातें कर सकें, भले ही कुछ लोग उन बातों पर असहमति जताएँ या उन्हें वे बातें आपत्तिजनक लगें.

Meta "वॉइस” को चार अन्य वैल्यू के मामले में सीमित करता है, जिनमें से दो यहाँ प्रासंगिक हैं:

  • “सुरक्षा”: हम Facebook को एक सुरक्षित जगह बनाने के लिए प्रतिबद्ध हैं. धमकी भरी अभिव्यक्ति से दूसरे लोग डर सकते हैं, वे अलग-थलग पड़ सकते हैं या उनकी आवाज़ दब सकती है और Facebook पर इसकी परमिशन नहीं है.
  • “गरिमा”: हमारा मानना है कि सभी लोगों को एक जैसा सम्मान और एक जैसे अधिकार मिलने चाहिए. हम उम्मीद करते हैं कि लोग एक-दूसरे की गरिमा का ध्यान रखेंगे और दूसरों को परेशान नहीं करेंगे या नीचा नहीं दिखाएँगे.

IV. अंतरराष्ट्रीय मानवाधिकार स्टैंडर्ड

बिज़नेस और मानवाधिकारों के बारे में संयुक्त राष्ट्र संघ के मार्गदर्शक सिद्धांत ( UNGP) जिन्हें 2011 में संयुक्त राष्ट्र संघ की मानवाधिकार समिति ने समर्थन दिया था, बिज़नेस की मानवाधिकार से जुड़ी ज़िम्मेदारियों का स्वैच्छिक फ़्रेमवर्क बनाते हैं. 2021 में Meta ने मानवाधिकारों से जुड़ी अपनी कॉर्पोरेट पॉलिसी की घोषणा की, जिसमें उसने UNGP के अनुसार मानवाधिकारों का सम्मान करने की अपनी प्रतिज्ञा को दोहराया. इस केस में बोर्ड ने Meta की मानवाधिकार से जुड़ी ज़िम्मेदारियों का विश्लेषण इन मानवाधिकार स्टैंडर्ड को ध्यान में रखते हुए किया.

  • अभिव्यक्ति की आज़ादी: अनुच्छेद 19, नागरिक और राजनीतिक अधिकार पर अंतरराष्ट्रीय प्रतिज्ञापत्र ( ICCPR); सामान्य कमेंट सं. 34, मानवाधिकार समिति, 2011; नफ़रत फैलाने वाली भाषा पर बनी रिपोर्ट पर संयुक्त राष्ट्र का विशेष रैपर्टर, A/74/486, 2019; ऑनलाइन कंटेंट मॉडरेशन पर बनी रिपोर्ट पर संयुक्त राष्ट्र का विशेष रैपर्टर, A/HRC/38/35, 2018;
  • समानता रखना और भेदभाव न करना: अनुच्छेद 2, पैरा. 1 और अनुच्छेद 26 (ICCPR); अनुच्छेद 2 और 5, हर तरह के नस्लीय भेदभाव के उन्मूलन पर अंतरराष्ट्रीय सम्मेलन ( ICERD); सामान्य सुझाव 35, नस्लीय भेदभाव के उन्मूलन की समिति, CERD/C/GC/35, 2013;
  • बिज़नेस के उत्तरदायित्व: बिज़नेस, मानवाधिकार और संघर्ष प्रभावित क्षेत्र: मानवाधिकार और अंतरराष्ट्रीय निगम और अन्य बिज़नेस एंटरप्राइज़ के मुद्दे पर संयुक्त राष्ट्र संघ के कार्यकारी समूह की रिपोर्ट, कठोर एक्शन की रिपोर्ट को लेकर ( A/75/212).

5. यूज़र सबमिशन

जिस यूज़र ने कंटेंट की रिपोर्ट और बोर्ड को क्रोएशियाई में अपील की, उसने कहा “पाइड पाइपर के ज़रिए क्रोएशियाई सेना की ओर संकेत किया गया है जिसने 1995 में क्रोएशियाई सर्ब लोगों को बाहर निकाला था. इन लोगों को यहाँ चूहों के रूप में दिखाया गया है.” इस यूज़र के अनुसार, Meta ने वीडियो का सही आकलन नहीं किया. उन्होंने कहा कि कंटेंट में जातिगत नफ़रत फैलाने वाली भाषा का उपयोग किया गया है और इससे “बालकान में जातिगत और धार्मिक नफ़रत को बढ़ावा मिलता है.” उन्होंने यह भी कहा कि “यह और कई अन्य क्रोएशियाई पोर्टल ऐसे दो समुदायों के बीच जातीय असहिष्णुता भड़का रहे हैं जिनके उस युद्ध के घाव अभी पूरी तरह भरे भी नहीं हैं जिसकी वीडियो में बात की गई है.”

यह सूचना मिलने पर कि बोर्ड ने यह केस चुना है, तो कंटेंट को पोस्ट करने वाले यूज़र को अपना बयान देने के लिए बुलाया गया. एडमिनिस्ट्रेटर ने जवाब दिया कि एक बिज़नेस एसोसिएट के रूप में वे पेज का सिर्फ़ एक हिस्सा थे.

6. Meta के सबमिशन

बोर्ड को Meta की ओर से दिए गए कारण में Meta ने इस फ़ैसले के पीछे की अपनी रिव्यू प्रोसेस के बारे में बताया, लेकिन उसका फ़ोकस इस बात पर था कि नफ़रत फैलाने वाली भाषा की पॉलिसी के तहत कंटेंट को आखिरकार हटाने का उसका फ़ैसला किस तरह न्यायोचित था. बार-बार रिपोर्ट मिलने के बाद, कई ह्यूमन रिव्यूअर ने कंटेंट का रिव्यू किया और उसे उल्लंघन नहीं करने वाला पाया. ओवरसाइट बोर्ड द्वारा केस को चुने जाने के बाद ही कंपनी ने अपना विचार बदला. फिर, Meta ने तय किया कि कंटेंट से नफ़रत फैलाने वाली भाषा की पॉलिसी के कथन का उल्लंघन नहीं होता, लेकिन कंटेंट को हटाने का फ़ैसला उसने “पॉलिसी की आत्मा” के आधार पर लिया. इस समय, बोर्ड ने Meta को सूचित किया कि उसने पूरे रिव्यू के लिए कंटेंट को चुना है. Meta ने फिर से अपना विचार बदलते हुए इस बार यह निष्कर्ष निकाला कि कंटेंट से पॉलिसी के कथन का उल्लंघन हुआ है. ख़ास तौर पर उसने कहा कि इससे पॉलिसी के उस बिंदु का उल्लंघन होता है जो सुरक्षित ग्रुप के मेंबर को टार्गेट करने वाले कंटेंट को प्रतिबंधित करता है और इसमें “किसी संस्कृति में दिमागी या शारीरिक तौर पर हीन माने जाने वाले जानवरों से तुलना करने, उनकी स्थिति को सामान्य बताने और उनके व्यवहार से जुड़े अप्रमाणित कथन करने के लिए अमानवीय भाषा और चित्रण का उपयोग किया गया है.” अपने बदले गए निर्धारण में, Meta ने कहा कि कंटेंट से उल्लंघन होता है क्योंकि इसमें क्निन के सर्ब लोगों की तुलना चूहों से करके उन पर सीधा हमला किया गया है.

Meta ने कहा कि उसका यह पिछला निर्धारण कि कंटेंट सिर्फ़ नफ़रत फैलाने वाली भाषा की “भावना” का उल्लंघन करता है, इस मान्यता पर आधारित था कि पॉलिसी की भाषा ने अप्रत्यक्ष रूप से मौजूद सुरक्षित विशिष्टता के आधार पर ग्रुप पर हमले को नहीं रोका. इस कारण से हुए अतिरिक्त रिव्यू के बाद, Meta ने “यह निष्कर्ष निकाला कि यह कहना ज़्यादा सही होगा कि पॉलिसी की भाषा भी उन हमलों को रोकती है जो सुरक्षित विशिष्टता की अप्रत्यक्ष पहचान” के आधार पर किए जाते हैं.

Meta ने यह भी बताया कि कंटेंट को आखिरकार हटाना, “गरिमा” और “सुरक्षा” की उसकी वैल्यू के अनुरूप था, वहीं इसमें “वॉइस” की वैल्यू को भी बराबरी का महत्व दिया गया था. Meta के अनुसार, मनुष्यों को पशुओं से कमतर बताने वाली तुलना, जिसे सांस्कृतिक रूप से हीन माना जाता हो, से संस्थागत और सांस्कृतिक लेवल पर अप्रत्यक्ष या प्रत्यक्ष भेदभाव या प्रत्यक्ष हिंसा के ज़रिए सोशल इंटीग्रेशन, पब्लिक पॉलिसी और समाज पर असर डालने वाली अन्य प्रोसेस पर प्रतिकूल और हानिकारक असर पड़ सकता है.” Meta ने आगे कहा कि जातीय तनाव के इतिहास और क्रोएशिया में जातीय सर्ब लोगों से हो रहे निरंतर भेदभाव को देखते हुए, वीडियो से असली जीवन में नुकसान का जोखिम पैदा हो सकता है. इस संबंध में Meta ने “ज़्वार्टे पिएट” केस में बोर्ड के फ़ैसले का हवाला दिया.

Meta ने यह भी कहा कि उसका फ़ैसला अंतरराष्ट्रीय मानवाधिकार स्टैंडर्ड के अनुरूप था. Meta के अनुसार उसकी पॉलिसी को Meta की ट्रांसपेरेंसी सेंटर वेबसाइट पर आसानी से देखा जा सकता था. साथ ही उस कंटेंट को हटाने का फ़ैसला अन्य लोगों के अधिकारों को भेदभाव से बचाने के लिए एकदम सही था. अंत में, Meta ने तर्क दिया कि कंटेंट को हटाने का उसका फ़ैसला ज़रूरी और यथोचित था क्योंकि “कंटेंट से यूज़र यह सोचे बिना एक-दूसरे से कनेक्ट नहीं हो पाते थे कि उन पर उनकी पहचान के आधार पर हमला हो रहा है” और क्योंकि “हटाने के अलावा इस कंटेंट को सीमित करने का कोई कम कठोर तरीका उपलब्ध नहीं था.”

बोर्ड ने Meta से यह भी पूछा कि क्या इस कंटेंट ने हिंसा और उकसावे से जुड़े कम्युनिटी स्टैंडर्ड का उल्लंघन किया. Meta ने जवाब दिया कि इसने ऐसा नहीं किया क्योंकि “कंटेंट में जातीय सर्ब लोगों के खिलाफ हिंसा करने की धमकी या इरादे का कथन नहीं था” और “हिंसा के बिना बहिष्कार करने या बाहर निकालने को हिंसक धमकी नहीं माना जाता.” Meta के अनुसार, इस पॉलिसी के तहत कंटेंट के हटाए जाने के लिए “वीडियो में मौजूद चूहों के सर्ब लोगों के हिंसक और बलपूर्वक निष्कासन से ज़्यादा स्पष्ट कनेक्शन की ज़रूरत होगी”.

7. पब्लिक कमेंट

इस केस के संबंध में, ओवरसाइट बोर्ड को लोगों की ओर से दो कमेंट मिले. एक कमेंट एशिया पैसिफ़िक और ओशेनिया और एक यूरोप से सबमिट किया गया था. सबमिशन में ये थीम शामिल थीं: क्या कंटेंट को प्लेटफ़ॉर्म पर बने रहना चाहिए, क्या सर्ब लोगों की चूहों से तुलना Meta की नफ़रत फैलाने वाली भाषा की पॉलिसी का उल्लंघन करती है और इस बारे में सुझाव कि Facebook पर कंटेंट को नियमों को ज़्यादा प्रभावी रूप से किस तरह एन्फ़ोर्स करना चाहिए.

इस केस को लेकर लोगों की ओर से सबमिट किए गए कमेंट देखने के लिए कृपया यहाँ क्लिक करें.

8. ओवरसाइट बोर्ड का विश्लेषण

बोर्ड ने इस सवाल पर ध्यान दिया कि क्या इन तीन दृष्टिकोणों से इस कंटेंट को रीस्टोर कर दिया जाना चाहिए: Meta की कंटेंट पॉलिसी, कंपनी की वैल्यू और मानवाधिकारों से जुड़ी उसकी ज़िम्मेदारियाँ.

8.1 Meta की कंटेंट पॉलिसी का अनुपालन

बोर्ड ने यह पाया कि इस केस से जुड़ा कंटेंट, नफ़रत फैलाने वाली भाषा से जुड़े कम्युनिटी स्टैंडर्ड का उल्लंघन करता है. वह हिंसा और उकसावे से जुड़े स्टैंडर्ड का भी उल्लंघन करता है.

नफ़रत फैलाने वाली भाषा

Meta की नफ़रत फैलाने वाली भाषा से जुड़ी पॉलिसी नस्ल समेत सुरक्षित विशिष्टताओं को आधार बनाकर लोगों पर किए जाने वाले हमलों पर रोक लगाती है. यहाँ, हमला किया गया ग्रुप, क्रोएशिया में रह रहे जातीय सर्ब थे, ख़ास तौर पर क्निन में, जिन्हें उनकी जातीयता को लेकर टार्गेट किया गया. भले ही कैप्शन और वीडियो में जातीय सर्ब का नाम नहीं लिया गया था, लेकिन अपने ऐतिहासिक संदर्भ में वीडियो का कंटेंट, “हेमेलिन” को “क्निन” शब्द से बदलना, वीडियो में उपयोग किए गए गीत के बोल, पाइपर की कावोग्लेव के रूप में पहचान और इसलिए ऑपरेशन स्टॉर्म के बारे में थॉम्पसन के गीत के साथ और ट्रैक्टर की फ़ोटो का उपयोग बिना किसी संदेह के क्निन के सर्ब निवासियों की ओर इशारा करते हैं. सर्ब लोगों को ऐसे चूहों के रूप में दिखाया गया है जिन्हें शहर से निकालना ही होगा. पोस्ट पर आए कमेंट और कई यूज़र रिपोर्ट से यह साफ़ हो जाता है कि उस कंटेंट को देखने वाले लोगों को स्पष्ट पता चल रहा था कि वह पोस्ट किस बारे में है.

कंटेंट में दो बार “हमला” किया गया जो नफ़रत फैलाने वाली भाषा की पॉलिसी के शब्दों की परिभाषा में आते हैं. पहला, नफ़रत फैलाने वाली भाषा की पॉलिसी में “उन पशुओं से तुलना करने की मनाही है, जिन्हें संस्कृति में दिमागी या शारीरिक रूप से हीन माना जाता हो.” Meta के आंतरिक कार्यान्वयन स्टैंडर्ड, जो कंटेंट का रिव्यू करने वाले लोगों को दी गई गाइडलाइन है, कहते हैं कि इस पॉलिसी के तहत “हिंसक पशुओं” से तुलना करने की मनाही है. वीडियो में सर्ब का चूहों से तुलना दिखाई गई है. इससे मनुष्यों से कमतर बताने वाली तुलना होती है जो नफ़रत फैलाने वाली भाषा की पॉलिसी और आंतरिक कार्यान्वयन स्टैंडर्ड का उल्लंघन है.

बोर्ड ने पाया कि इस कंटेंट में मौजूद जैसी अप्रत्यक्ष तुलना, Meta की नफ़रत फैलाने वाली भाषा की पॉलिसी में प्रतिबंधित है.

Meta ने बताया कि कंटेंट को न हटाने के पुराने फ़ैसले इस आधार पर किए गए थे कि सुरक्षित विशिष्टताओं के अप्रत्यक्ष रेफ़रेंस पर पॉलिसी का कथन लागू नहीं होता है. बोर्ड ने इस मान्यता से असहमति जताई. पॉलिसी का कथन, सुरक्षित विशिष्टताओं के आधार पर हमले प्रतिबंधित करता है, भले ही उन विशिष्टताओं के रेफ़रेंस प्रत्यक्ष हों या अप्रत्यक्ष. नफ़रत फैलाने वाली भाषा के स्टैंडर्ड के अनुसार तुलना लिखित या विज़ुअल हो सकती है, जैसे वीडियो, और स्टैंडर्ड की भाषा के अनुसार टार्गेट किए गए ग्रुप के रेफ़रेंस स्पष्ट होना ज़रूरी नहीं है. भले ही पॉलिसी की यह व्याख्या उसके टेक्स्ट और कारण के अनुरूप हो, लेकिन पॉलिसी स्पष्ट रूप से यह नहीं कहती कि पॉलिसी में अप्रत्यक्ष रेफ़रेंस भी शामिल किए गए हैं.

दूसरा, कंटेंट में क्निन से सर्ब लोगों को निकाले जाने का समर्थन किया गया है. नफ़रत फैलाने वाली भाषा के स्टैंडर्ड का यह कारण हमले को “हिंसक या अमानवीय भाषा, नुकसानदायक रूढ़िवादिता, किसी को हीन बताना, अपमान, घृणा या उपेक्षा के भाव, कोसना और बहिष्कार या अलग-थलग करने की माँग के रूप में परिभाषित करता है." नफ़रत फैलाने वाली भाषा के इस केस में लागू कम्युनिटी स्टैंडर्ड की पॉलिसी लाइन के अनुसार, बहिष्कार की अपील का अर्थ है “कुछ ख़ास ग्रुप के निष्कासन जैसी बातों को सपोर्ट करना या कहना कि उन्हें परमिशन नहीं है.” इस केस के वीडियो में एक ऐतिहासिक घटना का जश्न मनाया गया था जहाँ जातीय सर्ब लोगों को क्निन से बलपूर्वक निष्कासित कर दिया गया था और कंटेंट में कहा गया था कि चूहों के जाने के बाद कस्बे के लोग ज़्यादा खुशी से रहने लगे. इस वीडियो में जाति के आधार पर अलगाव का समर्थन किया गया था जो नफ़रत फैलाने वाली भाषा के स्टैंडर्ड का उल्लंघन था.

हिंसा और उकसावा

हिंसा और उकसावे की पॉलिसी में ऐसे कंटेंट की मनाही है “जो हिंसा की ज्ञात ऐतिहासिक घटनाओं का रेफ़रेंस देते हुए दूसरे लोगों को धमकाता हो.” कैप्शन और वीडियो में “ऑपरेशन स्टॉर्म” के रेफ़रेंस थे, जो 1995 में हुई एक सैन्य कार्रवाई थी और बताया जाता है कि उसमें जातीय सर्ब नागरिकों का निष्कासन किया गया, उन्हें मारा गया और उन्हें गायब कर दिया गया. वीडियो में क्निन नाम का शहर और ट्रैक्टर में भागते हुए चूहें, दोनों ऑपरेशन स्टॉर्म का रेफ़रेंस देते थे. पोस्ट पर आए कमेंट यह स्पष्ट करते हैं कि ये रेफ़रेंस सर्ब और क्रोएशियाई लोगों के लिए साफ़ थे.

वीडियो से ऐसा माहौल बन सकता है जिसमें लोग, जातीय सर्ब पर हमले को उचित मानें. पोस्ट को लोगों को पुराने विवाद की याद दिलाने और झगड़े को फिर से भड़काने के लिए बनाया गया था. उसका लक्ष्य क्निन एरिया को मुक्त कराना था जहाँ कुछ संख्या में सर्बियाई जातीय अल्पसंख्यक बचे रह गए हैं (क्रोएशिया में ऐतिहासिक संशोधनवाद और उग्र सुधारवादी राष्ट्रवाद पर क्रोएशिया में राष्ट्रीय अल्पसंख्यकों की सुरक्षा के लिए फ़्रेमवर्क समझौते 2021 पर यूरोप सलाहकार समिति की काउंसिल की पाँचवी राय देखें, जातीय सर्ब लोगों के खिलाफ ऑनलाइन नफ़रत फैलाने वाली भाषा पर नस्लवाद और असहिष्णुता के खिलाफ यूरोपीय कमीशन की 2018 की रिपोर्ट, पैरा 30 देखें). जब धमकी “छिपा कर” दी गई हो, तो Facebook की पॉलिसी के अनुसार, इसे “एन्फ़ोर्स करने के लिए अतिरिक्त संदर्भ की ज़रूरत होती है.” इस पोस्ट में संदर्भ मौजूद है.

बोर्ड, Meta के इस आकलन से असहमत है कि कंटेंट में धमकी या हिंसा करने के इरादे के कथन नहीं थे और यह कि हिंसा के तरीके बताए बिना बहिष्कार या निष्कासन के बुलावे को हिंसक धमकी नहीं माना जा सकता. लोगों का बलपूर्वक निष्कासन, हिंसा का काम है. पाइड पाइपर की कहानी का उपयोग शांतिपूर्ण निष्कासन की वकालत नहीं है, बल्कि वह हिंसा की ज्ञात ऐतिहासिक घटनाओं का स्पष्ट रेफ़रेंस है, ख़ास तौर पर ट्रैक्टर की फ़ोटो के रूप में.

जैसा कि इस पोस्ट की रिपोर्ट करने वाले यूज़र्स ने देखा और लोगों के कमेंट से पता चला, पर्यवेक्षकों की नज़र में कार्टून के चूहें, क्निन एरिया की सर्ब जनसंख्या को दर्शाते हैं, उन लोगों सहित जो वहाँ बचे रह गए हैं. कार्टून में स्पष्ट रूप से उनके निष्कासन का जश्न मनाया गया है. पाइड पाइपर की कहानी के संदर्भ में, चूहों को बलपूर्वक भगाने के बजाय जादुई बाँसुरी द्वारा क्निन छोड़ने के लिए प्रेरित किया गया, लेकिन ट्रैक्टर का रेफ़रेंस वास्तविक बलपूर्वक निष्कासन को दर्शाता है जिसे देश में व्यापक रूप से जाना जाता है. ट्रैक्टर एक संकेत है, लेकिन संकेतों के ज़रिए भी सीधे बयानों जितनी कठोर धमकी दी जा सकती है.

Meta की रिव्यू प्रोसेस

बोर्ड ख़ास तौर पर यह जानना चाहता था कि कई बार रिव्यू करने के बाद भी कंपनी ने यह कैसे तय किया कि कंटेंट उल्लंघन नहीं करता है. पोस्ट को हटाने का Meta का बदला गया फ़ैसला क्यों सही था, इस बात के बजाय अगर Meta शुरुआत में ही इस बात पर फ़ोकस करता तो यह मददगार होता. अगर कंपनी अपने प्लेटफ़ॉर्म पर उल्लंघन करने वाले कंटेंट का लेवल कम करना चाहती है, तो उसे एन्फ़ोर्समेंट की गलती के केसों के बोर्ड के चयन को अपनी गलतियों के कारण पता करने के अवसर के रूप में देखना होगा.

बोर्ड, संदर्भ को ध्यान में रखते हुए इस केस जैसे केसों का आकलन करने की जटिलता और Facebook कम्युनिटी स्टैंडर्ड लागू करने की कठिनाई को समझता है, ख़ास तौर पर उस कंटेंट की मात्रा को देखते हुए जिसका ह्यूमन रिव्यूअर हर दिन रिव्यू करते हैं. इन चुनौतियों के कारण, बोर्ड मानता है कि Meta को रिव्यूअर को दिए जाने वाले अपने निर्देश और एस्केलेशन का रास्ता और प्रोसेस बेहतर बनानी चाहिए. “एस्केलेशन" का अर्थ है ह्यूमन रिव्यूअर द्वारा केस को Meta की विशेषज्ञ टीम को भेजा जाना, जो फिर कंटेंट का आकलन करती है.

Meta द्वारा दिए गए कारण के अनुसार, एन्फ़ोर्समेंट में व्यक्तिपरकता से बचने और एकरूपता हासिल करने के लिए, ह्यूमन रिव्यूअर को पॉलिसी का कथन लागू करने के निर्देश दिए गए हैं और उन्हें कहा गया है कि वे इरादे का मूल्यांकन न करें. भले ही निष्पक्षता और एकरूपता विधिसम्मत लक्ष्य हों, लेकिन बोर्ड इस बात से चिंतित है कि रिव्यूअर को दिए गए निर्देशों के परिणामस्वरूप लगभग 40 ह्यूमन रिव्यूअर ने गलती से कंटेंट को उल्लंघन नहीं करने वाला बता दिया और कोई भी रिव्यूअर उस फ़ैसले तक नहीं पहुँचा जिसे Meta ने आखिरकार सही माना अर्थात कंटेंट को हटाना.

कंटेंट को एस्केलेट करने की संभावना को कठिन केसों में बेहतर परिणाम देने वाला माना जाता है. एस्केलेशन के लेवल पर रिव्यू से इरादे का आकलन हो सकता है और उन्हें संदर्भ की बेहतर जानकारी होती है. इस कंटेंट को 397 बार रिपोर्ट किया गया था, उसकी पहुँच व्यापक थी, उसने पॉलिसी पर सवाल खड़े किए, उसका आकलन करने के लिए संदर्भ ज़रूरी था और उसमें एक क्रोएशियाई ऑनलाइन प्लेटफ़ॉर्म का कंटेंट शामिल था जिसके बारे में बोर्ड द्वारा संपर्क किए गए विशेषज्ञों ने बताया कि हास्य के संदर्भ में अभिव्यक्ति की आज़ादी को लेकर उस पर संसद और लोगों में पहले भी चर्चा हो चुकी है. फिर भी किसी रिव्यूअर ने कंटेंट को एस्केलेट नहीं किया. Meta ने बोर्ड को बताया कि वह रिव्यूअर को “चर्चा में मौजूद कंटेंट” और संदेह होने पर कंटेंट को एस्केलेट करने के लिए प्रोत्साहित करता है. Meta ने ट्रेंड हो रहे कंटेंट को “ऐसी किसी भी चीज़ के रूप में परिभाषित किया जो बार-बार दिखाई देती हो और जिसके कंटेंट से किसी तरह की एक्शन जुड़ी हो (जैसे संभावित नुकसान या कम्युनिटी जोखिम).” बोर्ड द्वारा इस केस को चुने जाने से पहले कंटेंट को एस्केलेट न किया जाना दिखाता है कि एस्केलेट करने के रास्ते पर्याप्त स्पष्ट और प्रभावी नहीं हैं. एस्केलेट करने में हुई विफलता बताती है कि खराबी हर जगह है.

इस केस में कंटेंट के एस्केलेशन को रोकने वाला एक कारण यह हो सकता है कि Meta की ओर से रिव्यूअर को उस सीमा को स्पष्ट करने वाला स्केल प्रदान नहीं किया जाता जिसके बाद कंटेंट “ट्रेंड” होने वाला माना जाए. रिव्यूअर कंटेंट को “ट्रेंडिंग” के रूप में पहचान नहीं पाए, इसका - और एस्केलेट न किए जाने का - एक अन्य कारण Meta का वह ऑटोमेटेड रिव्यू सिस्टम हो सकता है जिसका उपयोग इस केस में किया गया था. Meta ने बताया कि वह ऐसे मामलों में रिपोर्ट का जवाब देने के लिए ऑटोमेशन का उपयोग करता है जब एक तय समयावधि के दौरान उल्लंघन न करने संबंधी कुछ निश्चित संख्या में फ़ैसले दिए जा चुके हों ताकि उस कंटेंट का फिर से रिव्यू न करना पड़े.

बोर्ड, Meta के एस्केलेशन के रास्ते को लेकर चिंतित है और उसने कहा कि उन्हें इस बारे में ज़्यादा जानकारी देनी चाहिए. उसे इस बात की स्टडी करनी चाहिए कि क्या कंटेंट को एस्केलेट करने के और रास्तों की ज़रूरत है और क्या इस केस में उपयोग किया गया ऑटोमेटेड सिस्टम उस कंटेंट को एस्केलेट किए जाने से रोकता है जो वाइरल है और जिसकी अक्सर रिपोर्ट की जाती है.

केस से Meta की रिपोर्टिंग और अपील प्रोसेस की कमियों का भी पता चला. बोर्ड इस बारे में चिंतित है कि जब किसी केस में कंपनी के फ़ैसले में बदलाव होता है, तो Meta यूज़र्स को इसकी सूचना नहीं देता. उस यूज़र को इसका अपडेट दिया जाना चाहिए जिसने उस कंटेंट की रिपोर्ट की जिसे आरंभिक रूप से उल्लंघन नहीं करने वाला पाया गया और छोड़ दिया गया और फिर बाद में उल्लंघन करने वाला मानते हुए हटा दिया गया.

8.2 Meta की वैल्यू का अनुपालन

बोर्ड ने पाया कि कंटेंट को हटाना, Meta की “वॉइस,” “गरिमा” और “सुरक्षा” की वैल्यू के अनुसार सही है.

बोर्ड यह समझता है कि “वॉइस” Meta की सबसे अहम वैल्यू है, लेकिन दुर्व्यवहार और ऑनलाइन और ऑफ़लाइन नुकसान के अन्य रूपों को रोकने के लिए कंपनी सीमित अभिव्यक्ति की अनुमति देती है. जिन लोगों को अमानवीय और नकारात्मक रूढ़िवादी कंटेंट से टार्गेट किया जाता है, उन्हें यह भी लग सकता है कि उनकी “वॉइस” दबाई जा रही है क्योंकि उनके उपयोग का टार्गेट किए गए लोगों पर चुप करने वाला असर हो सकता है और Facebook और Instagram पर उनकी भागीदारी में बाधा डाल सकता है. ऐसी पोस्ट को शेयर किए जाने की परमिशन देकर, Meta भेदभावपूर्ण वातावरण बनाने में योगदान देगा.

इस केस में बोर्ड ने “गरिमा” और “सुरक्षा” की वैल्यू को बेहद महत्वपूर्ण माना. इस संबंध में, बोर्ड ने क्रोएशिया में जातीय सर्ब लोगों के खिलाफ शारीरिक हिंसा में हुई वृद्धि पर ध्यान दिया ( 2021 CoE क्रोएशिया पर पाँचवी राय, पैरा. 116). इससे दूसरों की “अभिव्यक्ति,” “गरिमा” और “सुरक्षा” को बचाने के लिए उस यूज़र की “अभिव्यक्ति” को हटाना सही साबित हुआ.

8.3 Meta की मानवाधिकारों से जुड़ी ज़िम्मेदारियों का अनुपालन

बोर्ड ने यह भी पाया कि पोस्ट को प्लेटफ़ॉर्म से हटाना, बतौर बिज़नेस Meta की मानवाधिकारों से जुड़ी ज़िम्मेदारियों के अनुरूप है. Meta, बिज़नेस और मानवाधिकारों के बारे में संयुक्त राष्ट्र के मार्गदर्शक सिद्धांतों (UNGP) के तहत मानवाधिकारों का सम्मान करने के लिए प्रतिबद्ध है. इसकी कॉर्पोरेट मानवाधिकार पॉलिसी में बताया गया है कि इसमें नागरिक और राजनीतिक अधिकारों पर अंतरराष्ट्रीय प्रतिज्ञापत्र (ICCPR) शामिल है.

अभिव्यक्ति की स्वतंत्रता (अनुच्छेद 19 ICCPR)

अभिव्यक्ति की आज़ादी के अधिकार का दायरा बहुत बड़ा है. ICCPR का अनुच्छेद 19, पैरा. 2, राजनैतिक मुद्दों की अभिव्यक्ति को और ऐतिहासिक क्लेम की चर्चा को ज़्यादा सुरक्षा देता है (सामान्य कमेंट सं. 34, पैरा. 20 और 49). ICCPR के अनुच्छेद 19 के तहत यह ज़रूरी है कि जहाँ अभिव्यक्ति पर राज्य द्वारा प्रतिबंध लागू है, वहाँ उन्हें वैधानिकता, वैध लक्ष्य और आवश्यकता और अनुपातिकता की शर्तें पूरी करनी होंगी (अनुच्छेद 19, पैरा. 3, ICCPR). अभिव्यक्ति की आज़ादी पर संयुक्त राष्ट्र का विशेष रैपर्टर, सोशल मीडिया कंपनियों को ऑनलाइन अभिव्यक्ति को मॉडरेट करते समय इन सिद्धांतों के मार्गदर्शन में काम करने के लिए प्रोत्साहित करता है.

I. वैधानिकता (नियमों की स्पष्टता और सुलभता)

वैधानिकता के सिद्धांत के अनुसार अभिव्यक्ति पर रोक लगाने के लिए देशों के द्वारा उपयोग किए जाने वाले नियम स्पष्ट और आसानी से उपलब्ध होने चाहिए ( सामान्य कमेंट 34, पैरा. 25). वैधानिकता के स्टैंडर्ड के अनुसार यह भी ज़रूरी है कि अभिव्यक्ति को प्रतिबंधित करने वाले नियम “उन लोगों को अभिव्यक्ति की आज़ादी को प्रतिबंधित करने के निरंकुश अधिकार नहीं दे सकते जिन पर इन्हें लागू करने की ज़िम्मेदारी है” और नियमों में "उन लोगों के लिए पर्याप्त मार्गदर्शन भी होना चाहिए जिन पर इन्हें लागू करने ज़िम्मेदारी है ताकि वे यह पता लगा सकें कि किस तरह की अभिव्यक्ति को उचित रूप से प्रतिबंधित किया गया है और किसे नहीं" (पूर्वोक्त) लोगों के पास यह तय करने के लिए पर्याप्त जानकारी होनी चाहिए कि क्या उनकी अभिव्यक्ति पर रोक लगाई जा सकती है और किस तरह लगाई जा सकती है, ताकि इसके हिसाब से वे अपने व्यवहार में बदलाव ला सकें. Facebook के लिए Meta के कंटेंट के नियमों में यूज़र्स को इस बात की जानकारी दी जानी चाहिए कि किस कंटेंट की परमिशन है और किसकी नहीं. रिव्यूअर को इस बात का स्पष्ट मार्गदर्शन दिया जाना चाहिए कि इन स्टैंडर्ड को कैसे लागू किया जाए.

बोर्ड ने पाया कि नफ़रत फैलाने वाली भाषा के कम्युनिटी स्टैंडर्ड, सुरक्षित विशिष्टताओं के आधार पर ग्रुप्स पर अप्रत्यक्ष टार्गेटिंग प्रतिबंधित करता है. इस केस में मनुष्यों को पशुओं से कमतर बताने वाली तुलना और बहिष्कार की वकालत या उसे सपोर्ट करने वाले बयान, दोनों के लिए. इस केस में हुई गलतियाँ बताती हैं कि पॉलिसी की भाषा और रिव्यूअर को दिया गया मार्गदर्शन पर्याप्त रूप से स्पष्ट नहीं थे.

इस केस में, 40 ह्यूमन रिव्यूअर ने फ़ैसला किया कि कंटेंट से नफ़रत फैलाने वाली भाषा के कम्युनिटी स्टैंडर्ड का उल्लंघन नहीं होता. Meta के अंतिम निर्धारण से पहले, किसी भी ह्यूमन रिव्यूअर ने कंटेंट को उल्लंघन करने वाला नहीं पाया. इससे पता चलता है कि रिव्यूवर्स लगातार यही समझते रहे कि पॉलिसी के अनुसार, वह कंटेंट उल्लंघन करने वाला तभी कहलाता, जब उसमें सर्बियाई मूल के लोगों और चूहों की साफ़ तौर पर तुलना की गई होती. कंपनी ने पहले बोर्ड को बताया कि पॉलिसी की भावना ने पशुओं से अप्रत्यक्ष तुलना को रोका और बाद में कहा कि पॉलिसी के कथन में अप्रत्यक्ष तुलना को शामिल किया गया था. इस पूरी प्रोसेस के दौरान हुए भ्रम से स्पष्ट पॉलिसी और क्रियान्वयन मार्गदर्शन की ज़रूरत पता चली.

II. वैधानिक लक्ष्य

बोर्ड ने पहले यह माना कि नफ़रत फैलाने वाली भाषा के कम्युनिटी स्टैंडर्ड और हिंसा और उकसावे के स्टैंडर्ड, दूसरों के अधिकारों की सुरक्षा करने के वैधानिक लक्ष्य को पूरा करते हैं. उन अधिकारों में समानता और भेदभाव न करने के अधिकार (अनुच्छेद 2, पैरा. 1, ICCPR, अनुच्छेद 2 और 5 ICERD) और उत्पीड़न या धमकी के बिना प्लेटफ़ॉर्म पर अभिव्यक्ति की आज़ादी का उपयोग करने के अधिकार (अनुच्छेद 19 ICCPR) शामिल हैं.

III. आवश्यकता और आनुपातिकता

अभिव्यक्ति पर लगाए जाने वाले प्रतिबंधों को आवश्यक और अनुपातिक माने जाने के लिए, वे प्रतिबंध "अपने सुरक्षात्मक कार्य को पूरा करने के लिए उपयुक्त होने चाहिए; वे अपने सुरक्षात्मक कार्य कर सकने वाले उपायों में से कम से कम हस्तक्षेप करने वाले उपाय होने चाहिए; उन्हें सुरक्षित रखे जाने वाले हित के अनुपात में होना चाहिए” (सामान्य कमेंट 34, पैरा. 34). स्वतंत्र अभिव्यक्ति पर विशेष रैपर्टर में यह भी कहा गया है कि सोशल मीडिया पर “नफ़रत फैलाने वाली अभिव्यक्ति का समाधान करने वाला पैमाना और जटिलता, दीर्घकालिक चुनौतियाँ प्रस्तुत करते हैं” ( A/HRC/38/35, पैरा. 28). हालाँकि, विशेष रैपर्टर के अनुसार, कंपनियों को “सभी कंटेंट एक्शन की आवश्यकता और अनुपातिकता बतानी चाहिए (जैसे हटाना या अकाउंट सस्पेंड करना).” इसके अलावा, कंपनियों को “यूज़र के अभिव्यक्ति की आज़ादी के उनके अधिकार से जुड़े एक ही तरह के सवालों का आकलन करना होगा” (पूर्वोक्त पैरा. 41.).

Facebook के नफ़रत फैलाने वाली भाषा से जुड़े कम्युनिटी स्टैंडर्ड में भेदभावपूर्ण अभिव्यक्ति के कुछ ख़ास रूपों को प्रतिबंधित किया गया है, जिनमें पशुओं से तुलना और बहिष्कार के लिए बुलावा शामिल है, भले ही उसमें हिंसा या भेदभावपूर्ण घटनाओं को बढ़ावा देने वाली अभिव्यक्ति न हो. संयुक्त राष्ट्र के विशेष रैपर्टर के मार्गदर्शन पर ध्यान आकर्षित करते हुए बोर्ड ने पहले कहा कि हालाँकि सरकार द्वारा व्यापक स्तर पर लागू किए जाने पर ऐसे प्रतिबंध चिंता बढ़ाएँगे, ख़ास तौर पर अगर उन्हें आपराधिक या दीवानी प्रतिबंधों के ज़रिए लागू किया जाता है, लेकिन कार्रवाई की आवश्यकता और अनुपातिकता दिखाते हुए Facebook ऐसी अभिव्यक्तियों को नियंत्रित कर सकता है (“ दक्षिण अफ़्रीका की गाली” से जुड़ा फ़ैसला).

इस केस से जुड़ा कंटेंट अमानवीय और घिनौना है, जो कि सर्बियाई मूल के लोगों को चूहों के समान बताता है और पुराने समय में हुए भेदभाव की बढ़ाई करता है. किसी भी जातीय ग्रुप को इस तरह से टार्गेट करने वाले कंटेंट के बारे में बोर्ड इसी तरह के निष्कर्ष पर पहुँचता, ख़ास तौर पर ऐसे क्षेत्र में जहाँ हाल ही में जातीय संघर्ष हुए हैं. बोर्ड ने पाया कि जातीयता के आधार पर नफ़रत फैलाने वाली भाषा के गंभीर नुकसान से बचाने के लिए इस कंटेंट को प्लेटफ़ॉर्म से हटाना ज़रूरी था.

बोर्ड ने अपने विश्लेषण के मार्गदर्शन के लिए रबात की कार्रवाई की योजना ( रबात की कार्रवाई की योजना, OHCHR, A/HRC/22/17/Add.4, 2013) की बातों पर विचार किया, जबकि देशों के लिए अंतरराष्ट्रीय कानून के दायित्वों और बिज़नेस के लिए मानवाधिकार से जुड़ी ज़िम्मेदारियों का भी ध्यान रखा . यह Meta की ज़िम्मेदारी है कि “वह अपने कामकाज, प्रोडक्ट या सेवाओं से सीधे जुड़े प्रतिकूल मानवाधिकार प्रभाव को रोकने या दूर करने की कोशिश करे” (UNGP, सिद्धांत 13). अपने विश्लेषण में, बोर्ड ने सोशल और राजनीतिक संदर्भ, इरादे, कंटेंट और भाषा के रूप और उसके फैलाव की सीमा पर ध्यान दिया.

संदर्भ की बात करें तो इसका संबंध एक ऐसे क्षेत्र से है जहाँ हाल ही में जातीय संघर्ष हुआ, ऑनलाइन नफ़रत फैलाने वाली भाषा की पृष्ठभूमि से है और क्रोएशिया में जातीय अल्पसंख्यकों के खिलाफ भेदभाव की घटनाओं से है (हिंसा और उकसावे के तहत सेक्शन 8.1 देखें). इसका इरादा जातीय घृणा भड़काने का है और इसके कारण लोग भेदभावपूर्ण काम कर सकते हैं. अभिव्यक्ति का रूप और उसकी व्यापक पहुँच भी महत्वपूर्ण है. वीडियो को एक पेज के एडमिन ने शेयर किया था, जो बोर्ड को विशेषज्ञों से मिली जानकारी के अनुसार, सर्ब विरोधी भावनाओं के लिए जाना जाने वाला एक क्रोएशियाई न्यूज़ पोर्टल है. कार्टून वीडियो वाला रूप ख़ास तौर पर हानिकारक हो सकता है क्योंकि वह विशेष रूप से एंगेज करने वाला है. उसकी पहुँच व्यापक थी. भले ही वीडियो को किसी अन्य व्यक्ति द्वारा बनाया गया था, इस बात की संभावना है कि पेज की लोकप्रियता (जिसके 50,000 से ज़्यादा फ़ॉलोअर हैं) के कारण वीडियो की पहुँच बढ़ जाएगी, ख़ास तौर पर इसलिए क्योंकि वह पेज के व्यू और उसके फ़ॉलोअर दिखाता है. कंटेंट को 380,000 से ज़्यादा बार देखा गया, 540 से ज़्यादा बार शेयर किया गया और इसे 2,400 से ज़्यादा रिएक्शन और 1,200 से ज़्यादा कमेंट मिले.

“दक्षिण अफ़्रीका की गाली” वाले फ़ैसले में, बोर्ड ने तय किया कि “कुछ भेदभावपूर्ण अभिव्यक्तियों” को रोकना Meta की मानवाधिकार से जुड़ी ज़िम्मेदारियों के अनुरूप है” भले ही “उससे ऐसी कोई शर्त पूरी न हो कि अभिव्यक्ति से हिंसा या भेदभावपूर्ण व्यवहार को उकसावा मिलता है”. बोर्ड ने देखा कि अनुच्छेद 20, पैरा. 2, ICCPR, के लिए अभिव्यक्ति पर प्रतिबंधों को उचित बताने के लिए निकटस्थ क्षति का होना ज़रूरी है, जैसी कि रबात की कार्रवाई की योजना में व्याख्या की गई है. बोर्ड ने यह नहीं माना कि इसे पोस्ट से कोई निकटस्थ क्षति होगी. हालाँकि Meta, Facebook से ऐसी पोस्ट को विधिसम्मत रूप से हटा सकता है जो कम तात्कालिक रूप से हिंसा को बढ़ावा देती है. यह न्यायोचित है क्योंकि एक कंपनी के रूप में Meta की मानवाधिकार से जुड़ी ज़िम्मेदारियाँ, देशों के मानवाधिकार दायित्वों से अलग हैं. देशों द्वारा लागू किए जाने वाले आपराधिक या दीवानी दंडों की तुलना में, अपने प्लेटफ़ॉर्म से कंटेंट हटाने के लिए Meta कम कठोर स्टैंडर्ड लागू कर सकता है.

इस केस में, हिंसा के ऐतिहासिक कृत्यों का रेफ़रेंस देते हुए सर्ब लोगों को चूहों के रूप में दिखाने और लोगों से उनका बहिष्कार करने के लिए कहने से टार्गेट किए जा रहे लोगों के समानता और गैर-भेदभाव के अधिकार पर असर पड़ता है. इस कारण से पोस्ट को हटाना उचित है. बोर्ड के कई मेंबर ने यह भी माना कि कंटेंट से प्लेटफ़ॉर्म पर मौजूद अन्य लोगों की अभिव्यक्ति की आज़ादी पर भी बुरा असर पड़ता था क्योंकि इससे ऐसा माहौल बना जहाँ कुछ यूज़र डर महसूस करते थे.

बोर्ड ने पाया कि प्लेटफ़ॉर्म को कंटेंट से हटाना एक आवश्यक और अनुपातिक उपाय था. लेबल, चेतावनी स्क्रीन या प्रसार कम करने के अन्य उपाय करने जैसे कम गंभीर हस्तक्षेप से प्लेटफ़ॉर्म पर इस तरह के कंटेंट को बने रहने के सामूहिक प्रभावों से उचित सुरक्षा नहीं मिलती (इसी तरह के विश्लेषण के लिए “ज़्वार्टे पिएट का वर्णन” केस देखें).

9. ओवरसाइट बोर्ड का फ़ैसला

ओवरसाइट बोर्ड ने Meta के कंटेंट को बनाए रखने के मूल फ़ैसले को बदलते हुए उस पोस्ट को हटाने के लिए कहा.

10. पॉलिसी से जुड़ी सलाह का कथन

कंटेंट पॉलिसी

1. Meta को नफ़रत फैलाने वाली भाषा से जुड़े कम्युनिटी स्टैंडर्ड और रिव्यूवर्स को उसके बारे में दिए जाने वाले गाइडेंस में यह समझाते हुए स्पष्ट करना चाहिए कि संरक्षित ग्रुप के बारे में ऐसे अप्रत्यक्ष रेफ़रेंस देना भी पॉलिसी के खिलाफ़ है, जब वह रेफ़रेंस सही रूप से समझ आ रहा हो. बोर्ड इस सुझाव को तब लागू मानेगा, जब Meta अपने कम्युनिटी स्टैंडर्ड और कंटेंट रिव्यूअर के लिए अपने आंतरिक कार्यान्वयन स्टैंडर्ड को यह बदलाव लागू करते हुए अपडेट कर देगा.

एन्फ़ोर्समेंट

2. "वैंपम बेल्ट" केस (2021-012-FB-UA) के बाद Meta ने जो वादा किया था, उसकी याद दिलाते हुए बोर्ड ने सुझाव दिया है कि Meta किसी कंटेंट की रिपोर्ट करने वाले हर उस यूज़र को तब भी जानकारी दे, जब कंपनी बाद में होने वाले रिव्यू के आधार पर अपना शुरुआती फ़ैसला बदलती है. सार्वजनिक रूप से यह बदलाव लागू करते समय उसकी व्यावहारिकता जाँचने के लिए Meta जो भी प्रयोग करता है, उसे उनके परिणामों का भी खुलासा करना चाहिए. बोर्ड इस सुझाव को तब लागू मानेगा, जब Meta प्रासंगिक प्रयोगों से जुड़ी जानकारी और आखिर में बोर्ड के साथ अपडेट किया गया नोटिफ़िकेशन शेयर करेगा और कन्फ़र्म करेगा कि इसे सभी भाषाओं में उपयोग किया जा रहा है.

*प्रक्रिया संबंधी नोट:

ओवरसाइट बोर्ड के फ़ैसले पाँच सदस्यों के पैनल द्वारा लिए जाते हैं और बोर्ड के अधिकांश सदस्य इन पर सहमति देते हैं. ज़रूरी नहीं है कि बोर्ड के फ़ैसले उसके हर एक मेंबर की निजी राय को दर्शाएँ.

इस केस के फ़ैसले के लिए, बोर्ड की ओर से स्वतंत्र शोध करवाया गया था. एक स्वतंत्र शोध संस्थान जिसका मुख्यालय गोथेनबर्ग यूनिवर्सिटी में है और छह महाद्वीपों के 50 से भी ज़्यादा समाजशास्त्रियों की टीम के साथ ही दुनिया भर के देशों के 3,200 से भी ज़्यादा विशेषज्ञों ने सामाजिक-राजनैतिक और सांस्कृतिक संदर्भ में विशेषज्ञता मुहैया कराई है. बोर्ड को Duco Advisers की सहायता भी मिली, जो भौगोलिक-राजनैतिक, विश्वास और सुरक्षा और टेक्नोलॉजी के आपसी संबंध पर काम करने वाली एक एडवाइज़री फ़र्म है. Lionbridge Technologies, LLC कंपनी ने भाषा संबंधी विशेषज्ञता की सेवा दी, जिसके विशेषज्ञ 350 से भी ज़्यादा भाषाओं में अपनी सेवाएँ देते हैं और वे दुनिया भर के 5,000 शहरों से काम करते हैं.

मामले के निर्णयों और नीति सलाहकार राय पर लौटें