पलट जाना
न्यूज़ रिपोर्टिंग में तालिबान का उल्लेख
15 सितम्बर 2022
ओवरसाइट बोर्ड ने Meta द्वारा एक न्यूज़ आउटलेट पेज की एक Facebook पोस्ट को हटाने के मूल फ़ैसले को पलट दिया जिसमें अफ़गानिस्तान में महिलाओं और लड़कियों की शिक्षा के बारे में तालिबानी शासन की एक सकारात्मक घोषणा की रिपोर्टिंग की गई थी.
यह फ़ैसला उर्दू (इस स्क्रीन के सबसे ऊपर मौजूद मेनू से एक्सेस किए जाने वाले 'भाषा' टैब के ज़रिए), पश्तो (यहाँ) और दरी (यहाँ) भाषाओं में भी उपलब्ध है.
په پښتو ژبه د دغې پريکړې د لوستلو لپاره دلته کليک وکړئ.
برای خواندن اين تصميم اينجا فشار دهيد.
केस का सारांश
ओवरसाइट बोर्ड ने Meta द्वारा एक न्यूज़ आउटलेट पेज की एक Facebook पोस्ट को हटाने के मूल फ़ैसले को पलट दिया जिसमें अफ़गानिस्तान में महिलाओं और लड़कियों की शिक्षा के बारे में तालिबानी शासन की एक सकारात्मक घोषणा की रिपोर्टिंग की गई थी. पोस्ट को हटाना Facebook की खतरनाक लोग और संगठन कम्युनिटी स्टैंडर्ड के खिलाफ़ था, जिसमें आतंकी ग्रुप की रिपोर्टिंग की परमिशन दी गई है. पोस्ट को हटाना Meta की मानवाधिकार ज़िम्मेदारियों के भी खिलाफ़ था. बोर्ड ने पाया कि आतंकी शासन की रिपोर्टिंग के संबंध में Meta को यूज़र्स की अभिव्यक्ति की आज़ादी की बेहतर सुरक्षा करनी चाहिए. बोर्ड ने यह लक्ष्य हासिल करने में मदद करने के लिए पॉलिसी से जुड़े सुझाव दिए.
केस की जानकारी
जनवरी 2022 में, भारत में उर्दू भाषा के एक लोकप्रिय समाचारपत्र ने अपने Facebook पेज पर एक पोस्ट की. पोस्ट में रिपोर्ट किया गया था कि अफ़गानिस्तान में तालिबानी शासन के एक मेंबर ज़ैबुल्लाह मुजाहिद और उसके आधिकारिक केंद्रीय प्रवक्ता ने अनाउंस किया कि मार्च 2022 में महिलाओं और लड़कियों के लिए स्कूल और कॉलेज फिर से खुल जाएँगे. पोस्ट में समाचारपत्र की वेबसाइट के आर्टिकल का लिंक दिया गया था और उसे लगभग 300 बार देखा गया.
Meta ने पाया कि पोस्ट ने खतरनाक लोग और संगठन पॉलिसी का उल्लंघन किया जो ऐसी एंटिटी की “प्रशंसा” करने से रोकती है जो “गंभीर ऑफ़लाइन नुकसान में एंगेज” मानी जाती है, जिसमें आतंकी संगठन शामिल हैं. Meta ने पोस्ट को हटा दिया, कंटेंट पोस्ट करने वाले पेज एडमिन के खिलाफ़ “स्ट्राइक” लगाई और कुछ ख़ास Facebook फ़ीचर तक उनकी एक्सेस रोक दी (जैसे Facebook पर लाइव होना).
यूज़र ने अपील की और दूसरे ह्यूमन रिव्यूअर द्वारा इस पोस्ट को उल्लंघन करने वाली पाए जाने पर, इसे हाई-इंपेक्ट फ़ाल्स पॉजिटिव ओवरराइड (HIPO) सिस्टम की कतार में डाल दिया गया. HIPO एक ऐसा सिस्टम है जिसका उपयोग Meta ऐसे केसों की पहचान करने के लिए करता है जहाँ उसने गलत एक्शन ली, उदाहरण के लिए, जहाँ उसने कंटेंट को गलत तरीके से हटाया. हालाँकि, उस समय HIPO में उर्दू बोलने वाले 50 से कम रिव्यूअर्स मौजूद थे और पोस्ट को उच्च प्राथमिकता वाला नहीं माना गया था, इसलिए HIPO सिस्टम में इसका कभी भी रिव्यू नहीं हुआ.
बोर्ड द्वारा केस चुने जाने के बाद, Meta ने तय किया कि पोस्ट को हटाया नहीं जाना चाहिए था क्योंकि उसके नियम आतंकी संगठनों की “रिपोर्टिंग” की परमिशन देते हैं. उसने कंटेंट को बहाल कर दिया, स्ट्राइक वापस ले ली और यूज़र के अकाउंट से प्रतिबंध हटा दिए.
मुख्य निष्कर्ष
ओवरसाइट बोर्ड ने पाया कि पोस्ट को हटाना Facebook के खतरनाक लोग और संगठन कम्युनिटी स्टैंडर्ड, Meta की वैल्यू या कंपनी की मानवाधिकार ज़िम्मेदारियों के खिलाफ़ था.
खतरनाक लोग और संगठन कम्युनिटी स्टैंडर्ड में आतंकी संगठनों सहित कुछ ख़ास एंटिटी की “प्रशंसा” करने की मनाही है. “प्रशंसा” को कम्युनिटी स्टैंडर्ड और मॉडरेटर्स के लिए आंतरिक मार्गदर्शन, दोनों में व्यापक रूप से परिभाषित किया गया है. परिणामस्वरूप, बोर्ड यह समझता है कि दो रिव्यूअर ने कंटेंट को प्रशंसा क्यों समझा. हालाँकि, कम्युनिटी स्टैंडर्ड में खतरनाक संगठनों की “रिपोर्टिंग” करने वाले कंटेंट की परमिशन है. बोर्ड ने पाया कि इस केस में यह छूट लागू होती है.
बोर्ड ने यह भी पाया कि पोस्ट को हटाना Meta की मानवाधिकार ज़िम्मेदारियों के खिलाफ़ था; यह बिना किसी उचित कारण के अभिव्यक्ति की आज़ादी को प्रतिबंधित करता है, जिसमें आतंकी ग्रुप की जानकारी सहित सभी जानकारी देने और पाने का अधिकार शामिल है. यह ख़ास तौर पर संघर्ष और संकट के समय महत्वपूर्ण होता है, जिसमें वह स्थिति शामिल है जहाँ आतंकी ग्रुप के पास देश का कंट्रोल होता है.
बोर्ड इस बात से चिंतित है कि आतंकी शासन की रिपोर्टिंग के संबंध में Meta का सिस्टम और पॉलिसी, अभिव्यक्ति की आज़ादी में हस्तक्षेप करती हैं. कंपनी के कम्युनिटी स्टैंडर्ड और मॉडरेटर्स के लिए आंतरिक मार्गदर्शन में यह स्पष्ट नहीं है कि प्रशंसा पर प्रतिबंध और रिपोर्टिंग में छूट कैसे लागू होती है या उनके बीच क्या संबंध है. यह तथ्य कि दो रिव्यूअर्स ने पोस्ट को उल्लंघन करने वाला पाया, भी यही बताता है कि इन बिंदुओं को अच्छे से समझा नहीं गया. बोर्ड इस बात से चिंतित है कि अगर यूज़र “रिपोर्टिंग” का अपना इरादा स्पष्ट नहीं करता, तो खतरनाक लोग और संगठन पॉलिसी के तहत Meta कंटेंट को सीधे हटा ही देता है. बोर्ड इस बात से भी चिंतित है कि कंटेंट को HIPO सिस्टम में रिव्यू नहीं किया गया.
यह केस बड़ी समस्या का संकेत हो सकता है. बोर्ड ने खतरनाक लोग और संगठन पॉलिसी को एन्फ़ोर्स करने की गलतियों की कई शिकायतों पर विचार किया है, ख़ास तौर पर अंग्रेज़ी के अलावा अन्य भाषाओं में. यह गंभीर चिंताएँ पैदा करता है, ख़ास तौर पर पत्रकारों और मानवाधिकारों के रक्षकों के लिए. इसके अलावा, पॉलिसी का उल्लंघन करने पर प्रतिबंध स्पष्ट नहीं हैं और गंभीर हैं.
ओवरसाइट बोर्ड का फ़ैसला
ओवरसाइट बोर्ड ने संबंधित पोस्ट को हटाने के Meta के मूल फ़ैसले को पलट दिया.
बोर्ड ने Meta को सुझाव दिया कि वह:
- इस बात की जाँच करे कि खतरनाक लोग और संगठन पॉलिसी का अनुवाद तय समयावधि में पूरा क्यों नहीं हुआ और आगे इस तरह की देरी न होने दे.
- अपने “स्ट्राइक” सिस्टम की सार्वजनिक व्याख्या को ज़्यादा व्यापक और एक्सेस लायक बनाए.
- ज्ञात सवाल (मॉडरेटर्स के लिए आंतरिक मार्गदर्शन) में “प्रशंसा” की सटीक परिभाषा देने के लिए ऐसे कंटेंट के उदाहरण हटाए जो खतरनाक संगठनों के बारे में “दूसरे लोगों को सकारात्मक सोचने के लिए प्रेरित करता है.”
- अपने क्रियान्वयन स्टैंडर्ड (मॉडरेटर्स के लिए आंतरिक मार्गदर्शन) में बदलाव करके यह स्पष्ट करे कि खतरनाक व्यक्ति और संगठन पॉलिसी की रिपोर्टिंग से जुड़ी छूट, सकारात्मक कथनों की परमिशन देती है. आम सवालों में संघर्ष या संकट की स्थितियों में न्यूज़ रिपोर्टिंग की रक्षा की महत्ता को स्पष्ट किया जाना चाहिए.
- गलतियों के कारण की पहचान करने के लिए, खतरनाक लोग और संगठन पॉलिसी में रिपोर्टिंग संबंधी छूट को एन्फ़ोर्स करने में रिव्यूअर्स की सटीकता का आकलन करे.
- HIPO सिस्टम का रिव्यू करके यह जाँच करे कि क्या वह खतरनाक लोग और संगठन पॉलिसी की छूट के एन्फ़ोर्समेंट में संभावित गलतियों को ज़्यादा बेहतर प्राथमिकता दे सकता है.
- सभी भाषाओं में HIPO रिव्यू के लिए आवंटित क्षमता बढ़ाएँ.
*केस के सारांश से केस का ओवरव्यू पता चलता है और आगे के किसी फ़ैसले के लिए इसको आधार नहीं बनाया जा सकता है.
केस का पूरा फ़ैसला
1. फ़ैसले का सारांश
ओवरसाइट बोर्ड ने भारत में उर्दू भाषा के एक लोकप्रिय समाचारपत्र के पेज पर की गई एक Facebook पोस्ट को हटाने के Meta के मूल फ़ैसले को पलट दिया. इस पोस्ट में अफ़गानिस्तान के तालिबानी शासन के एक प्रमुख मेंबर और प्रवक्ता की अफ़गानिस्तान में महिलाओं और लड़कियों की शिक्षा के बारे में घोषणा की रिपोर्टिंग की गई थी. बोर्ड द्वारा इस केस को चुने जाने के बाद, Meta ने अपने फ़ैसले को वापस ले लिया और एडमिन के अकाउंट पर लगाए गए प्रतिबंध हटा लिए. बोर्ड ने पाया कि पोस्ट खतरनाक लोग और संगठन कम्युनिटी स्टैंडर्ड का उल्लंघन नहीं करती क्योंकि पॉलिसी चिह्नित एंटिटी की “रिपोर्टिंग करने” की परमिशन देती है. बोर्ड इस बात से चिंतित है कि “प्रशंसा” की Meta की परिभाषा व्यापक है और रिव्यूअर्स के लिए इस बारे में स्पष्टता की कमी है कि ऐसी चिह्नित एंटिटी की एक्शन की न्यूज़ रिपोर्टिंग पर पॉलिसी की छूट कैसे एन्फ़ोर्स की जाए जिनके पास देश का कंट्रोल है. इससे न्यूज़ आउटलेट द्वारा इस तरह की स्थितियों में चिह्नित एंटिटी की एक्शन और कथनों को रिपोर्ट करने की योग्यता में बाधा आती है, जहाँ तालिबानी शासन ने अफ़गानिस्तान की मान्यता प्राप्त सरकार को बलपूर्वक बेदखल कर दिया. बोर्ड ने पाया कि Meta ने इन पॉलिसी से छूट एन्फ़ोर्स करते समय गलतियों को रोकने या कम करने की अपनी ज़िम्मेदारियाँ पूरी नहीं कीं. फ़ैसले में यह सुझाव दिया गया कि Meta, खतरनाक लोग और संगठन कम्युनिटी स्टैंडर्ड पर अपनी पॉलिसी और एन्फ़ोर्समेंट प्रोसेस में बदलाव करे.
2. केस का डिस्क्रिप्शन और बैकग्राउंड
जनवरी 2022 में, भारत के एक न्यूज़ आउटलेट के Facebook पेज ने उर्दू भाषा में एक पोस्ट शेयर की, जिसमें उनकी वेबसाइट पर मौजूद एक आर्टिकल का लिंक शामिल था. Meta कहता है कि उस पोस्ट को लगभग 300 बार देखा गया. पोस्ट में रिपोर्ट किया गया था कि अफ़गानिस्तान में तालिबानी शासन के “संस्कृति और सूचना मंत्री” और आधिकारिक केंद्रीय प्रवक्ता ज़ैबुल्लाह मुजाहिद ने अनाउंस किया कि 21 मार्च को अफ़गान नववर्ष के अवसर पर महिलाओं और लड़कियों के लिए स्कूल और कॉलेज खुल जाएँगे. लिंक किए गए आर्टिकल में अनाउंसमेंट की पूरी रिपोर्ट है.
न्यूज़ आउटलेट, भारत के हैदराबाद में उर्दू भाषा का एक समाचारपत्र है. इस शहर में बड़ी संख्या में उर्दू बोलने वाले लोग रहते हैं. यह देश का सबसे ज़्यादा प्रसार वाला उर्दू समाचारपत्र है और वह क्लेम करता है कि हर दिन दस लाख से ज़्यादा लोग वह समाचारपत्र पढ़ते हैं. पूरी दुनिया में लगभग 230 मिलियन (तेईस करोड़) उर्दू बोलने वाले लोग रहते हैं.
अगस्त 2021 में सत्ता पर कब्ज़ा करने से लेकर अब तक, किसी भी देश ने अफ़गानिस्तान के तालिबानी शासन को औपचारिक कूटनीतिक मान्यता नहीं दी है. अफ़गान नववर्ष पर लड़कियों और महिलाओं के लिए स्कूल और कॉलेज नहीं खुले, जैसा कि प्रवक्ता ने अनाउंस किया था और बोर्ड का फ़ैसला आने तक 12 वर्ष और उससे ज़्यादा उम्र की लड़कियों (छठी कक्षा से आगे) और महिलाओं को स्कूल जाने से दूर ही रखा जा रहा था.
20 जनवरी 2022 को, Facebook के एक यूज़र ने कंटेंट पर “पोस्ट की रिपोर्ट करें” पर क्लिक किया लेकिन उसने शिकायत पूरी तरह नहीं भरी. इससे एक क्लासिफ़ायर (Meta के कम्युनिटी स्टैंडर्ड के उल्लंघन की पहचान के लिए ट्रेन किया गया मशीन लर्निंग टूल) ट्रिगर हो गया जिसने आकलन किया कि कंटेंट संभावित रूप से खतरनाक लोग और संगठन पॉलिसी का उल्लंघन करता है और उसे ह्यूमन रिव्यू के लिए भेज दिया. उर्दू बोलने वाले रिव्यूअर ने तय किया कि कंटेंट, खतरनाक लोग और संगठन पॉलिसी का उल्लंघन करता है और उसने पोस्ट करने के दिन ही कंटेंट को हटा दिया. Meta ने बताया कि ऐसा इसलिए हुआ था क्योंकि उसमें चिह्नित संगठन की “प्रशंसा” की गई थी. तालिबान, Meta की खतरनाक लोग और संगठन पॉलिसी में टियर 1 का चिह्नित आतंकी संगठन है. उल्लंघन के परिणामस्वरूप, Meta ने पेज के एडमिन के खिलाफ़ गंभीर स्ट्राइक और स्टैंडर्ड स्ट्राइक, दोनों भी लगाई. सामान्य तौर पर, Facebook पेज पर पोस्ट किया गया कंटेंट खुद पेज से (उदाहरण के लिए, न्यूज़ आउटलेट) से आया लग रहा था, लेकिन उन्हें पेज के एडमिन द्वारा निजी Facebook अकाउंट से लिखा गया था. स्ट्राइक के कारण Meta, प्लेटफ़ॉर्म पर कुछ ज़रूरी काम करने की यूज़र्स की योग्यता को कुछ समय के लिए रोक देता है (जैसे कि कंटेंट शेयर करना), जिसे “फ़ीचर सीमाएँ” या अकाउंट को अक्षम करना कहा जाता है. गंभीर स्ट्राइक के कारण कठोर पेनल्टी लगती है. इस केस में, स्ट्राइक के कारण पेज के एडमिन पर तीन दिन की और एक अतिरिक्त, लंबी फ़ीचर सीमा लगाई गई. पहले वाली ने यूज़र को नया सार्वजनिक कंटेंट बनाने और Messenger रूम बनाने या उनमें शामिल होने से रोक दिया. बाद वाली ने यूज़र को Facebook पर लाइव जाने, विज्ञापन प्रोडक्ट का उपयोग करने और Messenger रूम बनाने और उनसे जुड़ने से रोक दिया. इसके अलावा, न्यूज़ आउटलेट के पेज को भी एक स्टैंडर्ड स्ट्राइक और एक गंभीर स्ट्राइक मिली.
जनवरी 21 को, न्यूज़ आउटलेट पेज (“यूज़र”) के यूज़र ने Meta को कंटेंट हटाए जाने के खिलाफ़ अपील की. कंटेंट का रिव्यू उर्दू बोलने वाले एक अन्य रिव्यूअर ने किया और उसने भी पाया कि कंटेंट ने खतरनाक लोग और संगठन के कम्युनिटी स्टैंडर्ड का उल्लंघन किया है. कंटेंट को तब “गलत परिणाम” वाली गलतियों (ऐसा कंटेंट जिसपर कम्युनिटी स्टैंडर्ड का उल्लंघन करने के लिए गलत एक्शन ली गई) की पहचान करने और उन्हें पलटने वाली कतार में डाल दिया गया था, जिसे हाई इंपेक्ट फ़ाल्स पॉजिटिव ओवरराइड (HIPO) के रूप में जाना जाता है, लेकिन उसका कोई अतिरिक्त रिव्यू नहीं हुआ. Meta के अनुसार, ऐसा इसलिए हुआ क्योंकि 2022 के मध्य में HIPO में उर्दू बोलने वाले रिव्यूअर्स की संख्या कम थी और इस केस के कंटेंट को, उसे हटाए जाने के बाद, Meta के ऑटोमेटेड सिस्टम द्वारा HIPO कतार में उस समय उतना ज़्यादा प्राथमिकता स्कोर नहीं दिया गया था जितना अन्य कंटेंट को दिया गया था.
यूज़र द्वारा रिव्यू की अपील को बोर्ड द्वारा चुने जाने के बाद, Meta ने पाया कि इसे हटाने का उसका मूल फ़ैसला एक गलती थी क्योंकि उसके कम्युनिटी स्टैंडर्ड चिह्नित संगठनों और व्यक्तियों की “रिपोर्टिंग” की परमिशन देते हैं. इसके बाद 25 फ़रवरी 2022 को, Meta ने कंटेंट को बहाल कर दिया. Meta ने फ़ीचर पर लगाई गई लंबी रोक भी वापस ले ली और एडमिन अकाउंट और पेज पर लगाई गई स्ट्राइक भी वापस ले ली.
3. ओवरसाइट बोर्ड की अथॉरिटी और स्कोप
बोर्ड को उस यूज़र के अपील करने के बाद Meta के फ़ैसले का रिव्यू करने का अधिकार है, जिसका कंटेंट हटा दिया गया था (चार्टर अनुच्छेद 2, सेक्शन 1; उपनियम अनुच्छेद 3, सेक्शन 1). बोर्ड Meta के फ़ैसले को कायम रख सकता है या उसे बदल सकता है (चार्टर अनुच्छेद 3, सेक्शन 5) और उसका फ़ैसला कंपनी पर बाध्यकारी होता है (चार्टर अनुच्छेद 4). Meta को मिलते-जुलते संदर्भ वाले समान कंटेंट पर अपने फ़ैसले को लागू करने की संभावना का भी आकलन करना चाहिए (चार्टर अनुच्छेद 4). बोर्ड के फ़ैसलों में गैर-बाध्यकारी सलाहों के साथ पॉलिसी से जुड़े सुझाव हो सकते हैं, जिन पर Meta को जवाब देना होगा (चार्टर अनुच्छेद 3, सेक्शन 4; अनुच्छेद 4).
4. अथॉरिटी के सोर्स
ओवरसाइट बोर्ड ने इन अधिकारों और स्टैंडर्ड पर विचार किया:
I. ओवरसाइट बोर्ड के फ़ैसले:
ओवरसाइट बोर्ड के पुराने प्रासंगिक फ़ैसलों में ये शामिल हैं:
- “अल जज़ीरा की शेयर की गई पोस्ट ” (2021-009-FB-UA केस का फ़ैसला): बोर्ड ने सुझाव दिया कि Meta, पॉलिसी की नीचे बताई गई छूट के लिए अपने खतरनाक लोग और संगठन कम्युनिटी स्टैंडर्ड में सार्वजनिक शर्तें और उदाहरण शामिल करें: “निष्पक्ष फ़ैसले”; “रिपोर्टिंग”; और “निंदा.”
- “ओजलान का एकांतवास” (2021-006-IG-UA केस का फ़ैसला): बोर्ड ने सुझाव दिया कि Meta, लोगों को दिखाई देने वाले खतरनाक लोग और संगठन कम्युनिटी स्टैंडर्ड में यह स्पष्ट करे कि पोस्ट करते समय लोग अपने इरादे कैसे स्पष्ट कर सकते हैं. उसने ये सुझाव दोहराए कि Meta, चिह्नित लोगों और संगठनों की पूरी लिस्ट या व्याख्यात्मक लिस्ट प्रकट करे. बोर्ड ने खतरनाक लोग और संगठन की प्रशंसा और समर्थन करने पर अपने प्रतिबंध एन्फ़ोर्स करने के बारे में एरर रेट की विस्तृत ट्रांसपेरेंसी रिपोर्ट भी बुलवाई, जो क्षेत्र और भाषा के अनुसार बँटी हुई हो.
- “भारत में RSS पर पंजाबी चिंता” (2021-003-FB-UA केस का फ़ैसला): बोर्ड ने सुझाव दिया कि Meta को अपने कम्युनिटी स्टैंडर्ड को अपने यूज़र्स द्वारा बड़े पैमाने पर बोली जाने वाली सभी भाषाओं में उपलब्ध करवाने का लक्ष्य रखना चाहिए. बोर्ड ने यह भी चिंता जताई कि इस तरह के प्रतिबंधों से जुड़े Meta के नियम कई अलग-अलग जगहों पर हैं और सारे नियम कम्युनिटी स्टैंडर्ड में नहीं मिलते हैं, जबकि ये एक जगह पर मिलने चाहिए.
- “नाज़ी उद्धरण” (2020-005-FB-UA केस का फ़ैसला): बोर्ड ने सुझाव दिया कि Meta, खतरनाक लोग और संगठन पर कम्युनिटी स्टैंडर्ड में “प्रशंसा,” “समर्थन” और “प्रतिनिधित्व” के बारे में उदाहरण शामिल करे.
II. Meta की कंटेंट पॉलिसी:
खतरनाक लोग और संगठन से जुड़े कम्युनिटी स्टैंडर्ड में बताया गया है कि Facebook “ऐसे किसी भी संगठन या व्यक्ति को Facebook पर मौजूद रहने की परमिशन नहीं देता है जो किसी हिंसक मिशन की घोषणा करता है या हिंसा में शामिल होता है.”
Meta “खतरनाक” एंटिटी को तीन टियर में चिह्नित करता है जो “कंटेंट एन्फ़ोर्समेंट के लेवल को दर्शाते हैं. टियर 1 में सबसे व्यापक एन्फ़ोर्समेंट लागू होता है क्योंकि Meta का मानना है कि इन एंटिटी का ऑफ़लाइन नुकसान से सबसे सीधा संबंध होता है.” टियर 1 में ऐसी एंटिटी होती हैं जो “सबसे गंभीर ऑफ़लाइन नुकसान” में शामिल होती हैं. इसमें “आतंकवादी, नफ़रत फैलाने वाले और आपराधिक संगठन” शामिल हैं. Meta, टियर 1 की एंटिटी की “प्रशंसा”, “वास्तविक समर्थन” और “प्रतिनिधित्व” के साथ-साथ इनके लीडर, संस्थापकों और प्रमुख मेंबर्स को भी हटा देता है. Meta के पास तालिबान का नाम टियर 1 की एंटिटी लिस्ट में है.
कम्युनिटी स्टैंडर्ड में “प्रशंसा” को इस तरह परिभाषित किया गया है: "चिह्नित एंटिटी या घटना के बारे में सकारात्मक बातें करना"; "किसी चिह्नित एंटिटी या घटना को उपलब्धि के रूप में दिखाना"; "चिह्नित संगठन के उद्देश्य को सही बताने के लिए यह क्लेम करना कि उनका नफ़रत फैलाने वाला, हिंसक या आपराधिक आचरण कानूनी या नैतिक या अन्य किसी तरीके से उचित या स्वीकार्य है" ; या "खुद को ऐसे किसी चिह्नित संगठन या घटना के साथ वैचारिक रूप से जोड़ना."
Meta मानता है कि “यूज़र्स ऐसा कंटेंट शेयर कर सकते हैं जिसमें चिह्नित खतरनाक संगठनों और व्यक्तियों की रिपोर्ट करने, उनकी निंदा करने या उनकी या उनके कामों की निष्पक्षता से चर्चा करने वाले रेफ़रेंस शामिल हो सकते हैं.” Meta कहता है कि उसकी पॉलिसी इस तरह बनाई गई हैं जो “ऐसी चर्चाओं के लिए जगह देती हैं लेकिन साथ ही संभावित ऑफ़लाइन नुकसान का जोखिम भी कम करती हैं.” हालाँकि, Meta यह ज़रूरी बनाता है कि “ऐसा कंटेंट बनाते या शेयर करते समय लोग अपना इरादा स्पष्ट रूप से बताएँ. अगर यूज़र का इरादा संदिग्ध या अस्पष्ट है, तो हम कंटेंट को सीधे हटा ही देते हैं.”
III. Meta की वैल्यू:
इनमें “वॉइस” की वैल्यू को “सर्वोपरि” बताया गया है:
हमारे कम्युनिटी स्टैंडर्ड का लक्ष्य लोगों को खुलकर अपनी बात कहने का प्लेटफ़ॉर्म देना और अभिव्यक्ति की आज़ादी सुनिश्चित करना है. Meta चाहता है कि लोग महत्वपूर्ण मुद्दों पर खुलकर बातें कर सकें, भले ही कुछ लोग उन बातों पर असहमति जताएँ या उन्हें ये बातें आपत्तिजनक लगें.
Facebook "अभिव्यक्ति” को चार वैल्यू के मामले में सीमित करता है. इस केस में “सुरक्षा” सबसे प्रासंगिक है:
हम Facebook को एक सुरक्षित जगह बनाने के लिए प्रतिबद्ध हैं. हम ऐसे कंटेंट हो हटा देते हैं, जो लोगों की शारीरिक सुरक्षा को नुकसान पहुँचाने का जोखिम बढ़ा सकता है. लोगों को धमकाने वाले कंटेंट से लोगों में डर, अलगाव या चुप रहने की भावना आ सकती है और इसलिए Facebook पर ऐसा कंटेंट पोस्ट करने की परमिशन नहीं है.
IV. अंतरराष्ट्रीय मानवाधिकार स्टैंडर्ड:
बिज़नेस और मानवाधिकारों के बारे में संयुक्त राष्ट्र संघ के मार्गदर्शक सिद्धांत (UNGP), जिन्हें 2011 में संयुक्त राष्ट्र संघ की मानवाधिकार समिति ने स्वीकृति दी है, प्राइवेट बिज़नेस की मानवाधिकार से जुड़ी ज़िम्मेदारियों का स्वैच्छिक ढाँचा तैयार करते हैं. 2021 में Meta ने मानवाधिकारों से जुड़ी अपनी कॉर्पोरेट पॉलिसी की घोषणा की, जिसमें उसने UNGP के अनुसार मानवाधिकारों का ध्यान रखने की अपनी प्रतिज्ञा को दोहराया. इस केस में बोर्ड ने Meta की मानवाधिकार से जुड़ी ज़िम्मेदारियों का विश्लेषण इन मानवाधिकार स्टैंडर्ड को ध्यान में रखते हुए किया.
- विचार और अभिव्यक्ति की आज़ादी का अधिकार: अनुच्छेद 19, नागरिक और राजनीतिक अधिकारों पर अंतरराष्ट्रीय प्रतिज्ञापत्र ( ICCPR); मानवाधिकार समिति, सामान्य कमेंट संख्या 34, (2011); मानवाधिकार समिति, पत्रकारों की सुरक्षा का संकल्प, A/HRC/RES/45/18, 2020; सूचना की आज़ादी पर UNESCO ब्रिस्बेन घोषणा: जानकारी पाने का अधिकार; विचार और अभिव्यक्ति की स्वतंत्रता पर संयुक्त राष्ट्र का विशेष रैपर्टर, A/74/486, 2019.
- शिक्षा का अधिकार: अनुच्छेद 13, आर्थिक, सामाजिक और सांस्कृतिक अधिकारों पर अंतरराष्ट्रीय प्रतिज्ञापत्र; अनुच्छेद 10, महिलाओं के विरूद्ध सभी स्वरूपों के भेदभाव के निवारण संबंधी सम्मेलन;बच्चों के अधिकारों के सम्मेलन का अनुच्छेद 28-29; UNESCO का शिक्षा में भेदभाव संबंधी सम्मेलन, 1960.
- भेदभाव न किए जाने का अधिकार: ICCPR अनुच्छेद 2 और 26.
- जीवन का अधिकार: ICCPR अनुच्छेद 6; मानवाधिकार समिति, सामान्य कमेंट संख्या 36, 2018.
- व्यक्ति की सुरक्षा का अधिकार: ICCPR अनुच्छेद 9; जैसे कि इसकी व्याख्या सामान्य कमेंट सं. 35, पैरा. 9, मानवाधिकार समिति, 2014 में की गई है.
5. यूज़र सबमिशन
बोर्ड को दिए गए अपने बयान में यूज़र ने कहा कि वे मीडिया संगठन के एक प्रतिनिधि हैं और कट्टरता का समर्थन नहीं करते हैं. यूज़र ने कहा कि उनके लेख राष्ट्रीय और अंतरराष्ट्रीय मीडिया स्रोतों पर आधारित होते हैं और यह कंटेंट अफ़गानिस्तान में महिलाओं और लड़कियों की शिक्षा के बारे में जानकारी देने के लिए शेयर किया गया था. इसके अलावा, यूज़र ने कहा कि वे हमेशा यह सुनिश्चित करते हैं कि उनके द्वारा शेयर किया जाने वाला कंटेंट जनहित में हो और Meta के कम्युनिटी स्टैंडर्ड के तहत स्वीकार्य हो.
6. Meta के सबमिशन
अपने मूल फ़ैसले की फिर से जाँच करने पर Meta ने फ़ैसला किया कि इस केस में कंटेंट को हटाया नहीं जाना चाहिए था क्योंकि वह खतरनाक लोग और संगठन पॉलिसी के तहत चिह्नित संगठन की प्रशंसा नहीं करता है. Meta ने बताया कि कंटेंट के न्यूज़ से जुड़े संदर्भ के कारण उसे पॉलिसी की वह छूट दी जानी चाहिए थी जिसमें यूज़र्स को चिह्नित एंटिटी की रिपोर्टिंग करने की परमिशन है.
Meta ने बताया कि पोस्ट और लिंक किए गए आर्टिकल में स्कूल के फिर से खुलने की तारीख और जानकारी थी जो जनहित का विषय है. Meta के अनुसार, खतरनाक लोग और संगठन पॉलिसी में ऐसी न्यूज़ रिपोर्टिंग की परमिशन है जिसमें चिह्नित एंटिटी का उल्लेख होता है. Meta ने यह स्पष्ट किया कि खतरनाक लोग और संगठन पॉलिसी से जुड़ी छूट का लाभ देने के लिए “यह ज़रूरी है कि लोग अपना इरादा स्पष्ट रूप से बताएँ. अगर यूज़र का इरादा संदिग्ध या अस्पष्ट है, तो हम कंटेंट को सीधे हटा ही देते हैं.” Meta ने यह भी बताया कि वह चाहता है कि उसके रिव्यूअर इरादे का अनुमान न लगाएँ क्योंकि वह “कंटेंट का रिव्यू करते समय व्यक्तिपरकता, पक्षपात और असमान एन्फ़ोर्समेंट को कम करने और हमारी पॉलिसी की स्केलिबिलिटी बनाए रखने में मदद करता है.”
Meta ने बोर्ड को बताया कि वह यह समझा पाने में असमर्थ है कि दो ह्यूमन रिव्यूअर ने गलत तरीके से कंटेंट को क्यों हटा दिया और रिपोर्टिंग की छूट का उचित उपयोग क्यों नहीं किया. कंपनी ने कहा कि मॉडरेटर्स के लिए उनके रिव्यू के भाग के रूप में कंटेंट को वर्गीकृत करने के अलावा उनके फ़ैसले का कारण लिखना ज़रूरी नहीं है — इस केस में, Meta की खतरनाक लोग और संगठन पॉलिसी के प्रशंसा के आधार पर उल्लंघन के रूप में.
बोर्ड के इस सवाल के जवाब में कि क्या न्यूज़ रिपोर्टिंग के भाग के रूप में खतरनाक संगठनों की प्रशंसा हो सकती है, Meta ने कहा कि उसकी पॉलिसी में “ऐसी न्यूज़ रिपोर्टिंग की परमिशन है जिसमें एक या ज़्यादा व्यक्ति किसी चिह्नित खतरनाक व्यक्ति या एंटिटी की प्रशंसा कर सकते हैं.”
स्टैंडर्ड और गंभीर स्ट्राइक में अंतर के बारे में बोर्ड के सवाल का जवाब देते हुए, Meta ने कहा कि स्ट्राइक सिस्टम में कम्युनिटी स्टैंडर्ड के दो ट्रैक शामिल हैं: पहला सभी तरह के उल्लंघनों पर लागू होता है (स्टैंडर्ड) और दूसरा सबसे बुरे उल्लंघनों पर लागू होता है (गंभीर). Meta ने कहा कि खतरनाक लोग और संगठन पॉलिसी के सभी उल्लंघनों को गंभीर माना जाता है. कंपनी ने बोर्ड को बताया कि गंभीर स्ट्राइक वह होती है जिसमें ज़्यादा गंभीर नुकसानों को देखते हुए ज़्यादा कठोर पेनल्टी लगाई जाती हैं और जिसमें Facebook Live Video और विज्ञापनों जैसे अधिक जोखिम वाली सेवाओं की एक्सेस बंद कर दी जाती है. Meta ने “अकाउंट को प्रतिबंधित करने” के बारे में अपने ट्रांसपेरेंसी सेंटर के एक पेज (11 फ़रवरी 2022 को अपडेट किया गया) का रेफ़रेंस भी दिया जहाँ उसके अनुसार स्ट्राइक के प्रति उसका नज़रिया बताया गया है.
बोर्ड के सवाल के जवाब में, Meta ने एन्फ़ोर्समेंट की अपनी गलतियों को ठीक करने के सिस्टम की ज़्यादा जानकारी दी और बताया कि इस केस में उनका क्या असर पड़ा. इसके बाद बोर्ड ने कई और सवाल पूछे. इस केस में कंटेंट का अपने आप पता लगाया गया और उसे हाई इंपैक्ट फ़ाल्स पॉज़िटिव ओवरराइड (जिसे Meta द्वारा HIPO कहा जाता है) चैनल पर भेजा गया. यह सिस्टम, कंटेंट पर एक्शन ले लिए जाने के बाद संभावित फ़ाल्स पॉज़िटिव गलतियों को ठीक करने के लिए बनाया गया है. Meta ने स्पष्ट किया कि यह सिस्टम Meta के सामान्य द्वितीयक रिव्यू सिस्टम (क्रॉस-चेक प्रोग्राम का भाग) से अलग है, जिसे कंटेंट पर एक्शन लिए जाने से पहले फ़ाल्स पॉज़िटिव गलतियों को रोकने के लिए बनाया गया है. HIPO चैनल पर भेजा गया कंटेंट, अतिरिक्त रिव्यू की कतार में शामिल हो जाता है, लेकिन रिव्यू सिर्फ़ तभी किया जाता है जब उसकी क्षमता उपलब्ध हो. कतार में कंटेंट की स्थिति, कंटेंट को अपने आप असाइन किए गए प्राथमिकता स्कोर पर निर्भर होती है. Meta ने बताया कि कंटेंट की HIPO रिव्यू के लिए प्राथमिकता इन बातों सहित कई बातों के आधार पर तय की जाती है: विषय की संवेदनशीलता (क्या विषय ट्रेंड कर रहा है या संवेदनशील है); फ़ाल्स पॉज़िटिव होने की संभावना; अनुमानित पहुँच (कंटेंट को मिल सकने वाले अनुमानित व्यू की संख्या); और एंटिटी की संवेदनशीलता (कंटेंट को शेयर करने वाले ग्रुप या यूज़र की पहचान). Meta ने बताया कि कंटेंट को दो तरह से बहाल किया जा सकता है: या तो कंटेंट के उस विशिष्ट हिस्से को मॉडरेटर्स द्वारा रिव्यू किया जाए और उल्लंघन न करने वाला पाया जाए; या Meta के ऑटोमेटेड सिस्टम यह पाएँ कि कंटेंट ऐसे अन्य कंटेंट की तरह है जिनका रिव्यू हो चुका है और जिन्हें उल्लंघन न करने वाला पाया गया है.
न्यूज़ आउटलेट का पेज पहले क्रॉस-चेक का विषय था, लेकिन क्रॉस-चेक सिस्टम के प्लेटफ़ॉर्म व्यापी अपडेट के भाग के रूप में, पेज उस समय क्रॉस-चेक के अधीन नहीं था जब कंटेंट का रिव्यू किया गया था और क्रॉस-चेक से केस के कंटेंट के रिव्यू पर कोई असर नहीं पड़ा. Meta के अनुसार, क्रॉस-चेक में अभी दो सिस्टम शामिल हैं: सामान्य द्वितीयक रिव्यू, Facebook और Instagram के सभी ऑर्गेनिक कंटेंट पर लागू होता है; अर्ली रिस्पॉन्स सेकेंडरी रिव्यू, ख़ास लिस्टेड एंटिटी द्वारा पोस्ट किए गए सभी कंटेंट पर लागू होता है, जिसमें कुछ न्यूज़ आउटलेट शामिल हैं. Meta ने कहा कि जब इन ख़ास एंटिटी के कंटेंट को किसी कंटेंट पॉलिसी का उल्लंघन करने वाला पाया जाता है, तो उसे एन्फ़ोर्स करने के बजाय अतिरिक्त रिव्यू के लिए भेज दिया जाता है. पहले उसे Meta की मार्केट टीम को भेजा जाता है. अगर इस टीम का रिव्यूअर पाता है कि कंटेंट उल्लंघन नहीं करता है, तो प्रोसेस खत्म हो जाती है और कंटेंट प्लेटफ़ॉर्म पर बना रहता है. हालाँकि, अगर इस टीम का रिव्यूअर पाता है कि कंटेंट उल्लंघन करता है, तो उसे दूसरी टीम को एस्केलेट कर दिया जाता है. इस टीम, जिसे अर्ली रिस्पॉन्स टीम कहा जाता है, में Meta के विशेषज्ञ कंटेंट रिव्यूअर होते हैं. कंटेंट को हटाए जाने से पहले, यह ज़रूरी होता है कि इस टीम का कोई रिव्यूअर उसे उल्लंघन करने वाला पाए.
जिस समय इस केस के कंटेंट को उल्लंघन करने वाला पाया गया था, तब न्यूज़ आउटलेट का पेज, मौजूदा क्रॉस-चेक सिस्टम की अर्ली रिस्पॉन्स सेकेंडरी रिव्यू लिस्ट में नहीं था. इसके अलावा, केस का विचाराधीन कंटेंट, जनरल सेकेंडरी रिव्यू सिस्टम के भाग के रूप में रिव्यू नहीं किया गया था, जिसमें भी एन्फ़ोर्समेंट के पहले अतिरिक्त रिव्यू की ज़रूरत होगी. Meta के अनुसार, कंटेंट को हटा दिए जाने के बाद उसे HIPO चैनल को भेजा गया था, लेकिन उसे ह्यूमन रिव्यू के लिए प्राथमिकता नहीं दी गई थी. “मार्केट को आवंटित की गई कैपेसिटी के कारण” और Meta के ऑटोमेटेड सिस्टम द्वारा इस केस के कंटेंट को HIPO कतार में उस समय मौजूद अन्य कंटेंट जितना ज़्यादा प्राथमिकता स्कोर न दिए जाने के कारण उसका अतिरिक्त ह्यूमन रिव्यू नहीं हुआ. HIPO द्वारा प्राथमिकता दिए गए कंटेंट का आउटसोर्स किए गए रिव्यूअर द्वारा एन्फ़ोर्समेंट एक्शन लिए जाने के बाद ही रिव्यू किया जाता है. Meta ज़रूरत के अनुसार उर्दू रिव्यूअर्स को अलग-अलग वर्कफ़्लो में आवंटित करता है. इन रिव्यूअर्स को कई रिव्यू प्रकारों के बीच शेयर किया जाता है, जिसका अर्थ है कि वे एक ही वर्कफ़्लो पर काम नहीं करते. 2022 के मध्य में Meta के HIPO वर्कफ़्लो में उस समय की ज़रूरत के अनुसार 50 से कम उर्दू रिव्यूअर थे.
बोर्ड ने Meta से 34 सवाल पूछे. Meta ने 30 का जवाब पूरी तरह दिया, तीन का जवाब आंशिक रूप से दिया और एक का जवाब देने से मना कर दिया. इन सवालों के आंशिक जवाब दिए गए थे: खतरनाक लोग और संगठन पॉलिसी के तहत हटाए गए ऐसे कंटेंट का प्रतिशत देना जिसे अपील या दूसरे रिव्यू के बाद बहाल कर दिया गया; प्रशंसा पर प्रतिबंध के एन्फ़ोर्समेंट में सटीकता की दर और बड़े पैमाने पर रिव्यू में दिया जाने वाला सपोर्ट; और रिपोर्टिंग की छूट और लागू होने वाले संदर्भात्मक कारकों के लिए Meta किस तरह इरादा निर्धारित करता है. Meta ने इस आधार पर ऑटोमेशन और ह्यूमन रिव्यू के बाद हटाए गए खतरनाक लोग और संगठन कंटेंट की मात्रा का डेटा देने के सवाल का जवाब देने से मना कर दिया कि वह उपलब्ध समय में माँगे गए डेटा को वेरिफ़ाई नहीं कर पाया.
7. पब्लिक कमेंट
इस केस के संबंध में, ओवरसाइट बोर्ड को लोगों की ओर से छह कमेंट मिले जिनपर विचार किया गया. एक कमेंट एशिया पैसिफ़िक और ओशियानिया, चार यूरोप और एक कमेंट अमेरिका और कनाडा से सबमिट किए गए थे.
सबमिशन में अफ़गानिस्तान में या उसके आसपास रह रहे लोगों के लिए सोशल मीडिया की एक्सेस के महत्व की बात कही गई थी, चिह्नित ग्रुप की चर्चा पर सीमाओं पर चिंता जताई गई थी और तालिबान के एक्शन की मीडिया रिपोर्टिंग की ज़्यादा मात्रा को परमिशन देने का जनहित बताया गया था. कई सार्वजनिक कमेंट में यह तर्क दिया गया था कि Meta की खतरनाक लोग और संगठन पॉलिसी के प्रशंसा और सपोर्ट के बारे में अस्पष्ट शर्तों पर निर्भर होने के कारण महत्वपूर्ण राजनैतिक चर्चाएँ दब सकती हैं और इसका अल्पसंख्यक कम्युनिटी और ग्लोबल साउथ पर अनुचित असर पड़ सकता है. सार्वजनिक कमेंट में Meta की इस बात के लिए भी आलोचना की गई थी कि वह चिह्नित ग्रुप की “प्रशंसा” को प्रतिबंधित करने के लिए अमेरिकी कानून का “बहाना” ले रहा है, जबकि उसे इस बारे में पारदर्शी होना चाहिए कि यह Meta की पॉलिसी है जो अमेरिकी कानून की ज़रूरत से ज़्यादा अभिव्यक्ति को प्रतिबंधित करती है.
इस केस को लेकर लोगों की ओर से सबमिट किए गए कमेंट देखने के लिए कृपया यहाँ क्लिक करें.
8. ओवरसाइट बोर्ड का विश्लेषण
यह केस महत्वपूर्ण है क्योंकि यह बताता है कि किस तरह प्रशंसा की परिभाषा स्पष्ट न होने के कारण किस तरह रिव्यूअर्स और यूज़र्स के लिए अनिश्चितता की स्थिति बनी. इसमें कंटेंट मॉडरेशन की महत्वपूर्ण समस्याओं पर भी विचार किया गया है क्योंकि वह लिंगभेद और संघर्ष पर लागू होता है. यह केस कठिन है क्योंकि इसमें यह सुनिश्चित करने का हित है कि आतंकी संगठन या उनके समर्थक, प्लेटफ़ॉर्म का उपयोग दुष्प्रचार करने और लोगों को भर्ती करने के लिए न करें. हालाँकि, इस हित को व्यापक तौर पर लागू किए जाने पर इन ग्रुप की रिपोर्टिंग से जुड़े सभी तरह के कंटेंट को सेंसर किया जा सकता है. बोर्ड ने इस सवाल पर विचार किया कि क्या इस कंटेंट को रीस्टोर किया जाना चाहिए और कंटेंट पर मॉडरेशन के Meta के तरीके की सामान्य जटिलताओं पर इन तीन नज़रियों से विचार किया: Meta की कंटेंट पॉलिसी, कंपनी की वैल्यू और मानवाधिकारों से जुड़ी उसकी ज़िम्मेदारियाँ.
8.1 Meta की कंटेंट पॉलिसी का अनुपालन
I. कंटेंट नियम
बोर्ड ने पाया कि कंटेंट उस छूट के तहत आता है जिसमें “यूज़र्स ऐसा कंटेंट शेयर कर सकते हैं जिसमें चिह्नित खतरनाक संगठनों की या उनकी एक्टिविटी की रिपोर्टिंग के रेफ़रेंस शामिल होते हैं” और इसलिए यह कंटेंट उल्लंघन नहीं करता है. सार्वजनिक रूप से दिखाई देने वाले कम्युनिटी स्टैंडर्ड में दी गई प्रशंसा की व्यापक परिभाषा के बावजूद भी यह कंटेंट उल्लंघन नहीं करता है, भले ही कंटेंट को चिह्नित एंटिटी अर्थात तालिबान की एक्शन के बारे में सकारात्मक बातें करने वाला समझा जाए और भले ही उससे तालिबान की एक “उपलब्धि दिखाई दे.” बोर्ड ने कहा कि प्रशंसा को समझने के लिए मॉडरेटर्स को दिया गया ज्ञात सवाल मार्गदर्शन और भी व्यापक है. इसमें रिव्यूअर्स से प्रशंसा के कारण उस कंटेंट को हटाने के लिए कहा गया है जिसके कारण लोग किसी चिह्नित ग्रुप के बारे में सकारात्मक सोचें. इसमें “प्रशंसा” को लेकर स्पीकर के इरादे पर कम ध्यान दिया जाता है और ऑडियंस पर असर की ज़्यादा चिंता की जाती है. किसी चिह्नित एंटिटी के महिलाओं और लड़कियों को शिक्षा का अधिकार देने के क्लेम की रिपोर्टिंग, भले ही ऐसे क्लेम कितने भी संदिग्ध हों, से लोग उस ग्रुप के बारे में सकारात्मक सोच सकते हैं. रिव्यूअर्स को दिए गए निर्देशों को देखते हुए, बोर्ड यह समझता है कि दो ह्यूमन रिव्यूअर्स ने कंटेंट को (गलती से) प्रशंसा क्यों समझा.
बोर्ड यह स्वीकार करता है कि Meta का इरादा खतरनाक लोग और संगठन के अपने कम्युनिटी स्टैंडर्ड में उन एंटिटी की रिपोर्टिंग की परमिशन देना है जिन्हें Meta ने खतरनाक के रूप में चिह्नित किया है, भले ही इस तरह की रिपोर्टिंग प्रशंसा की कंपनी की परिभाषा के तहत आती हो. हालाँकि, बोर्ड यह नहीं मानता कि कम्युनिटी स्टैंडर्ड या ज्ञात सवालों की भाषा उस परिभाषा को स्पष्ट करती है. वास्तविकता में, अगर विशिष्ट जानकारी नहीं दी जाती है, तो “प्रशंसा” का अर्थ व्यापक हो सकता है. कम्युनिटी स्टैंडर्ड में ऐसा कोई उदाहरण नहीं दिया गया है जो बताए कि स्वीकार्य रिपोर्टिंग में कौन सा कंटेंट शामिल होगा. मॉडरेटर्स को ऐसा कोई आंतरिक मार्गदर्शन नहीं दिया गया है कि इस छूट को किस तरह समझा जाए.
II. एन्फ़ोर्समेंट एक्शन
बोर्ड ने ध्यान दिया गया इस केस में मॉडरेशन की एक्शन तब शुरू हुई जब यूज़र ने रिपोर्ट करना शुरू किया, लेकिन रिपोर्ट कभी पूरी नहीं की. प्रोसेस शुरू होने पर ऑटोमेटेड सिस्टम ट्रिगर हुआ, भले ही यूज़र ने रिपोर्ट पूरी नहीं की और इसलिए कंटेंट को ह्यूमन रिव्यू की कतार में डाल दिया गया. रिपोर्ट करने वाले यूज़र को इस बात की जानकारी नहीं दी गई थी कि उनके एक्शन से अन्य सिस्टम ट्रिगर हो सकते हैं भले ही वे रिपोर्ट को पूरा न करना चुनते हैं, लेकिन यूज़र को इस बात की जानकारी दी जाती है कि अगर वे रिपोर्ट सबमिट करते हैं तो क्या होगा. Meta ने अपने जवाब में यह तर्क दिया कि “ऑटोमेटेड रिपोर्ट को [रिपोर्ट करने वाले] यूज़र” से जोड़ा नहीं जाता, लेकिन बोर्ड ने इस बात को ध्यान देने योग्य पाया कि यूज़र द्वारा रिपोर्ट की शुरुआत होने के साथ ही इस केस में पूरी प्रोसेस शुरू हुई. इसके अलावा, बोर्ड इस बात से चिंतित है कि रिपोर्ट करने वाला बटन, यूज़र्स को इस बात की पर्याप्त जानकारी नहीं देता कि उसे क्लिक करने के क्या परिणाम होंगे.
इस केस में लिए गए एन्फ़ोर्समेंट एक्शन (कंटेंट को हटाना, स्ट्राइक और फ़ीचर पर रोक) लागू नहीं किए जाने चाहिए थे क्योंकि कम्युनिटी स्टैंडर्ड का कोई अंतर्निहित उल्लंघन नहीं हुआ था. बोर्ड इस बात से चिंतित है कि इस तरह की एन्फ़ोर्समेंट गलतियों को रोकने के Meta के सिस्टम असरदार नहीं हैं, खास तौर पर लगाए गए प्रतिबंधों की गंभीरता को देखते हुए.
इस केस में बोर्ड ने कहा कि न्यूज़ आउटलेट का पेज पहले क्रॉस-चेक का विषय था, लेकिन क्रॉस-चेक सिस्टम के प्लेटफ़ॉर्म व्यापी अपडेट के भाग के रूप में, पेज उस समय क्रॉस-चेक के अधीन नहीं था जब कंटेंट का रिव्यू किया गया था और क्रॉस-चेक से केस के कंटेंट के रिव्यू पर कोई असर नहीं पड़ा. Meta के मौजूदा क्रॉस-चेक सिस्टम में, अर्ली रिस्पॉन्स सेकेंडरी रिव्यू लिस्ट में मौजूद यूज़र्स के दूसरे ह्यूमन रिव्यू की गारंटी होती है. भले ही कुछ न्यूज़ आउटलेट के Facebook पेज उस लिस्ट में हैं, लेकिन यह पेज उस लिस्ट में नहीं है. अर्ली रिस्पॉन्स सेकेंडरी रिव्यू लिस्ट में होना भी इस बात की गारंटी है कि Meta के कर्मचारी, ना कि बड़े पैमाने पर मौजूद रिव्यूअर, इस कंटेंट को हटाए जाने से पहले उसका रिव्यू करेंगे. बोर्ड के अनुसार इस बात की संभावना नहीं है कि अगर पेज उस समय अर्ली रिस्पॉन्स सेकेंडरी रिव्यू लिस्ट में होता, तो इस कंटेंट को हटा दिया जाता.
बोर्ड ने HIPO सिस्टम बनाने के लिए Meta की सराहना की लेकिन इस बात पर चिंता जताई कि इससे पोस्ट का दूसरा रिव्यू ट्रिगर नहीं हुआ जो Meta के कम्युनिटी स्टैंडर्ड का पालन करती थी. “मार्केट को आवंटित की गई कैपेसिटी के कारण” और Meta के ऑटोमेटेड सिस्टम द्वारा इस केस के कंटेंट को HIPO कतार में उस समय मौजूद अन्य कंटेंट जितना ज़्यादा प्राथमिकता स्कोर न दिए जाने के कारण कंटेंट का अतिरिक्त ह्यूमन रिव्यू नहीं हुआ. इस केस में रिपोर्टिंग की जनहित प्रकृति और पेज की कंटेंट को पोस्ट करने वाले न्यूज़ आउटलेट के रूप में पहचान को देखते हुए, इसे इतना स्कोर मिलना चाहिए था जिससे इसका अतिरिक्त किया जाता. जैसा कि Meta ने बताया, “एंटिटी की संवेदनशीलता” में पोस्ट करने वाली एंटिटी की पहचान पर विचार किया जाता है और इस कारण न्यूज़ आउटलेट द्वारा पोस्ट किए गए कंटेंट को ज़्यादा रैंकिंग मिल सकती है, ख़ास तौर पर दुनियाभर की महत्वपूर्ण घटनाओं की रिपोर्ट करने वाले आउटलेट को. इन्हीं कारणों से, बोर्ड इस बात से चिंतित है कि उर्दू भाषा की कतार में मध्य 2022 में सिर्फ़ 50 से कम रिव्यूअर मौजूद थे. बोर्ड ने भारतीय मार्केट के आकार, उस क्षेत्र में Meta द्वारा खतरनाक के रूप में चिह्नित ग्रुप की संख्या और इसलिए वॉइस की ज़्यादा आज़ादी की महत्ता को देखते हुए कहा कि ऐसे महत्वपूर्ण मुद्दों पर होने वाली गलतियों को ठीक करने (और बेहतर है कि उन्हें रोकने) के लिए कंपनी बेहतर व्यवस्था करे.
8.2 Meta की वैल्यू का अनुपालन
खतरनाक ग्रुप की प्रशंसा वाले कंटेंट से Meta के यूज़र्स और अन्य लोगों की “सुरक्षा” की वैल्यू को जोखिम हो सकता है क्योंकि उसका संबंध ऑफ़लाइन हिंसा से होता है और उसमें “दूसरे लोगों को धमकाने, उनका बहिष्कार करने या उनकी आवाज़ दबाने” की संभावना होती है. हालाँकि, इस केस में सुरक्षा की कोई गंभीर समस्या नहीं थी क्योंकि कंटेंट में चिह्नित संगठन की घोषणा की सिर्फ़ रिपोर्टिंग की गई थी. मीडिया आउटलेट के संबंध में “वॉइस” ख़ास तौर पर महत्वपूर्ण होती है क्योंकि वे अपनी ऑडियंस को ज़रूरी जानकारी उपलब्ध कराते हैं और सरकारों को ज़िम्मेदार बनाने में महत्वपूर्ण भूमिका अदा करते हैं. इस केस में कंटेंट को हटाने से “सुरक्षा” में कोई योगदान नहीं हुआ बल्कि इससे “वॉइस” पर अनावश्यक प्रतिबंध लगा.
8.3 Meta की मानवाधिकारों से जुड़ी ज़िम्मेदारियों का अनुपालन
बोर्ड ने पाया कि कंटेंट को प्लेटफ़ॉर्म से हटाना Meta की मानवाधिकार ज़िम्मेदारियों के अनुसार नहीं था और यह कि ऐसी गलतियों को रोकने और ठीक करने के लिए Meta के पास ज़्यादा असरदार सिस्टम होने चाहिए. संकट या संघर्ष की स्थितियों में यह ज़्यादा ज़रूरी हो जाता है कि Meta अपनी मानवाधिकार ज़िम्मेदारियों का पालन करे. मानवाधिकार हनन के लिए कुख्यात एक ग्रुप द्वारा सरकार पर बलपूर्वक नियंत्रण करने के बाद और लोगों को ऐसे चिह्नित ग्रुप के कामों की सूचना देने की महत्ता के कारण, कंपनी को उस ग्रुप की न्यूज़ रिपोर्टिंग की रक्षा देने पर ख़ास ध्यान देना चाहिए.
अभिव्यक्ति की आज़ादी (अनुच्छेद 19 ICCPR)
ICCPR का अनुच्छेद 19, अभिव्यक्ति की आज़ादी के अधिकार की सुरक्षा करता है और उसमें सभी लोगों के लिए जानकारी देने और पाने का अधिकार शामिल है. अंतरराष्ट्रीय मानवाधिकार कानून, जनहित की जानकारी उपलब्ध कराने के लिए पत्रकारिता की भूमिका को ख़ास वैल्यू देता है. UN मानवाधिकार समिति ने कहा है कि “राय और अभिव्यक्ति की आज़ादी और प्रतिज्ञापत्र में दिए गए अन्य अधिकारों का उपयोग सुनिश्चित करने के लिए यह ज़रूरी है कि किसी भी समाज में प्रेस और अन्य मीडिया मुक्त, बिना सेंसरशिप वाला और अबाधित हो” (सामान्य कमेंट सं. 34, पैरा. 13). Facebook जैसे सोशल मीडिया प्लेटफ़ॉर्म पूरी दुनिया में पत्रकारों की रिपोर्टिंग का साधन बन गया है और Meta ने अपनी कॉर्पोरेट मानवाधिकार पॉलिसी में पत्रकारिता और मानवाधिकार के रक्षक के रूप में अपनी ज़िम्मेदारियों को मान्यता दी है.
अभिव्यक्ति की आज़ादी में Meta के यूज़र्स की अफ़गानिस्तान में होने वाली जनहित की घटनाओं की जानकारी पाने की योग्यता शामिल है, ख़ास तौर पर जब किसी चिह्नित खतरनाक ग्रुप ने बलपूर्वक मान्यता प्राप्त सरकार को हटा दिया हो. यह ज़रूरी है कि यूज़र्स, अफ़गानिस्तान में मौजूद और उसके बाहर के कमेंटेटर्स सहित, और आम लोगों के पास वहाँ की स्थितियों के बारे में रियल-टाइम रिपोर्टिंग की एक्सेस हो. मीडिया की आज़ादी के प्रति तालिबान के रवैये से अंतरराष्ट्रीय रिपोर्टिंग की भूमिका और भी महत्वपूर्ण हो जाती है. इस केस में जानकारी उन लोगों के लिए ज़रूरी होगी जो लड़कियों और महिलाओं के शिक्षा में समानता के अधिकार के लिए चिंतित हैं. यह स्थिति उस समय भी बनी रहेगी जब तालिबान अपनी प्रतिबद्धताओं को पूरा करने में विफल हो जाता है.
ICCPR के अनुच्छेद 19, पैरा. 3 के अनुसार, जैसा कि मानवाधिकार समिति द्वारा सामान्य कमेंट सं. 34 में बताया गया है, यह ज़रूरी है कि जहाँ अभिव्यक्ति पर राज्य द्वारा प्रतिबंध लागू है, वहाँ उन्हें वैधानिकता, वैध लक्ष्य और आवश्यकता और अनुपातिकता की शर्तें पूरी करनी होंगी. बोर्ड इन अंतरराष्ट्रीय स्टैंडर्ड का उपयोग यह आकलन करने के लिए करता है कि क्या Meta अपनी मानवाधिकार ज़िम्मेदारियों का पालन कर रहा है.
I. वैधानिकता (नियमों की स्पष्टता और सुलभता)
वैधानिकता के सिद्धांत के अनुसार अभिव्यक्ति को सीमित करने के लिए देशों द्वारा उपयोग किए जाने वाले कानूनों के लिए यह ज़रूरी है कि वे स्पष्ट और एक्सेस लायक हों, ताकि लोग यह समझ सकें कि किस कंटेंट की परमिशन है और किसकी नहीं. इसके अलावा, अभिव्यक्ति को सीमित करने वाले कानूनों का विशिष्ट होना ज़रूरी है, ताकि यह सुनिश्चित किया जा सके कि जिन लोगों पर उन्हें एन्फ़ोर्स किया गया है, उन पर इसका उपयोग मनमाने ढंग से नहीं हुआ है (सामान्य कमेंट 34, पैरा. 25). मानवाधिकार समिति ने चेतावनी दी है कि “आतंकवाद की ‘प्रशंसा करने’, ‘उसका गुणगान करने’ या उसे ‘उचित ठहराने’ के अपराध स्पष्ट रूप से परिभाषित किए जाने चाहिए ताकि यह सुनिश्चित किया जा सके कि वे अभिव्यक्ति की आज़ादी में अनावश्यक या अनुचित हस्तक्षेप न करें. जानकारी की एक्सेस पर अत्यधिक प्रतिबंध से भी बचा जाना चाहिए” (सामान्य कमेंट सं. 34, पैरा. 46; यह भी देखें: पैरा. 36-37(रिपोर्ट A/HRC/40/52) पर आतंकवाद की रोकथाम और मानवाधिकारों पर यूएन का विशेष रैपर्टर).
पिछले केस के अपने दृष्टिकोण का पालन करते हुए, बोर्ड इन सिद्धांतों को Meta के कंटेंट के नियमों पर भी लागू करता है. बोर्ड इस बात का स्वागत करता है कि खतरनाक लोग और संगठन पर Meta की पॉलिसी में अब उस समय से ज़्यादा जानकारी है जब बोर्ड ने इस बारे में अपना पहला सुझाव दिया था, लेकिन गंभीर चिंताएँ अभी भी बनी हुई हैं.
तालिबान पर रिपोर्टिंग करने वाले यूज़र्स के लिए, यह अस्पष्ट है कि क्या तालिबान अभी भी एक चिह्नित खतरनाक एंटिटी रहेगा जब उसने अफ़गानिस्तान में मान्यता प्राप्त सरकार को बलपूर्वक हटा दिया है. बोर्ड ने पहले सुझाव दिया था कि Meta, चिह्नित एंटिटी की अपनी पूरी लिस्ट या व्याख्यात्मक लिस्ट प्रकट करे ताकि यूज़र्स को स्पष्टता मिले ("नाज़ी उद्धरण" केस, "आजलान का एकांतवास" केस). बोर्ड ने इस सुझाव पर प्रगति न होने पर खेद जताया और कहा कि कंपनी ने तो अपनी ओर से इस जानकारी को प्रकट नहीं किया है, लेकिन व्हिसलब्लोअर और पत्रकारों ने “सीक्रेट” लिस्ट के एक वर्जन को सार्वजनिक रूप से प्रकट करके लोगों को सूचित करने का तरीका ढूँढ लिया है.
जैसा कि इस फ़ैसले में पहले कहा गया है (सेक्शन 8.1 देखें), लोगों को दिखाई देने वाले कम्युनिटी स्टैंडर्ड में “प्रशंसा” की चिह्नित एंटिटी के बारे में “सकारात्मक बातें करना” बहुत व्यापक है. न्यूज़ रिपोर्टिंग में शामिल लोगों के लिए, यह अस्पष्ट है कि यह नियम किस तरह उसी पॉलिसी में रिपोर्टिंग के लिए दी गई छूट से संबंधित है. Meta के अनुसार, यह छूट तब भी न्यूज़ रिपोर्टिंग की परमिशन देती है जब उसी पोस्ट में किसी यूज़र ने चिह्नित एंटिटी की प्रशंसा की हो. बोर्ड ने पाया कि खतरनाक लोग और संगठन पॉलिसी में “रिपोर्टिंग” की छूट और अतिमहत्वपूर्ण ख़बरों में रहने लायक आधार पर परमिशन के बीच का संबंध अभी भी यूज़र्स के लिए अस्पष्ट है. “अल जज़ीरा की शेयर की गई पोस्ट” केस में, बोर्ड ने सुझाव दिया था कि Meta अपने कम्युनिटी स्टैंडर्ड में न्यूज़ रिपोर्टिंग की शर्तें और व्याख्यात्मक उदाहरण शामिल करे. Meta ने Q1 2022 क्रियान्वयन रिपोर्ट में जवाब दिया था कि वह अभी ऐसी शर्तें बनाने के लिए कई आंतरिक टीमों से परामर्श कर रहा है जो यह समझने में यूज़र्स की मदद करें कि न्यूज़ रिपोर्टिंग में कौन सा कंटेंट शामिल है. उसने कहा कि इस प्रोसेस के Q4 2022 तक पूरा होने की संभावना है.
बोर्ड अभी भी इस बात से चिंतित है कि प्रासंगिक कम्युनिटी स्टैंडर्ड के बदलावों का अनुवाद सभी उपलब्ध भाषाओं में नहीं हुआ है और अलग-अलग भाषाओं में विसंगतियाँ मौजूद हैं. “अल जज़ीरा की शेयर की गई पोस्ट” में बोर्ड के फ़ैसले का पालन करते हुए खतरनाक लोग और संगठन पॉलिसी के अमेरिकी अंग्रेज़ी वर्जन में दिसंबर 2021 में संशोधन करते हुए यूज़र का इरादा अस्पष्ट होने पर विवेकाधीन “हम कंटेंट को हटा सकते हैं” को बदलकर “हम कंटेंट को हटा ही देते हैं” कर दिया गया. हालाँकि, कम्युनिटी स्टैंडर्ड के उर्दू और यूके अंग्रेज़ी सहित दूसरी भाषाओं के वर्जन में यह बदलाव दिखाई नहीं देता. कंपनी ने बोर्ड के पुराने सुझावों के अपने जवाब में सार्वजनिक रूप से कहा है ( Meta Q4 2021 ओवरसाइट बोर्ड के बारे में तिमाही अपडेट) कि वह चार से छह हफ़्तों में सभी भाषाओं में अनुवाद पूरा कर लेगी, लेकिन ऐसा लगता है कि इस केस में प्रासंगिक पॉलिसी लाइन का अनुवाद पाँच महीनों बाद भी पूरा नहीं हुआ है. इसलिए, पॉलिसी सभी यूज़र्स के लिए समान रूप से एक्सेस लायक नहीं है, जिससे उनके लिए यह समझना मुश्किल हो जाता है कि किस कंटेंट की परमिशन है और किसकी नहीं.
बोर्ड इस बात से भी चिंतित है कि Meta ने अपने यूज़र्स को यह स्पष्ट करने के लिए पर्याप्त काम नहीं किया कि उसका स्ट्राइक सिस्टम कैसे काम करता है. भले ही Meta के ट्रांसपेरेंसी सेंटर में “अकाउंट प्रतिबंधित करना” पेज पर कुछ जानकारी दी गई है, लेकिन वहाँ उन सभी फ़ीचर की पूरी सूची नहीं दी गई है जिन्हें कंपनी प्रतिबंधित कर सकती है और उसकी सीमाएँ भी नहीं दी गई हैं. इसमें गंभीर स्ट्राइक के लिए “तय समयावधि” की लिस्ट भी नहीं दी गई है, जैसी कि स्टैंडर्ड स्ट्राइक के मामले में मौजूद है. यह ख़ास तौर पर चिंता का विषय है क्योंकि गंभीर स्ट्राइक के परिणामस्वरूप ज़्यादा गंभीर पेनल्टी लगती है और कंटेंट के फ़ैसलों से अलग अकाउंट के लेवल के प्रतिबंधों के खिलाफ़ अपील करने का कोई मैकेनिज़्म मौजूद नहीं है. कंटेंट को बहाल कर दिए जाने के बाद भी, फ़ीचर संबंधी सीमाएँ हमेशा पूरी तरह वापस नहीं ली जा सकतीं. उदाहरण के लिए, इस केस में यूज़र पहले ही कई दिन तक फ़ीचर संबंधी प्रतिबंध झेल चुका था और Meta द्वारा अपना फ़ैसला पलटने के बाद भी उन्हें पूरी तरह बहाल नहीं किया गया.
उर्दू भाषा के दो जानकारों द्वारा इस कंटेंट का उल्लंघन करने वाले के रूप में आकलन करना आगे यह बताता है कि प्रशंसा पर रोक और रिपोर्टिंग की छूट से उसका संबंध उन लोगों को अस्पष्ट है जिन्हें नियमों को एन्फ़ोर्स करने का काम दिया गया है. कंटेंट रिव्यूअर्स को नियमों को समझने का आंतरिक मार्गदर्शन दिया गया है (ज्ञात सवाल और क्रियान्वयन स्टैंडर्ड). ज्ञात सवाल डॉक्यूमेंट में प्रशंसा को ऐसे कंटेंट के रूप में परिभाषित किया गया है जिसके कारण “लोग किसी चिह्नित ग्रुप के बारे में ज़्यादा सकारात्मक सोचें”. यह कम्युनिटी स्टैंडर्ड में लोगों के लिए उपलब्ध परिभाषा से विवादास्पद रूप से ज़्यादा व्यापक है जिसके अनुसार “प्रशंसा” का संबंध स्पीकर के इरादे से कम और ऑडियंस पर पड़ने वाले असर से ज़्यादा है. इसके अलावा, न तो कम्युनिटी स्टैंडर्ड और न ही ज्ञात सवाल डॉक्यूमेंट में अभिव्यक्ति की आज़ादी पर प्रतिबंध लगाने में रिव्यूअर के विवेक के उपयोग पर रोक लगाई गई है. “प्रशंसा” की स्टैंडर्ड डिक्शनरी की परिभाषाएँ इतनी व्यापक नहीं हैं और अपनी बनावट के अनुसार नियम, तथ्यात्मक कथनों को कैप्चर करता है जिसमें आंशिक रूप से पत्रकारितापूर्ण कथनों के साथ-साथ राय शामिल है. बोर्ड के सवालों के जवाब में Meta ने स्पष्ट किया कि रिपोर्टिंग की छूट, न सिर्फ़ पत्रकारों को, बल्कि सभी लोगों को रिपोर्टिंग के संदर्भ में चिह्नित संगठनों के बारे में सकारात्मक बोलने की परमिशन देता है. हालाँकि, यह स्पष्टता रिव्यूअर्स को आंतरिक मार्गदर्शन में नहीं दी गई है. Meta यह मानता है कि यह मार्गदर्शन रिव्यूअर्स को इस बात की परिभाषा नहीं देता कि “रिपोर्टिंग” को कैसे समझा जाए.
II. वैधानिक लक्ष्य
ओवरसाइट बोर्ड ने पहले यह माना है कि खतरनाक लोग और संगठन पॉलिसी, दूसरों के अधिकारों की रक्षा करने का लक्ष्य पूरा करती है, जिसमें जीवन का अधिकार, व्यक्ति की सुरक्षा और समानता और भेदभाव न करना शामिल है (अनुच्छेद 19(3) ICCPR, ओवरसाइट बोर्ड का फ़ैसला “भारत में RSS पर पंजाबी चिंता”). बोर्ड ने आगे यह भी माना कि चिह्नित एंटिटी का दुष्प्रचार, दूसरों के अधिकारों को नुकसान पहुँचाने का जोखिम पैदा कर सकता है, जिसमें प्रॉक्सी के ज़रिए खुद को स्वतंत्र मीडिया के रूप में प्रस्तुत करना शामिल है. इस पॉलिसी के ज़रिए उन नुकसानों को कम करने की कोशिश करना एक वैधानिक लक्ष्य है.
III. आवश्यकता और आनुपातिकता
अभिव्यक्ति की स्वतंत्रता पर लगाए जाने वाले सभी प्रतिबंध "उनके सुरक्षात्मक कार्य को पूरा करने के लिए उपयुक्त होने चाहिए; वे अपने सुरक्षात्मक कार्य कर सकने वाले उपायों में से कम से कम हस्तक्षेप करने वाले उपाय होने चाहिए; उन्हें सुरक्षित रखे जाने वाले हित के अनुपात में होना चाहिए” (सामान्य कमेंट 34, पैरा. 34). Meta ने यह स्वीकार किया कि इस केस में कंटेंट को हटाना ज़रूरी नहीं था और इसलिए यूज़र पर अतिरिक्त प्रतिबंध नहीं लगाए जाने चाहिए थे.
बोर्ड यह समझता है कि बड़े पैमाने पर कंटेंट को मॉडरेट करते समय गलतियाँ होंगी. हालाँकि, बोर्ड को खतरनाक लोग और संगठन पॉलिसी के एन्फ़ोर्समेंट की रिपोर्टिंग पर असर डालने वाली गलतियों की शिकायतें प्राप्त नहीं होतीं, ख़ास तौर पर अंग्रेज़ी के अलावा अन्य भाषाओं में, जो गंभीर चिंता पैदा करता है (“अल जज़ीरा की शेयर की गई पोस्ट” फ़ैसला, “ओजलान का एकांतवास ” फ़ैसला देखें). यूएन मानवाधिकार समिति ने इस बात पर ज़ोर दिया है कि “मीडिया लोगों को आतंकवादी गतिविधियों के बारे में बताने में महत्वपूर्ण भूमिका निभाता है और इसके काम करने की क्षमता को अनुचित रूप से प्रतिबंधित नहीं किया जाना चाहिए. इस संबंध में, अगर पत्रकार अपने विधिसम्मत काम कर रहे हैं, तो उन पर पेनल्टी नहीं लगाई जानी चाहिए” (सामान्य कमेंट 34, पैरा. 46). इसलिए यह Meta की ज़िम्मेदारी है कि वह न्यूज़ रिपोर्टिंग के संबंध में मानवाधिकार पर अपने प्लेटफ़ॉर्म का बुरा असर न पड़ने दे और उसे कम करे.
बोर्ड इस बात से चिंतित है कि इस केस में एन्फ़ोर्समेंट की जिस तरह की गलती हुई, वह इस संबंध में बड़ी विफलताओं का संकेत हो सकता है. जो लोग टियर 1 के खतरनाक लोग और संगठन की एक्टिविटी पर कमेंटरी से जुड़े होते हैं, उनके लिए एन्फ़ोर्समेंट की गलतियों के कारण उनके अकाउंट पर गंभीर प्रतिबंध लगने का जोखिम ज़्यादा होता है. इससे उनकी जीविका पर बुरा असर पड़ सकता है और वे लोगों को प्रमुख घटनाओं की जानकारी देने से इंकार कर सकते हैं. बोर्ड इस बात से चिंतित है कि अगर यूज़र खतरनाक एंटिटी की रिपोर्टिंग के अपने इरादे को स्पष्ट रूप से नहीं बताता है, तो कंटेंट को सीधे हटा ही दिया जाता है और इस कारण ऐसा कंटेंट भी हट सकता है जो उल्लंघन नहीं करता, भले ही संदर्भात्मक संकेत यह स्पष्ट करते हों कि पोस्ट का उद्देश्य रिपोर्टिंग करना है. इसके अलावा, गलतियों को रोकने और उन्हें ठीक करने के सिस्टम से इस यूज़र को कोई फ़ायदा नहीं मिला, जो कि होना चाहिए था. यह उन गलतियों की ओर इशारा करता है जो कंटेंट के फ़ैसले को अतिरिक्त रिव्यू के लिए भेजते समय HIPO सिस्टम में प्राथमिकता के लिए रेटिंग देते समय हुईं. इन गलतियों के कारण यह कतार में रिव्यू के लिए कभी आगे नहीं आया. इसके कारण HIPO कतार के ह्यूमन रिव्यू के लिए आवंटित रिसोर्स को लेकर भी सवाल खड़े हुए जो संभवतः उर्दू भाषा के कंटेंट के लिए पर्याप्त नहीं थे. इस केस में, एन्फ़ोर्समेंट की गलती और उसे ठीक न कर पाने के कारण कई Facebook यूज़र्स तक वैश्विक महत्व के मुद्दों की जानकारी नहीं पहुँची और एक न्यूज़ आउटलेट के लोगों को सूचना देने के पत्रकारितापूर्ण काम में रुकावट आई.
पत्रकार निष्पक्ष रूप से घटनाओं की रिपोर्टिंग कर सकते हैं ताकि ऐसी स्पष्ट निंदा से बचा जा सकता है जिसकी रिव्यूअर्स को तलाश रहती है. कंटेंट के हटाए जाने और अकाउंट प्रतिबंध से बचने के लिए, पत्रकार खुद को सेंसर का सकते हैं और यहाँ तक कि अपनी नैतिक पेशेवर ज़िम्मेदारियों का पालन न करने के लिए उन्हें प्रोत्साहन भी दिया जा सकता है. इसके अलावा, तालिबान विरोधी Facebook यूज़र्स की ऐसी रिपोर्टिंग भी देखी गई है जिनमें तालिबान का नाम नहीं लिखा गया क्योंकि उन्हें इस बात की चिंता थी कि अगर वे नाम लिखते हैं तो उन पर गलती से प्रतिबंध लगाए जा सकते हैं.
बोर्ड ने यह भी नोट किया कि Meta ने तालिबान के संबंध में कुछ छूट भी दी हैं जिसे वह “पॉलिसी की भावना” कहता है. इससे यह पता चलता है कि Meta को इस बात की जानकारी है कि खतरनाक लोग और संगठन पॉलिसी के तहत उसके दृष्टिकोण से कभी-कभी ऐसे परिणाम मिल रहे हैं जो पॉलिसी के उद्देश्यों के अनुरूप नहीं हैं और इसलिए वे अनिवार्यता की ज़रूरत पूरी नहीं करते. पत्रकारों द्वारा प्राप्त की गई कंपनी की आंतरिक सामग्री यह बताती है कि सितंबर 2021 में, कंपनी ने नए ट्रैफ़िक विनियम जैसे मामलों में “[अफ़गानिस्तान के] आंतरिक मामलों के मंत्रालय द्वारा शेयर किए गए कंटेंट को परमिशन देने” की छूट दी थी और साथ ही उसने COVID-19 के संबंध में स्वास्थ्य मंत्रालय की दो विशिष्ट पोस्ट को भी परमिशन दी थी. रिपोर्ट के अनुसार अन्य छूट ज़्यादा अनुकूलित और कम समय के लिए थीं. रिपोर्ट के अनुसार अगस्त 2021 में 12 दिनों के लिए “सरकारी आँकड़ों” ने तालिबान को “अफ़गानिस्तानकी आधिकारिक सरकार” के रूप में स्वीकार किया और अकाउंट पर कोई प्रतिबंध भी नहीं लगाया गया. अगस्त 2021 के अंतिम दिनों से लेकर 3 सितंबर तक, यूज़र्स “तालिबान के सार्वजनिक बयानों को पोस्ट कर सकते थे और उनके लिए बयानों की ‘निष्पक्ष चर्चा करने, उनकी रिपोर्टिंग करने या उनकी निंदा’ करने की शर्त भी नहीं थी.” Meta के प्रवक्ता ने स्वीकार किया कि कुछ अनौपचारिक छूट दी गई थीं. 25 जनवरी 2022 को संकट पॉलिसी प्रोटोकॉल पर पॉलिसी फ़ोरम में Meta ने कहा कि वह संकट की स्थितियों में “पॉलिसी लीवर्स” लागू करेगी और “किसी विशिष्ट चिह्नित संगठन की प्रशंसा (जैसे गोरिल्ला ग्रुप द्वारा शांति समझौते पर हस्ताक्षर किए जाना)” की परमिशन देने का उदाहरण दिया. प्रशंसा की सामान्य मनाही से इस तरह की छूट, रिव्यूअर्स के साथ-साथ उन यूज़र्स के लिए ज़्यादा अनिश्चितता का वातावरण बनाती है जिन्हें इस बात की जानकारी नहीं होती कि क्या छूट दी जाएगी और कब दी जाएगी. वे बताते हैं कि कुछ स्थितियों में Meta ने ऐसे कंटेंट के साथ कथित रूप से अलग दृष्टिकोण अपनाया जो निश्चित रूप से एक ऐसी चिह्नित एंटिटी से जुड़ा था जिसने विधिसम्मत सरकार को बेदखल करते हुए इलाके पर कब्ज़ा कर लिया था.
बोर्ड ने पाया कि प्लेटफ़ॉर्म से कंटेंट को हटाना एक अनावश्यक और अनुचित उपाय था. एन्फ़ोर्समेंट की इन गलतियों की संख्या, पत्रकारितापूर्ण एक्टिविटी पर उनका असर और Meta के गलतियों को रोकने वाले सिस्टम की विफलता से कुल मिलाकर यह निष्कर्ष निकला है.
9. ओवरसाइट बोर्ड का फ़ैसला
ओवरसाइट बोर्ड ने संबंधित कंटेंट को हटाने के Meta के मूल फ़ैसले को पलट दिया.
10. पॉलिसी से जुड़ी सलाह का कथन
कंटेंट पॉलिसी
1. Meta को इस बात की जाँच करनी चाहिए कि खतरनाक लोग और संगठन पॉलिसी में दिसंबर 2021 में किए गए बदलावों को छह हफ़्तों की तय समयावधि में अपडेट क्यों नहीं किया गया और यह सुनिश्चित करना चाहिए कि इस तरह की देरी या चूक फिर न हो. बोर्ड ने Meta से कहा कि वह अपनी जाँच के नतीजों से बोर्ड को 60 दिनों के भीतर अवगत कराए और यह भी बताए कि आगे अनुवाद में देरी को रोकने के लिए उसने क्या कदम उठाए हैं.
2. Meta को अपने दो ट्रैक वाले स्ट्राइक सिस्टम की लोगों को दिखाई देने वाली जानकारी को ज़्यादा विस्तृत और एक्सेस लायक बनाना चाहिए, ख़ास तौर पर “गंभीर स्ट्राइक” के लिए. इसमें पॉलिसी के ऐसे सभी उल्लंघन शामिल होने चाहिए जिनका परिणाम गंभीर स्ट्राइक होता है. यह बताया जाना चाहिए कि इसके परिणामस्वरूप अकाउंट के फ़ीचर सीमित किए जा सकते हैं और उसकी अवधि बताई जानी चाहिए. जिन पॉलिसी के परिणामस्वरूप गंभीर स्ट्राइक लगाई जाती है, उन्हें कम्युनिटी स्टैंडर्ड में स्पष्ट रूप से बताया जाना चाहिए और स्ट्राइक सिस्टम के “अकाउंट प्रतिबंधित करना” स्पष्टीकरण का लिंक दिया जाना चाहिए. बोर्ड ने Meta से कहा कि वह ट्रांसपेरेंसी सेंटर को स्ट्राइक सिस्टम से अपडेट करने के बारे में 60 दिनों के भीतर बोर्ड को सूचित करे. वह उन सभी पॉलिसी के स्पष्टीकरण में लिंक भी शामिल करे जिनके परिणामस्वरूप गंभीर स्ट्राइक लगाई जाती है.
एन्फ़ोर्समेंट
3. Meta को रिव्यूअर्स के लिए ज्ञात सवाल मार्गदर्शन में “प्रशंसा” की सटीक परिभाषा देनी चाहिए. इसमें से ऐसे कंटेंट के उदाहरण हटा दिए जाने चाहिए जो चिह्नित एंटिटी की सकारात्मक वैल्यू बताकर या उनके कामों का समर्थन करके “दूसरे लोगों को इन एंटिटी के बारे में सकारात्मक सोचने के लिए प्रेरित किया जाता है.” बोर्ड ने Meta से कहा कि वह खतरनाक लोग और संगठन के लिए ज्ञात सवालों के डॉक्यूमेंट को अपडेट करके 60 दिनों के भीतर बोर्ड को इसका पूरा वर्जन उपलब्ध कराए.
4. Meta को अपने आंतरिक क्रियान्वयन स्टैंडर्ड में बदलाव करके यह स्पष्ट करना चाहिए कि खतरनाक लोग और संगठन पॉलिसी में “रिपोर्टिंग” से जुड़ी छूट, रिपोर्टिंग के संबंध में चिह्नित एंटिटी के बारे में सकारात्मक कथनों की परमिशन देती है. यह भी बताया जाना चाहिए कि यह प्रतिबंधित “प्रशंसा” से किस तरह अलग है. ज्ञात सवाल डॉक्यूमेंट का विस्तार करके यह स्पष्ट करना चाहिए कि संघर्ष और संकट की स्थितियों में न्यूज़ रिपोर्टिंग कितनी महत्वपूर्ण है और यह कि इसमें चिह्नित एंटिटी के बारे में सकारात्मक कथन शामिल हो सकते हैं, जैसा कि इस केस में तालिबान की रिपोर्टिंग के बारे में हुआ. बोर्ड ने Meta से कहा कि वह 60 दिनों के भीतर अपडेट किए गए क्रियान्वयन स्टैंडर्ड शेयर करे.
5. सिस्टम की जिन समस्याओं के कारण एन्फ़ोर्समेंट में गलतियाँ हो रही हैं, उनका पता लगाने के लिए Meta को खतरनाक लोग और संगठन पॉलिसी के तहत रिपोर्टिंग की छूट देने वाले रिव्यूअर्स की सटीकता का आकलन करना चाहिए. बोर्ड ने Meta से कहा कि वह 60 दिनों के भीतर इस आकलन के अपने रिव्यू के विस्तृत परिणाम या ऐसे सटीकता आकलन शेयर करे जो Meta अपनी खतरनाक लोग और संगठन पॉलिसी के संबंध में पहले से कर रहा है. इसमें यह शामिल होना चाहिए कि परिणामों से HIPO सहित एन्फ़ोर्समेंट के काम में कैसे सुधार होगा.
6. Meta को HIPO रैंकर का रिव्यू करके यह परीक्षण करना चाहिए कि क्या वह खतरनाक लोग और संगठन पॉलिसी की छूट के एन्फ़ोर्समेंट में संभावित गलतियों को ज़्यादा बेहतर प्राथमिकता दे सकता है. इसमें यह परीक्षण करना शामिल है कि क्या HIPO को न्यूज़ रिपोर्टिंग कंटेंट के मामले में ज़्यादा संवेदनशील होना चाहिए, जहाँ अभिव्यक्ति की आज़ादी पर असर डालने वाले कंटेंट को गलत तरीके से हटाए जाने की संभावना ज़्यादा होती है. बोर्ड ने Meta से कहा कि वह 60 दिनों के भीतर अपने रिव्यू के परिणाम शेयर करे और बताए कि आगे इस तरह की गलतियों से बचने के लिए वह क्या सुधार करेगा.
7. Meta को सभी भाषाओं में HIPO रिव्यू के लिए आवंटित क्षमता बढ़ानी चाहिए ताकि एन्फ़ोर्समेंट की गलती हो सकने वाले ज़्यादा कंटेंट फ़ैसलों का अतिरिक्त ह्यूमन रिव्यू सुनिश्चित किया जा सके. बोर्ड ने Meta से कहा कि वह 60 दिनों के भीतर यह बताए कि वह क्षमता को बेहतर बनाने के लिए क्या कर रहा है.
*प्रक्रिया संबंधी नोट:
ओवरसाइट बोर्ड के फ़ैसले पाँच सदस्यों के पैनल द्वारा लिए जाते हैं और बोर्ड के अधिकांश सदस्य इन पर सहमति देते हैं. ज़रूरी नहीं है कि बोर्ड के फ़ैसले उसके हर एक मेंबर की निजी राय को दर्शाएँ.
इस केस के फ़ैसले के लिए, बोर्ड की ओर से स्वतंत्र रिसर्च करवाई गई थी. बोर्ड की सहायता एक स्वतंत्र शोध संस्थान ने की जिसका मुख्यालय गोथेनबर्ग यूनिवर्सिटी में है और जिसके पास छह महाद्वीपों के 50 से भी ज़्यादा समाजशास्त्रियों की टीम के साथ ही दुनियाभर के देशों के 3,200 से भी ज़्यादा विशेषज्ञ हैं. बोर्ड को Duco Advisers की सहायता भी मिली, जो भौगोलिक-राजनैतिक, विश्वास और सुरक्षा और टेक्नोलॉजी के आपसी संबंध पर काम करने वाली एक एडवाइज़री फ़र्म है. Lionbridge Technologies, LLC कंपनी ने भाषा संबंधी विशेषज्ञता की सेवा दी, जिसके विशेषज्ञ 350 से भी ज़्यादा भाषाओं में कुशल हैं और वे दुनियाभर के 5,000 शहरों से काम करते हैं.