पलट जाना
धर्म के बारे में बांग्ला में बहस
8 दिसम्बर 2023
एक यूज़र ने Facebook से एक पोस्ट हटाने के Meta के फ़ैसले के खिलाफ़ अपील की जिसमें YouTube के एक वीडियो का लिंक था. इस वीडियो में इस्लामी स्कॉलर्स को संबोधित करते हुए कहा गया था कि वे अनीश्वरवाद पर चर्चा क्यों नहीं करना चाहते.
यह संक्षिप्त फ़ैसला है. संक्षिप्त फ़ैसलों में उन केसों का परीक्षण किया जाता है जिनमें बोर्ड द्वारा कंटेंट पर Meta का ध्यान आकर्षित के बाद कंपनी ने कंटेंट के बारे में अपने मूल फ़ैसले को पलटा है. इन फ़ैसलों में वह जानकारी भी शामिल है जिनमें Meta ने अपनी गलतियाँ मानीं. उन्हें बोर्ड के सदस्यों की पैनल द्वारा स्वीकार किया गया है, न कि पूरे बोर्ड द्वारा. उनमें सार्वजनिक कमेंट प्रोसेस शामिल नहीं होती और बोर्ड आगे के फ़ैसलों के लिए उन्हें आधार भी नहीं बनाता है. संक्षिप्त फ़ैसले, Meta के सुधारों के बारे में पारदर्शिता देते हैं और यह बताते हैं कि पॉलिसी के एन्फ़ोर्समेंट के संबंध में कंपनी कहाँ सुधार कर सकती है.
केस का सारांश
एक यूज़र ने Facebook से एक पोस्ट हटाने के Meta के फ़ैसले के खिलाफ़ अपील की जिसमें YouTube के एक वीडियो का लिंक था. इस वीडियो में इस्लामी स्कॉलर्स को संबोधित करते हुए कहा गया था कि वे अनीश्वरवाद पर चर्चा क्यों नहीं करना चाहते. जब बोर्ड ने Meta का ध्यान अपील पर आकर्षित किया, तो कंपनी ने अपना मूल फ़ैसला पलट दिया और पोस्ट को रीस्टोर कर दिया.
केस की जानकारी और बैकग्राउंड
मई 2023 में, एक ऐसे यूज़र ने Facebook पर YouTube वीडियो का लिंक पोस्ट किया जो खुद को नास्तिक और धर्म का आलोचक बताता है. वीडियो की थंबनेल फ़ोटो पर बांग्ला भाषा में लिखा है कि “इस्लामी स्कॉलर्स वीडियो ब्लॉग में अनीश्वरवादियों से चर्चा करने में डरते क्यों हैं?” और उसमें दो इस्लामी स्कॉलर्स की फ़ोटो दी गई है. पोस्ट के कैप्शन में कहा गया है, “जवाब पाने के लिए प्रीमियर में शामिल हों!” कंटेंट को लगभग 4,000 बार देखा गया.
बोर्ड को की गई अपनी अपील में यूज़र ने दावा किया कि वीडियो को शेयर करने का उद्देश्य इस्लामी स्कॉलर्स के साथ “स्वस्थ बहस या चर्चा” करना था, ख़ास तौर पर विकासवाद के सिद्धांत और बिग बैंग सिद्धांत जैसे विषयों पर. यूज़र ने कहा कि यह पोस्ट “खुली चर्चा को बढ़ावा” देते हुए Facebook कम्युनिटी स्टैंडर्ड का पालन करती है. इसके अलावा, यूज़र ने इस बात पर ज़ोर दिया कि बांग्लादेशी अनीश्वरवाद कार्यकर्ताओं को अक्सर सेंसरशिप और जान-माल का नुकसान झेलना पड़ता है.
Meta ने शुरुआत में इस कंटेंट को अपनी नुकसान पहुँचाने में मदद करने से जुड़ी पॉलिसी के तहत हटा दिया. यह पॉलिसी ऐसे कंटेंट को प्रतिबंधित करती है जो “लोगों, बिज़नेस, प्रॉपर्टी या जानवरों को टार्गेट करने वाली कुछ आपराधिक या नुकसानदेह एक्टिविटी को आसान बनाता है, आयोजित करता है, प्रमोट करता है या उनके लिए लोग जुटाता है.” Meta ने स्वीकार किया कि यह कंटेंट उसकी पॉलिसी का उल्लंघन नहीं करता, लेकिन पोस्ट करने वाले व्यक्ति के विचारों को “कई बांग्लादेशियों के लिए भड़काऊ” माना जा सकता है. Meta ने इस बारे में आगे कोई स्पष्टीकरण नहीं दिया कि कंटेंट को प्लेटफ़ॉर्म से क्यों हटाया गया था. लोगों की धार्मिक संबद्धता के आधार पर उन पर सीधे हमले को नफ़रत फैलाने वाली भाषा के तहत हटाया जा सकता है जो Meta की एक अन्य पॉलिसी है, लेकिन पॉलिसी में किसी धर्म के सिद्धांतों या विचारधाराओं की आलोचना करने पर कोई प्रतिबंध नहीं है.
बोर्ड द्वारा इस केस को Meta के ध्यान में लाए जाने के बाद, कंपनी ने पाया कि कंटेंट से नुकसान पहुँचाने में मदद करने से जुड़ी पॉलिसी का उल्लंघन नहीं हुआ और कंटेंट को हटाना गलत था. कंपनी ने फिर कंटेंट को Facebook पर रीस्टोर कर दिया.
बोर्ड का प्राधिकार और दायरा
बोर्ड को उस व्यक्ति के अपील करने के बाद Meta के फ़ैसले का रिव्यू करने का अधिकार है, जिसका कंटेंट हटा दिया गया था (चार्टर आर्टिकल 2, सेक्शन 1; उपनियम अनुच्छेद 3, सेक्शन 1).
जहाँ बोर्ड द्वारा रिव्यू किए जा रहे केस में Meta यह स्वीकार करता है कि उससे गलती हुई है और वह अपना फ़ैसला पलट देता है, वहाँ बोर्ड उस केस का चुनाव संक्षिप्त फ़ैसले के लिए कर सकता है (उपनियम अनुच्छेद 2, सेक्शन 2.1.3). बोर्ड कंटेंट मॉडरेशन प्रोसेस के बारे में ज़्यादा जानकारी पाने, गलतियाँ कम करने और Facebook और Instagram के यूज़र्स के लिए निष्पक्षता बढ़ाने के लिए मूल फ़ैसले का रिव्यू करता है.
केस का महत्व
यह केस नुकसान पहुँचाने में मदद करने से जुड़ी पॉलिसी को एन्फ़ोर्स करने में Meta की गलती हाइलाइट करता है. एन्फ़ोर्समेंट में इस तरह की गलतियाँ उन ग्रुप्स के सदस्यों की अभिव्यक्ति की आज़ादी को भी सीमित करती हैं जिनकी पहले ही सरकार के लोगों द्वारा गहन सेंसरशिप की जा रही है.
नुकसान पहुँचाने में मदद करने से जुड़ी Meta की पॉलिसी कहती है कि Meta, यूज़र्स को “नुकसानदेह एक्टिविटी” की चर्चा और उस पर बहस करने की परमिशन देता है लेकिन सिर्फ़ तभी “जब उनमें नुकसान पहुँचाने का समर्थन न किया गया हो या उसमें मदद न की गई हो.” पॉलिसी के कई उपबंध, यूज़र के इरादे के संबंधित हैं. इस केस में यूज़र की पोस्ट को भड़काऊ समझा जा सकता है – बांग्लादेशी अनीश्वरवाद कार्यकर्ताओं के खिलाफ़ डॉक्यूमेंट की गई कटुता को देखते हुए – लेकिन यूज़र ने नुकसान का समर्थन करने या नुकसान पहुँचाने में मदद करने की Meta की परिभाषा के अनुसार ऐसा कोई काम नहीं किया है और इससे यूज़र के इरादे को समझने की गलती हाइलाइट होती है. बोर्ड पहले यह सुझाव दे चुका है कि कंपनी, यूज़र्स के लिए यह स्पष्ट बनाए कि वे मिलते-जुलते अंतरों के बारे में उल्लंघन न करने वाले इरादे को स्पष्ट कैसे बनाए, जैसा कि कंपनी की खतरनाक संगठन और लोगों से जुड़ी पॉलिसी में किया गया है. उस पॉलिसी में, बोर्ड ने Meta से “कम्युनिटी स्टैंडर्ड में यह समझाने के लिए कहा कि यूज़र्स, पोस्ट के पीछे के अपने इरादे को किस तरह से [Meta] को स्पष्ट कर सकते हैं ... Facebook को परमिशन दिए जाने वाले और प्रतिबंधित कंटेंट के बीच की सीमा बताने के लिए वर्णनात्मक उदाहरण भी देने चाहिए” ( ओज़लान का एकांतवास फ़ैसला, सुझाव सं. 6). Meta ने इस सुझाव को आंशिक रूप से लागू किया.
इसके अलावा, बोर्ड ने व्यापक रूप से एन्फ़ोर्समेंट की गलतियों को रोकने के लिए भी सुझाव दिए हैं. बोर्ड ने Meta से कहा है कि “एन्फ़ोर्समेंट की गलतियों को पलटने और उनसे सीखने के लिए एक आंतरिक ऑडिट प्रोसेस बनाए जिसमें ऑटोमेटेड साधनों से हटाए कंटेंट के सांख्यिकीय प्रतिनिधि नमूने का लगातार विश्लेषण किया जाए,” ( ब्रेस्ट कैंसर के लक्षण और नग्नता, सुझाव सं. 5). Meta ने दावा किया कि वह इस काम को पहले से करता आ रहा है, लेकिन इसे दर्शाने के लिए कोई जानकारी प्रकाशित नहीं की जाती. इसके अलावा, बोर्ड ने रिक्वेस्ट की कि Meta “हर कम्युनिटी स्टैंडर्ड के लिए जानकारी को देश और भाषा के अनुसार देखने की सुविधा देकर गलतियों के रेट पर सार्वजनिक जानकारी बढ़ाने के लिए अपनी ट्रांसपेरेंसी रिपोर्टिंग को बेहतर बनाए… अगर ट्रांसपेरेंसी रिपोर्ट्स ज़्यादा विस्तृत होंगी तो लोग उन क्षेत्रों को पहचान पाएँगे जहाँ सबसे ज़्यादा गलतियाँ होती हैं, जैसे अल्पसंख्यक समूहों पर संभावित विशिष्ट प्रभाव, और वे Facebook को उन्हें ठीक करने के लिए अलर्ट कर सकते हैं” ( भारत में RSS पर पंजाबी चिंता फ़ैसला, सुझाव सं. 3). Meta अभी भी इस सुझाव की व्यवहार्यता का आकलन कर रहा है.
फ़ैसला
बोर्ड ने संबंधित कंटेंट को हटाने के Meta के मूल फ़ैसले को पलट दिया. बोर्ड द्वारा इस केस को कंपनी के ध्यान में लाए जाने के बाद, Meta द्वारा मूल फ़ैसले की गलती में किए गए सुधार को बोर्ड ने स्वीकार किया. बोर्ड ने Meta से यह भी कहा कि वह ऐसी गलतियों को कम करने के लिए उन सुझावों को अमल में लाने के काम में तेज़ी लाए जिन पर अभी तक काम नहीं किया गया है.