पलट जाना

धर्म के बारे में बांग्ला में बहस

एक यूज़र ने Facebook से एक पोस्ट हटाने के Meta के फ़ैसले के खिलाफ़ अपील की जिसमें YouTube के एक वीडियो का लिंक था. इस वीडियो में इस्लामी स्कॉलर्स को संबोधित करते हुए कहा गया था कि वे अनीश्वरवाद पर चर्चा क्यों नहीं करना चाहते.

निर्णय का प्रकार

सारांश

नीतियां और विषय

विषय
अधिकारहीन कम्युनिटी, अभिव्यक्ति की स्वतंत्रता, धर्म
सामुदायिक मानक
नुक्‍सान पहुँचाने वाले काम आयोजित करना या अपराधों का प्रचार करना

क्षेत्र/देश

जगह
बांग्लादेश, भारत

प्लैटफ़ॉर्म

प्लैटफ़ॉर्म
Facebook

यह संक्षिप्त फ़ैसला है. संक्षिप्त फ़ैसलों में उन केसों का परीक्षण किया जाता है जिनमें बोर्ड द्वारा कंटेंट पर Meta का ध्यान आकर्षित के बाद कंपनी ने कंटेंट के बारे में अपने मूल फ़ैसले को पलटा है. इन फ़ैसलों में वह जानकारी भी शामिल है जिनमें Meta ने अपनी गलतियाँ मानीं. उन्हें बोर्ड के सदस्यों की पैनल द्वारा स्वीकार किया गया है, न कि पूरे बोर्ड द्वारा. उनमें सार्वजनिक कमेंट प्रोसेस शामिल नहीं होती और बोर्ड आगे के फ़ैसलों के लिए उन्हें आधार भी नहीं बनाता है. संक्षिप्त फ़ैसले, Meta के सुधारों के बारे में पारदर्शिता देते हैं और यह बताते हैं कि पॉलिसी के एन्फ़ोर्समेंट के संबंध में कंपनी कहाँ सुधार कर सकती है.

केस का सारांश

एक यूज़र ने Facebook से एक पोस्ट हटाने के Meta के फ़ैसले के खिलाफ़ अपील की जिसमें YouTube के एक वीडियो का लिंक था. इस वीडियो में इस्लामी स्कॉलर्स को संबोधित करते हुए कहा गया था कि वे अनीश्वरवाद पर चर्चा क्यों नहीं करना चाहते. जब बोर्ड ने Meta का ध्यान अपील पर आकर्षित किया, तो कंपनी ने अपना मूल फ़ैसला पलट दिया और पोस्ट को रीस्टोर कर दिया.

केस की जानकारी और बैकग्राउंड

मई 2023 में, एक ऐसे यूज़र ने Facebook पर YouTube वीडियो का लिंक पोस्ट किया जो खुद को नास्तिक और धर्म का आलोचक बताता है. वीडियो की थंबनेल फ़ोटो पर बांग्ला भाषा में लिखा है कि “इस्लामी स्कॉलर्स वीडियो ब्लॉग में अनीश्वरवादियों से चर्चा करने में डरते क्यों हैं?” और उसमें दो इस्लामी स्कॉलर्स की फ़ोटो दी गई है. पोस्ट के कैप्शन में कहा गया है, “जवाब पाने के लिए प्रीमियर में शामिल हों!” कंटेंट को लगभग 4,000 बार देखा गया.

बोर्ड को की गई अपनी अपील में यूज़र ने दावा किया कि वीडियो को शेयर करने का उद्देश्य इस्लामी स्कॉलर्स के साथ “स्वस्थ बहस या चर्चा” करना था, ख़ास तौर पर विकासवाद के सिद्धांत और बिग बैंग सिद्धांत जैसे विषयों पर. यूज़र ने कहा कि यह पोस्ट “खुली चर्चा को बढ़ावा” देते हुए Facebook कम्युनिटी स्टैंडर्ड का पालन करती है. इसके अलावा, यूज़र ने इस बात पर ज़ोर दिया कि बांग्लादेशी अनीश्वरवाद कार्यकर्ताओं को अक्सर सेंसरशिप और जान-माल का नुकसान झेलना पड़ता है.

Meta ने शुरुआत में इस कंटेंट को अपनी नुकसान पहुँचाने में मदद करने से जुड़ी पॉलिसी के तहत हटा दिया. यह पॉलिसी ऐसे कंटेंट को प्रतिबंधित करती है जो “लोगों, बिज़नेस, प्रॉपर्टी या जानवरों को टार्गेट करने वाली कुछ आपराधिक या नुकसानदेह एक्टिविटी को आसान बनाता है, आयोजित करता है, प्रमोट करता है या उनके लिए लोग जुटाता है.” Meta ने स्वीकार किया कि यह कंटेंट उसकी पॉलिसी का उल्लंघन नहीं करता, लेकिन पोस्ट करने वाले व्यक्ति के विचारों को “कई बांग्लादेशियों के लिए भड़काऊ” माना जा सकता है. Meta ने इस बारे में आगे कोई स्पष्टीकरण नहीं दिया कि कंटेंट को प्लेटफ़ॉर्म से क्यों हटाया गया था. लोगों की धार्मिक संबद्धता के आधार पर उन पर सीधे हमले को नफ़रत फैलाने वाली भाषा के तहत हटाया जा सकता है जो Meta की एक अन्य पॉलिसी है, लेकिन पॉलिसी में किसी धर्म के सिद्धांतों या विचारधाराओं की आलोचना करने पर कोई प्रतिबंध नहीं है.

बोर्ड द्वारा इस केस को Meta के ध्यान में लाए जाने के बाद, कंपनी ने पाया कि कंटेंट से नुकसान पहुँचाने में मदद करने से जुड़ी पॉलिसी का उल्लंघन नहीं हुआ और कंटेंट को हटाना गलत था. कंपनी ने फिर कंटेंट को Facebook पर रीस्टोर कर दिया.

बोर्ड का प्राधिकार और दायरा

बोर्ड को उस व्यक्ति के अपील करने के बाद Meta के फ़ैसले का रिव्यू करने का अधिकार है, जिसका कंटेंट हटा दिया गया था (चार्टर आर्टिकल 2, सेक्शन 1; उपनियम अनुच्छेद 3, सेक्शन 1).

जहाँ बोर्ड द्वारा रिव्यू किए जा रहे केस में Meta यह स्वीकार करता है कि उससे गलती हुई है और वह अपना फ़ैसला पलट देता है, वहाँ बोर्ड उस केस का चुनाव संक्षिप्त फ़ैसले के लिए कर सकता है (उपनियम अनुच्छेद 2, सेक्शन 2.1.3). बोर्ड कंटेंट मॉडरेशन प्रोसेस के बारे में ज़्यादा जानकारी पाने, गलतियाँ कम करने और Facebook और Instagram के यूज़र्स के लिए निष्पक्षता बढ़ाने के लिए मूल फ़ैसले का रिव्यू करता है.

केस का महत्व

यह केस नुकसान पहुँचाने में मदद करने से जुड़ी पॉलिसी को एन्फ़ोर्स करने में Meta की गलती हाइलाइट करता है. एन्फ़ोर्समेंट में इस तरह की गलतियाँ उन ग्रुप्स के सदस्यों की अभिव्यक्ति की आज़ादी को भी सीमित करती हैं जिनकी पहले ही सरकार के लोगों द्वारा गहन सेंसरशिप की जा रही है.

नुकसान पहुँचाने में मदद करने से जुड़ी Meta की पॉलिसी कहती है कि Meta, यूज़र्स को “नुकसानदेह एक्टिविटी” की चर्चा और उस पर बहस करने की परमिशन देता है लेकिन सिर्फ़ तभी “जब उनमें नुकसान पहुँचाने का समर्थन न किया गया हो या उसमें मदद न की गई हो.” पॉलिसी के कई उपबंध, यूज़र के इरादे के संबंधित हैं. इस केस में यूज़र की पोस्ट को भड़काऊ समझा जा सकता है – बांग्लादेशी अनीश्वरवाद कार्यकर्ताओं के खिलाफ़ डॉक्यूमेंट की गई कटुता को देखते हुए – लेकिन यूज़र ने नुकसान का समर्थन करने या नुकसान पहुँचाने में मदद करने की Meta की परिभाषा के अनुसार ऐसा कोई काम नहीं किया है और इससे यूज़र के इरादे को समझने की गलती हाइलाइट होती है. बोर्ड पहले यह सुझाव दे चुका है कि कंपनी, यूज़र्स के लिए यह स्पष्ट बनाए कि वे मिलते-जुलते अंतरों के बारे में उल्लंघन न करने वाले इरादे को स्पष्ट कैसे बनाए, जैसा कि कंपनी की खतरनाक संगठन और लोगों से जुड़ी पॉलिसी में किया गया है. उस पॉलिसी में, बोर्ड ने Meta से “कम्युनिटी स्टैंडर्ड में यह समझाने के लिए कहा कि यूज़र्स, पोस्ट के पीछे के अपने इरादे को किस तरह से [Meta] को स्पष्ट कर सकते हैं ... Facebook को परमिशन दिए जाने वाले और प्रतिबंधित कंटेंट के बीच की सीमा बताने के लिए वर्णनात्मक उदाहरण भी देने चाहिए” ( ओज़लान का एकांतवास फ़ैसला, सुझाव सं. 6). Meta ने इस सुझाव को आंशिक रूप से लागू किया.

इसके अलावा, बोर्ड ने व्यापक रूप से एन्फ़ोर्समेंट की गलतियों को रोकने के लिए भी सुझाव दिए हैं. बोर्ड ने Meta से कहा है कि “एन्फ़ोर्समेंट की गलतियों को पलटने और उनसे सीखने के लिए एक आंतरिक ऑडिट प्रोसेस बनाए जिसमें ऑटोमेटेड साधनों से हटाए कंटेंट के सांख्यिकीय प्रतिनिधि नमूने का लगातार विश्लेषण किया जाए,” ( ब्रेस्ट कैंसर के लक्षण और नग्नता, सुझाव सं. 5). Meta ने दावा किया कि वह इस काम को पहले से करता आ रहा है, लेकिन इसे दर्शाने के लिए कोई जानकारी प्रकाशित नहीं की जाती. इसके अलावा, बोर्ड ने रिक्वेस्ट की कि Meta “हर कम्युनिटी स्टैंडर्ड के लिए जानकारी को देश और भाषा के अनुसार देखने की सुविधा देकर गलतियों के रेट पर सार्वजनिक जानकारी बढ़ाने के लिए अपनी ट्रांसपेरेंसी रिपोर्टिंग को बेहतर बनाए… अगर ट्रांसपेरेंसी रिपोर्ट्स ज़्यादा विस्तृत होंगी तो लोग उन क्षेत्रों को पहचान पाएँगे जहाँ सबसे ज़्यादा गलतियाँ होती हैं, जैसे अल्पसंख्यक समूहों पर संभावित विशिष्ट प्रभाव, और वे Facebook को उन्हें ठीक करने के लिए अलर्ट कर सकते हैं” ( भारत में RSS पर पंजाबी चिंता फ़ैसला, सुझाव सं. 3). Meta अभी भी इस सुझाव की व्यवहार्यता का आकलन कर रहा है.

फ़ैसला

बोर्ड ने संबंधित कंटेंट को हटाने के Meta के मूल फ़ैसले को पलट दिया. बोर्ड द्वारा इस केस को कंपनी के ध्यान में लाए जाने के बाद, Meta द्वारा मूल फ़ैसले की गलती में किए गए सुधार को बोर्ड ने स्वीकार किया. बोर्ड ने Meta से यह भी कहा कि वह ऐसी गलतियों को कम करने के लिए उन सुझावों को अमल में लाने के काम में तेज़ी लाए जिन पर अभी तक काम नहीं किया गया है.

मामले के निर्णयों और नीति सलाहकार राय पर लौटें