बोर्ड के अगले केसों और हमारे उपनियमों में होने वाले बदलावों की घोषणा करना

आज, बोर्ड नए केसों के साथ-साथ उपनियमों में होने वाले बदलावों की घोषणा कर रहा है, जो हमारे काम को नियंत्रित करते हैं.

केस का चयन

अक्टूबर 2020 में हमारे द्वारा केस स्वीकार करना शुरू करने के बाद से, बोर्ड के सामने अब तक 220,000 से ज़्यादा केस पर अपील की जा चुकी हैं. चूँकि हम सभी अपील पर सुनवाई नहीं कर सकते हैं, इसलिए हम उन केसों को प्राथमिकता दे रहे हैं जिनमें दुनिया भर के यूज़र्स पर असर डालने की संभावना हो और जो सार्वजनिक विचार-विमर्श के लिए बेहद ज़रूरी हों या जो Facebook की पॉलिसी के बारे में ज़रूरी सवाल खड़े करते हैं.

आज हम इन केसों की घोषणा कर रहे हैं:

2021-004-FB-UA

यूज़र द्वारा रेफ़र किया गया केस

पब्लिक कमेंट यहाँ सबमिट करें.

जनवरी 2021 में, यूज़र A ने रूस में विपक्ष के नेता एलेक्सी नवालनी के समर्थन में हाल ही में हुए विरोध प्रदर्शन के दौरान अपने आँखों-देखे अनुभव का सार बताते हुए कमेंट किया. अपने कमेंट में यूज़र A ने प्रदर्शनकारियों की निंदा करने वाले यूज़र B को एक "किसी के नियंत्रण से चलने वाला आम बॉट" [банальный трусливый бот] कहा.

24 जनवरी को यूज़र B ने एक ऐसी पोस्ट पर कमेंट किया था जिसमें 23 जनवरी को सेंट पीटर्सबर्ग और पूरे रूस में एलेक्सी नवालनी के समर्थन में हुए विरोध प्रदर्शन की कई फ़ोटो, एक वीडियो और टेक्स्ट था. यूज़र B ने दावा किया कि उन्हें नहीं पता था कि सेंट पीटर्सबर्ग में क्या हुआ लेकिन मॉस्को में मौजूद सभी प्रदर्शनकारी, स्कूल में पढ़ने वाले ऐसे बच्चे थे जिन्हें बहलाया-फुसलाया जा सकता है और उनका इस्तेमाल किया गया था. उन्होंने आगे कहा कि प्रदर्शनकारी लोगों के लिए आवाज़ नहीं उठा रहे थे बल्कि वो सब एक "नाटक" था. दूसरे यूज़र्स ने कमेंट थ्रेड में प्रदर्शनकारियों की इस आलोचनात्मक व्याख्या को चुनौती देना शुरू कर दिया.

यूज़र A ने यूज़र B के दावे को चुनौती दी. यूज़र A की पहचान एक बुज़ुर्ग के रूप में हुई और उन्होंने दावा किया कि वे अपने सहकर्मियों और वयस्क बच्चों के साथ सेंट पीटर्सबर्ग के विरोध प्रदर्शन में शामिल हुए थे. यूज़र A ने कहा कि वहाँ इतने प्रदर्शनकारी मौजूद थे कि वे भीड़ में अपने साथियों से बिछड़ गए थे. उन्होंने दावा किया कि उन्हें बुज़ुर्ग और दिव्यांग प्रदर्शनकारी दिखाई दिए. उन्होंने विरोध प्रदर्शन में शामिल हुए युवाओं पर गर्व जताया और इस दावे को गलत बताया कि किसी ने उनके साथ चालाकी की. आख़िरी में यूज़र A ने यूज़र B को एक "किसी के नियंत्रण से चलने वाला आम बॉट"" [“банальный трусливый бот”] कहा.

केवल यूज़र B ने ही कमेंट की रिपोर्ट की थी. Facebook ने इसे धमकी और उत्पीड़न से जुड़े अपने कम्युनिटी स्टैंडर्ड के तहत हटा दिया, जो कि ऐसा कंटेंट हटाने से जुड़ा है, जिसे लोगों को नीचा दिखाने या शर्मिंदा करने के लिए बनाया जाता है. कुछ मामलों में, Facebook के लिए उस व्यक्ति द्वारा खुद रिपोर्ट किया जाना ज़रूरी होता है जिसे धमकी या उत्पीड़न के ज़रिए टार्गेट किया गया है.

अपनी अपील की प्रक्रिया में, यूज़र A ने बोर्ड को समझाया कि उन्होंने विरोध प्रदर्शन का अपना आँखों-देखा अनुभव शेयर किया था और वे स्पष्ट रूप से गलत जानकारी पर प्रतिक्रिया दे रहे थे. यूज़र A ने कहा कि उनका मानना था कि यूज़र B "एक ऐसा प्यादा है जो घटनाओं के प्रत्यक्ष अनुभव के बिना या उनमें शामिल हुए बिना किसी और के इशारों पर काम करता है." यूज़र A ने बताया कि इस यूज़र के बारे में उनकी राय नहीं बदली है, "बॉट" शब्द कोई "गंदा शब्द" नहीं था और यह भी कि उन्होंने आतंकवाद या किसी भी गैर-कानूनी कार्रवाई का समर्थन नहीं किया.

बोर्ड को इस बारे में पब्लिक कमेंट देखने की इच्छा है कि:

  • क्या Facebook ने धमकी और उत्पीड़न से जुड़े अपने कम्युनिटी स्टैंडर्ड के अनुपालन में फ़ैसला लिया था.
  • अभिव्यक्ति की स्वंतत्रता की अहमियत तथा धमकी और उत्पीड़न से होने वाली हानियों के संबंध में मूल्यांकन योग्य प्रतिक्रियाएँ सुनिश्चित करने की आवश्यकता, दोनों को ध्यान में रखते हुए, क्या Facebook के फ़ैसले तथा धमकी और उत्पीड़न से जुड़े कम्युनिटी स्टैंडर्ड में इसके मूल्यों और मानवाधिकारों से संबंधित इसकी ज़िम्मेदारियों का अनुपालन किया गया.
  • सोशल मीडिया पर, विशेष रूप से रूसी भाषा में भावनात्मक विषयों पर चर्चा करते समय, “банальный трусливый бот” (“किसी के नियंत्रण से चलने वाला आम बॉट"”) के जैसे शब्दों के सामान्य उपयोग या स्वीकृति से जुड़ी संदर्भित जानकारी
  • जहाँ सरकारें महत्वपूर्ण अभिव्यक्ति को नियमित रूप से प्रतिबंधित करती हैं, उन संदर्भों में असहमति या अल्पसंख्यक राजनीतिक दृष्टिकोणों पर Facebook के अपने कम्युनिटी स्टैंडर्ड लागू करने के कोई प्रभाव.
  • रूस में जनवरी में हुए विरोध प्रदर्शन में शामिल होने वालों के विरुद्ध भ्रामक और गलत जानकारी देने वाले कैंपेन और सोशल मीडिया पर ऐसी जानकारी फैलाने के तरीके से जुड़े रिसर्च, जिसमें साथ मिलकर किए गए किसी भी अप्रामाणिक व्यवहार और उससे जुड़े लोगों का सबूत शामिल है.

2021-005-FB-UA

यूज़र द्वारा रेफ़र किया गया केस

पब्लिक कमेंट यहाँ सबमिट करें.

दिसंबर 2020 में, अमेरिका के एक Facebook यूज़र ने एक कमेंट पोस्ट किया जिसमें "दो बटन" वाले मीम का रूपांतरण था. इस मीम में ओरिजनल मीम का वही स्प्लिट-स्क्रीन कार्टून दिखाया गया था लेकिन इसमें कार्टून कैरेक्टर के चेहरे के बजाय तुर्की का झंडा दिखाई दे रहा था. कार्टून कैरेक्टर का सीधा हाथ उसके सिर पर था और उसका पसीना बहता दिखाई दे रहा था. कार्टून कैरेक्टर के ऊपर, स्प्लिट-स्क्रीन के दूसरे भाग में दो लाल बटन मौजूद हैं जिनके अंग्रेज़ी भाषा में अपने-अपने लेबल हैं: "अर्मेनियाई नरसंहार एक झूठ है" और "अर्मेनियाई आतंकवादी थे जो इसके हकदार थे." मीम के पहले और बाद में "सोचने वाले चेहरे" का इमोजी था.

यूज़र ने उस पोस्ट के जवाब में कमेंट किया था जिसमें नकाब पहने एक व्यक्ति की फ़ोटो थी और अंग्रेज़ी भाषा में यह ओवरले टेक्स्ट भी था: “सभी कैदी सलाखों के पीछे नहीं हैं.” इस समय, बोर्ड के पास हस्तक्षेप करने वाले सभी कमेंट की एक्सेस नहीं है और हो सकता है यह मीम, हस्तक्षेप करने वाले किसी कमेंट के जवाब में बनाया गया हो.

किसी दूसरे Facebook यूज़र की रिपोर्ट के बाद, क्रूरता और असंवेदनशीलता से जुड़े अपने कम्युनिटी स्टैंडर्डके तहत Facebook ने पोस्ट को हटा दिया . इस स्टैंडर्ड के तहत, Facebook "गंभीर शारीरिक या भावनात्मक हानि के शिकार हुए लोगों को टार्गेट करने वाला" कंटेंट हटा देता है, जिसमें "शिकार हुए लोगों का मजाक उड़ाने की स्पष्ट कोशिश और क्रूरता वाले अप्रत्यक्ष प्रयासों के रूप में टार्गेट करने वाला कंटेंट शामिल है, जिनमें से कई मीम और GIF का रूप ले लेते हैं." बाद में, Facebook ने हटाने के अपने फ़ैसले की कैटगरी बदल दी और इसे नफ़रत फैलाने वाली भाषा से जुड़े अपने कम्युनिटी स्टैंडर्ड में रखा .

यूज़र ने Facebook को की गई अपनी अपील में कहा कि "ऐतिहासिक घटनाओं को सेंसर नहीं किया जाना चाहिए" और यह भी कि उनका कमेंट अपमान करने के लिए नहीं बल्कि "किसी विशेष ऐतिहासिक घटना की विडंबना" को दर्शाने के लिए था. यूज़र ने यह भी अंदाज़ा लगाया कि Facebook ने उनके कमेंट को गलत समझा और उसे एक हमला माना. यूज़र ने यह भी कहा कि भले ही कंटेंट "धर्म और युद्ध" की स्थिति पैदा करता हो, लेकिन यह कोई "तीव्र प्रतिक्रिया का मुद्दा" नहीं है. यूज़र को ऐसा भी लगा कि Facebook और उसकी पॉलिसी अत्यधिक प्रतिबंध लगाते हैं और यूज़र ने तर्क दिया कि "कई चीज़ों की तरह हास्य भी निजी रुचियों और विचारों पर आधारित होता है और कोई चीज़ किसी एक व्यक्ति के लिए आपत्तिजनक तो किसी दूसरे के लिए मज़ेदार हो सकती है."

बोर्ड को इस बारे में पब्लिक कमेंट देखने की इच्छा है कि:

  • क्या Facebook का पोस्ट को हटाने का फ़ैसला Facebook के क्रूरता और असंवेदनशीलता से जुड़े कम्यनिटी स्टैंडर्ड और खास तौर पर, पीड़िति लोगों का मज़ाक उड़ाने के स्पष्ट और अस्पष्ट प्रयासों के लिए बने नियम से संगत था?
  • इसके अलावा या वैकल्पिक तौर पर, क्या Facebook का पोस्ट को हटाने का फ़ैसला Facebook के नफ़रत फैलाने वाली भाषा से जुड़े कम्यनिटी स्टैंडर्ड, उदाहरण के लिए, नफ़रत वाले अपराध के शिकार हुए लोगों का मज़ाक उड़ाने पर बने इसके नियम से संगत था?
  • क्या Facebook का पोस्ट को हटाने का फ़ैसला कंपनी के बताए गए मूल्यों और मानवाधिकारों से जुड़ी इसकी ज़िम्मेदारियों से संगत था?
  • कमेंट करने वाले ऐसे लोगों से पोस्ट के संभावित इरादे और प्रभाव के बारे में मिलने वाली कोई विशेष जानकारी, जिन्हें आर्मेनिया, तुर्की और प्रवासी समुदायों के सामाजिक, राजनीतिक और सांस्कृतिक संदर्भ की जानकारी हो.
  • Facebook को अपनी पॉलिसी लागू करने में हास्य और/या व्यंग्य का किस तरह ध्यान रखना चाहिए.
  • मीम में बताई गई घटनाओं के बारे में वर्तमान समय के तर्कों से जुड़ा रिसर्च, जिसमें इस तरह की बातचीत को दबाने के प्रभाव शामिल हैं, चाहे वो Facebook की पहल पर हो या सरकारी कार्रवाई के परिणामस्वरूप.

पब्लिक कमेंट

अगर आपको या आपके संगठन को लगता है कि इन केसों को लेकर आप हमें ऐसे मूल्यवान दृष्टिकोण दे सकते हैं, जिनसे हमें फ़ैसला लेने में मदद मिलेगी, तो ऊपर दिए गए लिंक के ज़रिए आप अपनी राय बता सकते हैं.

बोर्ड के केसों के पहले सेट के पूरा होने के साथ ही हम शामिल होने वाले लोगों से मिले फ़ीडबैक के आधार पर पब्लिक कमेंट की प्रक्रिया को दोहरा रहे हैं और उसमें सुधार कर रहे हैं. इस प्रक्रिया में ही, हम सभी केसों के लिए पब्लिक कमेंट की विंडो को 14 दिनों तक बढ़ा रहे हैं. हमें उम्मीद है कि इससे ज़्यादा से ज़्यादा लोगों और संगठनों को बोर्ड की कार्रवाई से जुड़ने का मौका मिलेगा.

इन बदलावों को ध्यान में रखते हुए, आज घोषित किए गए केसों के लिए पब्लिक कमेंट की विंडो मंगलवार, 16 मार्च 2021, को 15:00 UTC पर बंद हो जाएगी.

हमारे उपनियमों को अपडेट करना

एक संगठन के तौर पर हमें और प्रभावी बनाने के लिए हम अपने उपनियमों में किए जानने वाले कई बदलावों को लेकर भी काम कर रहे हैं. जैसे, आज हम केसों को तय और लागू करने के तरीके की समय-सीमा में होने वाले बदलावों की घोषणा कर रहे हैं.

हमारे उपनियमों में बोर्ड द्वारा केसों को तय करने और Facebook द्वारा उन्हें लागू करने के लिए 90 दिन की समय-सीमा तय की गई है, जो किसी केस को लेकर Facebook के पिछले फ़ैसले से शुरू होती है. संशोधित उपनियमों के तहत, 90 दिनों की यह अवधि तब शुरू होगी जब बोर्ड पैनल को कोई केस असाइन करेगा. इस अपडेट से यह सुनिश्चित करने में मदद मिलेगी कि सभी केसों पर विचार-विमार्श करने के लिए बराबर समय मिले, इस बात पर ध्यान दिए बिना कि Facebook या यूज़र ने बोर्ड को केस कब रेफ़र किया था.

आगे के बदलावों से बोर्ड को शीघ्र रिव्यू के तहत Facebook द्वारा रेफ़र किए गए केसों को तेज़ी से तय करने में मदद मिलेगी, जिसे 30 दिनों में पूरा करना होगा. उदाहरण के लिए, बोर्ड के निदेशक से परामर्श लेकर सह-अध्यक्ष अब यह सुनिश्चित कर सकते हैं कि शीघ्र रिव्यू वाले केसों को उन पैनलों को असाइन किया जाए जो 30 दिनों की समय-सीमा में उन पर विचार-विमार्श कर पाएँगे. पैनल उस समय को भी कम कर पाएँगे जो यूज़र को अपना बयान सबमिट करने के लिए दिया जाता है.

आप अपडेट किए गए हमारे उपनियमों को यहाँ पूरा पढ़ सकते हैं.

इसके बाद क्या होगा

आने वाले हफ़्तों में, बोर्ड के सदस्य आज घोषित किए गए केसों पर विचार-विमर्श करेंगे. उनके द्वारा अपने अंतिम फ़ैसले लिए जाने के बाद, हम उन्हें ओवरसाइट बोर्ड की वेबसाइट पर पोस्ट करेंगे.

समाचार पर लौटें