एकाधिक मामले का निर्णय

इज़राइल के बलात्कार पीड़ितों की रिपोर्ट

एक यूज़र ने Facebook से ऐसी दो पोस्ट को हटाने के Meta के फ़ैसले के खिलाफ़ अपील की जिनमें इज़राइल पर 7 अक्टूबर, 2023 को हमास के आतंकवादियों द्वारा हमले के दौरान की गई यौन हिंसा की जानकारी दी गई थी. जब बोर्ड ने Meta का ध्यान इन अपीलों पर आकर्षित किया, तो कंपनी ने अपना मूल फ़ैसला पलट दिया और दोनों पोस्ट को रीस्टोर कर दिया.

2 इस बंडल में केस शामिल हैं

पलट जाना

FB-YCJP0Q9D

Facebook पर खतरनाक लोग और संगठन से जुड़ा केस

प्लैटफ़ॉर्म
Facebook
विषय
लैंगिक समानता,हिंसा,युद्ध और मतभेद
मानक
ख़तरनाक लोग और संगठन
जगह
इज़राइल,फ़िलिस्तीनी क्षेत्र
Date
पर प्रकाशित 4 अप्रैल 2024
पलट जाना

FB-JCO2RJI1

Facebook पर खतरनाक लोग और संगठन से जुड़ा केस

प्लैटफ़ॉर्म
Facebook
विषय
लैंगिक समानता,हिंसा,युद्ध और मतभेद
मानक
ख़तरनाक लोग और संगठन
जगह
इज़राइल,अमेरिका,फ़िलिस्तीनी क्षेत्र
Date
पर प्रकाशित 4 अप्रैल 2024

यह संक्षिप्त फ़ैसला है.संक्षिप्त फ़ैसलों में उन केसों का परीक्षण किया जाता है जिनमें बोर्ड द्वारा कंटेंट पर Meta का ध्यान आकर्षित के बाद कंपनी ने कंटेंट के बारे में अपने मूल फ़ैसले को पलटा है और इसमें Meta द्वारा मानी गई गलतियों की जानकारी होती है. उन्हें पूरे बोर्ड के बजाय, बोर्ड के किसी सदस्य द्वारा स्वीकृत किया जाता है, उनमें पब्लिक कमेंट शामिल नहीं होते और उन्हें बोर्ड द्वारा आगे के फ़ैसलों के लिए आधार नहीं बनाया जा सकता. संक्षिप्त फ़ैसले, Meta के फ़ैसलों में सीधे बदलाव लाते हैं, इन सुधारों के बारे में पारदर्शिता देते हैं और साथ ही यह बताते हैं कि Meta अपने एन्फ़ोर्समेंट में कहाँ सुधार कर सकता है.

केस का सारांश

एक यूज़र ने Facebook से ऐसी दो पोस्ट को हटाने के Meta के फ़ैसले के खिलाफ़ अपील की जिनमें इज़राइल पर 7 अक्टूबर, 2023 को हमास के आतंकवादियों द्वारा हमले के दौरान की गई यौन हिंसा की जानकारी दी गई थी. जब बोर्ड ने Meta का ध्यान इन अपीलों पर आकर्षित किया, तो कंपनी ने अपना मूल फ़ैसला पलट दिया और दोनों पोस्ट को रीस्टोर कर दिया.

केस की जानकारी और बैकग्राउंड

अक्टूबर 2023 में, Facebook के एक यूज़र ने दो अलग-अलग पोस्ट एक के बाद एक अपलोड की. दोनों में एक जैसा कंटेंट था जिसमें एक महिला वीडियो में 7 अक्टूबर को आतंकवादी हमलों के दौरान हमास द्वारा इज़राइली महिला के बलात्कार का वर्णन कर रही है. कैप्शन में “trigger warning” लिखा गया था और वीडियो में स्पीकर ने यूज़र्स को आपत्तिजनक कंटेंट होने की चेतावनी दी है. वीडियो में आगे दो अलग-अलग महिलाओं का फ़ुटेज दिखाया गया है जिनका अपहरण हमास द्वारा दिया जा रहा है. एक क्लिप में गंभीर रूप से घायल महिला एक ट्रक में मुँह के बल पड़ी है जबकि दूसरी क्लिप में एक घायल महिला को वाहन के पीछे से घसीटकर लाया जा रहा है. इन इमेज को हमले के बाद के घटनाक्रम में व्यापक रूप से शेयर किया गया था. पहली पोस्ट को लगभग 4,000 बार शेयर किया गया था और दूसरी पोस्ट को 50 से कम बार शेयर किया गया था.

दोनों पोस्ट को शुरुआत में Meta द्वारा खतरनाक संगठनों और लोगों से जुड़े कम्युनिटी स्टैंडर्ड का उल्लंघन करने की वजह से हटा दिया गया था. इस पॉलिसी में, कंपनी ऐसी थर्ड पार्टी इमेजरी को प्रतिबंधित करती है जिनमें किसी भी परिस्थिति में पहचाने जाने योग्य पीड़ितों पर चिह्नित आतंकवादी हमले के पलों को दिखाया गया हो, भले ही उन्हें हमले की निंदा करने या उनके बारे में जागरूकता फैलाने के लिए शेयर किया गया हो. इसके अलावा, हिंसा और उकसावे से जुड़े Meta के कम्युनिटी स्टैंडर्ड के तहत कंपनी “ऐसे कंटेंट को हटा देती है जो अपहरण का चित्रण करता हो, अगर यह स्पष्ट हो कि वह कंटेंट पीड़ित या उनके परिवार की ओर से मदद करने की अपील के रूप में शेयर नहीं किया गया है या जानकारी देने, निंदा करने या जागरूकता फैलाने के उद्देश्यों के लिए शेयर नहीं किया गया है.”

7 अक्टूबर को हमास के हमले शुरू होने के समय, Meta ने पहचाने जाने लायक पीड़ितों पर अलग से किए गए हमलों के पलों को दिखाने वाले वीडियो पर खतरनाक संगठनों और लोगों से जुड़ी अपनी पॉलिसी का कठोर एन्फ़ोर्समेंट शुरू कर दिया. Meta ने 13 अक्टूबर को अपनी न्यूज़रूम पोस्ट में अपने इस नज़रिए की जानकारी देते हुए कहा कि उसने ऐसा “उन लोगों की सुरक्षा को प्राथमिकता देने के लिए किया जिनका हमास द्वारा अपहरण किया गया है.” इसीलिए इन दो केसों में शामिल दो कंटेंट को खतरनाक संगठनों और लोगों से जुड़ी Meta की पॉलिसी का उल्लंघन करने के कारण हटा दिया गया.

इस फ़ैसले के बाद, कई न्यूज़ आउटलेट ने इनसे संबंधित फ़ुटेज को ब्रॉडकास्ट करना शुरू कर दिया और यूज़र ने भी हमलों के बारे में जागरूकता फैलाने और उनकी निंदा करने के लिए मिलते-जुलते कंटेंट को पोस्ट करना शुरू कर दिया. परिणामस्वरूप, 20 अक्टूबर को या उसके आसपास, Meta ने अपनी पॉलिसीज़ को अपडेट करते हुए इस फ़ुटेज को सिर्फ़ जागरूकता फैलाने या अत्याचारों की निंदा करने के संदर्भ में शेयर करने की यूज़र्स को परमिशन दी और यूज़र्स को यह सूचित करने के लिए चेतावनी स्क्रीन लगाई कि फ़ुटेज में परेशान करने वाला कंटेंट हो सकता है. Meta ने 13 अक्टूबर की अपनी मूल न्यूज़रूम पोस्ट का बदलाव दिखाने के लिए 5 दिसंबर के अपडेट में अपनी पॉलिसी में यह बदलाव प्रकाशित किया (अतिरिक्त जानकारी और बैकग्राउंड के लिए इज़राइल से बंधकों का अपहरण देखें).

Meta ने शुरुआत में इन दो केसों में Facebook से दोनों कंटेंट को हटा दिया. यूज़र ने Meta के फ़ैसलों के खिलाफ़ बोर्ड में अपील की. बोर्ड द्वारा इन केसों को Meta के ध्यान में लाए जाने के बाद, कंपनी ने पाया कि अपडेट की गई पॉलिसीज़ में दी गई छूट को देखते हुए, ये पोस्ट अब उसकी पॉलिसीज़ का उल्लंघन नहीं करतीं और कंपनी ने दोनों पोस्ट को रीस्टोर कर दिया.

बोर्ड का प्राधिकार और दायरा

बोर्ड को उस व्यक्ति के अपील करने के बाद Meta के फ़ैसले का रिव्यू करने का अधिकार है, जिसका कंटेंट हटा दिया गया था (चार्टर आर्टिकल 2, सेक्शन 1; उपनियम अनुच्छेद 3, सेक्शन 1).

जहाँ बोर्ड द्वारा रिव्यू किए जा रहे केस में Meta यह स्वीकार करता है कि उससे गलती हुई है और वह अपना फ़ैसला पलट देता है, वहाँ बोर्ड उस केस का चुनाव संक्षिप्त फ़ैसले के लिए कर सकता है (उपनियम अनुच्छेद 2, सेक्शन 2.1.3). बोर्ड, कंटेंट मॉडरेशन प्रोसेस के बारे में ज़्यादा जानकारी पाने, गलतियों में कमी लाने और Facebook और Instagram के यूज़र्स के लिए निष्पक्षता बढ़ाने के लिए मूल फ़ैसले का रिव्यू करता है.

केस का महत्व

ये दो केस, संघर्ष की ऐसी उच्च जोखिम वाली स्थिति में कंटेंट को एन्फ़ोर्स करने में Meta को आने वाली चुनौतियों को हाइलाइट करते हैं जो लगातार और तेज़ी से बदलती है. जैसा कि बोर्ड ने “इज़राइल से बंधकों का अपहरण” केस के अपने त्वरित फ़ैसले में पाया, बंधकों को दिखाने वाले कंटेंट को प्रतिबंधित करने की Meta की शुरुआती पॉलिसी में उन बंधकों की गरिमा की रक्षा की गई थी और उनका लक्ष्य यह था कि उन्हें लोगों की जिज्ञासा का विषय न बनने दिया जाए. हालाँकि, बोर्ड ने पाया कि अपवाद वाली परिस्थितियों में, व्यापक लोकहित या बंधकों के हित में होने पर, कुछ समय के लिए और सीमित छूट दी जा सकती है. संदर्भ को देखते हुए, “परेशान करने वाले के रूप में चिह्नित” चेतावनी स्क्रीन के साथ इस तरह के कंटेंट को प्लेटफ़ॉर्म पर रीस्टोर करना, Meta की कंटेंट पॉलिसी, वैल्यू और मानवाधिकार से जुड़ी ज़िम्मेदारियों के अनुसार है. यह अंतरराष्ट्रीय मानवतावादी कानून और भविष्य में जवाबदेही के लिए कथित उल्लंघनों के डॉक्यूमेंट की रक्षा करने के आचरण के साथ-साथ लोगों की जागरूकता बढ़ाने के लिए भी सही होगा. इस केस में, बोर्ड ने यह भी नोट किया कि सभी यूज़र्स के लिए इस अपवाद के उपयोग को लागू करने में Meta ने बहुत समय लिया और यह कि संघर्ष के दौरान कंटेंट को मॉडरेशन को लेकर कंपनी के लगातार तेज़ी से बदलते नज़रिए से पारदर्शिता की लगातार कमी जुड़ी हुई है.

पहले बोर्ड ने ऐसे कई सुझाव दिए हैं जो इस केस के लिए प्रासंगिक हैं. बोर्ड ने पहले सुझाव दिया है कि Meta अपने कम्युनिटी स्टैंडर्ड के अपवादों, “उनकी अवधि और उनकी समाप्ति के नोटिस की घोषणा करे, ताकि उसके प्लेटफ़ॉर्म का उपयोग करने वाले लोगों को पॉलिसी में कुछ खास अभिव्यक्ति की छूट देने वाले बदलावों की सूचना मिल सके” (ईरान में विरोध प्रदर्शन का स्लोगन, सुझाव सं. 5). Meta ने इस सुझाव को आंशिक रूप से लागू किया है, जैसा कि प्रकाशित जानकारी द्वारा दिखाया गया है. बोर्ड ने पहले यह सुझाव भी दिया है कि भविष्य की जवाबदेही को देखते हुए Meta उन साक्ष्यों की रक्षा करे जो संभावित युद्ध अपराधों, मानवता के विरुद्ध अपराध और मानवाधिकारों के गंभीर उल्लंघन से संबंधित होते हैं ( सूडान का आपत्तिजनक वीडियो, सुझाव सं. 1 और आर्मेनिया के युद्धबंदियों का वीडियो, सुझाव सं. 1). Meta ने इस सुझाव को लागू करने की सहमति दी है और इस पर काम चल रहा है. बोर्ड ने Meta की ओर से इन सुझावों पर काम करने की ज़रूरत पर ज़ोर दिया ताकि यह सुनिश्चित किया जा सके कि मानवाधिकारों से जुड़े कंटेंट को उसके प्लेटफ़ॉर्म्स पर सटीकता से एन्फ़ोर्स किया जा सके.

फ़ैसला

बोर्ड ने दो पोस्ट के कंटेंट को हटाने के Meta के मूल फ़ैसलों को पलट दिया. बोर्ड द्वारा दो केसों को Meta के ध्यान में लाए जाने के बाद, Meta द्वारा मूल फ़ैसलों की गलती में किए गए सुधारों को बोर्ड ने स्वीकार किया.

मामले के निर्णयों और नीति सलाहकार राय पर लौटें