एकाधिक मामले का निर्णय
इज़राइल के बलात्कार पीड़ितों की रिपोर्ट
एक यूज़र ने Facebook से ऐसी दो पोस्ट को हटाने के Meta के फ़ैसले के खिलाफ़ अपील की जिनमें इज़राइल पर 7 अक्टूबर, 2023 को हमास के आतंकवादियों द्वारा हमले के दौरान की गई यौन हिंसा की जानकारी दी गई थी. जब बोर्ड ने Meta का ध्यान इन अपीलों पर आकर्षित किया, तो कंपनी ने अपना मूल फ़ैसला पलट दिया और दोनों पोस्ट को रीस्टोर कर दिया.
2 इस बंडल में केस शामिल हैं
FB-YCJP0Q9D
Facebook पर खतरनाक लोग और संगठन से जुड़ा केस
FB-JCO2RJI1
Facebook पर खतरनाक लोग और संगठन से जुड़ा केस
यह संक्षिप्त फ़ैसला है.संक्षिप्त फ़ैसलों में उन केसों का परीक्षण किया जाता है जिनमें बोर्ड द्वारा कंटेंट पर Meta का ध्यान आकर्षित के बाद कंपनी ने कंटेंट के बारे में अपने मूल फ़ैसले को पलटा है और इसमें Meta द्वारा मानी गई गलतियों की जानकारी होती है. उन्हें पूरे बोर्ड के बजाय, बोर्ड के किसी सदस्य द्वारा स्वीकृत किया जाता है, उनमें पब्लिक कमेंट शामिल नहीं होते और उन्हें बोर्ड द्वारा आगे के फ़ैसलों के लिए आधार नहीं बनाया जा सकता. संक्षिप्त फ़ैसले, Meta के फ़ैसलों में सीधे बदलाव लाते हैं, इन सुधारों के बारे में पारदर्शिता देते हैं और साथ ही यह बताते हैं कि Meta अपने एन्फ़ोर्समेंट में कहाँ सुधार कर सकता है.
केस का सारांश
एक यूज़र ने Facebook से ऐसी दो पोस्ट को हटाने के Meta के फ़ैसले के खिलाफ़ अपील की जिनमें इज़राइल पर 7 अक्टूबर, 2023 को हमास के आतंकवादियों द्वारा हमले के दौरान की गई यौन हिंसा की जानकारी दी गई थी. जब बोर्ड ने Meta का ध्यान इन अपीलों पर आकर्षित किया, तो कंपनी ने अपना मूल फ़ैसला पलट दिया और दोनों पोस्ट को रीस्टोर कर दिया.
केस की जानकारी और बैकग्राउंड
अक्टूबर 2023 में, Facebook के एक यूज़र ने दो अलग-अलग पोस्ट एक के बाद एक अपलोड की. दोनों में एक जैसा कंटेंट था जिसमें एक महिला वीडियो में 7 अक्टूबर को आतंकवादी हमलों के दौरान हमास द्वारा इज़राइली महिला के बलात्कार का वर्णन कर रही है. कैप्शन में “trigger warning” लिखा गया था और वीडियो में स्पीकर ने यूज़र्स को आपत्तिजनक कंटेंट होने की चेतावनी दी है. वीडियो में आगे दो अलग-अलग महिलाओं का फ़ुटेज दिखाया गया है जिनका अपहरण हमास द्वारा दिया जा रहा है. एक क्लिप में गंभीर रूप से घायल महिला एक ट्रक में मुँह के बल पड़ी है जबकि दूसरी क्लिप में एक घायल महिला को वाहन के पीछे से घसीटकर लाया जा रहा है. इन इमेज को हमले के बाद के घटनाक्रम में व्यापक रूप से शेयर किया गया था. पहली पोस्ट को लगभग 4,000 बार शेयर किया गया था और दूसरी पोस्ट को 50 से कम बार शेयर किया गया था.
दोनों पोस्ट को शुरुआत में Meta द्वारा खतरनाक संगठनों और लोगों से जुड़े कम्युनिटी स्टैंडर्ड का उल्लंघन करने की वजह से हटा दिया गया था. इस पॉलिसी में, कंपनी ऐसी थर्ड पार्टी इमेजरी को प्रतिबंधित करती है जिनमें किसी भी परिस्थिति में पहचाने जाने योग्य पीड़ितों पर चिह्नित आतंकवादी हमले के पलों को दिखाया गया हो, भले ही उन्हें हमले की निंदा करने या उनके बारे में जागरूकता फैलाने के लिए शेयर किया गया हो. इसके अलावा, हिंसा और उकसावे से जुड़े Meta के कम्युनिटी स्टैंडर्ड के तहत कंपनी “ऐसे कंटेंट को हटा देती है जो अपहरण का चित्रण करता हो, अगर यह स्पष्ट हो कि वह कंटेंट पीड़ित या उनके परिवार की ओर से मदद करने की अपील के रूप में शेयर नहीं किया गया है या जानकारी देने, निंदा करने या जागरूकता फैलाने के उद्देश्यों के लिए शेयर नहीं किया गया है.”
7 अक्टूबर को हमास के हमले शुरू होने के समय, Meta ने पहचाने जाने लायक पीड़ितों पर अलग से किए गए हमलों के पलों को दिखाने वाले वीडियो पर खतरनाक संगठनों और लोगों से जुड़ी अपनी पॉलिसी का कठोर एन्फ़ोर्समेंट शुरू कर दिया. Meta ने 13 अक्टूबर को अपनी न्यूज़रूम पोस्ट में अपने इस नज़रिए की जानकारी देते हुए कहा कि उसने ऐसा “उन लोगों की सुरक्षा को प्राथमिकता देने के लिए किया जिनका हमास द्वारा अपहरण किया गया है.” इसीलिए इन दो केसों में शामिल दो कंटेंट को खतरनाक संगठनों और लोगों से जुड़ी Meta की पॉलिसी का उल्लंघन करने के कारण हटा दिया गया.
इस फ़ैसले के बाद, कई न्यूज़ आउटलेट ने इनसे संबंधित फ़ुटेज को ब्रॉडकास्ट करना शुरू कर दिया और यूज़र ने भी हमलों के बारे में जागरूकता फैलाने और उनकी निंदा करने के लिए मिलते-जुलते कंटेंट को पोस्ट करना शुरू कर दिया. परिणामस्वरूप, 20 अक्टूबर को या उसके आसपास, Meta ने अपनी पॉलिसीज़ को अपडेट करते हुए इस फ़ुटेज को सिर्फ़ जागरूकता फैलाने या अत्याचारों की निंदा करने के संदर्भ में शेयर करने की यूज़र्स को परमिशन दी और यूज़र्स को यह सूचित करने के लिए चेतावनी स्क्रीन लगाई कि फ़ुटेज में परेशान करने वाला कंटेंट हो सकता है. Meta ने 13 अक्टूबर की अपनी मूल न्यूज़रूम पोस्ट का बदलाव दिखाने के लिए 5 दिसंबर के अपडेट में अपनी पॉलिसी में यह बदलाव प्रकाशित किया (अतिरिक्त जानकारी और बैकग्राउंड के लिए इज़राइल से बंधकों का अपहरण देखें).
Meta ने शुरुआत में इन दो केसों में Facebook से दोनों कंटेंट को हटा दिया. यूज़र ने Meta के फ़ैसलों के खिलाफ़ बोर्ड में अपील की. बोर्ड द्वारा इन केसों को Meta के ध्यान में लाए जाने के बाद, कंपनी ने पाया कि अपडेट की गई पॉलिसीज़ में दी गई छूट को देखते हुए, ये पोस्ट अब उसकी पॉलिसीज़ का उल्लंघन नहीं करतीं और कंपनी ने दोनों पोस्ट को रीस्टोर कर दिया.
बोर्ड का प्राधिकार और दायरा
बोर्ड को उस व्यक्ति के अपील करने के बाद Meta के फ़ैसले का रिव्यू करने का अधिकार है, जिसका कंटेंट हटा दिया गया था (चार्टर आर्टिकल 2, सेक्शन 1; उपनियम अनुच्छेद 3, सेक्शन 1).
जहाँ बोर्ड द्वारा रिव्यू किए जा रहे केस में Meta यह स्वीकार करता है कि उससे गलती हुई है और वह अपना फ़ैसला पलट देता है, वहाँ बोर्ड उस केस का चुनाव संक्षिप्त फ़ैसले के लिए कर सकता है (उपनियम अनुच्छेद 2, सेक्शन 2.1.3). बोर्ड, कंटेंट मॉडरेशन प्रोसेस के बारे में ज़्यादा जानकारी पाने, गलतियों में कमी लाने और Facebook और Instagram के यूज़र्स के लिए निष्पक्षता बढ़ाने के लिए मूल फ़ैसले का रिव्यू करता है.
केस का महत्व
ये दो केस, संघर्ष की ऐसी उच्च जोखिम वाली स्थिति में कंटेंट को एन्फ़ोर्स करने में Meta को आने वाली चुनौतियों को हाइलाइट करते हैं जो लगातार और तेज़ी से बदलती है. जैसा कि बोर्ड ने “इज़राइल से बंधकों का अपहरण” केस के अपने त्वरित फ़ैसले में पाया, बंधकों को दिखाने वाले कंटेंट को प्रतिबंधित करने की Meta की शुरुआती पॉलिसी में उन बंधकों की गरिमा की रक्षा की गई थी और उनका लक्ष्य यह था कि उन्हें लोगों की जिज्ञासा का विषय न बनने दिया जाए. हालाँकि, बोर्ड ने पाया कि अपवाद वाली परिस्थितियों में, व्यापक लोकहित या बंधकों के हित में होने पर, कुछ समय के लिए और सीमित छूट दी जा सकती है. संदर्भ को देखते हुए, “परेशान करने वाले के रूप में चिह्नित” चेतावनी स्क्रीन के साथ इस तरह के कंटेंट को प्लेटफ़ॉर्म पर रीस्टोर करना, Meta की कंटेंट पॉलिसी, वैल्यू और मानवाधिकार से जुड़ी ज़िम्मेदारियों के अनुसार है. यह अंतरराष्ट्रीय मानवतावादी कानून और भविष्य में जवाबदेही के लिए कथित उल्लंघनों के डॉक्यूमेंट की रक्षा करने के आचरण के साथ-साथ लोगों की जागरूकता बढ़ाने के लिए भी सही होगा. इस केस में, बोर्ड ने यह भी नोट किया कि सभी यूज़र्स के लिए इस अपवाद के उपयोग को लागू करने में Meta ने बहुत समय लिया और यह कि संघर्ष के दौरान कंटेंट को मॉडरेशन को लेकर कंपनी के लगातार तेज़ी से बदलते नज़रिए से पारदर्शिता की लगातार कमी जुड़ी हुई है.
पहले बोर्ड ने ऐसे कई सुझाव दिए हैं जो इस केस के लिए प्रासंगिक हैं. बोर्ड ने पहले सुझाव दिया है कि Meta अपने कम्युनिटी स्टैंडर्ड के अपवादों, “उनकी अवधि और उनकी समाप्ति के नोटिस की घोषणा करे, ताकि उसके प्लेटफ़ॉर्म का उपयोग करने वाले लोगों को पॉलिसी में कुछ खास अभिव्यक्ति की छूट देने वाले बदलावों की सूचना मिल सके” (ईरान में विरोध प्रदर्शन का स्लोगन, सुझाव सं. 5). Meta ने इस सुझाव को आंशिक रूप से लागू किया है, जैसा कि प्रकाशित जानकारी द्वारा दिखाया गया है. बोर्ड ने पहले यह सुझाव भी दिया है कि भविष्य की जवाबदेही को देखते हुए Meta उन साक्ष्यों की रक्षा करे जो संभावित युद्ध अपराधों, मानवता के विरुद्ध अपराध और मानवाधिकारों के गंभीर उल्लंघन से संबंधित होते हैं ( सूडान का आपत्तिजनक वीडियो, सुझाव सं. 1 और आर्मेनिया के युद्धबंदियों का वीडियो, सुझाव सं. 1). Meta ने इस सुझाव को लागू करने की सहमति दी है और इस पर काम चल रहा है. बोर्ड ने Meta की ओर से इन सुझावों पर काम करने की ज़रूरत पर ज़ोर दिया ताकि यह सुनिश्चित किया जा सके कि मानवाधिकारों से जुड़े कंटेंट को उसके प्लेटफ़ॉर्म्स पर सटीकता से एन्फ़ोर्स किया जा सके.
फ़ैसला
बोर्ड ने दो पोस्ट के कंटेंट को हटाने के Meta के मूल फ़ैसलों को पलट दिया. बोर्ड द्वारा दो केसों को Meta के ध्यान में लाए जाने के बाद, Meta द्वारा मूल फ़ैसलों की गलती में किए गए सुधारों को बोर्ड ने स्वीकार किया.