पलट जाना
इज़राइल-फ़िलिस्तीन के बारे में वॉशिंगटन पोस्ट का आर्टिकल
4 अप्रैल 2024
एक यूज़र ने एक ऐसी Facebook पोस्ट को हटाने के Meta के फ़ैसले के खिलाफ़ अपील की जिसमें वॉशिंगटन पोस्ट के एक आर्टिकल का लिंक था. इस आर्टिकल में इज़राइल-फ़िलिस्तीन संघर्ष का घटनाक्रम बताया गया था. जब बोर्ड ने Meta का ध्यान अपील पर आकर्षित किया, तो कंपनी ने अपना मूल फ़ैसला पलट दिया और पोस्ट को रीस्टोर कर दिया.
यह संक्षिप्त फ़ैसला है.संक्षिप्त फ़ैसलों में उन केसों का परीक्षण किया जाता है जिनमें बोर्ड द्वारा कंटेंट पर Meta का ध्यान आकर्षित के बाद कंपनी ने कंटेंट के बारे में अपने मूल फ़ैसले को पलटा है और इसमें Meta द्वारा मानी गई गलतियों की जानकारी होती है. उन्हें पूरे बोर्ड के बजाय, बोर्ड के किसी सदस्य द्वारा स्वीकृत किया जाता है, उनमें पब्लिक कमेंट शामिल नहीं होते और उन्हें बोर्ड द्वारा आगे के फ़ैसलों के लिए आधार नहीं बनाया जा सकता. संक्षिप्त फ़ैसले, Meta के फ़ैसलों में सीधे बदलाव लाते हैं, इन सुधारों के बारे में पारदर्शिता देते हैं और साथ ही यह बताते हैं कि Meta अपने एन्फ़ोर्समेंट में कहाँ सुधार कर सकता है.
केस का सारांश
एक यूज़र ने एक ऐसी Facebook पोस्ट को हटाने के Meta के फ़ैसले के खिलाफ़ अपील की जिसमें वॉशिंगटन पोस्ट के एक आर्टिकल का लिंक था. इस आर्टिकल में इज़राइल-फ़िलिस्तीन संघर्ष का घटनाक्रम बताया गया था. जब बोर्ड ने Meta का ध्यान अपील पर आकर्षित किया, तो कंपनी ने अपना मूल फ़ैसला पलट दिया और पोस्ट को रीस्टोर कर दिया.
केस की जानकारी और बैकग्राउंड
अक्टूबर 2023 में, Facebook के एक यूज़र ने वॉशिंगटन पोस्ट के एक आर्टिकल का लिंक पोस्ट किया जिसमें इज़राइल-फ़िलिस्तीन संघर्ष का घटनाक्रम बताया गया था. आर्टिकल के प्रीव्यू, जिसे लिंक के साथ अपने आप शामिल किया गया था, में हमास का उल्लेख था. यूज़र ने पोस्ट के साथ कोई कैप्शन नहीं जोड़ा या कोई अतिरिक्त संदर्भ नहीं दिया.
इस Facebook पोस्ट को Meta की खतरनाक संगठनों और लोगों से जुड़ी पॉलिसी के तहत हटा दिया गया था. इस पॉलिसी के तहत ऐसे समूहों और लोगों का निरूपण और उनके बारे में कुछ खास तरह के कथन प्रतिबंधित हैं, जिनके कारण कंपनी के अनुसार असली जीवन में लोगों को गंभीर नुकसान हो सकता है.
बोर्ड को की गई अपनी अपील में, यूज़र ने इस बात पर ज़ोर दिया कि पोस्ट का उद्देश्य इज़राइल-हमास के बीच फ़िलहाल जारी संघर्ष की रिपोर्ट करना था और उसका उद्देश्य हमास या किसी अन्य खतरनाक संगठन का समर्थन करना नहीं था.
बोर्ड द्वारा इस केस को Meta के ध्यान में लाए जाने के बाद, कंपनी ने पाया कि कंटेंट से खतरनाक संगठनों और लोगों से जुड़ी पॉलिसी का उल्लंघन नहीं हुआ क्योंकि कंटेंट में हमास का उल्लेख न्यूज़ रिपोर्टिंग के संदर्भ में किया गया है जिसकी परमिशन इस पॉलिसी में दी गई है. कंपनी ने फिर कंटेंट को Facebook पर रीस्टोर कर दिया.
बोर्ड का प्राधिकार और दायरा
बोर्ड को उस व्यक्ति के अपील करने के बाद Meta के फ़ैसले का रिव्यू करने का अधिकार है, जिसका कंटेंट हटा दिया गया था (चार्टर आर्टिकल 2, सेक्शन 1; उपनियम अनुच्छेद 3, सेक्शन 1).
जहाँ बोर्ड द्वारा रिव्यू किए जा रहे केस में Meta यह स्वीकार करता है कि उससे गलती हुई है और वह अपना फ़ैसला पलट देता है, वहाँ बोर्ड उस केस का चुनाव संक्षिप्त फ़ैसले के लिए कर सकता है (उपनियम अनुच्छेद 2, सेक्शन 2.1.3). बोर्ड कंटेंट मॉडरेशन प्रोसेस के बारे में ज़्यादा जानकारी पाने, गलतियाँ कम करने और Facebook और Instagram के यूज़र्स के लिए निष्पक्षता बढ़ाने के लिए मूल फ़ैसले का रिव्यू करता है.
केस का महत्व
यह केस एक मामले को हाइलाइट करता है जिसमें Meta ने खतरनाक संगठनों और लोगों से जुड़ी पॉलिसी का ज़रूरत से ज़्यादा एन्फ़ोर्समेंट किया, खास तौर पर उन एंटिटी की न्यूज़ रिपोर्टिंग के बारे में जिन्हें कंपनी खतरनाक के रूप में चिह्नित करती है. यह एक बार-बार होने वाली समस्या है जिसे मौजूदा इज़राइल-हमास संघर्ष के दौरान अक्सर देखा जाता है. इनमें से एक पार्टी, एक चिह्नित संगठन है. बोर्ड ने खतरनाक संगठनों और लोगों से जुड़ी पॉलिसी के तहत न्यूज़ रिपोर्टिंग की परमिशन के संबंध में कई सुझाव दिए हैं. इसकी महत्वपूर्ण छूट को लागू करने में लगातार हो रही गलतियों के कारण यूज़र्स की मुक्त अभिव्यक्ति और जानकारी तक लोगों की एक्सेस गंभीर रूप से सीमित हो सकती है और सार्वजनिक बातचीत में रुकावट आ सकती है.
अपने एक पुराने फ़ैसले में, बोर्ड ने यह सुझाव दिया कि “सिस्टम की जिन समस्याओं के कारण एन्फ़ोर्समेंट में गलतियाँ हो रही हैं, उनका पता लगाने के लिए Meta को खतरनाक संगठनों और लोगों से जुड़ी पॉलिसी के तहत रिपोर्टिंग की छूट देने वाले रिव्यूअर्स की सटीकता का आकलन करे,” ( न्यूज़ रिपोर्टिंग में तालिबान का उल्लेख, सुझाव क्र. 5). Meta ने इसका क्रियान्वयन रिपोर्ट करते हुए कहा कि वह इस काम को पहले से करता आ रहा है, लेकिन इसे साबित करने के लिए कोई जानकारी प्रकाशित नहीं की जाती. बोर्ड ने यह सुझाव भी दिया कि Meta “खतरनाक संगठनों और लोगों से जुड़ी अपनी पॉलिसी में शर्तें और वर्णनात्मक उदाहरण जोड़े ताकि निष्पक्ष चर्चा, निंदा और न्यूज़ रिपोर्टिंग को मिलने वाली छूट के बारे में लोगों की समझ बढ़े,” ( अल जज़ीरा की शेयर की गई पोस्ट, सुझाव सं. 1). इस सुझाव का क्रियान्वयन, प्रकाशित जानकारी द्वारा दिखाया गया था. इसके अलावा, बोर्ड ने सुझाव दिया कि Meta अपनी ट्रांसपेरेंसी रिपोर्टिंग में “खतरनाक लोगों और संगठनों की ‘प्रशंसा’ और ‘समर्थन’ पर एन्फ़ोर्स किए जाने वाले नियमों से जुड़े गड़बड़ी के रेट की ज़्यादा व्यापक जानकारी शामिल करे,” ( ओजलान का एकांतवास, सुझाव सं. 12). व्यवहार्यता का आकलन करने के बाद, Meta ने इस सुझाव को लागू करने से मना कर दिया. 29 दिसंबर, 2023 को अपनी पॉलिसी में एक अपडेट में Meta अब अपने कम्युनिटी स्टैंडर्ड में “प्रशंसा” के बजाय “महिमामंडन” शब्द का उपयोग करता है.
बोर्ड मानता है कि इन सुझावों को पूरी तरह लागू करने से खतरनाक संगठनों और लोगों से जुड़ी Meta की पॉलिसी के तहत एन्फ़ोर्समेंट की गलतियों की संख्या कम हो सकती है.
फ़ैसला
बोर्ड ने संबंधित कंटेंट को हटाने के Meta के मूल फ़ैसले को पलट दिया. बोर्ड द्वारा केस को Meta के ध्यान में लाए जाने के बाद, Meta द्वारा मूल फ़ैसले की गलती में किए गए सुधार को बोर्ड ने स्वीकार किया.