एकाधिक मामले का निर्णय

थाई बंधकों के वार्ताकार का इंटरव्यू

बोर्ड ने Facebook की दो ऐसी पोस्ट का रिव्यू किया जिनमें Sky News के एक वीडियो इंटरव्यू के दो लगभग समान सेगमेंट थे जिनमें बंधकों को छुड़ाने वाले एक थाई वार्ताकार का हमास द्वारा कैद किए गए लोगों को छुड़ाने का अनुभव बताया गया था. जब बोर्ड ने Meta का ध्यान इन अपीलों पर आकर्षित किया, तो कंपनी ने अपना मूल फ़ैसला पलट दिया और सभी पोस्ट को रीस्टोर कर दिया.

2 इस बंडल में केस शामिल हैं

पलट जाना

FB-XO941WWQ

Facebook पर खतरनाक लोग और संगठन से जुड़ा केस

प्लैटफ़ॉर्म
Facebook
विषय
न्यूज़ ईवेंट,हिंसा,युद्ध और मतभेद
मानक
ख़तरनाक लोग और संगठन
जगह
इज़राइल,फ़िलिस्तीनी क्षेत्र,थाईलैंड
Date
पर प्रकाशित 18 अप्रैल 2024
पलट जाना

FB-U3Y5VV2E

Facebook पर खतरनाक लोग और संगठन से जुड़ा केस

प्लैटफ़ॉर्म
Facebook
विषय
न्यूज़ ईवेंट,हिंसा,युद्ध और मतभेद
मानक
ख़तरनाक लोग और संगठन
जगह
इज़राइल,फ़िलिस्तीनी क्षेत्र,थाईलैंड
Date
पर प्रकाशित 18 अप्रैल 2024

यह संक्षिप्त फ़ैसला है.संक्षिप्त फ़ैसलों में उन केसों का परीक्षण किया जाता है जिनमें बोर्ड द्वारा कंटेंट पर Meta का ध्यान आकर्षित के बाद कंपनी ने कंटेंट के बारे में अपने मूल फ़ैसले को पलटा है और इसमें Meta द्वारा मानी गई गलतियों की जानकारी होती है. उन्हें पूरे बोर्ड के बजाय, बोर्ड के किसी सदस्य द्वारा स्वीकृत किया जाता है, उनमें पब्लिक कमेंट शामिल नहीं होते और उन्हें बोर्ड द्वारा आगे के फ़ैसलों के लिए आधार नहीं बनाया जा सकता. संक्षिप्त फ़ैसले, Meta के फ़ैसलों में सीधे बदलाव लाते हैं, इन सुधारों के बारे में पारदर्शिता देते हैं और साथ ही यह बताते हैं कि Meta अपने एन्फ़ोर्समेंट में कहाँ सुधार कर सकता है.

सारांश

बोर्ड ने Facebook की दो ऐसी पोस्ट का रिव्यू किया जिनमें Sky News के एक वीडियो इंटरव्यू के दो लगभग समान सेगमेंट थे जिनमें बंधकों को छुड़ाने वाले एक थाई वार्ताकार का हमास द्वारा कैद किए गए लोगों को छुड़ाने का अनुभव बताया गया था. जब बोर्ड ने Meta का ध्यान इन अपीलों पर आकर्षित किया, तो कंपनी ने अपना मूल फ़ैसला पलट दिया और सभी पोस्ट को रीस्टोर कर दिया.

केस की जानकारी

दिसंबर 2023 में, दो यूज़र्स ने अपनी पोस्ट को हटाने के Meta के फ़ैसलों के खिलाफ़ अपील की. दोनों पोस्ट में लगभग एक जैसी क्लिप थी जिनमें नवंबर 2023 में Sky News द्वारा प्रसारित एक इंटरव्यू था. इस वीडियो में थाईलैंड के एक वार्ताकार को दिखाया गया था जिसने वार्ताकारों की एक अनौपचारिक टीम का नेतृत्व किया था और इज़राइल में 7 अक्टूबर को हमास द्वारा बंधक बनाए गए थाई नागरिकों को छुड़वाया था.

क्लिप में, इंटरव्यू देने वाले ने बातचीत में अपने हिस्से की भूमिका बताई. उसने कहा कि वह मानता है कि थाई बंधकों और अन्य सभी बंधकों की हमास ने “अच्छी तरह देखभाल की” क्योंकि वे इस्लामी कानून को मानते हैं और उसने कहा कि थाई बंधकों को छोड़ने के लिए हमास ने कोई शर्त नहीं रखी थी.

वार्ताकार, जो फ़िलिस्तीनी लोगों से सहानुभूति रखता है, ने कहा कि अधिकृत क्षेत्रों में इज़राइल, फ़िलिस्तीनी लोगों के साथ दशकों से दुर्व्यवहार कर रहा है. उसने कहा कि हमास “सैनिकों को टार्गेट” कर रहा था और उसने कहा कि “फ़िलिस्तीनी लोगों की मदद के लिए” और “फ़िलिस्तीनी लोगों से दुर्व्यवहार की ओर पूरी दुनिया का ध्यान खींचने के लिए” लोगों को बंधक बनाना सही था.”

बोर्ड को की गई अपनी अपील में दोनों यूज़र ने कहा कि उन्होंने वीडियो को थाई वार्ताकार के बयानों पर ध्यान आकर्षित करने के लिए पोस्ट किया था लेकिन इसके पीछे का कारण कुछ और था. एक यूज़र ने कहा कि उनका इरादा इंटरव्यू को हाइलाइट करना था जिसमें “हमास को एक संतुलित नज़रिए से दिखाया गया था” जबकि सामान्य तौर पर उसे “पश्चिमी प्रोपेगंडा मशीन” के नज़रिए से देखा जाता है. यूज़र ने कैप्शन में बताया कि वार्ताकार इस धारणा को मानने से इंकार करता है और आगे बताता है कि उसकी पोस्ट को पहले इसलिए सेंसर कर दिया गया था क्योंकि कमेंट में किसी खास राजनैतिक संगठन का नाम था. दूसरी पोस्ट में, यूज़र, जिसने वीडियो को बिना किसी कैप्शन या कमेंटरी के पोस्ट किया था, ने कहा कि वे “उन सहयोगियों को चुनौती दे रहे थे” जो हमास के समर्थन में झूठ बोलते हैं और हेराफेरी करते हैं.

Meta ने शुरुआत में पोस्ट को यह कहते हुए Facebook से हटा दिया था कि वह खतरनाक संगठनों और लोगों से जुड़ी उसकी पॉलिसी का उल्लंघन करती है. इस पॉलिसी के तहत कंपनी, खतरनाक चिह्नित लोगों और संगठनों के “महिमामंडन” (पहले “प्रशंसा”), “समर्थन” और “प्रतिनिधित्व” को प्रतिबंधित करती है. हालाँकि, पॉलिसी में यह माना गया है कि “यूज़र्स ऐसा कंटेंट शेयर कर सकते हैं जिसमें सामाजिक और राजनैतिक बातचीत में चिह्नित खतरनाक संगठनों और लोगों का उल्लेख किया गया हो.” इसमें खतरनाक संगठनों और लोगों या उनकी गतिविधियों की रिपोर्ट करने, निष्पक्ष रूप से चर्चा करने या उनकी निंदा करने वाला कंटेंट शामिल है.”

जब बोर्ड ने Meta के ध्यान में ये केस लाए, तो कंपनी ने पाया कि इन पोस्ट में “ऐसा कोई कैप्शन शामिल नहीं था जो किसी खतरनाक संगठन या व्यक्ति की महिमामंडन, समर्थन या प्रतिनिधित्व करता हो.” इसके अलावा, वीडियो को “पहले भी Sky News और अन्य न्यूज़ आउटलेट द्वारा Facebook पर शेयर किया जा चुका है… और [इसलिए] वह न्यूज़ रिपोर्टिंग से जुड़ी छूट के दायरे में आता है.” Meta ने दोनों पोस्ट को रीस्टोर कर दिया.

बोर्ड का प्राधिकार और दायरा

बोर्ड को उस यूज़र के अपील करने के बाद Meta के फ़ैसले का रिव्यू करने का अधिकार है, जिसका कंटेंट हटा दिया गया था (चार्टर अनुच्छेद 2, सेक्शन 1; उपनियम अनुच्छेद 3, सेक्शन 1).

जहाँ बोर्ड द्वारा रिव्यू किए जा रहे केस में Meta यह स्वीकार करता है कि उससे गलती हुई है और वह अपना फ़ैसला पलट देता है, वहाँ बोर्ड उस केस का चुनाव संक्षिप्त फ़ैसले के लिए कर सकता है (उपनियम अनुच्छेद 2, सेक्शन 2.1.3). बोर्ड कंटेंट मॉडरेशन प्रोसेस के बारे में ज़्यादा जानकारी पाने, गलतियाँ कम करने और Facebook और Instagram का उपयोग करने वाले लोगों के लिए निष्पक्षता बढ़ाने के लिए मूल फ़ैसले का रिव्यू करता है.

केस की सार्थकता

ये केस बताते हैं कि कंपनी के खतरनाक संगठनों और लोगों से जुड़े कम्युनिटी स्टैंडर्ड का लगातार ज़रूरत से ज़्यादा एन्फ़ोर्समेंट हो रहा है, जैसा कि बोर्ड ने पुराने फ़ैसलों में हाइलाइट किया है. अगर इस पॉलिसी को लागू करने में बार-बार गलतियाँ होती हैं, तो इससे निष्पक्ष कमेंटरी, न्यूज़ रिपोर्टिंग और निंदा करने वाली पोस्ट पर यूज़र की एक्सेस में कमी आती है जो अभिव्यक्ति की आज़ादी के लिए ज़रूरी है.

अपने एक पुराने फ़ैसले में बोर्ड ने Meta से कहा था कि वह “अपनी ट्रांसपेरेंसी रिपोटर् में खतरनाक संगठनों और लोगों से जुड़े कम्युनिटी स्टैंडर्डको लागू करने में होने वाली गलतियों की दर का ज़्यादा व्यापक डेटा शामिल करे,” ( ओजलान का एकांतवास, सुझाव सं. 12), जिसे व्यवहार्यता का आकलन करने के बाद कंपनी ने लागू करने से इंकार कर दिया.

इसके अलावा, ह्यूमन रिव्यूअर्स को बेहतर मार्गदर्शन देने के लिए बोर्ड ने सुझाव दिया था कि Meta खतरनाक संगठनों और लोगों से जुड़े अपने कम्युनिटी स्टैंडर्ड की पॉलिसी में शर्तें और वर्णनात्मक उदाहरण जोड़े ताकि अपवादों के बारे में लोगों की समझ बढ़े, खास तौर पर निष्पक्ष चर्चा और न्यूज़ रिपोर्टिंग के संबंध में,” (अल जज़ीरा की शेयर की गई पोस्ट, सुझाव सं. 1). यह सुझाव खास तौर पर प्रासंगिक है क्योंकि वह इज अल-दीन अल-कसम ब्रिगेड, जो फ़िलिस्तीनी समूह हमास की सैन्य शाखा है, की हिंसा की धमकी से जुड़ी न्यूज़ पोस्ट को हटाने से संबंधित है. बोर्ड ने Meta को यह सलाह भी दी कि “सिस्टम की जिन समस्याओं के कारण एन्फ़ोर्समेंट में गलतियाँ हो रही हैं, उनका पता लगाने के लिए… Meta को रिपोर्टिंग की छूट देने वाले रिव्यूअर्स की सटीकता का आकलन करना चाहिए,” ( न्यूज़ रिपोर्टिंग में तालिबान का उल्लेख, सुझाव सं. 5). Meta ने न्यूज़ रिपोर्टिंग में तालिबान का उल्लेख, सुझाव सं. 5 के दोनों सुझावों को लागू करना रिपोर्ट किया, लेकिन इसे दिखाने के लिए उसने कोई भी जानकारी प्रकाशित नहीं की.

बोर्ड ने वीडियो वाली पोस्ट को मॉडरेट करने में सुधार लाने संबंधी सुझाव दिए हैं और उसने कंपनी से कहा है कि वह “लॉन्ग फ़ॉर्म वीडियो के ज़्यादा सटीक रिव्यू को संभव बनाने के लिए प्रोडक्ट और/या प्रचालन संबंधी मार्गदर्शन में बदलाव करे,” ( कंबोडियाई प्रधानमंत्री, सुझाव सं. 5). जवाब में, Meta ने ओवरसाइट बोर्ड को दिए Q3 2023 के अपने तिमाही अपडेट मेंकहा कि वह “लॉन्ग-फ़ॉर्म वीडियो रिव्यू की अपनी प्रोसेस और मीट्रिक निर्माण और मूल्यांकन के लिए नए सुधारों पर काम करना जारी रखेगा”.

बोर्ड मानता है कि इन सुझावों को पूरी तरह लागू करने से खतरनाक संगठनों और लोगों से जुड़ी Meta की पॉलिसी के तहत एन्फ़ोर्समेंट की गलतियों की संख्या कम हो सकती है.

फ़ैसला

बोर्ड ने संबंधित कंटेंट को हटाने के Meta के मूल फ़ैसलों को पलट दिया. बोर्ड द्वारा केसों को Meta के ध्यान में लाए जाने के बाद, Meta द्वारा मूल फ़ैसलों की गलती में किए गए सुधारों को बोर्ड ने स्वीकार किया.

मामले के निर्णयों और नीति सलाहकार राय पर लौटें