पलट जाना

गाज़ा की मीटिंग का अनुभव बताने वाला पत्रकार

एक पत्रकार ने अपनी उस Facebook पोस्ट को हटाने के Meta के फ़ैसले के खिलाफ़ अपील की जिसमें उन्होंने हमास के सह-संस्थापक अब्देल-अज़ीज़ अल-रंतीसी का इंटरव्यू लेने का अपना निजी अनुभव बताया था. यह केस, खतरनाक संगठनों और लोगों से जुड़ी कंपनी की पॉलिसी के ज़रूरत से ज़्यादा एन्फ़ोर्समेंट की बार-बार होने वाली समस्या को हाइलाइट करता है, खास तौर पर निष्पक्ष पोस्ट के संबंध में. जब बोर्ड ने Meta का ध्यान अपील पर आकर्षित किया, तो कंपनी ने अपना मूल फ़ैसला पलट दिया और पोस्ट को रीस्टोर कर दिया.

निर्णय का प्रकार

सारांश

नीतियां और विषय

विषय
अभिव्यक्ति की स्वतंत्रता, न्यूज़ ईवेंट, युद्ध और मतभेद
सामुदायिक मानक
ख़तरनाक लोग और संगठन

क्षेत्र/देश

जगह
फ़िलिस्तीनी क्षेत्र, स्पेन

प्लैटफ़ॉर्म

प्लैटफ़ॉर्म
Facebook

यह संक्षिप्त फ़ैसला है.संक्षिप्त फ़ैसलों में उन केसों का परीक्षण किया जाता है जिनमें बोर्ड द्वारा कंटेंट पर Meta का ध्यान आकर्षित के बाद कंपनी ने कंटेंट के बारे में अपने मूल फ़ैसले को पलटा है औरइसमें Meta द्वारा मानी गई गलतियों की जानकारी होती है. उन्हें पूरे बोर्ड के बजाय,बोर्ड के किसी सदस्य द्वारा स्वीकृत किया जाता है, उनमें पब्लिक कमेंट शामिल नहीं होते और उन्हें बोर्ड द्वारा आगे के फ़ैसलों के लिए आधार नहीं बनाया जा सकता. संक्षिप्त फ़ैसले, Meta के फ़ैसलों में सीधे बदलाव लाते हैं, इन सुधारों के बारे में पारदर्शिता देते हैं और साथ ही यह बताते हैं कि Meta अपने एन्फ़ोर्समेंट में कहाँ सुधार कर सकता है.

केस का सारांश

एक पत्रकार ने अपनी उस Facebook पोस्ट को हटाने के Meta के फ़ैसले के खिलाफ़ अपील की जिसमें उन्होंने हमास के सह-संस्थापक अब्देल-अज़ीज़ अल-रंतीसी का इंटरव्यू लेने का अपना निजी अनुभव बताया था. यह केस, खतरनाक संगठनों और लोगों से जुड़ी कंपनी की पॉलिसी के ज़रूरत से ज़्यादा एन्फ़ोर्समेंट की बार-बार होने वाली समस्या को हाइलाइट करता है, खास तौर पर निष्पक्ष पोस्ट के संबंध में. जब बोर्ड ने Meta का ध्यान अपील पर आकर्षित किया, तो कंपनी ने अपना मूल फ़ैसला पलट दिया और पोस्ट को रीस्टोर कर दिया.

केस की जानकारी और बैकग्राउंड

7 अक्टूबर, 2023 को इज़राइल पर आतंकवादी हमलों के ठीक बाद, एक पत्रकार ने Facebook पर एक पोस्ट की जिसमें उन्होंने हमास के सह-संस्थापक अब्देल-अज़ीज़ अल-रंतीसी का इंटरव्यू लेने की यादें शेयर की थीं. हमास, Meta की खतरनाक संगठनों और लोगों से जुड़ी पॉलिसी में चिह्नित एक टियर 1 का संगठन है. पोस्ट में पत्रकार की गाज़ा की यात्रा, हमास के सदस्यों और स्थानीय निवासियों से उनकी मुलाकात के साथ-साथ अल-रंतीसी को ढूँढने और उनके इंटरव्यू की जानकारी है. पोस्ट में चार फ़ोटोग्राफ़ हैं, जिनमें अल-रंतीसी, इंटरव्यू लेने वाला व्यक्ति और हमास के नकाब पहने आतंकवादी हैं.

बोर्ड को की गई अपनी अपील में, यूज़र ने यह स्पष्ट किया कि उनका इरादा लोगों को गाज़ा की अपनी यात्रा और हमास के एक मूल संस्थापक के इंटरव्यू के बारे में जानकारी देना था.

Meta ने पोस्ट को यह कहते हुए Facebook से हटा दिया था कि वह खतरनाक संगठनों और लोगों से जुड़ी उसकी पॉलिसी का उल्लंघन करती है. इस पॉलिसी के तहत कंपनी अपने प्लेटफ़ॉर्म से ऐसे खास कंटेंट को हटा देती है जो उसके द्वारा खतरनाक चिह्नित किए गए लोगों और संगठनों से संबंधित होता है. हालाँकि, पॉलिसी में यह माना गया है कि “यूज़र्स ऐसा कंटेंट शेयर कर सकते हैं जिसमें सामाजिक और राजनैतिक बातचीत में चिह्नित खतरनाक संगठनों और लोगों का उल्लेख किया गया हो.” इसमें खतरनाक संगठनों और लोगों या उनकी गतिविधियों की रिपोर्ट करने, निष्पक्ष रूप से चर्चा करने या उनकी निंदा करने वाला कंटेंट शामिल है.”

बोर्ड द्वारा इस केस को Meta के ध्यान में लाए जाने के बाद, कंपनी ने पाया कि “कंटेंट स्थितिपरक जागरूकता बढ़ाने के लिए लक्षित है” और इसलिए वह खतरनाक संगठनों और लोगों से जुड़े कम्युनिटी स्टैंडर्ड का उल्लंघन नहीं करता. Meta ने “खतरनाक संगठनों और लोगों की एक्टिविटी या व्यवहार के निष्पक्ष और सूचनाप्रद विवरण” के संदर्भ में सामाजिक और राजनैतिक बातचीत से जुड़ी छूट का उल्लेख किया. इसके अलावा, Meta ने कहा कि “सामाजिक और राजनैतिक बातचीत से जुड़ा संदर्भ स्पष्ट रूप से कंटेंट में बताया गया है, इसलिए इस केस में यूज़र के इरादे के बारे में कोई अस्पष्टता नहीं है.”

बोर्ड का प्राधिकार और दायरा

बोर्ड को उस यूज़र के अपील करने के बाद Meta के फ़ैसले का रिव्यू करने का अधिकार है, जिसका कंटेंट हटा दिया गया था (चार्टर अनुच्छेद 2, सेक्शन 1; उपनियम अनुच्छेद 3, सेक्शन 1).

जहाँ बोर्ड द्वारा रिव्यू किए जा रहे केस में Meta यह स्वीकार करता है कि उससे गलती हुई है और वह अपना फ़ैसला पलट देता है, वहाँ बोर्ड उस केस का चुनाव संक्षिप्त फ़ैसले के लिए कर सकता है (उपनियम अनुच्छेद 2, सेक्शन 2.1.3). बोर्ड कंटेंट मॉडरेशन प्रोसेस के बारे में ज़्यादा जानकारी पाने, गलतियाँ कम करने और Facebook और Instagram का उपयोग करने वाले लोगों के लिए निष्पक्षता बढ़ाने के लिए मूल फ़ैसले का रिव्यू करता है.

केस का महत्व

यह केस, Meta द्वारा खतरनाक संगठनों और लोगों से जुड़ी पॉलिसी का ज़रूरत से ज़्यादा एन्फ़ोर्समेंट हाइलाइट करता है, खास तौर पर उन एंटिटी की न्यूज़ रिपोर्टिंग के बारे में जिन्हें कंपनी खतरनाक के रूप में चिह्नित करती है. यह एक बार-बार होने वाली समस्या है जिसे इज़राइल-हमास संघर्ष के दौरान अक्सर देखा जाता है. इनमें से एक पार्टी, एक चिह्नित संगठन है. बोर्ड ने खतरनाक संगठनों और लोगों से जुड़ी पॉलिसी के तहत न्यूज़ रिपोर्टिंग की परमिशन के संबंध में कई सुझाव दिए हैं. इसकी महत्वपूर्ण छूट को लागू करने में लगातार हो रही गलतियों के कारण यूज़र्स की मुक्त अभिव्यक्ति और जानकारी तक लोगों की एक्सेस गंभीर रूप से सीमित हो सकती है और सार्वजनिक बातचीत में रुकावट आ सकती है.

पुराने फ़ैसले में, बोर्ड ने सुझाव दिया था कि Meta “खतरनाक संगठनों और लोगों से जुड़ी अपनी पॉलिसी में शर्तें और वर्णनात्मक उदाहरण जोड़े ताकि अपवादों के बारे में लोगों की समझ बढ़े, खास तौर पर निष्पक्ष चर्चा और न्यूज़ रिपोर्टिंग के संबंध में,” ( अल जज़ीरा की शेयर की गई पोस्ट, सुझाव सं. 1). Meta ने इस सुझाव का क्रियान्वयन रिपोर्ट किया, जिसे प्रकाशित जानकारी द्वारा दिखाया गया था. 29 दिसंबर, 2023 को खतरनाक संगठनों और लोगों से जुड़ी पॉलिसी के अपडेट में, Meta ने अपनी व्याख्याओं में संशोधन किया और अब वह अपने कम्युनिटी स्टैंडर्ड में “प्रशंसा” के बजाय “महिमामंडन” का उपयोग करता है.

इसके अलावा, बोर्ड ने यह सुझाव दिया है कि “सिस्टम की जिन समस्याओं के कारण एन्फ़ोर्समेंट में गलतियाँ हो रही हैं, उनका पता लगाने के लिए Meta को खतरनाक संगठनों और लोगों से जुड़ी पॉलिसी के तहत रिपोर्टिंग की छूट देने वाले रिव्यूअर्स की सटीकता का आकलन करना चाहिए,” ( न्यूज़ रिपोर्टिंग में तालिबान का उल्लेख, सुझाव क्र. 5). Meta ने रिपोर्ट किया कि उसने इस सुझाव को लागू कर दिया है लेकिन उसने यह दिखाने के लिए कोई जानकारी प्रकाशित नहीं की है.

ऑटोमेटेड मॉडरेशन के संबंध में, बोर्ड ने Meta से कहा कि वह एन्फ़ोर्समेंट की गलतियों को पलटने और उनसे सीखने के लिए एक आंतरिक ऑडिट प्रोसेस बनाए जिसमें ऑटोमेटेड साधनों से हटाने के फ़ैसलों में शामिल कंटेंट के सांख्यिकीय प्रतिनिधि नमूने का लगातार विश्लेषण किया जाए ( ब्रेस्ट कैंसर के लक्षण और नग्नता, सुझाव सं. 5) जिसका क्रियान्वयन Meta ने रिपोर्ट किया है.

बोर्ड मानता है कि इन सुझावों को पूरी तरह लागू करने से खतरनाक संगठनों और लोगों से जुड़ी Meta की पॉलिसी के तहत एन्फ़ोर्समेंट की गलतियों की संख्या कम हो सकती है.

फ़ैसला

बोर्ड ने संबंधित कंटेंट को हटाने के Meta के मूल फ़ैसले को पलट दिया. बोर्ड द्वारा केस को Meta के ध्यान में लाए जाने के बाद, Meta द्वारा मूल फ़ैसले की गलती में किए गए सुधार को बोर्ड ने स्वीकार किया.

मामले के निर्णयों और नीति सलाहकार राय पर लौटें