पलट जाना

सोमालिया के भविष्य के बारे में पत्रकारितापूर्ण वीडियो

एक यूज़र ने एक ऐसे वीडियो को हटाने के Meta के फ़ैसले के खिलाफ़ अपील की जिसमें सोमालिया में अंतरराष्ट्रीय कॉन्फ़्रेंस की न्यूज़ रिपोर्ट की क्लिप थी.

निर्णय का प्रकार

सारांश

नीतियां और विषय

विषय
पत्रकारिता
सामुदायिक मानक
ख़तरनाक लोग और संगठन

क्षेत्र/देश

जगह
युनाइटेड किंगडम, सोमालिया

प्लैटफ़ॉर्म

प्लैटफ़ॉर्म
Facebook

संक्षिप्त फ़ैसलों में उन केस का परीक्षण किया जाता है जिनमें बोर्ड द्वारा कंटेंट पर Meta का ध्यान आकर्षित करने के बाद कंपनी ने कंटेंट के बारे में अपने मूल फ़ैसले को पलटा है और इसमें Meta द्वारा मानी गई गलतियों की जानकारी होती है. उन्हें पूरे बोर्ड के बजाय, बोर्ड के किसी सदस्य द्वारा स्वीकृत किया जाता है, उनमें पब्लिक कमेंट शामिल नहीं होते और उन्हें बोर्ड द्वारा आगे के फ़ैसलों के लिए आधार नहीं बनाया जा सकता. संक्षिप्त फ़ैसले, Meta के फ़ैसलों में सीधे बदलाव लाते हैं, इन सुधारों के बारे में पारदर्शिता देते हैं और साथ ही यह बताते हैं कि Meta अपने एन्फ़ोर्समेंट में कहाँ सुधार कर सकता है.

सारांश

एक यूज़र ने एक ऐसे वीडियो को हटाने के Meta के फ़ैसले के खिलाफ़ अपील की जिसमें सोमालिया में अंतरराष्ट्रीय कॉन्फ़्रेंस की न्यूज़ रिपोर्ट की क्लिप थी. क्लिप में एक पत्रकार, सोमालिया में लोगों से सवाल पूछ रहा है और साथ ही सशस्त्र समूह अल-शबाब के नेताओं और झंडों का फ़ुटेज है. जब बोर्ड ने Meta का ध्यान अपील पर आकर्षित किया, तो कंपनी ने अपना मूल फ़ैसला पलट दिया और पोस्ट को रीस्टोर कर दिया.

केस की जानकारी

मई 2025 में, Facebook के एक यूज़र, जो एक वेरिफ़ाइड पत्रकार है, ने इस सवाल के साथ एक न्यूज़ रिपोर्ट दिखाने वाला वीडियो पोस्ट किया कि “सोमालिया का भविष्य कौन तय करेगा?” कैप्शन में सोमालिया के बारे में 2012 की लंदन कॉन्फ़्रेंस के रेफ़रेंस भी थे. वीडियो और कैप्शन, दोनों अंग्रेज़ी भाषा में थे. मूल वीडियो को 2013 में Channel 4 पर दिखाया गया था, जो एक ब्रिटिश पब्लिक ब्रॉडकास्ट टेलीविज़न चैनल है.

वीडियो में, वे सोमालिया से जुड़ी कॉन्फ़्रेंस संबंधी विवादों की चर्चा करते हैं. यह कॉन्फ़्रेंस, इस अफ़्रीकी देश के भविष्य की चर्चा करने के लिए यूनाइटेड किंगडम की सरकार द्वारा आयोजित की गई थी. कैप्शन में नोट किया गया कि कॉन्फ़्रेंस में अल-शबाब की बात नहीं की गई, जबकि यह समूह सोमालिया में सरकार को हटाने के लिए काम कर रहा था और उस समय यह समूह “देश के अधिकांश भाग को नियंत्रित” कर रहा था. वीडियो में, पत्रकार ने पश्चिमी नेताओं और सोमालिया के लोगों के बीच की प्रतीकात्मक दूरी को उजागर किया है और बताया कि जब स्थानीय लोगों को देश के भविष्य पर चर्चा करते हुए मुख्य ब्रिटिश नेताओं की फ़ोटो दिखाई गई, तो उन्होंने उन्हें नहीं पहचाना. वीडियो में अल-शबाब के नेताओं और झंडों के फ़ुटेज भी थे.

हरकत अल-शबाब अल-मुजाहिदीन, जिसे सामान्य तौर पर अल-शबाब के रूप में जाना जाता है, एक इस्लामी विद्रोही समूह है जिसका संबंध अल-कायदा से है. यह समूह मुख्य रूप से सोमालिया में काम करता है और उसने पड़ोसी देशों पर कई हमले किए हैं. अल-शबाब को Meta की खतरनाक संगठनों और लोगों से जुड़ी पॉलिसी के तहत एक खतरनाक संगठन चिह्नित किया गया है.

खतरनाक संगठनों और लोगों से जुड़ी पॉलिसी के तहत, कंपनी ऐसे लोगों या संगठनों का “महिमामंडन, समर्थन और प्रतिनिधित्व” करने वाले कंटेंट को हटा देती है जो “किसी हिंसक मिशन का प्रचार करते हैं या जो हिंसा में शामिल होते हैं.” हालाँकि, पॉलिसी के तहत “सामाजिक और राजनैतिक बातचीत” के संदर्भ में उस “कंटेंट की परमिशन दी गई है जो खतरनाक संगठनों और लोगों या गतिविधियों” की रिपोर्ट करता है, उनकी निंदा करता है या उनकी निष्पक्ष रूप से चर्चा करता है. पॉलिसी के अनुसार, “न्यूज़ रिपोर्टिंग में स्थानीय और वैश्विक ईवेंट के बारे में जागरूकता फैलाने के लिए शेयर की गई ऐसी जानकारी शामिल है, जिसमें चिह्नित किए गए खतरनाक संगठन और व्यक्ति होते हैं.”

बोर्ड को अपनी अपील में, यूज़र ने कहा कि “वे लोगों तक जानकारी पहुँचाने के लिए महत्वपूर्ण मुद्दों” की रिपोर्ट कर रहे हैं और कहा कि यह रिपोर्ट, राष्ट्रीय गाइडलाइन का पालन करते हुए एक टीवी चैनल पर दिखाई जा चुकी है. यूज़र ने हाइलाइट किया कि “पत्रकारिता कोई अपराध नहीं है.”

जब बोर्ड ने Meta का ध्यान इस मामले पर आकर्षित किया, तो कंपनी ने अपना मूल फ़ैसला पलट दिया. Meta ने पाया कि कंटेंट एक न्यूज़ रिपोर्ट है जिसमें सोमालिया के भविष्य की चर्चा में यूके की सरकार द्वारा अल-शबाब को बाहर रखने पर सवाल उठाए गए हैं, यह देखते हुए कि अल-शबाब, देश के अधिकांश भाग को नियंत्रित करता है. Meta ने यह भी उल्लेख किया कि अल-शबाब के नेताओं और झंडों के फ़ुटेज को “पर्याप्त संपादकीय हस्तक्षेप के साथ प्रस्तुत किया गया है और उनमें समूह का कोई महिमामंडन या समर्थन नहीं है.” Meta इस निष्कर्ष पर पहुँचा कि शुरुआत में कंटेंट को हटाना सही नहीं था, क्योंकि पोस्ट को खतरनाक संगठनों और लोगों से जुड़ी पॉलिसी के सामाजिक और राजनैतिक चर्चा वाले अपवाद के तहत परमिशन मिलनी चाहिए. कंपनी ने फिर कंटेंट को Facebook पर रीस्टोर कर दिया.

बोर्ड का प्राधिकार और दायरा

बोर्ड को उस यूज़र के अपील करने के बाद Meta के फ़ैसले का रिव्यू करने का अधिकार है, जिसका कंटेंट हटा दिया गया था (चार्टर आर्टिकल 2, सेक्शन 1; उपनियम आर्टिकल 3, सेक्शन 1).

जहाँ बोर्ड द्वारा रिव्यू किए जा रहे केस में Meta यह स्वीकार करता है कि उससे गलती हुई है और वह अपना फ़ैसला पलट देता है, वहाँ बोर्ड उस केस का चुनाव संक्षिप्त फ़ैसले के लिए कर सकता है (उपनियम अनुच्छेद 2, सेक्शन 2.1.3). बोर्ड, कंटेंट मॉडरेशन प्रोसेस के बारे में ज़्यादा जानकारी पाने, गलतियों में कमी लाने और Facebook, Instagram और Threads के यूज़र्स के लिए निष्पक्षता बढ़ाने के लिए मूल फ़ैसले का रिव्यू करता है.

केस की सार्थकता

यह केस, Meta के खतरनाक संगठनों और लोगों से जुड़े कम्युनिटी स्टैंडर्ड का लगातार ज़रूरत से ज़्यादा एन्फ़ोर्समेंट हाइलाइट करता है. इसमें किसी वेरिफ़ाइड पत्रकार द्वारा पोस्ट किए गए और किसी मेनस्ट्रीम ब्रॉडकास्ट सर्विस पर दिखाए जा चुके कंटेंट पर ज़रूरत से ज़्यादा एन्फ़ोर्समेंट शामिल है, जो सामाजिक और राजनैतिक चर्चा के लिए पॉलिसी के अपवाद के तहत आता है. इस तरह की गलती जैसी एन्फ़ोर्समेंट की गलतियाँ, न सिर्फ़ अभिव्यक्ति संबंधी पोस्ट करने की यूज़र की आज़ादी पर असर डालती हैं, बल्कि वे अन्य यूज़र की जानकारी की एक्सेस पर भी असर डालती हैं, खास तौर पर ऐसे देशों में जहाँ ये चीज़ें खास तौर पर महत्वपूर्ण हैं.

बोर्ड ने अल-शबाब का रेफ़रेंस देने वाली दो पोस्ट के संबंध में एक फ़ैसला दिया था. उन केसों में Meta ने अपनी खतरनाक संगठनों और लोगों से जुड़ी पॉलिसी के तहत कंटेंट को हटाकर गलतियाँ कीं, जबकि पहले केस में पोस्ट स्पष्ट रूप से रिपोर्टिंग थी और दूसरे केस में स्पष्ट रूप से एक चिह्नित एंटिटी की निंदा थी. बोर्ड ने खतरनाक संगठनों और लोगों से जुड़ी Meta की पॉलिसी के एन्फ़ोर्समेंट के संबंध में कई सुझाव भी दिए हैं. अन्य सुझावों के अलावा इनमें “सिस्टम की जिन समस्याओं के कारण एन्फ़ोर्समेंट में गलतियाँ हो रही हैं, उनका पता लगाने के लिए कंपनी को खतरनाक लोगों और संगठनों से जुड़ी पॉलिसी के तहत रिपोर्टिंग की छूट देने वाले रिव्यूअर्स की सटीकता का आकलन करने” का सुझाव शामिल है ( न्यूज़ रिपोर्टिंग में तालिबान का उल्लेख, सुझाव क्र. 5). नवंबर 2023 में, Meta ने खतरनाक संगठनों और लोगों से जुड़ी पॉलिसी में अपडेट लागू करने की जानकारी दी, जिसमें यह बताया गया कि कंपनी “न्यूज़ रिपोर्टिंग के साथ-साथ निष्पक्ष और निंदा करने वाली चर्चा के साथ कैसा व्यवहार करती है.” Meta ने यह भी बताया कि “वह सामाजिक और राजनैतिक चर्चा पर एन्फ़ोर्समेंट की सटीकता को ट्रैक करता है” (ओवरसाइट बोर्ड के लिए Meta का Q3 2023 का तिमाही अपडेट). हालाँकि, Meta ने बोर्ड के साथ परिणाम शेयर नहीं किए. इसलिए बोर्ड यह मानता है कि Meta ने इस सुझाव का क्रियान्वयन दिखाने के लिए जानकारी प्रकाशित नहीं की.

इसके अलावा, पहले की पॉलिसी एडवाइज़री टीम की एक राय में बोर्ड ने Meta को यह सुझाव दिया कि वह “उन तरीकों की जानकारी दे जिनका उपयोग वह खतरनाक संगठनों और लोगों से जुड़ी अपनी पॉलिसी के एन्फ़ोर्समेंट में ह्यूमन रिव्यू की सटीकता और ऑटोमेटेड सिस्टम की परफ़ॉर्मेंस का आकलन करने के लिए करता है,” (चिह्नित लोगों को शहीद कहना, सुझाव सं. 6). बोर्ड मानता है कि Meta ने इस सुझाव का स्वरूप बदल दिया है. कंपनी ने कहा कि वह अपने कंटेंट मॉडरेशन फ़ैसलों की सटीकता के लिए ऑडिट करता है और यह कि इन ऑडिट से उसे पता चलता है कि कहाँ सुधार की ज़रूरत है. हालाँकि Meta ने यह नहीं बताया कि वह ये आकलन करने के लिए किन तरीकों का उपयोग करता है, जिससे उसके एन्फ़ोर्समेंट की पारदर्शिता में और सुधार होगा. इसमें बाज़ार और भाषाओं के बीच अंतरों से जुड़ी पारदर्शिता शामिल है. Meta ने इन तरीकों को सार्वजनिक करने से इंकार कर दिया.

बोर्ड ने ऑटोमेटेड एन्फ़ोर्समेंट पर फ़ोकस करने वाला एक सुझाव भी दिया, जिसमें Meta से कहा गया कि वह “एन्फ़ोर्समेंट की गलतियों को पलटने और उनसे सीखने के लिए एक आंतरिक ऑडिट प्रोसेस बनाए जिसमें ऑटोमेटेड साधनों से हटाए कंटेंट के सांख्यिकीय प्रतिनिधि नमूने का लगातार विश्लेषण किया जाए,” ( ब्रेस्ट कैंसर के लक्षण और नग्नता, सुझाव सं. 5). बोर्ड मानता है कि Meta ने इस सुझाव पर ध्यान नहीं दिया क्योंकि कंपनी ने इसे एक अन्य सुझाव के साथ मिला दिया और बोर्ड द्वारा बताई गई आंतरिक ऑडिट प्रक्रिया नहीं की.

कंपनी की खतरनाक संगठनों और लोगों से जुड़ी पॉलिसी का बार-बार ज़रूरत से ज़्यादा एन्फ़ोर्समेंट, चिह्नित संगठनों के बारे में न्यूज़ रिपोर्टिंग और जानकारी पोस्ट और शेयर करने की यूज़र की क्षमता को कमज़ोर करता है और यूज़र की अभिव्यक्ति की आज़ादी का हनन करता है. बोर्ड के केस यह बताते हैं कि इस तरह की गलतियाँ बार-बार हो रही हैं. इस केस में, बोर्ड ने इस बात पर भी विचार किया कि इस वीडियो को एक वेरिफ़ाइड पत्रकार ने प्रकाशित किया था और इसे 2013 में यूनाइटेड किंगडम की एक मेनस्ट्रीम ब्रॉडकास्टिंग सर्विस द्वारा दिखाया जा चुका है. Meta को उच्च प्राथमिकता देते हुए ऐसी गलतियों को कम करना चाहिए. ऊपर दिए गए सुझावों को पूरी तरह लागू करने से कंपनी की खतरनाक संगठनों और लोगों से जुड़ी पॉलिसी के तहत कंटेंट के गलत निष्कासन में कमी आ सकती है.

फ़ैसला

बोर्ड ने संबंधित कंटेंट को हटाने के Meta के मूल फ़ैसले को पलट दिया. बोर्ड द्वारा केस को Meta के ध्यान में लाए जाने के बाद, Meta द्वारा शुरुआती फ़ैसले की गलती में किए गए सुधार को बोर्ड ने स्वीकार किया.

मामले के निर्णयों और नीति सलाहकार राय पर लौटें