पलट जाना
रिवोल्यूशनरी आर्म्ड फ़ोर्सेज़ ऑफ़ कोलंबिया (FARC) के असंतुष्टों का वीडियो
15 मई 2025
एक यूज़र ने Facebook पर पोस्ट किए गए एक ऐसे वीडियो को बनाए रखने के Meta के फ़ैसले के खिलाफ़ अपील की जिसमें एस्टाडो मेयर सेंट्रल (EMC) को दिखाया गया था, जो रिवोल्यूशनरी आर्म्ड फ़ोर्सेज़ ऑफ़ कोलंबिया (FARC) के असंतुष्ट गुटों का एक समूह है.
संक्षिप्त फ़ैसलों में उन केसों का परीक्षण किया जाता है जिनमें बोर्ड द्वारा कंटेंट पर Meta का ध्यान आकर्षित के बाद कंपनी ने कंटेंट के बारे में अपने मूल फ़ैसले को पलटा है और इसमें Meta द्वारा मानी गई गलतियों की जानकारी होती है. उन्हें पूरे बोर्ड के बजाय, बोर्ड के किसी सदस्य द्वारा स्वीकृत किया जाता है, उनमें पब्लिक कमेंट शामिल नहीं होते और उन्हें बोर्ड द्वारा आगे के फ़ैसलों के लिए आधार नहीं बनाया जा सकता. संक्षिप्त फ़ैसले, Meta के फ़ैसलों में सीधे बदलाव लाते हैं, इन सुधारों के बारे में पारदर्शिता देते हैं और साथ ही यह बताते हैं कि Meta अपने एन्फ़ोर्समेंट में कहाँ सुधार कर सकता है.
सारांश
एक यूज़र ने Facebook पर पोस्ट किए गए एक ऐसे वीडियो को बनाए रखने के Meta के फ़ैसले के खिलाफ़ अपील की जिसमें एस्टाडो मेयर सेंट्रल (EMC) को दिखाया गया था, जो रिवोल्यूशनरी आर्म्ड फ़ोर्सेज़ ऑफ़ कोलंबिया (FARC, स्पैनिश संक्षिप्त रूप के बाद) के असंतुष्ट गुटों का एक समूह है. जब बोर्ड ने Meta का ध्यान अपील पर आकर्षित किया, तो कंपनी ने अपना मूल फ़ैसला पलट दिया और पोस्ट को हटा दिया.
केस की जानकारी
सितंबर 2024 में, Facebook के एक यूज़र ने रिवोल्यूशनरी आर्म्ड फ़ोर्सेज़ ऑफ़ कोलंबिया (FARC) के असंतुष्ट गुटों के एक समूह एस्टाडो मेयर सेंट्रल (EMC) को दिखाने वाला एक वीडियो पोस्ट किया. यह एक विद्रोही समूह है जो कोलंबिया की सरकार के खिलाफ़ 1964 से 2016 तक लड़ा. वीडियो में सैन्य प्रशिक्षण का फ़ुटेज है और टेक्स्ट ओवरले में समूह द्वारा की गई हत्याओं का संदर्भ दिया गया है. ओवरले में दी गई फ़ोटो में FARC का लोगो दिखाया गया है. 2016 में कोलंबिया की सरकार के साथ शांति समझौते के बाद, FARC एक कानूनी राजनैतिक दल में बदल गया. इसके बावजूद, FARC के नए नेतृत्व के असंतुष्ट लोग, जिसमें ऐसे गुट शामिल थे जो EMC के भाग हैं, सरकार के खिलाफ़ लड़ाई सहित हिंसा की घटनाएँ करते रहे हैं.
अपनी खतरनाक संगठनों और लोगों से जुड़ी पॉलिसी के तहत, Meta ऐसे कंटेंट को हटा देता है जो ऐसे खतरनाक संगठनों का महिमामंडन करता है, उनका समर्थन करता है, उनका प्रतिनिधित्व करता है या उनके सकारात्मक संदर्भ देता है जो “हिंसक मिशन करने का दावा करते हैं या हिंसा में शामिल होते हैं.” पॉलिसी में “निष्पक्ष चर्चा” की परमिशन दी गई है, जैसे “तथ्यात्मक बयान, कमेंटरी, सवाल और अन्य जानकारी शामिल है, जिनमें चिह्नित खतरनाक संगठन के बारे में सकारात्मक राय व्यक्त न की गई हो.” ऐसे मामलों में, कंपनी ने इरादे का स्पष्ट संकेत देना ज़रूरी बनाया है और वह उन मामलों में कंटेंट के सीधे हटा देती है जिनमें यूज़र का इरादा अस्पष्ट होता है.
बोर्ड द्वारा इस केस को Meta के ध्यान में लाए जाने के बाद, कंपनी ने पाया कि वीडियो, FARC के उन असंतुष्ट गुटों का आधिकारिक षड्यंत्र लगता है जिन्होंने शांति प्रक्रिया को ठुकराया क्योंकि इसमें उन गुटों का लोगो है जो हिंसक गतिविधियों में अभी भी शामिल हैं. FARC के असंतुष्ट समूहों को Meta की खतरनाक संगठनों और लोगों से जुड़ी पॉलिसी में चिह्नित किया गया है. लड़ाकों की ट्रेनिंग और घायलों को उठाकर ले जाने के दृश्यों से पता चलता है कि उस समूह ने यह इमेजरी बनाई है. “सामाजिक और राजनैतिक बातचीत” जैसे अनुमति प्राप्त संदर्भ, जिसमें यूज़र द्वारा खतरनाक संगठनों और लोगों या उनकी गतिविधियों की रिपोर्टिंग, उनकी निष्पक्ष चर्चा या उनकी निंदा” शामिल है, के बाहर चिह्नित समूहों द्वारा बनाई गई षड्यंत्रकारी सामग्री को शेयर करना, FARC के असंतुष्ट गुटों के समर्थन का साधन समझा जा सकता है. इसलिए, कंपनी ने Facebook से कंटेंट को हटा दिया.
बोर्ड का प्राधिकार और दायरा
बोर्ड को उस यूज़र के अपील करने के बाद Meta के फ़ैसले का रिव्यू करने का अधिकार है, जिसने ऐसे कंटेंट की रिपोर्ट की जिसे तब छोड़ दिया गया था (चार्टर अनुच्छेद 2, सेक्शन 1; उपनियम अनुच्छेद 3, सेक्शन 1).
जहाँ बोर्ड द्वारा रिव्यू किए जा रहे केस में Meta यह स्वीकार करता है कि उससे गलती हुई है और वह अपना फ़ैसला पलट देता है, वहाँ बोर्ड उस केस का चुनाव संक्षिप्त फ़ैसले के लिए कर सकता है (उपनियम अनुच्छेद 2, सेक्शन 2.1.3). बोर्ड, कंटेंट मॉडरेशन प्रोसेस के बारे में ज़्यादा जानकारी पाने, गलतियों में कमी लाने और Facebook, Instagram और Threads के यूज़र्स के लिए निष्पक्षता बढ़ाने के लिए मूल फ़ैसले का रिव्यू करता है.
केस की सार्थकता
यह केस एक ऐसा मामला हाइलाइट करता है जिसमें Meta ने खतरनाक संगठनों और लोगों से जुड़ी अपनी पॉलिसी का ज़रूरत से कम एन्फ़ोर्समेंट किया, खास तौर पर कोलंबिया में हिंसा में शामिल रहे FARC के असंतुष्टों को प्रमोट करने वाले वीडियो को बनाए रखकर. बोर्ड सूडान की रैपिड सपोर्ट फ़ोर्स का बंधक वाला वीडियो फ़ैसले में पहले ही इस बारे में चिंता जता चुका है कि Meta का ऑटोमेटेड डिटेक्शन सिस्टम, रैपिड सपोर्ट फ़ोर्सेज़ (RSF) से जुड़े कंटेंट को पहचानने में विफल रहा है. RSF एक ऐसी एंटिटी है जिसे कंपनी के प्लेटफ़ॉर्म पर दिखाई देने की अनुमति नहीं है.. उस केस में, बोर्ड ने खतरनाक संगठनों और लोगों से जुड़ी Meta की पॉलिसी के एन्फ़ोर्समेंट की सटीकता के संबंध में सुझाव दिया था. बोर्ड ने कंपनी से कहा था कि वह “खतरनाक संगठनों और लोगों से जुड़ी पॉलिसी का संभावित रूप से उल्लंघन करने वाले कंटेंट की ऑटोमेटेड पहचान करने और उसे ह्यूमन रिव्यू के लिए प्राथमिकता देने की अपनी प्रक्रिया को बेहतर बनाने के लिए, ऑटोमेटेड पहचान और कंटेंट को प्राथमिकता देने की प्रक्रिया को बेहतर बनाने के लिए ज़रूरी कदम उठाए. इसके लिए उसे क्लासिफ़ायर को समझने के लिए अपने वीडियो कंटेंट में उपयोग किए गए ट्रेनिंग डेटा का ऑडिट करना चाहिए और यह मूल्यांकन करना चाहिए कि क्या उसमें सशस्त्र संघर्ष के संदर्भ में चिह्नित संगठनों का समर्थन करने वाले कंटेंट के पर्याप्त रूप से विविध उदाहरण मौजूद हैं, जिनमें अलग-अलग भाषाएँ, बोलियाँ, क्षेत्र और संघर्ष शामिल हैं” (सुझाव सं. 2). Meta ने इस सुझाव के बारे में प्रगति रिपोर्ट की.
इसके अलावा, बोर्ड ने सुझाव दिया कि “अपनी चिह्नित एंटिटी और घटनाओं की लिस्ट की पारदर्शिता बेहतर बनाने के लिए, Meta को ज़्यादा विस्तार से यह बताना चाहिए कि वह किस प्रक्रिया का पालन करते हुए एंटिटी और घटनाओं को चिह्नित करता है. उसे चिह्नित एंटिटी की अपनी सूची पर सामूहिक जानकारी भी प्रकाशित करनी चाहिए, जिसमें यह बताना शामिल है कि उसकी लिस्ट के हर टियर में कुल कितनी एंटिटी शामिल हैं और पिछले एक वर्ष के दौरान हर टियर में कितनी एंटिटी को जोड़ा और हटाया गया है.” यह सुझाव चिह्नित खतरनाक लोगों को “शहीद” कहना (सुझाव सं. 4) फ़ैसले में शामिल था. कंपनी ने कहा कि वह ट्रांसपेरेंसी सेंटर को अपडेट करने के लिए काम कर रही है ताकि उसमें एंटिटी और ईवेंट को चिह्नित करने और अचिह्नित करने के अपने प्रोसेस के बारे में विस्तृत जानकारी शामिल की जा सके.
बोर्ड मानता है कि दोनों सुझावों के पूरी तरह क्रियान्वयन से क्रमश: एन्फ़ोर्समेंट की गलतियों में कमी आएगी और यूज़र्स को खतरनाक संगठनों और लोगों से जुड़ी पॉलिसी के तहत उनके कंटेंट द्वारा उल्लंघनों के बारे में ज़्यादा स्पष्टता मिलेगी.
फ़ैसला
बोर्ड ने संबंधित कंटेंट को प्लेटफ़ॉर्म पर बनाए रखने के Meta के मूल फ़ैसले को पलट दिया है. बोर्ड द्वारा केस को Meta के ध्यान में लाए जाने के बाद, Meta द्वारा मूल फ़ैसले की गलती में किए गए सुधार को बोर्ड ने स्वीकार किया.