एकाधिक मामले का निर्णय
ओरोमो लिबरेशन फ़्रंट की प्रेस रिलीज़
24 फ़रवरी 2026
दो यूज़र्स ने उनकी पोस्ट हटाने के Meta के फ़ैसलों के खिलाफ़ अलग-अलग अपील की. दोनों पोस्ट में ओरोमो लिबरेशन फ़्रंट (OLF) की एक प्रेस रिलीज़ शेयर की गई थी. OLF, इथियोपिया में ओरोमो लोगों की आज़ादी की तरफ़दारी करने वाली राजनैतिक पार्टी है.
2 इस बंडल में केस शामिल हैं
FB-KW5ZYLJ8
Facebook पर खतरनाक लोग और संगठन से जुड़ा केस
FB-A41GXKK9
Facebook पर खतरनाक लोग और संगठन से जुड़ा केस
संक्षिप्त फ़ैसलों में उन केस का परीक्षण किया जाता है जिनमें बोर्ड द्वारा कंटेंट पर Meta का ध्यान आकर्षित करने के बाद कंपनी ने कंटेंट के बारे में अपने मूल फ़ैसले को पलटा है और इसमें Meta द्वारा मानी गई गलतियों की जानकारी होती है. उन्हें पूरे बोर्ड के बजाय, बोर्ड के किसी सदस्य द्वारा स्वीकृत किया जाता है, उनमें पब्लिक कमेंट शामिल नहीं होते और उन्हें बोर्ड द्वारा आगे के फ़ैसलों के लिए आधार नहीं बनाया जा सकता. संक्षिप्त फ़ैसले, Meta के फ़ैसलों में सीधे बदलाव लाते हैं, इन सुधारों के बारे में पारदर्शिता देते हैं और साथ ही यह बताते हैं कि Meta अपने एन्फ़ोर्समेंट में कहाँ सुधार कर सकता है.
सारांश
दो यूज़र्स ने उनकी पोस्ट हटाने के Meta के फ़ैसलों के खिलाफ़ अलग-अलग अपील की. दोनों पोस्ट में ओरोमो लिबरेशन फ़्रंट (OLF) की एक प्रेस रिलीज़ शेयर की गई थी. OLF, इथियोपिया में ओरोमो लोगों की आज़ादी की तरफ़दारी करने वाली राजनैतिक पार्टी है. जब बोर्ड ने Meta का ध्यान इन अपीलों पर आकर्षित किया, तो कंपनी ने अपना फ़ैसला पलट दिया और दोनों पोस्ट को रीस्टोर कर दिया.
केस की जानकारी
बोर्ड ने कंटेंट के दो भागों का रिव्यू किया जिनमें OLF की प्रेस रिलीज़ शेयर की गई थी. दोनों केसों में, Facebook के दो अलग-अलग यूज़र्स ने एक प्रेस रिलीज़ और ओरोमो भाषा में कैप्शन शेयर किया जिसमें कहा गया था कि इथियोपिया की राजधानी अदीस अबाबा में OLF के मुख्यालय को जून 2025 में आधिकारिक रूप से पार्टी को लौटा दिया गया था. प्रेस रिलीज़ में OLF ने इस घटना को लंबी कोशिशों का परिणाम बताया और उसने इस प्रोसेस के दौरान सपोर्ट करने वाले सभी संस्थानों और सदस्यों का आभार जताया.
OLF की स्थापना 1973 में एक राजनैतिक पार्टी के रूप में की गई थी जिसका उद्देश्य इथियोपिया के सबसे बड़े जातीय समूह ओरोमो लोगों की आज़ादी का समर्थन करना है. ऐतिहासिक रूप से OLF का इथियोपिया की सरकार से सशस्त्र संघर्ष होता रहा है. सरकार ने OLF को आतंकी समूह घोषित किया है. हालाँकि, 2018 में इथियोपिया की सरकार ने OLF को आतंकवादियों की लिस्ट से हटा दिया, जिससे उसके नेताओं को निष्कासन से लौटने की आज़ादी मिली. एक अलग गुट, जो OLF की सशस्त्र विंग के तौर पर काम कर रहा था, ने हथियार डालने से मना कर दिया और फ़ेडरल सरकार के खिलाफ़ सशस्त्र विरोध जारी रखा. 2021 में इथियोपिया के अधिकारियों ने इस धड़े को आतंकी संगठन घोषित कर दिया.
खतरनाक संगठनों और लोगों से जुड़ी पॉलिसी के तहत, कंपनी ऐसे लोगों या संगठनों का “महिमामंडन, समर्थन और प्रतिनिधित्व” करने वाले कंटेंट को हटा देती है जो “किसी हिंसक मिशन का प्रचार करते हैं या जो हिंसा में शामिल होते हैं.”
बोर्ड को की गई अपनी अपील में, यूज़र्स ने कहा कि इन पोस्ट में OLF की एक प्रेस रिलीज़ शेयर की गई है जिसमें अदीस अबाबा में उसका मुख्यालय फिर से खुलने की जानकारी दी गई है और इससे Meta की पॉलिसीज़ का उल्लंघन नहीं होता. उन्होंने इस बात पर ज़ोर दिया कि OLF, कानूनी रूप से रजिस्टर्ड राजनैतिक पार्टी है जिसे नेशनल इलेक्टोरल बोर्ड ऑफ़ इथियोपिया द्वारा मान्यता दी गई है.
बोर्ड द्वारा इन केसों को Meta के ध्यान में लाए जाने के बाद, कंपनी ने पाया कि ये पोस्ट ओरोमो लिबरेशन फ़्रंट के बारे में हैं, जो खतरनाक संगठन और लोगों से जुड़ी पॉलिसी तहत टियर 2 के हिंसक नॉन-स्टेट एक्टर के तौर पर चिह्नित, मिलते-जुलते नाम वाले एक अन्य संगठन से अलग है. Meta के अनुसार, ये पोस्ट चिह्नित एंटिटी से संबंध नहीं रखतीं, इसलिए उनसे पॉलिसी का उल्लंघन नहीं होता. इसलिए, पोस्ट को हटाने का Meta का मूल फ़ैसला गलत था. कंपनी ने फिर दोनों केस के कंटेंट को Facebook पर रीस्टोर कर दिया.
बोर्ड का प्राधिकार और दायरा
बोर्ड को उस यूज़र के अपील करने के बाद Meta के फ़ैसले का रिव्यू करने का अधिकार है, जिसका कंटेंट हटा दिया गया था (चार्टर आर्टिकल 2, सेक्शन 1; उपनियम आर्टिकल 3, सेक्शन 1).
जहाँ बोर्ड द्वारा रिव्यू किए जा रहे केस में Meta यह स्वीकार करता है कि उससे गलती हुई है और वह अपना फ़ैसला पलट देता है, वहाँ बोर्ड उस केस का चुनाव संक्षिप्त फ़ैसले के लिए कर सकता है (उपनियम अनुच्छेद 2, सेक्शन 2.1.3). बोर्ड, कंटेंट मॉडरेशन प्रोसेस के बारे में ज़्यादा जानकारी पाने, गलतियों में कमी लाने और Facebook, Instagram और Threads के यूज़र्स के लिए निष्पक्षता बढ़ाने के लिए मूल फ़ैसले का रिव्यू करता है.
केस की सार्थकता
ये केस, Meta के खतरनाक संगठनों और लोगों से जुड़े कम्युनिटी स्टैंडर्ड का लगातार लापरवाही से किया जा रहा एन्फ़ोर्समेंट दिखाते हैं, ऐसे कंटेंट पर भी जिसमें किसी चिह्नित एंटिटी का उल्लेख नहीं होता. यूज़र्स की अभिव्यक्ति की आज़ादी का उल्लंघन करने वाली एन्फ़ोर्समेंट की ऐसी गलतियाँ खास तौर पर इथियोपिया जैसे देश में चिंताजनक हैं, जहाँ लगातार संघर्ष चल रहा है और अभिव्यक्ति की आज़ादी प्रतिबंधित है.
बोर्ड इस विषय पर पहले कई सुझाव दे चुका है. उनमें बोर्ड ने Meta को यह सुझाव दिया कि वह “उन तरीकों की जानकारी दे जिनका उपयोग [कंपनी] खतरनाक संगठनों और लोगों से जुड़ी अपनी पॉलिसी के एन्फ़ोर्समेंट में ह्यूमन रिव्यू की सटीकता और ऑटोमेटेड सिस्टम की परफ़ॉर्मेंस का आकलन करने के लिए करता है,” (चिह्नित लोगों को शहीद कहना, सुझाव सं. 6). बोर्ड मानता है कि Meta ने इस सुझाव का स्वरूप बदल दिया है. कंपनी ने कहा कि वह अपने कंटेंट मॉडरेशन फ़ैसलों की सटीकता के लिए ऑडिट करता है और यह कि इन ऑडिट से उसे पता चलता है कि कहाँ सुधार की ज़रूरत है. हालाँकि, Meta ने इसकी जानकारी नहीं दी और इन आकलनों के लिए उपयोग किए जाने वाले तरीकों को सार्वजनिक करने से इंकार कर दिया, जिससे अलग-अलग क्षेत्रों, मार्केट और भाषाओं में लागू किए जाते समय कंपनी की एन्फ़ोर्समेंट ट्रांसपेरेंसी में और सुधार होगा.
इसके अलावा, एंटिटी को चिह्नित करने और चिह्नित लोगों की सूची से बाहर करने के बारे में पूरी ट्रांसपेरेंसी को बेहतर बनाने के लिए, बोर्ड ने ये सुझाव दिए हैं: “Meta उस प्रक्रिया के बारे में विस्तार से बताए जिसके तहत एंटिटी और घटनाओं को चिह्नित किया जाता है. उसे चिह्नित एंटिटी की अपनी सूची पर सामूहिक जानकारी भी प्रकाशित करनी चाहिए, जिसमें यह बताना शामिल है कि उसकी लिस्ट के हर टियर में कुल कितनी एंटिटी शामिल हैं और पिछले एक वर्ष के दौरान हर टियर में कितनी एंटिटी को जोड़ा और हटाया गया है” (चिह्नित लोगों को “शहीद” कहना, सुझाव सं. 4). Meta ने इस सुझाव को आंशिक रूप से लागू किया है. नवंबर 2024 में, Meta ने यह जानकारी प्रकाशित की कि कंपनी, संगठनों या लोगों को कैसे और क्यों चिह्नित करती है और वह उन्हें खतरनाक संगठनों और लोगों की सूची से हटाने पर कब और कैसे विचार करेगी. हालाँकि, Meta ने इस संबंध में कोई डेटा प्रकाशित नहीं किया कि सूची के हर टियर में कुल कितनी एंटिटी हैं या सूची से कितनी एंटिटी को हटाया गया है.
बोर्ड ने ऑटोमेटेड एन्फ़ोर्समेंट पर फ़ोकस करने वाला एक सुझाव भी दिया, जिसमें Meta से कहा गया कि वह “एन्फ़ोर्समेंट की गलतियों को पलटने और उनसे सीखने के लिए एक आंतरिक ऑडिट प्रोसेस बनाए जिसमें ऑटोमेटेड साधनों से हटाए कंटेंट के सांख्यिकीय प्रतिनिधि नमूने का लगातार विश्लेषण किया जाए,” ( ब्रेस्ट कैंसर के लक्षण और नग्नता, सुझाव सं. 5). बोर्ड का मानना है कि Meta ने इस सुझाव पर ध्यान नहीं दिया, क्योंकि कंपनी ने इसे उसी केस के सुझाव सं. 1 के साथ जोड़ दिया था, जिसमें Meta से “टेक्स्ट-ओवरले वाली फ़ोटो की ऑटोमेटेड पहचान को बेहतर करने के लिए कहा गया था ताकि यह सुनिश्चित हो सके कि ब्रेस्ट कैंसर के लक्षणों के बारे में जागरूकता बढ़ाने वाले पोस्ट, रिव्यू के लिए गलत तरीके से फ़्लैग न हों.” Meta ने फ़ोटो की ऑटोमेटेड पहचान में सुधार होना बताया, लेकिन कंपनी ने आंतरिक ऑडिट कार्यविधि का पालन नहीं किया जिसका उल्लेख बोर्ड ने सुझाव सं. 5 में किया था (ओवरसाइट बोर्ड के लिए Meta का Q2 + Q3 2021 का अपडेट, पे. 32).
कंपनी की खतरनाक संगठनों और लोगों से जुड़ी पॉलिसी का बार-बार ज़रूरत से ज़्यादा एन्फ़ोर्समेंट, जैसा कि पिछले संक्षिप्त फ़ैसलों (जैसे, हयात तहरीर अल-शाम के बारे में Wikipedia आर्टिकल का लिंक, अल-शबाब का उल्लेख, उपनिवेशवाद विरोधी नेता एमिकर कैबराल) में बताया गया है, Meta के प्लेटफ़ॉर्म पर यूज़र्स की न्यूज़ शेयर करने की क्षमता को कमज़ोर करता है. बोर्ड मानता है कि इन सुझावों को पूरी तरह लागू करने से एन्फ़ोर्समेंट की सटीकता को बेहतर बनाने की कंपनी की क्षमता मज़बूत होगी और यूज़र की अभिव्यक्ति की बेहतर रक्षा होगी. साथ ही, एंटिटी को चिह्नित करने के बारे में अतिरिक्त जानकारी शेयर करने से पूरी ट्रांसपेरेंसी बढ़ेगी और Meta के साथ एंगेजमेंट जेनरेट होगा. इससे सुधारों के और आगे बढ़ने की संभावना है.
फ़ैसला
बोर्ड ने दो पोस्ट के कंटेंट को हटाने के Meta के मूल फ़ैसलों को पलट दिया. बोर्ड द्वारा केसों को Meta के ध्यान में लाए जाने के बाद, Meta द्वारा मूल फ़ैसलों की गलती में किए गए सुधारों को बोर्ड ने स्वीकार किया.