पलट जाना
हयात तहरीर अल-शाम के बारे में Wikipedia आर्टिकल का लिंक
13 मई 2025
एक यूज़र ने एक Facebook कमेंट के जवाब को हटाने के Meta के फ़ैसले के खिलाफ़ अपील की. इस जवाब में हयात तहरीर अल-शाम (HTS) से जुड़े Wikipedia आर्टिकल का लिंक था. जब बोर्ड ने Meta का ध्यान अपील पर आकर्षित किया, तो कंपनी ने अपना मूल फ़ैसला पलट दिया और कंटेंट को रीस्टोर कर दिया.
संक्षिप्त फ़ैसलों में उन केसों का परीक्षण किया जाता है जिनमें बोर्ड द्वारा कंटेंट पर Meta का ध्यान आकर्षित के बाद कंपनी ने कंटेंट के बारे में अपने मूल फ़ैसले को पलटा है और इसमें Meta द्वारा मानी गई गलतियों की जानकारी होती है. उन्हें पूरे बोर्ड के बजाय, बोर्ड के किसी सदस्य द्वारा स्वीकृत किया जाता है, उनमें पब्लिक कमेंट शामिल नहीं होते और उन्हें बोर्ड द्वारा आगे के फ़ैसलों के लिए आधार नहीं बनाया जा सकता. संक्षिप्त फ़ैसले, Meta के फ़ैसलों में सीधे बदलाव लाते हैं, इन सुधारों के बारे में पारदर्शिता देते हैं और साथ ही यह बताते हैं कि Meta अपने एन्फ़ोर्समेंट में कहाँ सुधार कर सकता है.
सारांश
एक यूज़र ने एक Facebook कमेंट के जवाब को हटाने के Meta के फ़ैसले के खिलाफ़ अपील की. इस जवाब में हयात तहरीर अल-शाम (HTS) से जुड़े Wikipedia आर्टिकल का लिंक था. जब बोर्ड ने Meta का ध्यान अपील पर आकर्षित किया, तो कंपनी ने अपना मूल फ़ैसला पलट दिया और कंटेंट को रीस्टोर कर दिया.
केस की जानकारी
दिसंबर 2024 में, एक विद्रोही हमले के दौरान, जिसमें सीरिया में बशर अल-असद की सरकार गिर गई थी, मैसेडोनिया में Facebook के एक यूज़र ने सीरिया के पूर्व राष्ट्रपति के मास्को भागने के बारे में एक पोस्ट की. एक अन्य यूज़र ने बुल्गेरियाई भाषा में हयात तहरीर अल-शाम (HTS) को “अल कायदा के इस्लामी” कहते हुए कमेंट किया. एक तीसरे यूज़र ने फिर बुल्गेरियाई भाषा में कमेंट का जवाब देते हुए कहा कि यह उन समूहों में से एक है जिसने असद को भगाया और HTS के बारे में Wikipedia के एक आर्टिकल का लिंक शामिल किया.
Meta ने शुरुआत में अपनी खतरनाक संगठनों और लोगों (DOI) से जुड़ी पॉलिसी का हवाला देते हुए तीसरे यूज़र के जवाब को Facebook से हटा दिया था. यह पॉलिसी, चिह्नित एंटिटी, उनके लीडर्स, संस्थापकों या प्रमुख लोगों के “महिमामंडन”, “समर्थन” और “प्रतिनिधित्व” के साथ-साथ, उनके अस्पष्ट रेफ़रेंस को भी प्रतिबंधित करती है. लेकिन पॉलिसी में निष्पक्ष चर्चा की परमिशन दी गई है जिसमें “ऐसे तथ्यात्मक बयान, कमेंट, सवाल और अन्य जानकारी शामिल है, जो चिह्नित खतरनाक संगठन या व्यक्ति और उनके व्यवहार के बारे में सकारात्मक धारणा व्यक्त नहीं करती है.”
तीसरे यूज़र ने यह कहते हुए बोर्ड के समक्ष अपील की कि उन्होंने सिर्फ़ जानकारी देने के लिए लिंक शेयर किया था और वे “संगठन का समर्थन नहीं करते बल्कि उसकी निंदा करते हैं.”
बोर्ड द्वारा इस केस को Meta के ध्यान में लाए जाने के बाद, कंपनी ने पाया कि कंटेंट से उसकी DOI पॉलिसी का उल्लंघन नहीं होता. उसने पाया कि कंटेंट को हटाने का उसका शुरुआती फ़ैसला गलत था क्योंकि कमेंट में हयात तहरीर अल-शाम के बारे में “सकारात्मक बातें” नहीं की गई हैं. कंपनी ने कंटेंट को प्लेटफ़ॉर्म पर रीस्टोर कर दिया.
बोर्ड का प्राधिकार और दायरा
बोर्ड को उस यूज़र के अपील करने के बाद Meta के फ़ैसले का रिव्यू करने का अधिकार है, जिसका कंटेंट हटा दिया गया था (चार्टर अनुच्छेद 2, सेक्शन 1; उपनियम अनुच्छेद 3, सेक्शन 1).
जहाँ बोर्ड द्वारा रिव्यू किए जा रहे केस में Meta यह स्वीकार करता है कि उससे गलती हुई है और वह अपना फ़ैसला पलट देता है, वहाँ बोर्ड उस केस का चुनाव संक्षिप्त फ़ैसले के लिए कर सकता है (उपनियम अनुच्छेद 2, सेक्शन 2.1.3). बोर्ड, कंटेंट मॉडरेशन प्रोसेस के बारे में ज़्यादा जानकारी पाने, गलतियों में कमी लाने और Facebook, Instagram और Threads के यूज़र्स के लिए निष्पक्षता बढ़ाने के लिए मूल फ़ैसले का रिव्यू करता है.
केस की सार्थकता
यह केस Meta की खतरनाक संगठनों और व्यक्तियों से जुड़ी पॉलिसी का ज़रूरत से ज़्यादा एन्फ़ोर्समेंट हाइलाइट करता है. बोर्ड ने पहले कराची नगरीय निकाय चुनाव से जुड़ा कमेंट केस के फ़ैसले में नोट किया कि इस तरह की गलतियों से उन संगठनों के बारे में “राजनैतिक कमेंटरी शेयर करने और न्यूज़ रिपोर्टिंग करने” की यूज़र्स की क्षमता पर बुरा असर पड़ सकता है जिन्हें “खतरनाक” चिह्नित किया गया है, इसलिए इससे अभिव्यक्ति की आज़ादी का हनन होता है.
बोर्ड ने Meta की खतरनाक संगठनों और लोगों से जुड़ी पॉलिसी और उसके अपवादों के एन्फ़ोर्समेंट में पारदर्शिता और सटीकता बढ़ाने के लिए कई सुझाव दिए हैं. इसमें “सिस्टम की जिन समस्याओं के कारण एन्फ़ोर्समेंट में गलतियाँ हो रही हैं, उनका पता लगाने के लिए Meta को खतरनाक संगठनों और लोगों से जुड़ी पॉलिसी के तहत रिपोर्टिंग की छूट देने वाले रिव्यूअर्स की सटीकता का आकलन करने” का सुझाव शामिल है ( न्यूज़ रिपोर्टिंग में तालिबान का उल्लेख, सुझाव क्र. 5). Meta ने रिपोर्ट किया है कि उसने इस सुझाव को लागू कर दिया है, लेकिन इसे दिखाने के लिए कंपनी ने कोई जानकारी प्रकाशित नहीं की है.
इसी फ़ैसले में, बोर्ड ने सुझाव दिया कि Meta “सभी भाषाओं में HIPO [हाई इंपैक्ट फ़ाल्स पॉज़िटिव ओवरराइड सिस्टम] रिव्यू पर लगाए गए लोगों की संख्या बढ़ाए ताकि यह सुनिश्चित किया जा सके कि एन्फ़ोर्समेंट की संभावित गलतियों के कारण कंटेंट को हटाने के ज़्यादा से ज़्यादा फ़ैसलों का अतिरिक्त ह्यूमन रिव्यू हो” ( न्यूज़ रिपोर्टिंग में तालिबान का उल्लेख, सुझाव सं. 7). HIPO एक ऐसा सिस्टम है जिसका उपयोग Meta ऐसे केसों की पहचान करने के लिए करता है जहाँ उसने गलत एक्शन ली, उदाहरण के लिए, जहाँ उसने कंटेंट को गलत तरीके से हटाया. Meta ने रिपोर्ट किया कि वह HIPO में रिव्यू की क्षमता बढ़ाने के सुधार कर रहा है, जिसके परिणामस्वरूप “HIPO से जुड़े फ़ैसले बदलने में कई गुना बढ़ोतरी” हुई (ओवरसाइट बोर्ड को Meta का Q4 2022 तिमाही अपडेट). बोर्ड मानता है कि Meta ने इस सुझाव के स्वरूप में बदलाव किया, यह देखते हुए कि कंपनी के जवाब से यह अस्पष्ट है कि बदलाव में रिसोर्स की संख्या बढ़ाना शामिल है या बेहतर कुशलता के लिए उसी संख्या में हेरफेर किया गया है.
भारत में RSS पर पंजाबी चिंता फ़ैसले में, बोर्ड ने Meta को सुझाव दिया था कि वह “हर कम्युनिटी स्टैंडर्ड के लिए एरर रेट से जुड़ी आम जानकारी को देश और भाषा के अनुसार देखने के लिए उपलब्ध करवाकर उस सार्वजनिक जानकारी को बढ़ाने के लिए अपनी ट्रांसपेरेंसी रिपोर्टिंग को बेहतर बनाना चाहिए.” बोर्ड ने इस बात पर ज़ोर दिया कि “ज़्यादा विस्तृत ट्रांसपेरेंसी रिपोर्ट से अल्पसंख्यक समूहों पर पड़ने वाले संभावित विशेष प्रभावों सहित लोगों को ऐसी जगहों का पता लगाने में मदद मिलेगी जहाँ गलतियाँ अक्सर होती हैं” (सुझाव सं. 3). इस सुझाव का क्रियान्वयन अभी जारी है. इस सुझाव पर अपने पिछले अपडेट में, Meta ने बताया कि कंपनी “बोर्ड से आत्मविश्वास के साथ शेयर करने के लिए एन्फ़ोर्समेंट डेटा के ओवरव्यू को कंपाइल करने के प्रोसेस में है.” डॉक्यूमेंट में ऐसे डेटा पॉइंट शामिल किए जाएँगे जो विभिन्न पॉलिसी के बारे में एन्फ़ोर्समेंट की सटीकता के संकेत देंगे जिसमें खतरनाक संगठन और लोगों से जुड़ी पॉलिसी शामिल है. Meta ने कहा कि कंपनी “एक ऐसे ओवरव्यू को कंपाइल करने के लिए प्रतिबद्ध है जो सभी पॉलिसी के बारे में एन्फ़ोर्समेंट की सटीकता पर ज़्यादा पारदर्शिता के बोर्ड के व्यापक आह्वान का समाधान करे” (ओवरसाइट बोर्ड के बारे में Meta की H2 2024 अर्द्ध-वार्षिक रिपोर्ट – परिशिष्ट).
इसके अलावा, पॉलिसी एडवाइज़री टीम की राय में बोर्ड ने Meta से कहा कि वह “उन तरीकों की जानकारी दे जिनका उपयोग वह खतरनाक संगठनों और लोगों से जुड़ी अपनी पॉलिसी के एन्फ़ोर्समेंट में ह्यूमन रिव्यू की सटीकता और ऑटोमेटेड सिस्टम की परफ़ॉर्मेंस का आकलन करने के लिए करता है,” (चिह्नित खतरनाक लोगों को “शहीद” कहना, सुझाव सं. 6). बोर्ड मानता है कि Meta ने इस सुझाव का स्वरूप बदल दिया है. कंपनी ने कहा कि वह अपने कंटेंट मॉडरेशन फ़ैसलों की सटीकता के लिए ऑडिट करता है और यह कि इस ऑडिट से उसे पता चलता है कि कहाँ सुधार की ज़रूरत है. हालाँकि Meta ने यह नहीं बताया कि ये आकलन करने के लिए वह किन तरीकों का उपयोग करता है.
बोर्ड ने Meta से कहा कि वह उस कंटेंट को सटीकता से एन्फ़ोर्स करने की क्षमता को बेहतर बनाना जारी रखे जो खतरनाक संगठनों और लोगों से जुड़ी पॉलिसी के अपवादों की सीमा में आता है. ऊपर बताए गए सुझावों के लिए पूर्ण प्रतिबद्धता से एन्फ़ोर्समेंट की सटीकता को बेहतर बनाने की कंपनी की क्षमता में और सुधार होगा.
फ़ैसला
बोर्ड ने संबंधित कंटेंट को हटाने के Meta के मूल फ़ैसले को पलट दिया. बोर्ड द्वारा केस को Meta के ध्यान में लाए जाने के बाद, Meta द्वारा मूल फ़ैसले की गलती में किए गए सुधार को बोर्ड ने स्वीकार किया.