पलट जाना
लीबिया की बाढ़
27 फ़रवरी 2024
एक यूज़र ने Meta के उस फ़ैसले के खिलाफ़ अपील की, जिसमें उसने लीबिया में हाल में आई बाढ़ से जुड़ी एक पोस्ट को Facebook से हटा दिया था. यह केस, कंपनी की खतरनाक संगठनों और व्यक्तियों से जुड़ी पॉलिसी का ज़रूरत से ज़्यादा एन्फ़ोर्समेंट हाइलाइट करता है.
यह संक्षिप्त फ़ैसला है. संक्षिप्त फ़ैसलों में उन केसों का परीक्षण किया जाता है जिनमें बोर्ड द्वारा कंटेंट पर Meta का ध्यान आकर्षित के बाद कंपनी ने कंटेंट के बारे में अपने मूल फ़ैसले को पलटा है. इन फ़ैसलों में उन गलतियों की जानकारी होती है जिन्हें Meta ने स्वीकार किया है और इनमें लोगों को यह जानकारी दी जाती है कि बोर्ड के काम का क्या असर पड़ता है. उन्हें बोर्ड के सदस्यों की पैनल द्वारा स्वीकार किया गया है, न कि पूरे बोर्ड द्वारा. उनमें सार्वजनिक कमेंट प्रोसेस शामिल नहीं होती और बोर्ड आगे के फ़ैसलों के लिए उन्हें आधार भी नहीं बनाता है. संक्षिप्त फ़ैसले, Meta के सुधारों के बारे में पारदर्शिता देते हैं और यह बताते हैं कि पॉलिसी के एन्फ़ोर्समेंट के संबंध में कंपनी कहाँ सुधार कर सकती है.
केस का सारांश
एक यूज़र ने Meta के उस फ़ैसले के खिलाफ़ अपील की, जिसमें उसने लीबिया में हाल में आई बाढ़ से जुड़ी एक पोस्ट को Facebook से हटा दिया था. सितंबर 2023 में, उत्तर-पूर्वी लीबिया में डेनियल तूफ़ान के कारण विनाशकारी बाढ़ आई थी और दो बाँध टूट गए थे. बाढ़ पीड़ितों के, खास तौर पर डेर्ना शहर में, समर्थन में पोस्ट किए गए वीडियो को खतरनाक संगठनों और लोगों से जुड़ी Meta की पॉलिसी का उल्लंघन करने के कारण हटा दिया गया था. यह केस, कंपनी की खतरनाक संगठनों और लोगों से जुड़ी पॉलिसी का ज़रूरत से ज़्यादा एन्फ़ोर्समेंट हाइलाइट करता है, जो कठिन स्थितियों में एकता और सहानुभूति व्यक्त करने की यूज़र्स की आज़ादी पर बुरा असर डालता है. जब बोर्ड ने Meta का ध्यान अपील पर आकर्षित किया, तो कंपनी ने अपना पुराना फ़ैसला पलट दिया और पोस्ट को रीस्टोर कर दिया.
केस की जानकारी और बैकग्राउंड
सितंबर 2023 में, एक Facebook यूज़र ने एक वीडियो पोस्ट किया जिसमें दो फ़ोटो थी लेकिन कोई कैप्शन नहीं था. बैकग्राउंड की फ़ोटो में सैन्य यूनीफ़ॉर्म और बैज के साथ दो लोग दिखाई दे रहे थे. एक बैज पर अरबी भाषा में “ब्रिगेड 444 – युद्ध” लिखा था. इस फ़ोटो पर एक अन्य फ़ोटो ओवरले की गई थी जिसमें दो लोग, तीसरे व्यक्ति को पानी की किसी संरचना से बाहर खींच रहे हैं. अगल-बगल के लोगों के सीने पर अरबी भाषा में “पश्चिम” और “दक्षिण” लिखा था जबकि बीच वाले व्यक्ति के सीने पर “पूर्व” लिखा था.
अगस्त 2023 में, 444वीं कॉम्बेट ब्रिगेड और स्पेशल डेटरेंस फ़ोर्स के बीच त्रिपोली में सशस्त्र संघर्ष शुरू हो गया. 2011 में मुअम्मर गद्दाफ़ी के पद से हटने के बाद से ये दोनों सेनाएँ सत्ता हथियाने के लिए संघर्ष कर रही हैं. बोर्ड को किए गए अपने सबमिशन में, यूज़र ने कहा कि उन्होंने सितंबर 2023 में आए डेनियल तूफ़ान के बाद टूटे बाँध से आई बाढ़ से प्रभावित उत्तर-पूर्वी शहर डेर्ना को सपोर्ट करते हुए यह दिखाने के लिए वीडियो पोस्ट किया था कि लीबिया “एक सेना” के साथ “एकजुट” था.
Meta ने शुरुआत में अपनी खतरनाक संगठन और व्यक्ति पॉलिसी का हवाला देते हुए पोस्ट को Facebook से हटा दिया था.
जब बोर्ड ने इस केस पर Meta का ध्यान दिलाया, तो कंपनी ने पाया कि कंटेंट को हटाने का उसका मूल फ़ैसला गलत था और उसने कंटेंट को Facebook पर रीस्टोर कर दिया. कंपनी ने बोर्ड से कहा कि कंटेंट में किसी चिह्नित संगठन या व्यक्ति का कोई संदर्भ नहीं था और इसलिए वह Meta की किसी पॉलिसी का उल्लंघन नहीं करता.
बोर्ड का प्राधिकार और दायरा
बोर्ड को उस यूज़र के अपील करने के बाद Meta के फ़ैसले का रिव्यू करने का अधिकार है, जिसका कंटेंट हटा दिया गया था (चार्टर अनुच्छेद 2, सेक्शन 1; उपनियम अनुच्छेद 3, सेक्शन 1).
जहाँ बोर्ड द्वारा रिव्यू किए जा रहे केस में Meta यह स्वीकार करता है कि उससे गलती हुई है और वह अपना फ़ैसला पलट देता है, वहाँ बोर्ड उस केस का चुनाव संक्षिप्त फ़ैसले के लिए कर सकता है (उपनियम अनुच्छेद 2, सेक्शन 2.1.3). बोर्ड, कंटेंट मॉडरेशन प्रोसेस के बारे में ज़्यादा जानकारी पाने, गलतियों में कमी लाने और Facebook और Instagram के यूज़र्स के लिए निष्पक्षता बढ़ाने के लिए मूल फ़ैसले का रिव्यू करता है.
केस का महत्व
यह केस, खतरनाक संगठनों और लोगों से जुड़ी Meta की पॉलिसी का ज़रूरत से ज़्यादा एन्फ़ोर्समेंट हाइलाइट करता है जिसमें ऑटोमेटेड सिस्टम्स के ज़रिए ऐसा करना भी शामिल है. इसके कारण Meta के प्लेटफ़ॉर्म्स पर सामयिक घटनाओं की कमेंटरी शेयर करने में यूज़र्स की अभिव्यक्ति की आज़ादी पर बुरा असर पड़ सकता है.
ओजलान का एकांतवास केस में बोर्ड ने यह सुझाव दिया है कि Meta, “खतरनाक संगठनों और लोगों से जुड़ी पॉलिसी के एन्फ़ोर्समेंट के लिए बनाई गई ऑटोमेटेड प्रोसेस का मूल्यांकन करे,” (सुझाव सं. 2). Meta ने कहा कि वह इस सुझाव पर कोई एक्शन नहीं लेगा क्योंकि “इस केस में पॉलिसी मार्गदर्शन, ऑटोमेटेड एन्फ़ोर्समेंट के परफ़ॉर्मेंस में सीधे योगदान नहीं देता.”
ऑटोमेशन के संबंध में, बोर्ड ने Meta से कहा कि वह एन्फ़ोर्समेंट की गलतियों को पलटने और उनसे सीखने के लिए एक आंतरिक ऑडिट प्रोसेस बनाए जिसमें ऑटोमेटेड साधनों से हटाने के फ़ैसलों में शामिल कंटेंट के सांख्यिकीय प्रतिनिधि नमूने का लगातार विश्लेषण किया जाए ( ब्रेस्ट कैंसर के लक्षण और नग्नता, सुझाव सं. 5). Meta ने रिपोर्ट किया कि उसने इस सुझाव को लागू कर दिया है लेकिन उसने इसके पूर्ण क्रियान्वयन के संबंध में कोई जानकारी प्रकाशित नहीं की है. Q4 2022 तक, Meta ने “एक नई, ज़्यादा विशिष्ट मैसेजिंग को पूरी दुनिया में प्रस्तुत करना रिपोर्ट किया जो लोगों को बताती है कि Facebook से उनके कंटेंट को ऑटोमेशन के कारण हटाया गया या ह्यूमन रिव्यू के कारण," लेकिन इसके सबूत के तौर पर उसने कोई जानकारी प्रकाशित नहीं की. इसी फ़ैसले में, बोर्ड ने यह भी सुझाव दिया कि Meta “ट्रांसपेरेंसी रिपोर्टिंग का विस्तार करके यह डेटा बताए कि हर कम्युनिटी स्टैंडर्ड के लिए ऑटोमेटेड निष्कासन के कितने फ़ैसले हुए और उनमें से कितने फ़ैसलों को उसका ह्यूमन रिव्यू होने पर पलट दिया गया,” ( ब्रेस्ट कैंसर के लक्षण और नग्नता, सुझाव सं. 6). Q3 2023 तक, Meta ने रिपोर्ट किया कि वह ऐसे मीट्रिक के लिए एक जैसी अकाउंटिंग मेथडोलॉजी बना रहा है. भारत में RSS पर पंजाबी चिंता केस में, बोर्ड ने Meta से कहा कि वह “हर एक कम्युनिटी स्टैंडर्ड के मामले में एरर रेट से जुड़ी आम जानकारी को देश और भाषा के अनुसार देखने के लिए उपलब्ध करवाकर उस जानकारी को बढ़ाने के लिए अपनी ट्रांसपेरेंसी रिपोर्टिंग को बेहतर बनाना चाहिए,” (सुझाव सं. 3). Q3 2023 तक, Meta ने रिपोर्ट किया कि वह अपनी सटीकता मीट्रिक को परिभाषित करने के लिए काम कर रहा है और साथ में ब्रेस्ट कैंसर के लक्षण और नग्नता की सुझाव सं. 6 पर भी काम कर रहा है.
बोर्ड ने इस बात पर ज़ोर दिया कि उसके सुझावों को पूरी तरह लागू करने से खतरनाक संगठनों और लोगों से जुड़ी पॉलिसी के तहत होने वाली एन्फ़ोर्समेंट की गलतियों को कम करने में मदद मिलेगी जिससे उन यूज़र्स की संख्या में कमी आएगी जिनकी अभिव्यक्ति की आज़ादी का कंटेंट के गलत निष्कासन से हनन हुआ है.
फ़ैसला
बोर्ड ने संबंधित कंटेंट को हटाने के Meta के मूल फ़ैसले को पलट दिया. बोर्ड द्वारा केस को कंपनी के ध्यान में लाए जाने के बाद, Meta द्वारा मूल फ़ैसले की गलती में किए गए सुधार को बोर्ड ने स्वीकार किया. बोर्ड ने इस बात पर ज़ोर दिया कि इन सुझावों को पूरी तरह लागू किया जाए और साथ ही उनका सफल क्रियान्वयन दिखाने के लिए जानकारी प्रकाशित की जाए. इससे Meta के प्लेटफ़ॉर्म्स पर खतरनाक संगठन और लोगों से जुड़ी पॉलिसी के तहत होने वाली एन्फ़ोर्समेंट की गलतियों की संख्या में कमी आ सकती है.