पलट जाना
नाइजर तख्तापलट से जुड़ा कार्टून
8 दिसम्बर 2023
एक यूज़र ने Meta के उस फ़ैसले के खिलाफ़ अपील की, जिसमें उसने नाइजर में सैन्य तख्तापलट से जुड़ी एक पोस्ट को Facebook से हटा दिया था.
यह संक्षिप्त फ़ैसला है. संक्षिप्त फ़ैसलों में उन केसों का परीक्षण किया जाता है जिनमें बोर्ड द्वारा कंटेंट पर Meta का ध्यान आकर्षित के बाद कंपनी ने कंटेंट के बारे में अपने मूल फ़ैसले को पलटा है. इन फ़ैसलों में वह जानकारी भी शामिल है जिनमें Meta ने अपनी गलतियाँ मानीं. उन्हें बोर्ड के सदस्यों की पैनल द्वारा स्वीकार किया गया है, न कि पूरे बोर्ड द्वारा. उनमें सार्वजनिक कमेंट प्रोसेस शामिल नहीं होती और बोर्ड आगे के फ़ैसलों के लिए उन्हें आधार भी नहीं बनाता है. संक्षिप्त फ़ैसले, Meta के सुधारों के बारे में पारदर्शिता देते हैं और यह बताते हैं कि पॉलिसी के एन्फ़ोर्समेंट के संबंध में कंपनी कहाँ सुधार कर सकती है.
केस का सारांश
एक यूज़र ने Meta के उस फ़ैसले के खिलाफ़ अपील की, जिसमें उसने नाइजर में सैन्य तख्तापलट से जुड़ी एक पोस्ट को Facebook से हटा दिया था. यह केस Meta के कंटेंट मॉडरेशन की गलतियाँ हाइलाइट करता है, जिसमें नफ़रत फैलाने वाली भाषा का पता लगाने वाले उसके ऑटोमेटेड सिस्टम शामिल हैं. जब बोर्ड ने Meta का ध्यान अपील पर आकर्षित किया, तो कंपनी ने अपना मूल फ़ैसला पलट दिया और पोस्ट को रीस्टोर कर दिया.
केस की जानकारी और बैकग्राउंड
जुलाई 2023 में, फ़्रांस के एक Facebook यूज़र ने एक कार्टून फ़ोटो पोस्ट की जिसमें सेना का एक बूट, जिस पर “नाइजर” लिखा है, लाल हैट और ड्रेस पहने हुए एक व्यक्ति को किक मार रहा है. ड्रेस पर अफ़्रीका की भौगोलिक आउटलाइन बनी है. इसी माह पहले नाइजर में उस समय सैन्य नियंत्रण हुआ था जब जनरल अब्दुर्रहमान त्चियानी ने राष्ट्रपति के अंगरक्षकों, जिनका वह प्रमुख था, की मदद से राष्ट्रपति मोहम्मद बजौम को बेदखल करके खुद को देश का लीडर घोषित कर दिया.
Meta ने शुरुआत में अपनी नफ़रत फैलाने वाली भाषा से जुड़ी पॉलिसी का हवाले देते हुए पोस्ट को Facebook से हटा दिया. इस पॉलिसी में अनुसार कंपनी ऐसे कंटेंट को हटा देती है जिसमें किसी सुरक्षित विशिष्टता के आधार पर लोगों पर हमले किए जाते हैं. इसमें इन समूहों के खिलाफ़ हिंसा के कुछ चित्रण भी शामिल हैं.
बोर्ड द्वारा इस केस को Meta के ध्यान में लाए जाने के बाद, कंपनी ने पाया कि कंटेंट से नफ़रत फैलाने वाली भाषा से जुड़ी पॉलिसी का उल्लंघन नहीं हुआ और कंटेंट को हटाना गलत था. कंपनी ने फिर कंटेंट को Facebook पर रीस्टोर कर दिया.
बोर्ड का प्राधिकार और दायरा
बोर्ड को उस व्यक्ति के अपील करने के बाद Meta के फ़ैसले का रिव्यू करने का अधिकार है, जिसका कंटेंट हटा दिया गया था (चार्टर आर्टिकल 2, सेक्शन 1; उपनियम अनुच्छेद 3, सेक्शन 1).
जहाँ बोर्ड द्वारा रिव्यू किए जा रहे केस में Meta यह स्वीकार करता है कि उससे गलती हुई है और वह अपना फ़ैसला पलट देता है, वहाँ बोर्ड उस केस का चुनाव संक्षिप्त फ़ैसले के लिए कर सकता है (उपनियम अनुच्छेद 2, सेक्शन 2.1.3). बोर्ड कंटेंट मॉडरेशन प्रोसेस के बारे में ज़्यादा जानकारी पाने, गलतियाँ कम करने और Facebook और Instagram के यूज़र्स के लिए निष्पक्षता बढ़ाने के लिए मूल फ़ैसले का रिव्यू करता है.
केस का महत्व
यह केस Meta के उन मॉडरेशन सिस्टम की कमियाँ हाइलाइट करता है जो नफ़रत फैलाने वाली भाषा का पता लगाते हैं. बोर्ड ने ऑटोमेशन और पारदर्शिता को बेहतर बनाने के लिए सुझाव दिए हैं. इनमें यह सुझाव शामिल है कि Meta “एन्फ़ोर्समेंट की गलतियों को पलटने और उनसे सीखने के लिए एक आंतरिक ऑडिट प्रोसेस बनाए जिसमें ऑटोमेटेड साधनों से हटाने के फ़ैसलों में शामिल कंटेंट के सांख्यिकीय प्रतिनिधि नमूने का लगातार विश्लेषण किया जाए,” ( ब्रेस्ट कैंसर के लक्षण और नग्नता फ़ैसला, सुझाव सं. 5). Meta ने रिपोर्ट किया कि वह इस सुझाव को लागू कर रहा है लेकिन उसने इसके संबंध में अभी तक कोई जानकारी प्रकाशित नहीं की है.
फ़ैसला
बोर्ड ने संबंधित कंटेंट को हटाने के Meta के मूल फ़ैसले को पलट दिया. बोर्ड द्वारा केस को कंपनी के ध्यान में लाए जाने के बाद, Meta द्वारा मूल फ़ैसले की गलती में किए गए सुधार को बोर्ड ने स्वीकार किया. बोर्ड ने Meta से यह भी कहा कि वह ऐसी गलतियों को कम करने के लिए उन सुझावों को अमल में लाने के काम में तेज़ी लाए जिन पर अभी तक काम नहीं किया गया है.