पलट जाना
एलन मस्क से जुड़ा व्यंग्य
7 मार्च 2024
एक यूज़र ने एक Instagram पोस्ट को हटाने के Meta के फ़ैसले के खिलाफ़ अपील की. उस पोस्ट में “X” की एक काल्पनिक थ्रेड थी जिसमें एलन मस्क को आपत्तिजनक कंटेंट वाली एक पोस्ट पर प्रतिक्रिया देते हुए व्यंग्यात्मक रूप से दिखाया गया था. यह केस इस बात को हाइलाइट करता है कि Meta अपने प्लेटफ़ॉर्म पर व्यंग्यात्मक कंटेंट को सटीकता से पहचान नहीं पाता.
यह संक्षिप्त फ़ैसला है. संक्षिप्त फ़ैसलों में उन केसों का परीक्षण किया जाता है जिनमें बोर्ड द्वारा कंटेंट पर Meta का ध्यान आकर्षित के बाद कंपनी ने कंटेंट के बारे में अपने मूल फ़ैसले को पलटा. इन फ़ैसलों में उन गलतियों की जानकारी होती है जिन्हें Meta ने स्वीकार किया है और इनमें लोगों को यह जानकारी दी जाती है कि बोर्ड के काम का क्या असर पड़ता है. उन्हें बोर्ड के सदस्यों की पैनल द्वारा स्वीकार किया गया है, न कि पूरे बोर्ड द्वारा. उनमें सार्वजनिक कमेंट पर विचार नहीं किया जाता और बोर्ड आगे के फ़ैसलों के लिए उन्हें आधार भी नहीं बनाता है. संक्षिप्त फ़ैसले, Meta के सुधारों के बारे में पारदर्शिता देते हैं और यह बताते हैं कि पॉलिसी के एन्फ़ोर्समेंट के संबंध में कंपनी कहाँ सुधार कर सकती है.
केस का सारांश
एक यूज़र ने एक Instagram पोस्ट को हटाने के Meta के फ़ैसले के खिलाफ़ अपील की. उस पोस्ट में “X” (पहले Twitter) की एक काल्पनिक थ्रेड थी जिसमें एलन मस्क को आपत्तिजनक कंटेंट वाली एक पोस्ट पर प्रतिक्रिया देते हुए व्यंग्यात्मक रूप से दिखाया गया था. जब बोर्ड ने Meta का ध्यान अपील पर आकर्षित किया, तो कंपनी ने अपना मूल फ़ैसला पलट दिया और पोस्ट को रीस्टोर कर दिया.
केस की जानकारी और बैकग्राउंड
जुलाई 2023 में, एक यूज़र ने Instagram पर एक फ़ोटो पोस्ट की जिसमें X की एक काल्पनिक थ्रेड था. उसका लेआउट, X के लेआउट जैसा नहीं था. थ्रेड में, एक काल्पनिक यूज़र ने इस तरह की कई भड़काने वाली बातें कही थीं: “KKK ने अश्वेत लोगों के साथ कभी कुछ गलत नहीं किया,” “हिटलर को यहूदियों से नफ़रत नहीं थी” और “LGBT यौन रूप से विकृत होते हैं.” थ्रेड में एलन मस्क को यूज़र की पोस्ट पर यह कहते हुए जवाब देते हुए दिखाया गया है कि “हम इसकी जाँच कर रहे हैं.…” इस Instagram पोस्ट को 500 से कम बार देखा गया.
पोस्ट को Meta की खतरनाक संगठनों और लोगों से जुड़ी पॉलिसी के उल्लंघन के कारण हटा दिया गया था. इस पॉलिसी के तहत ऐसे समूहों और लोगों का निरूपण और उनके बारे में कुछ खास तरह के कथन प्रतिबंधित हैं, जिनके कारण कंपनी के अनुसार असली जीवन में लोगों को गंभीर नुकसान हो सकता है. Meta ने कू क्लक्स क्लान (KKK) और हिटलर को इस पॉलिसी के तहत खतरनाक एंटिटी के रूप में चिह्नित किया है. कुछ मामलों में, Meta “ऐसे व्यंग्यात्मक कंटेंट को परमिशन देगा, जो दूसरे संदर्भों में कम्युनिटी स्टैंडर्ड का उल्लंघन कर सकता है. कंटेंट को परमिशन सिर्फ़ तभी दी जाएगी जब कंटेंट के उल्लंघन करने वाले हिस्सों में व्यंग्य किया जा रहा हो या उसमें किसी और व्यक्ति या चीज़ का उल्लेख उसका मज़ाक बनाने या आलोचना करने के लिए किया गया हो.”
बोर्ड को की गई अपनी अपील में, यूज़र ने इस बात पर ज़ोर दिया कि पोस्ट का उद्देश्य हिटलर या KKK का समर्थन करना नहीं था, बल्कि “अपने प्लेटफ़ॉर्म पर चरमपंथियों से एंगेज होने के कारण दुनिया के सबसे प्रभावशाली लोगों में से एक की ओर लोगों का ध्यान खींचना और उसकी आलोचना करना है."
बोर्ड द्वारा इस केस को Meta के ध्यान में लाए जाने के बाद, कंपनी ने पाया कि कंटेंट से खतरनाक संगठनों और लोगों से जुड़ी पॉलिसी का उल्लंघन नहीं हुआ और यह कि उसे हटाना गलत था. कंपनी ने फिर कंटेंट को Instagram पर रीस्टोर कर दिया.
बोर्ड का प्राधिकार और दायरा
बोर्ड को उस यूज़र के अपील करने के बाद Meta के फ़ैसले का रिव्यू करने का अधिकार है, जिसका कंटेंट हटा दिया गया था (चार्टर अनुच्छेद 2, सेक्शन 1; उपनियम अनुच्छेद 3, सेक्शन 1).
जहाँ बोर्ड द्वारा रिव्यू किए जा रहे केस में Meta यह स्वीकार करता है कि उससे गलती हुई है और वह अपना फ़ैसला पलट देता है, वहाँ बोर्ड उस केस का चुनाव संक्षिप्त फ़ैसले के लिए कर सकता है (उपनियम अनुच्छेद 2, सेक्शन 2.1.3). बोर्ड, कंटेंट मॉडरेशन प्रोसेस के बारे में ज़्यादा जानकारी पाने, गलतियों में कमी लाने और Facebook और Instagram के यूज़र्स के लिए निष्पक्षता बढ़ाने के लिए मूल फ़ैसले का रिव्यू करता है.
केस का महत्व
यह केस इस बात को हाइलाइट करता है कि Meta अपने प्लेटफ़ॉर्म पर व्यंग्यात्मक कंटेंट को सटीकता से पहचान नहीं पाता. बोर्ड ने पहले व्यंग्यात्मक कंटेंट पर Meta के एन्फ़ोर्समेंट के संबंध में कुछ सुझाव दिए हैं. बोर्ड ने कहा कि Meta “यह सुनिश्चित करे कि व्यंग्य पर आधारित कंटेंट और उससे जुड़े प्रासंगिक संदर्भ का ठीक से मूल्यांकन करने के लिए उसके पास पर्याप्त साधन हैं. इसमें कंटेंट मॉडरेटर्स को ये सुविधाएँ देना शामिल है: (i) प्रासंगिक सांस्कृतिक और बैकग्राउंड से जुड़ी जानकारी पाने के लिए Facebook की लोकल ऑपरेशन टीमों तक पहुँच; और (ii) Facebook की लोकल ऑपरेशन टीमों के साथ परामर्श करने और मूल्यांकन करने के लिए पर्याप्त समय. Facebook को यह सुनिश्चित करना चाहिए कि कंटेंट मॉडरेटर्स के लिए उनकी पॉलिसी में मॉडरेटर्स को बारीकी से छानबीन करने या ऐसी स्थिति में एस्केलेट के लिए प्रोत्साहित किया गया हो, जहाँ वे यह तय नहीं कर पाएँ कि कोई मीम व्यंग्यपूर्ण है या नहीं,” (दो बटन वाला मीम केस का फ़ैसला, सुझाव क्र. 3). Meta ने आगे कोई जानकारी प्रकाशित किए बिना इस सुझाव को लागू करना बताया और इसलिए उसके क्रियान्वयन को वेरिफ़ाई नहीं किया जा सकता.
इसके अलावा, यह केस बताता है कि यूज़र के इरादे को समझने में Meta से गलतियाँ होती हैं. बोर्ड पहले Meta से यह कह चुका है कि वह यूज़र्स को यह बताए कि वे अपनी पोस्ट के पीछे का इरादा कैसे स्पष्ट कर सकते हैं, खास तौर पर खतरनाक संगठनों और लोगों से जुड़ी पॉलिसी के संबंध में. Meta ने कम्युनिटी स्टैंडर्ड में यह समझाने के लिए बोर्ड के सुझाव को आंशिक रूप से लागू किया कि यूज़र्स, Facebook के लिए किस तरह अपनी पोस्ट के पीछे के इरादे को स्पष्ट कर सकते हैं… Facebook को वर्णनात्मक उदाहरण देते हुए यह बताना चाहिए कि कौन-से कंटेंट की परमिशन है और कौन-सा कंटेंट प्रतिबंधित है जिसमें उस नियम का उपयोग स्पष्ट करना भी शामिल है कि ‘समर्थन’ में क्या शामिल नहीं है,” ( ओजलान का एकांतवास फ़ैसला, सुझाव सं. 6).
बोर्ड ने इस बात पर ज़ोर दिया कि इन सुझावों को पूरी तरह लागू किया जाए जिससे Meta के प्लेटफ़ॉर्म पर व्यंग्यात्मक कंटेंट के साथ होने वाली एन्फ़ोर्समेंट की गलतियों में कमी आ सकती है. साथ ही Meta यह दर्शाने वाली जानकारी प्रकाशित करे कि उन्हें सफलतापूर्वक लागू कर दिया गया है.
फ़ैसला
बोर्ड ने कंटेंट को हटाने के Meta के मूल फ़ैसले को पलट दिया. बोर्ड द्वारा केस को Meta के ध्यान में लाए जाने के बाद, Meta द्वारा मूल फ़ैसले की गलती में किए गए सुधार को बोर्ड ने स्वीकार किया.