पलट जाना
नफ़रत फैलाने वाले मीम्स का वीडियो मोंटाज
7 मार्च 2024
एक यूज़र ने एक Facebook पोस्ट को बनाए रखने के Meta के फ़ैसले के खिलाफ़ अपील की जिसमें जर्मन म्यूज़िक के साथ एक वीडियो मोंटाज था और उसमें यहूदी विरोधी, जातीय, समलैंगिक लोगों से नफ़रत और ट्रांसजेंडर लोगों से नफ़रत वाले मीम थे. यह केस Meta की नफ़रत फैलाने वाली भाषा से जुड़ी पॉलिसी के एन्फ़ोर्समेंट में गलतियाँ हाइलाइट करता है.
यह संक्षिप्त फ़ैसला है. संक्षिप्त फ़ैसलों में उन केसों का परीक्षण किया जाता है जिनमें बोर्ड द्वारा कंटेंट पर Meta का ध्यान आकर्षित के बाद कंपनी ने कंटेंट के बारे में अपने मूल फ़ैसले को पलटा है. इन फ़ैसलों में उन गलतियों की जानकारी होती है जिन्हें Meta ने स्वीकार किया है और इनमें लोगों को यह जानकारी दी जाती है कि बोर्ड के काम का क्या असर पड़ता है. उन्हें बोर्ड के सदस्यों की पैनल द्वारा स्वीकार किया गया है, न कि पूरे बोर्ड द्वारा. उनमें सार्वजनिक कमेंट पर विचार नहीं किया जाता और बोर्ड आगे के फ़ैसलों के लिए उन्हें आधार भी नहीं बनाता है. संक्षिप्त फ़ैसले, Meta के सुधारों के बारे में पारदर्शिता देते हैं और यह बताते हैं कि पॉलिसी के एन्फ़ोर्समेंट के संबंध में कंपनी कहाँ सुधार कर सकती है.
केस का सारांश
एक यूज़र ने एक Facebook पोस्ट को बनाए रखने के Meta के फ़ैसले के खिलाफ़ अपील की जिसमें जर्मन म्यूज़िक के साथ एक वीडियो मोंटाज था और उसमें यहूदी विरोधी, जातीय, समलैंगिक लोगों से नफ़रत और ट्रांसजेंडर लोगों से नफ़रत वाले मीम थे. यह केस Meta की नफ़रत फैलाने वाली भाषा से जुड़ी पॉलिसी के एन्फ़ोर्समेंट में गलतियाँ हाइलाइट करता है. जब बोर्ड ने Meta का ध्यान अपील पर आकर्षित किया, तो कंपनी ने अपना मूल फ़ैसला पलट दिया और पोस्ट को हटा दिया.
केस की जानकारी और बैकग्राउंड
अगस्त 2023 में, एक Facebook यूज़र ने तीन मिनट की एक वीडियो क्लिप पोस्ट की जिसमें यहूदी विरोधी, जातीय, समलैंगिक लोगों से नफ़रत और ट्रांसजेंडर लोगों से नफ़रत वाले मीम थे. मीम्स में अन्य बातों के अलावा मीडिया संस्थानों पर यहूदियों के नियंत्रण का आरोप, नाज़ी सेना की प्रशंसा, अंतरजातीय संबंधों को लेकर अपमान का भाव, अश्वेत लोगों की गोरिल्ला से तुलना, अश्वेत विरोधी और LGBTQIA+ विरोधी गालियों का प्रदर्शन और इन कम्युनिटी पर हिंसा का समर्थन था. अंग्रेज़ी भाषा में साथ दिए गए कैप्शन में दावा किया गया कि इस पोस्ट से यूज़र का Facebook पेज सस्पेंड हो जाएगा, लेकिन फिर भी “इसे रखा जाना चाहिए.” पोस्ट को लगभग 4,000 बार देखा गया और 50 से कम बार इसकी रिपोर्ट की गई.
यह कंटेंट, Meta की नफ़रत फैलाने वाली भाषा से जुड़ी पॉलिसी के कई एलिमेंट का उल्लंघन करता है जिसमें ऐसे कंटेंट को प्रतिबंधित किया जाता है “जो धमकी से ऐतिहासिक रूप से जुड़ी नुकसानदेह रूढ़िवादिता का संदर्भ देता है”, जैसे “ऐसे दावे कि यहूदी लोग वित्तीय या मीडिया संस्थानों को कंट्रोल करते हैं.” इसके अलावा, इस पॉलिसी से अनुसार मनुष्यों को नीचा दिखाने वाली फ़ोटो पोस्ट नहीं की जा सकती जैसे “अश्वेत लोगों और बंदरों या बंदर जैसे प्राणियों” की तुलना दिखाने वाला कंटेंट. इसके अलावा, इस पॉलिसी में जातीय गालियों का उपयोग करने की मनाही है. इस कंटेंट में शामिल मीम्स मीडिया पर यहूदियों के नियंत्रण का आरोप लगाकर (एक मीम में किप्पा (यहूदी टोपी) पर “facebook” लिखा हुआ है); अश्वेत लोगों की तुलना गोरिल्ला से करके; और एक कार्टून पात्र द्वारा थामी गई तलवार पर n-शब्द दिखाते हुए नस्लीय गालियों का उपयोग करके उपरोक्त एलिमेंट्स का उल्लंघन करते हैं. अंग्रेज़ी भाषा में साथ दिए गए कैप्शन में दावा किया गया कि इस पोस्ट से यूज़र का Facebook पेज सस्पेंड हो जाएगा, लेकिन फिर भी “इसे रखा जाना चाहिए.” कैप्शन में भी कंटेंट से इंटरैक्ट करने वाले लोगों से कहा गया है कि “वे इन कमीनों का घोर अपमान करें” और वीडियो को डाउनलोड करें.
Meta ने शुरुआत में कंटेंट को Facebook पर बनाए रखा था. बोर्ड द्वारा इस केस को Meta के ध्यान में लाए जाने के बाद, कंपनी ने पाया कि कंटेंट से नफ़रत फैलाने वाली भाषा से जुड़े उसके कम्युनिटी स्टैंडर्ड का उल्लंघन हुआ है और उसने कंटेंट को हटा दिया.
बोर्ड का प्राधिकार और दायरा
बोर्ड को उस यूज़र के अपील करने के बाद Meta के फ़ैसले का रिव्यू करने का अधिकार है, जिसने ऐसे कंटेंट की रिपोर्ट की जिसे तब छोड़ दिया गया था (चार्टर अनुच्छेद 2, सेक्शन 1; उपनियम अनुच्छेद 3, सेक्शन 1).
जहाँ बोर्ड द्वारा रिव्यू किए जा रहे केस में Meta यह स्वीकार करता है कि उससे गलती हुई है और वह अपना फ़ैसला पलट देता है, वहाँ बोर्ड उस केस का चुनाव संक्षिप्त फ़ैसले के लिए कर सकता है (उपनियम अनुच्छेद 2, सेक्शन 2.1.3). बोर्ड, कंटेंट मॉडरेशन प्रोसेस के बारे में ज़्यादा जानकारी पाने, गलतियों में कमी लाने और Facebook और Instagram के यूज़र्स के लिए निष्पक्षता बढ़ाने के लिए मूल फ़ैसले का रिव्यू करता है.
केस का महत्व
यह केस हाइलाइट करता है कि Meta किस तरह अपनी नफ़रत फैलाने वाली भाषा से जुड़ी पॉलिसी का एन्फ़ोर्समेंट करता है. बोर्ड ने पहले उन मामलों में नफ़रत फैलाने वाली भाषा से जुड़ी Meta की पॉलिसी का परीक्षण किया है जिनमें यूज़र ने गालियों का उपयोग किया था, जैसे दक्षिण अफ़्रीका का गालियाँ केस जिसमें बोर्ड ने पाया कि नस्लीय गालियों का उपयोग नीचा दिखाने वाला और बहिष्कार करने वाला था. साथ ही उस कंटेंट के लिए भी परीक्षण किया जिसमें लोगों के समूह को इंसानों से कमतर कहा गया था, जैसे क्निन कार्टून केस.
इस केस में शामिल कंटेंट में ऐसे कई एलिमेंट्स थे जो उल्लंघन करते थे, अश्वेत लोगों के लिए गालियों का उपयोग करने से लेकर यहूदी लोगों पर मीडिया को नियंत्रित करने का आरोप लगाने तक. कैप्शन दिखाता है कि यूज़र को इस बात की पूरी जानकारी थी कि उनका कंटेंट उल्लंघन करता है और नफ़रत फैलाने वाली भाषा के चलते उसे हटा दिया जाएगा, फिर भी कंटेंट को तब तक हटाया नहीं गया जब तक कि बोर्ड ने एक अन्य यूज़र की अपील पर केस को रिव्यू के लिए नहीं चुना. बोर्ड ने ऐसे संक्षिप्त फ़ैसले भी प्रकाशित किए हैं जिनमें कहा गया है कि नफ़रत फैलाने वाली भाषा से जुड़ी पॉलिसी को एन्फ़ोर्स करने में Meta को लगातार दिक्कतें आ रही हैं, जैसा कि प्लेनेट ऑफ़ ऐप्स जातिवाद और मीडिया षडयंत्र कार्टून केसों में क्रमशः अश्वेत लोगों और यहूदी लोगों के खिलाफ़ कथन के संबंध में दिखाया गया है.
पहले बोर्ड ने अपने ट्रांसजेंडर लोगों को टार्गेट करने के लिए पोलिश भाषा में की गई पोस्ट केस में नोट किया है कि पोस्ट के नुकसानदेह कंटेंट के बारे में कई कंटेंट के बावजूद सही एन्फ़ोर्समेंट एक्शन लेने में Meta की विफलता के कारण बोर्ड इस निष्कर्ष पर पहुँचा कि कंपनी अपने उन आदर्शों का पालन नहीं कर रही है जो उसने LGBTQIA+ और अन्य उपेक्षित समुदायों की सुरक्षा के लिए तय किए हैं. बोर्ड ने Meta से कहा कि वह नफ़रत फैलाने वाली भाषा से जुड़े कम्युनिटी स्टैंडर्ड के तहत एन्फ़ोर्समेंट की कमियों को दूर करे.
फ़ैसला
बोर्ड ने संबंधित कंटेंट को प्लेटफ़ॉर्म पर बनाए रखने के Meta के मूल फ़ैसले को पलट दिया है. बोर्ड द्वारा केस को कंपनी के ध्यान में लाए जाने के बाद, Meta द्वारा मूल फ़ैसले की गलती में किए गए सुधार को बोर्ड ने स्वीकार किया.