एकाधिक मामले का निर्णय
ऑस्ट्रेलिया के मूल निवासियों को टार्गेट करने वाले कथन
1 अगस्त 2024
एक यूज़र ने दो Facebook पोस्ट को बनाए रखने के Meta के फ़ैसलों के खिलाफ़ अपील की. ये दोनों पोस्ट एक ही यूज़र द्वारा की गई थीं जिनमें ऑस्ट्रेलिया की मूल निवासी आबादी को टार्गेट करने वाली कमेंटरी के साथ समाचारों पर प्रतिक्रिया दी गई थी.
2 इस बंडल में केस शामिल हैं
FB-CRZUPEP1
Facebook पर नफ़रत फैलाने वाली भाषा से जुड़ा केस
FB-XJP78ARB
Facebook पर नफ़रत फैलाने वाली भाषा से जुड़ा केस
संक्षिप्त फ़ैसलों में उन केसों का परीक्षण किया जाता है जिनमें बोर्ड द्वारा कंटेंट पर Meta का ध्यान आकर्षित के बाद कंपनी ने कंटेंट के बारे में अपने मूल फ़ैसले को पलटा है और इसमें Meta द्वारा मानी गई गलतियों की जानकारी होती है. उन्हें पूरे बोर्ड के बजाय, बोर्ड के किसी सदस्य द्वारा स्वीकृत किया जाता है, उनमें पब्लिक कमेंट शामिल नहीं होते और उन्हें बोर्ड द्वारा आगे के फ़ैसलों के लिए आधार नहीं बनाया जा सकता. संक्षिप्त फ़ैसले, Meta के फ़ैसलों में सीधे बदलाव लाते हैं, इन सुधारों के बारे में पारदर्शिता देते हैं और साथ ही यह बताते हैं कि Meta अपने एन्फ़ोर्समेंट में कहाँ सुधार कर सकता है.
सारांश
एक यूज़र ने दो Facebook पोस्ट को बनाए रखने के Meta के फ़ैसलों के खिलाफ़ अपील की. ये दोनों पोस्ट एक ही यूज़र द्वारा की गई थीं जिनमें ऑस्ट्रेलिया की मूल निवासी आबादी को टार्गेट करने वाली कमेंटरी के साथ समाचारों पर प्रतिक्रिया दी गई थी. जब बोर्ड ने Meta का ध्यान इन अपीलों पर आकर्षित किया, तो कंपनी ने अपने मूल फ़ैसले पलट दिए और दोनों पोस्ट को हटा दिया.
केस की जानकारी
दिसंबर 2023 और जनवरी 2024 के बीच, ऑस्ट्रेलिया के एक यूज़र ने ऑस्ट्रेलिया के मूल निवासियों से जुड़ी दो Facebook पोस्ट शेयर की. पहली पोस्ट में एक समाचार का लिंक था जिसमें सिडनी के एक उपनगरीय क्षेत्र के पार्क में ज़मीन खरीदने की स्वदेशी भूमि काउंसिल की कोशिशों की जानकारी दी गई थी. पोस्ट के कैप्शन में मूल निवासी लोगों के लिए कहा गया था कि “वे उस रेगिस्तान में भाग जाएँ जो उनकी असली जगह है.” (bugger off to the desert where they actually belong) दूसरी पोस्ट में उत्तर-पूर्वी ऑस्ट्रेलिया में एक कार चेज़ से जुड़ा समाचार शेयर किया गया था. पोस्ट के कैप्शन में कहा गया था कि “Aboriginal ratbags” (आदिवासी मूर्ख) कैद की सज़ा पूरी करें और “100 strokes of the cane” (100 बार बेंत की छड़ी) खाएँ.
Meta की नफ़रत फैलाने वाली भाषा से जुड़ी पॉलिसी में ऐसे कथनों को प्रतिबंधित किया गया है जो जाति और नस्ल के आधार पर लोगों को अलग करने या उनका बहिष्कार करने का समर्थन या तरफ़दारी करते हैं. Meta खास तौर पर ऐसे कंटेंट को प्रतिबंधित करता है जिसमें “कुछ खास समूहों को निकालने” का आह्वान किया जाता है. साथ ही वह ऐसे कंटेंट को भी हटा देता है जो “जगहों की एक्सेस देने (शारीरिक और ऑनलाइन) से इंकार” करने का समर्थन करता है. पॉलिसी में “किसी व्यक्ति विशेष को निशाना बनाकर गालियाँ देना” और “हीनता व्यक्त करने वाली सामान्य बातों” को भी प्रतिबंधित किया गया है. इसमें किसी व्यक्ति या लोगों के समूहों की सुरक्षित विशिष्टताओं के आधार पर उन पर टार्गेट की गई “मानसिक विशेषताएँ” भी शामिल हैं.
बोर्ड द्वारा Meta का ध्यान इस केस की ओर आकर्षित किए जाने के बाद, कंपनी ने पाया कि दोनों कंटेंट से नफ़रत फैलाने वाली भाषा से जुड़ी उसकी पॉलिसी का उल्लंघन हुआ है और दोनों कंटेंट को बनाए रखने का उसका शुरुआती फ़ैसला गलत था. कंपनी ने फिर Facebook से कंटेंट को हटा दिया.
Meta ने बोर्ड को बताया कि पोस्ट में पार्क की ज़मीन से ऑस्ट्रेलिया के मूल निवासी लोगों के बहिष्कार का आह्वान किया गया था और यह कि उनके संबंध में “bugger off” का उपयोग, एक सुरक्षित समूह के सदस्यों को निशाना बनाकर गालियाँ देने का उदाहरण है. इसके अलावा, Meta ने यह माना कि “ratbag” एक अपमानजनक शब्द है. ऑस्ट्रेलिया की अंग्रेज़ी भाषा के अनुसार इसका एक अर्थ “मूर्ख व्यक्ति” भी होता है. इसलिए यह पोस्ट किसी सुरक्षित विशिष्टता वाले समूह के सदस्यों को मानसिक रूप से हीन बताने वाले कथनों के बारे में Meta की नफ़रत फैलाने वाली भाषा से जुड़े प्रतिबंध का उल्लंघन करता है.
बोर्ड का प्राधिकार और दायरा
बोर्ड को उन यूज़र्स के अपील करने के बाद Meta के फ़ैसले का रिव्यू करने का अधिकार है, जिन्होंने ऐसे कंटेंट की रिपोर्ट की जिसे उस समय बनाए रखा गया था (चार्टर अनुच्छेद 2, सेक्शन 1; उपनियम अनुच्छेद 3, सेक्शन 1).
जहाँ बोर्ड द्वारा रिव्यू किए जा रहे केस में Meta यह स्वीकार करता है कि उससे गलती हुई है और वह अपना फ़ैसला पलट देता है, वहाँ बोर्ड उस केस का चुनाव संक्षिप्त फ़ैसले के लिए कर सकता है (उपनियम अनुच्छेद 2, सेक्शन 2.1.3). बोर्ड, कंटेंट मॉडरेशन प्रोसेस के बारे में ज़्यादा जानकारी पाने, गलतियों में कमी लाने और Facebook, Instagram और Threads के यूज़र्स के लिए निष्पक्षता बढ़ाने के लिए मूल फ़ैसले का रिव्यू करता है.
केस की सार्थकता
बोर्ड ने बार-बार इस बात पर ज़ोर दिया है कि हमेशा से भेदभाव किए जाते रहे समूहों को निशाना बनाकर उपयोग की गई नफ़रत फैलाने वाली भाषा का समाधान करना खास तौर पर महत्वपूर्ण है ( दक्षिण अफ़्रीका का गालियाँ और ट्रांसजेंडर लोगों को टार्गेट करने के लिए पोलिश भाषा में की गई पोस्ट फ़ैसले). बोर्ड ने इस बारे में भी गंभीर चिंताएँ जताई कि एन्फ़ोर्समेंट संबंधी Meta के व्यवहारों का फ़र्स्ट नेशंस के लोगों पर बुरा असर पड़ सकता है. वामपम बेल्ट फ़ैसले में, बोर्ड ने नोट किया कि भले ही गलतियों से पूरी तरह बचा नहीं जा सकता, लेकिन “गलतियों के प्रकार और उनकी वजह से प्रभावित हुए लोग और कम्युनिटी से पता चलता है कि हमारे चयन करने के तरीकों का लगातार आकलन और जाँच होनी चाहिए.” उस केस में, बोर्ड ने इस बात पर ज़ोर दिया कि Meta, न सिर्फ़ सामान्य तौर पर नफ़रत फैलाने वाली भाषा से जुड़े अपने एन्फ़ोर्समेंट की सटीकता की निगरानी करे, बल्कि “कंटेंट की सबकैटेगरी के लिए एन्फ़ोर्समेंट की उन खास गलतियों के प्रति संवेदनशीलता के साथ भी ऐसा किया जाना चाहिए जहाँ गलत फ़ैसलों का मानवाधिकारों पर खास असर पड़ा है.” बोर्ड ने बताया कि इसलिए “यह दर्शाना Meta की ज़िम्मेदारी है कि उसने मानवाधिकारों का ध्यान रखा है ताकि यह सुनिश्चित हो कि उसका सिस्टम उचित रूप से काम कर रहा है और ऐतिहासिक और जारी दमन को बढ़ावा नहीं दे रहा है.”
बहिष्कार के आह्वानों पर बोर्ड ने सुझाव दिया कि “Meta को ‘सुरक्षा’ की अपनी वैल्यू फिर से लिखनी चाहिए और उसमें धमकी, बहिष्कार और आवाज़ दबाने के जोखिमों के अलावा यह शामिल करना चाहिए कि ऑनलाइन बयान से लोगों की शारीरिक सुरक्षा और जीने के अधिकार को जोखिम हो सकता है,” ( राया कोबो में कथित अपराध, सुझाव सं. 1). इस सुझाव का क्रियान्वयन, प्रकाशित जानकारी द्वारा दिखाया गया है.
फ़ैसला
बोर्ड ने कंटेंट को बनाए रखने के Meta के शुरुआती फ़ैसले को पलट दिया. बोर्ड द्वारा केसों को Meta के ध्यान में लाए जाने के बाद, Meta द्वारा मूल फ़ैसलों की गलती में किए गए सुधारों को बोर्ड ने स्वीकार किया.