पलट जाना

रोमानी लोगों का “अस्तित्व नहीं होना चाहिए” कहने वाला कमेंट

एक यूज़र ने रोमानी लोगों को निशाना बनाने वाले एक Facebook कमेंट को बनाए रखने के Meta के फ़ैसले के खिलाफ़ अपील की. इस कमेंट में कहा गया था कि “उनका अस्तित्व नहीं होना चाहिए.” जब बोर्ड ने Meta का ध्यान अपील पर आकर्षित किया, तो कंपनी ने अपना मूल फ़ैसला पलट दिया और कमेंट को हटा दिया.

निर्णय का प्रकार

सारांश

नीतियां और विषय

विषय
अधिकारहीन कम्युनिटी, जाति और नस्ल, भेदभाव
सामुदायिक मानक
नफ़रत फ़ैलाने वाली भाषा

क्षेत्र/देश

जगह
पोलैंड

प्लैटफ़ॉर्म

प्लैटफ़ॉर्म
Facebook

संक्षिप्त फ़ैसलों में उन केस का परीक्षण किया जाता है जिनमें बोर्ड द्वारा कंटेंट पर Meta का ध्यान आकर्षित करने के बाद कंपनी ने कंटेंट के बारे में अपने मूल फ़ैसले को पलटा है और इसमें Meta द्वारा मानी गई गलतियों की जानकारी होती है. उन्हें पूरे बोर्ड के बजाय, बोर्ड के किसी सदस्य द्वारा स्वीकृत किया जाता है, उनमें पब्लिक कमेंट शामिल नहीं होते और उन्हें बोर्ड द्वारा आगे के फ़ैसलों के लिए आधार नहीं बनाया जा सकता. संक्षिप्त फ़ैसले, Meta के फ़ैसलों में सीधे बदलाव लाते हैं, इन सुधारों के बारे में पारदर्शिता देते हैं और साथ ही यह बताते हैं कि Meta अपने एन्फ़ोर्समेंट में कहाँ सुधार कर सकता है.

सारांश

एक यूज़र ने रोमानी लोगों को निशाना बनाने वाले एक Facebook कमेंट को बनाए रखने के Meta के फ़ैसले के खिलाफ़ अपील की. इस कमेंट में कहा गया था कि “उनका अस्तित्व नहीं होना चाहिए.” जब बोर्ड ने Meta का ध्यान अपील पर आकर्षित किया, तो कंपनी ने अपना मूल फ़ैसला पलट दिया और कमेंट को हटा दिया.

मामले की जानकारी

मार्च 2025 में, रोमानी लोगों (जिन्हें अन्य नामों से भी जाना जाता है जैसे कि रोमा) के माइग्रेशन के इतिहास के बारे में चर्चा करने वाली एक पोस्ट पर एक Facebook यूज़र ने कमेंट किया. रोमानी, उत्तरी भारत का एक जातीय समूह है, जो पूरी दुनिया में माइग्रेट हो गए और आज के समय में मुख्य रूप से यूरोप में रह रहे हैं. कमेंट में कहा गया कि रोमानी लोगों का “अस्तित्व नहीं होना चाहिए” और वे “दुनिया के लिए सिर्फ़ [एक] समस्या हैं.”

एक यूज़र ने उस कमेंट को बनाए रखने के Meta के शुरुआती फ़ैसले के खिलाफ़ अपील की. अपील करने वाले यूज़र ने यूरोप में रोमानी लोगों के साथ होने वाले उत्पीड़न के इतिहास को हाइलाइट किया. साथ ही, मौजूदा दौर में उनके साथ हो रहे भेदभाव जैसे कि “अलग शिक्षा, रोज़गार संबंधी भेदभाव, घर संबंधी भेदभाव, स्वास्थ्य संबंधी भेदभाव, राजनैतिक और कानूनी भेदभाव, मीडिया और सामाजिक अपमान, पुलिस की क्रूरता, अत्यधिक गरीबी और नफ़रत से भरे अपराधों” पर भी प्रकाश डाला.

7 जनवरी, 2025 से पहले, जब Meta ने अपनी नफ़रत फैलाने वाली भाषा (जिसे अब नफ़रत फैलाने वाला व्यवहार कहा जाता है) के कम्युनिटी स्टैंडर्ड में बदलावों की घोषणा की, तब पॉलिसी में “मौजूदगी को अस्वीकार करने वाले बयान (इनके सहित लेकिन इन तक सीमित नहीं: ‘[सुरक्षित विशिष्टता (विशिष्टताओं) या अर्ध-सुरक्षित विशिष्टता] मौजूद नहीं है’, ‘[सुरक्षित विशिष्टता (विशिष्टताओं) या अर्ध-सुरक्षित विशिष्टता] जैसी कोई चीज़ नहीं होती’ या “[सुरक्षित विशिष्टता (विशिष्टताओं) या अर्ध-सुरक्षित विशिष्टता] जैसी कोई चीज़ नहीं होनी चाहिए’) को प्रतिबंधित किया गया था.”

हालाँकि, इस प्रतिबंध को नफ़रत फैलाने वाले व्यवहार की सार्वजनिक भाषा से हटा दिया गया था, लेकिन कंपनी अब भी “सुरक्षित विशिष्टताओं के आधार पर लोगों को निशाना बनाने वाले अलगाववादी या बहिष्कार करने वाले बयानों” को हटा देती है. सुरक्षित विशिष्टताएँ जैसे कि जाति और नस्ल. इस प्रतिबंध में “सामान्य बहिष्कार” शामिल है, जिसे इस तरह परिभाषित किया गया है कि “सामान्य बहिष्कार या अलगाव का आवाहन करना, जैसे कि ‘फलाने को अनुमति नहीं है!’” Meta द्वारा बोर्ड को दी गई जानकारी में कंपनी ने यह भी बताया कि उल्लंघन के अन्य उदाहरण में “अब नहीं है” या सुरक्षित विशिष्टता वाले समूह के सदस्यों के “बिना वाली दुनिया” जैसे बयान शामिल हैं.

जब बोर्ड ने Meta का ध्यान इस केस की ओर आकर्षित किया, तो कंपनी ने पाया कि कंटेंट से नफ़रत फैलाने वाले व्यवहार से जुड़ी पॉलिसी का उल्लंघन होता है और यह कि कमेंट को बनाए रखने का उसका शुरुआती फ़ैसला गलत था. Meta ने माना कि यूज़र ने पॉलिसी का उल्लंघन किया है क्योंकि रोमानी लोगों को “अस्तित्व नहीं होना चाहिए” वाला बयान सामान्य बहिष्कार का आवाहन है. कंपनी ने फिर Facebook से कंटेंट को हटा दिया.

बोर्ड का प्राधिकार और दायरा

बोर्ड को उस यूज़र के अपील करने के बाद Meta के फ़ैसले का रिव्यू करने का अधिकार है, जिसने ऐसे कंटेंट की रिपोर्ट की जिसे तब छोड़ दिया गया था (चार्टर आर्टिकल 2, सेक्शन 1, उपनियम आर्टिकल 3, सेक्शन 1).

जहाँ बोर्ड द्वारा रिव्यू किए जा रहे केस में Meta यह स्वीकार करता है कि उससे गलती हुई है और वह अपना फ़ैसला पलट देता है, वहाँ बोर्ड उस केस का चुनाव संक्षिप्त फ़ैसले के लिए कर सकता है (उपनियम अनुच्छेद 2, सेक्शन 2.1.3). बोर्ड, कंटेंट मॉडरेशन प्रोसेस के बारे में ज़्यादा जानकारी पाने, गलतियों में कमी लाने और Facebook, Instagram और Threads के यूज़र्स के लिए निष्पक्षता बढ़ाने के लिए मूल फ़ैसले का रिव्यू करता है.

केस की सार्थकता

इस केस का कंटेंट रोमानी लोगों के खिलाफ़ नफ़रत फैलाने वाली भाषा का एक उदाहरण है, जो न ही अंतर्निहित है और न ही कोड भाषा में है, यह स्पष्ट रूप से कहता है कि उनका “अस्तित्व नहीं होना चाहिए.” यह केस स्पष्ट रूप से नफ़रत फैलाने वाली भाषा (उदाहरण के लिए डाउन सिंड्रोम से पीड़ित लोगों को निशाना बनाने वाले कमेंट, ऑस्ट्रेलिया के मूल निवासियों को निशाना बनाने वाले बयान, ट्रांसजेंडर लोगों को निशाना बनाने वाली पोलिश भाषा में की गई पोस्ट देखें) के ज़रूरत से कम एन्फ़ोर्समेंट का एक और उदाहरण है जो Meta के प्लेटफ़ॉर्म पर नफ़रत फैलाने वाले व्यवहार के खिलाफ़ Meta की नीतियों के एन्फ़ोर्समेंट पर चिंताजनक कमियों को उजागर करता है.

संयुक्त राष्ट्र के मानवाधिकार काउंसिल ने लंबे समय से स्वीकार किया है कि रोमानी लोगों को “पाँच शताब्दियों से भी ज़्यादा समय से पूरी दुनिया में, खासतौर पर यूरोप में और जीवन के सभी पड़ाव में बड़े पैमाने पर और लंबे समय से भेदभाव, अस्वीकृति, सामाजिक बहिष्कार और उपेक्षा का सामना करना पड़ रहा है.” काउंसिल ने यह भी माना कि “एंटी-जिप्सीज़्म [“जिप्सी” शब्द का उपयोग रोमानी लोगों के लिए किया जाता है और कुछ लोग इसे अपमानजनक मानते हैं] का अस्तित्व, नस्लवाद और असहिष्णुता का एक खास रूप है, जिसकी वजह से रोमा कम्युनिटी के खिलाफ़ बहिष्कार से लेकर हिंसा जैसी आक्रामक गतिविधियाँ होती हैं.” इसी प्रकार, अल्पसंख्यक से जुड़े मुद्दों पर संयुक्त राष्ट्र के विशेष रिपोर्टर द्वारा किए गए व्यापक अध्ययन के अनुसार, रोमानी लोगों को हिंसा के जोखिम, उनकी सामूहिक पहचान की धमकियों, रहन-सहन की स्थितियों में चुनौतियों और प्रभावी सामाजिक भागीदारी में बाधाओं को सामना करना पड़ता है. हाल ही में, यूरोपियन संसद के एक प्रस्ताव और यूरोपियन यूनियन एजेंसी फ़ॉर फ़ंडामेंटल राइट्स के 10 यूरोपियन देशों के सर्वे में घर, शिक्षा, स्वास्थ्य और रोज़गार जैसे क्षेत्रों में रोमानी लोगों के साथ होने वाले भेदभाव और हिंसा के साथ-साथ उनको होने वाली कठिनाइयों को हाइलाइट किया गया है.

बोर्ड ने बार-बार ऐसे समूहों को निशाना बनाने वाले कंटेंट के लिए ज़रूरत से कम एन्फ़ोर्समेंट के बारे में चिंता जताई है जिनके साथ पहले भेदभाव होता रहा है और अभी भी हो रहा है. ऑस्ट्रेलिया के मूल निवासियों को निशाना बनाने वाले बयानों के फ़ैसले में, बोर्ड ने ऐसे समूहों का बहिष्कार करने के लिए आवाहन करने वाले कंटेंट को न हटाने की Meta की गलती हो हाइलाइट किया. राया कोबो में कथित अपराधों के फ़ैसले में, बोर्ड ने सुझाव दिया था कि Meta “को “सुरक्षा”’ की [अपनी] वैल्यू फिर से लिखनी चाहिए और उसमें धमकी, बहिष्कार और आवाज़ दबाने के जोखिमों के अलावा यह शामिल करना चाहिए कि ऑनलाइन बयान से लोगों की शारीरिक सुरक्षा और जीने के अधिकार को जोखिम हो सकता है,”(सुझाव सं. 1). इस सुझाव का क्रियान्वयन प्रकाशित जानकारी द्वारा दिखाया गया है.

गलतियों में कमी लाने के लिए, बोर्ड ने Meta के पॉलिसी एन्फ़ोर्समेंट को बेहतर बनाने के लिए भी सुझाव दिए. उदाहरण के लिए, बोर्ड ने यह सुझाव दिया कि Meta को “[लोगों के साथ] उस आंतरिक ऑडिट के परिणाम इस तरह शेयर करना चाहिए जो उसने अपनी नफ़रत फैलाने वाली भाषा [अब नफ़रत फैलाने वाला व्यवहार] से जुड़ी पॉलिसी को एन्फ़ोर्स करने में ह्यूमन रिव्यू की सटीकता और ऑटोमेटेड सिस्टम की परफ़ॉर्मेंस का आकलन करने के लिए किया है [...] ये परिणाम इस तरह शेयर किए जाने चाहिए जिससे इन परिणामों की सभी भाषाओं और/या क्षेत्रों में तुलना की जा सके,” ( राष्ट्रीयता के आधार पर आपराधिक आरोप, सुझाव सं. 2). बोर्ड को दिए अपने शुरुआती जवाब में, Meta ने रिपोर्ट किया कि कंपनी इस सुझाव को छोटे-छोटे हिस्सों में लागू करेगी. Meta ने कहा कि कंपनी “कम्युनिटी स्टैंडर्ड एन्फ़ोर्समेंट रिपोर्ट (CSER) में [अपने] पहचान और एन्फ़ोर्समेंट मैकेनिज़्म द्वारा निपटाए गए नफ़रत फैलाने वाली भाषा के कंटेंट की मात्रा के बारे में डेटा शेयर करना जारी रखेगी,” लेकिन वैश्विक स्तर पर उसके एन्फ़ोर्समेंट की सटीकता का डेटा, बोर्ड के साथ गोपनीय रूप से शेयर किया जाएगा. यह सुझाव सितंबर 2024 में जारी किया गया था. इसका क्रियान्वयन अभी जारी है और बोर्ड के साथ डेटा शेयर किया जाना बाकी है.

बोर्ड ने Meta से सभी भाषाओं और/या क्षेत्रों में ऐसे कंटेंट की पहचान करने और उसे हटाने की सटीकता दर को और बेहतर बनाने का आग्रह किया जो इसके नफ़रत फैलाने वाले व्यवहार के कम्युनिटी स्टैंडर्ड का स्पष्ट रूप से उल्लंघन करते हैं. बोर्ड ने पहले भी दक्षिण अफ़्रीका के रंगभेद के समय का झंडा दिखाने वाली पोस्ट के फ़ैसले में हाइलाइट किया था कि “2018 में, Meta ने म्यांमार जैसी संकट की स्थितियों में Facebook से नफ़रत फैलाने वाली भाषा को हटाने की विफलता का उल्लेख ऑटोमेटेड एन्फ़ोर्समेंट पर निर्भरता बढ़ाने की प्रेरणा के रूप में किया था.” उसी फ़ैसले में बोर्ड ने कहा था कि “दुनिया के कई हिस्सों में, विभिन्न कारणों से Meta के ऐप में रिपोर्टिंग के टूल के साथ यूज़र्स के एंगेजमेंट की संभावना कम होती है, जिससे यूज़र रिपोर्ट इस बात का गैर-भरोसेमंद संकेत बन जाती है कि सबसे अधिक नुकसान कहाँ हो सकता है.” फिर भी इस फ़ैसले में, बोर्ड ने निष्कर्ष निकाला कि यह “महत्वपूर्ण है कि Meta इस बात पर पूरी तरह से विचार करे कि संभावित रूप से उल्लंघन करने वाले कंटेंट की स्वचालित पहचान में किसी भी बदलाव के प्रभाव, चाहे वह ज़रूरत से कम एन्फ़ोर्समेंट हो या ज़्यादा, वैश्विक स्तर पर असमान हो सकते हैं, खास तौर से उन देशों में जहाँ अभी संकट, युद्ध या अत्याचार के अपराध हो रहे हैं या कुछ समय पहले हुए हैं.”

बोर्ड का मानना है कि ऊपर बताए गए राष्ट्रीयता के आधार पर आपराधिक आरोप के फ़ैसले के सुझाव सं. 2 को पूरी तरह क्रियान्वित करने से कमज़ोर समूहों को प्रभावित करने वाले नुकसानदेह कंटेंट के ज़रूरत से कम एन्फ़ोर्समेंट की कंपनी की क्षमता और मज़बूत होगी. इससे Meta सभी भाषाओं और/या क्षेत्रों के सटीकता के डेटा की तुलना कर पाएगा और ज़रूरत के हिसाब से सटीकता को बेहतर बनाने के लिए संसाधन आवंटित किए जा सकेंगे. इसके अलावा, नफ़रत फैलाने वाले व्यवहार की पॉलिसी के तहत रिव्यू की सटीकता पर सार्वजनिक रिपोर्टिंग से पारदर्शिता बढ़ेगी और Meta के साथ एंगेजमेंट जेनरेट होगी, जिससे आगे और सुधार होने की संभावना है.

फ़ैसला

बोर्ड ने संबंधित कंटेंट को प्लेटफ़ॉर्म पर बनाए रखने के Meta के मूल फ़ैसले को पलट दिया है. बोर्ड द्वारा केस को Meta के ध्यान में लाए जाने के बाद, Meta द्वारा शुरुआती फ़ैसले की गलती में किए गए सुधार को बोर्ड ने स्वीकार किया.

मामले के निर्णयों और नीति सलाहकार राय पर लौटें