नफ़रत फैलाने वाली भाषा में प्रयुक्त इमोजी सहित "छद्मभाषा" को रोकना

ओवरसाइट बोर्ड ने Meta के उन मूल फ़ैसलों को बदल दिया, जिनमें अश्वेत लोगों की तुलना बंदरों से करते हुए नफ़रत, भेदभाव और उत्पीड़न व्यक्त करने वाले इमोजी वाले कंटेंट के दो पीस को बनाए रखने की अनुमति दी गई थी। बोर्ड ने Meta से आह्वान किया है कि वह इमोजी सहित “छद्मभाषा” (सोशल मीडिया के अल्गोरिदम से बचने के लिए इस्तेमाल की जाने वाली भाषा, अल्गोस्पीक) को व्यापक रूप से ध्यान में रखते हुए, ऑटोमेटेड और मानवीय मॉडरेशन में सुधार कर समूहों को निशाना बनाने वाले नफ़रती और भेदभावपूर्ण व्यवहार को रोके। इसमें यह सुनिश्चित करना शामिल होना चाहिए कि पॉलिसी के ऑटोमेटेड एन्फ़ोर्समेंट के लिए इस्तेमाल किया जाने वाला प्रशिक्षण डेटा, क्षेत्रीय रूप से उपयुक्त और अपडेट हो, नफरत फैलाने वाले अभियानों को सक्रिय रूप से बाधित करने के लिए प्रयास समन्वित हों और इसे कम से कम करने के उपायों में प्रमुख खेल आयोजनों, जैसे कि FIFA (इंटरनेशनल फ़ेडरेशन ऑफ़ एसोसिएशन फ़ुटबॉल) विश्व कप, के दौरान भेदभाव और दुश्मनी भड़काने वाले इमोजी कंटेंट की सक्रिय निगरानी शामिल हो।

केस के बारे में

ये केस मई 2025 में की गई दो पोस्ट पर ध्यान देते हैं, जिनमें अश्वेत लोगों का संदर्भ देने के लिए बंदर इमोजी का इस्तेमाल किया गया था।

पहले केस में, ब्राज़ील के एक यूज़र ने Facebook पर फिल्म 'द हैंगओवर' के एक दृश्य वाला छोटा वीडियो पोस्ट किया, जिसमें दो पात्र, पुर्तगाली में डब की गई बहस करते हैं और एक बंदर पर मालिकाना हक का दावा करते हैं। वीडियो पर अलग से लिखे टेक्स्ट में पात्रों को स्पेनिश फ़ुटबॉल (सॉकर) क्लब “बार्सिलोना” और “रीयल मैड्रिड“ नाम दिया गया है। अलग से लिखे गए अतिरिक्त टेक्स्ट में, ब्राज़ीली फ़ुटबॉल में उभर रहे लड़कों का संदर्भ दिया गया है। कैप्शन में एक बंदर इमोजी था। इस पोस्ट को 22,000 से ज़्यादा बार देखा गया और 12 लोगों ने इसकी शिकायत की।

दूसरा केस, आयरलैंड में Instagram खाते पर एक वीडियो की प्रतिक्रिया में पोस्ट की गई कमेंट से संबंधित है। इस वीडियो में यूज़र, सड़क पर एक नस्लवादी घटना को देखने के बाद आक्रोश व्यक्त करता है और कैप्शन, आयरलैंड में नस्लवाद को नकारने का आह्वान करता है। एक अन्य यूज़र की कमेंट में कहा गया कि वे मैसेज का समर्थन नहीं करते, बल्कि चाहते हैं कि स्थिति “बिगड़ जाए” और “सभी [बंदर इमोजी] के साथ सड़क पर कुछ शानदार मज़ा हो।” इस टिप्पणी में अतिरिक्त रूप से कई बंदर, हंसने और प्रार्थना करने वाले इमोजी भी शामिल थे, और “आने वाले शानदार दिनों” को रेखांकित किया गया था। मूल पोस्ट को 4,000 से ज़्यादा बार देखा गया और 62 लोगों ने कमेंट की शिकायत की।

Meta के ऑटोमेटेड सिस्टम और – यूज़र की अपीलों के बाद – मानवीय रिव्यूअर ने भी दोनों पोस्ट को बने रहने दिया। इसके बाद, यूज़र ने बोर्ड के समक्ष अपील दायर की। बोर्ड ने जब इन केस का रिव्यू के लिए चयन कर लिया, उसके बाद Meta ने पाया कि उसके शुरुआती फ़ैसले गलत थे और कंपनी के नफ़रत फैलाने वाले आचरण संबंधी कम्युनिटी स्टैंडर्ड का उल्लंघन करने के कारण जुलाई 2025 में इन पोस्ट को हटा दिया।

वाक्यांशों में हेरफेर या इमोजी के ज़रिए कोडित भाषा (जिसे “छद्मभाषा” कहा जाता है) का इस्तेमाल, कंटेंट मॉडरेशन के ऑटोमेटेड सिस्टम से बचते हुए अमानवीय या नफ़रत फैलाने वाले मैसेज देने के लिए किया जा सकता है।

मुख्य निष्कर्ष

बोर्ड, नफ़रत फैलाने वाले आचरण संबंधी पॉलिसी के एन्फ़ोर्समेंट की सटीकता को लेकर चिंतित है, खासकर छद्मभाषा के रूप में इस्तेमाल किए गए इमोजी के आकलन में। क्लासिफ़ायर ने कंटेंट की पहचान तो की, लेकिन कोई कार्रवाई नहीं की। Meta का कहना है कि रिव्यूअर को कंटेंट के सभी पहलुओं, जैसे कि तस्वीर संग्रह, कैप्शन और वीडियो पर अलग से लिखे गए टेक्स्ट के साथ ही तात्कालिक कंटेंट से परे कारकों पर भी विचार करना चाहिए, जिनमें मुख्य पोस्ट और कमेंट शामिल हैं। Meta ने यह भी स्पष्ट किया कि उसके क्लासिफ़ायर, रिपोर्ट किए गए और लेबल किए गए उदाहरणों के डेटासेट पर प्रशिक्षित हैं, जिनमें ऐसे केस भी शामिल हैं, जहां इमोजी का इस्तेमाल, पॉलिसी का संभावित रूप से उल्लंघन करने वाले तरीकों से किया गया है। हालांकि, ऑटोमेटेड और मानवीय रिव्यू, पोस्ट का सटीक रूप से आकलन करने में विफल रहे।

Meta को अपने प्रशिक्षण डेटा का समय-समय पर ऑडिट करके, पॉलिसी का उल्लंघन करने वाले इमोजी के इस्तेमाल की ऑटोमेटेड पहचान में सुधार करना चाहिए। एन्फ़ोर्समेंट प्रक्रियाएं ऐसी हों कि वे कंटेंट को उपयुक्त भाषा और क्षेत्रीय विशेषज्ञता वाले रिव्यूअर तक हमेशा पहुंचाएं।

बोर्ड के प्रश्नों का जवाब देते हुए, Meta ने कहा कि कंपनी की 7 जनवरी, 2025 की घोषणा के बाद, बड़े भाषा मॉडल (LLM) अब एक अतिरिक्त रिव्यू स्तर के रूप में अधिक व्यापक रूप से एकीकृत किए गए हैं, जिनमें ऐसा कंटेंट भी शामिल है, जो नफ़रत फैलाने वाले आचरण संबंधी पॉलिसी का उल्लंघन कर सकता है। Meta के अनुसार, LLM मौजूदा मॉडल का स्थान नहीं लेते, बल्कि एन्फ़ोर्समेंट फ़ैसलों पर दूसरी राय प्रदान करते हैं, उस कंटेंट पर ध्यान केंद्रित करते हुए, जो हटाने के लिए चिह्नित किया गया है। इन केस में, LLM रिव्यू प्रक्रिया में शामिल नहीं थे।

बोर्ड ने पाया कि दोनों ही पोस्ट, नफ़रत फैलाने वाले आचरण संबंधी उस कम्युनिटी स्टैंडर्ड का उल्लंघन करती हैं, जो जानवरों से अमानवीय तुलना को प्रतिबंधित करता है। दोनों ही पोस्ट में बंदर इमोजी का इस्तेमाल, अश्वेत लोगों को उनकी संरक्षित विशेषता के आधार पर निशाना बनाने के लिए किया गया है।

इन पोस्ट को बनाए रखना, Meta की मानवाधिकार ज़िम्मेदारियों के भी अनुरूप नहीं है, क्योंकि संरक्षित विशेषताओं वाले समूहों के प्रति अमानवीयता करने या भेदभाव या दुश्मनी भड़काने वाले इमोजी को हटाया जाना चाहिए। दोनों ही पोस्ट को हटाना आवश्यक और सापेक्ष है।

दोनों पोस्ट छद्मभाषा के ऐसे रूपों का प्रतिनिधित्व करती हैं, जिनका इस्तेमाल विशिष्ट संरक्षित विशेषता वाले समूहों के प्रति नफ़रत, भेदभाव और उत्पीड़न व्यक्त करने के लिए किया गया, और यह दर्शाते हैं कि इमोजी का इस्तेमाल दूसरों को भेदभावपूर्ण और संभावित रूप से दुश्मनी वाली कार्रवाई के लिए उकसाने में कैसे किया जा सकता है।

ब्राज़ीली पोस्ट, फुटबॉल में व्यापक रूप से दस्तावेज़ीकृत प्रणालीगत नस्लवाद और दुश्मनी, खासकर अश्वेत खिलाड़ियों को निशाना बनाने, के संदर्भ में की गई थी। आयरलैंड वाले केस में कमेंट, आयरलैंड में बढ़ते नस्लीय भेदभाव और अफ़्रोफोबिया (अफ्ऱीकी मूल के लोगों के प्रति डर, नफ़रत या भेदभाव) के संदर्भ में शेयर की गई थी।

अपने प्रयासों का बेहतर समन्वय करने और उन लोगों की सुरक्षा के लिए, जिनका सीधे नाम न लिया गया हो, लेकिन वे नफ़रत फैलाने वाले अभियानों के निहित निशाने हैं, Meta को नफ़रत फैलाने वाले, खासकर इमोजी के इस्तेमाल से जुड़े अभियानों को सक्रिय रूप से बाधित करने के लिए, अपने पहले से मौजूद उपायों का समन्वित ढांचा विकसित करना चाहिए। Meta को यह भी सुनिश्चित करना चाहिए कि उसकी समय-संवेदी न्यूनीकरण कोशिशों में, चाहे वे इंटीग्रिटी प्रोडक्ट ऑपरेशंस सेंटर के ज़रिए की जाएं या किसी अन्य जोखिम न्यूनीकरण सिस्टम के ज़रिए, प्रमुख खेल आयोजनों, जैसे कि 2026 FIFA विश्व कप से पहले, उनके दौरान और तुरंत बाद, लक्षित भेदभाव या दुश्मनी भड़काने वाले इमोजी युक्त कंटेंट की सक्रिय निगरानी शामिल हो।

ओवरसाइट बोर्ड का फ़ैसला

बोर्ड ने कंटेंट के दोनों ही पीस को बनाए रखने के Meta के मूल फ़ैसले को बदल दिया।

बोर्ड के ये भी सुझाव हैं कि Meta:

  • नफ़रत फ़ैलाने वाले आचरण संबंधी पॉलिसी के एन्फ़ोर्समेंट के लिए इस्तेमाल किए जा रहे ऑटोमेटेड सिस्टम के प्रशिक्षण डेटा का ऑडिट करे और सभी भाषाओं के इमोजी वाले कंटेंट, पॉलिसी का उल्लंघन करने वाले इमोजी के इस्तेमाल और इमोजी के नफ़रत फैलाने वाले इस्तेमाल की नई घटनाओं के उदाहरण शामिल करने के लिए, डेटा को नियमित रूप से अपडेट किया जाना सुनिश्चित करे।
  • नफ़रत फैलाने वाले अभियानों को सक्रिय रूप से बाधित करने के लिए, अपनी मौजूदा कोशिशें में समन्वय स्थापित करे, खासकर उन अभियानों को, जिनमें इमोजी का इस्तेमाल होता है, ताकि उन लोगों को बेहतर रूप से संरक्षित किया जा सके, जिनका सीधे तौर पर नाम नहीं लिया जाता, लेकिन जो ऐसे नफ़रत फैलाने वाले अभियानों का निहित निशाना होते हैं।
  • यह सुनिश्चित करे कि उसकी समय-संवेदी न्यूनीकरण कोशिशों में, चाहे वे इंटीग्रिटी प्रोडक्ट ऑपरेशंस सेंटर के ज़रिए की जाएं या किसी अन्य जोखिम न्यूनीकरण सिस्टम के ज़रिए, प्रमुख खेल आयोजनों, जैसे कि FIFA विश्व कप, से पहले, उनके दौरान और तुरंत बाद, लक्षित भेदभाव या दुश्मनी भड़काने वाले इमोजी युक्त कंटेंट की सक्रिय निगरानी शामिल हो।

बोर्ड अपने पूर्व प्रासंगिक सुझाव के महत्व को दोहराता है कि Meta:

  • यूज़र को आत्म-सुधार का ऐसा अवसर प्रदान किया जाए, जो नवलनी-समर्थक विरोध प्रदर्शन संबंधी सुझाव क्रमांक 6 के परिणामस्वरूप विकसित किए गए पोस्ट टाइम फ़्रिक्शन हस्तक्षेप के समान हो। यदि यह हस्तक्षेप अब प्रभाव में नहीं है, तो कंपनी को उसी तरह का एक उत्पाद हस्तक्षेप प्रदान करना चाहिए।

धिक जानकारी

इस केस के लिए पब्लिक कमेंट पढ़ने के लिए, यहाँ क्लिक करें।

Return to Blogs