एकाधिक मामले का निर्णय

अश्वेत लोगों को टार्गेट करने वाले इमोजी

ओवरसाइट बोर्ड ने कंटेंट के दो भागों को बनाए रखने के Meta के मूल फ़ैसले को पलट दिया जिसमें अश्वेत लोगों की तुलना बंदरों के करके उनके प्रति नफ़रत, भेदभाव और उत्पीड़न दर्शाने के लिए इमोजी का उपयोग किया गया था.

2 इस बंडल में केस शामिल हैं

पलट जाना

FB-QGOKEDPY

Facebook पर से जुड़ा केस

प्लैटफ़ॉर्म
Facebook
विषय
भेदभाव,जाति और नस्ल
जगह
ब्राज़ील
Date
पर प्रकाशित 10 फ़रवरी 2026
पलट जाना

IG-EJNOH07S

Instagram पर से जुड़ा केस

प्लैटफ़ॉर्म
Instagram
विषय
भेदभाव,जाति और नस्ल
जगह
आयरलैंड,अमेरिका,ज़िंबाब्वे
Date
पर प्रकाशित 10 फ़रवरी 2026

सारांश

ओवरसाइट बोर्ड ने कंटेंट के दो भागों को बनाए रखने के Meta के मूल फ़ैसले को पलट दिया जिसमें अश्वेत लोगों की तुलना बंदरों के करके उनके प्रति नफ़रत, भेदभाव और उत्पीड़न दर्शाने के लिए इमोजी का उपयोग किया गया था. बोर्ड ने Meta से कहा कि वह अपने ऑटोमेटेड और ह्यूमन मॉडरेशन को इस तरह बेहतर बनाकर समूहों को टार्गेट करने वाली नफ़रत और भेदभाव को रोके जिसमें इमोजी सहित “एल्गोस्पीक” पर व्यापक रूप से विचार किया जाए. इसमें यह सुनिश्चित करना शामिल होना चाहिए कि पॉलिसी के ऑटोमेटेड एन्फ़ोर्समेंट के लिए उसका ट्रेनिंग डेटा, क्षेत्रीय रूप से उचित और अप-टू-डेट हो, यह कि नफ़रत फैलाने वाले कैंपेन को समय रहते रोकने की कोशिशों के लिए आपस में तालमेल किया जाए और यह सुनिश्चित किया जाए कि इन्हें दूर करने की कोशिशों में FIFA (इंटरनेशनल फ़ेडरेशन ऑफ़ एसोसिएशन फ़ुटबॉल) विश्व कप जैसे प्रमुख खेल आयोजनों के दौरान भेदभाव और दुश्मनी को भड़काने वाले इमोजी कंटेंट की सक्रिय निगरानी शामिल हो.

केस की जानकारी

इन केसों में मई 2025 की ऐसी दो पोस्ट की चर्चा की गई जिनमें बंदरों की इमोजी का उपयोग अश्वेत लोगों को दर्शाने के लिए किया गया था.

पहले केस में, ब्राज़ील के एक यूज़र ने Facebook पर एक शॉर्ट वीडियो पोस्ट किया जिसमें द हैंगओवर मूवी का एक दृश्य था. इसमें दो पात्र, एक बंदर का मालिक होने की बहस कर रहे हैं. इस बहस को पुर्तगाली भाषा में डब किया गया है. वीडियो में ओवरले टेक्स्ट में पात्रों का नाम स्पैनिश फ़ुटबॉल (सॉकर) क्लब “बार्सिलोना” और “रियल मैड्रिड” बताया गया है. अतिरिक्त ओवरले टेक्स्ट में ब्राज़ीलियन फ़ुटबॉल में लड़कों के बढ़ते दबदबे की बात कही गई है. कैप्शन में बंदर वाला एक इमोजी है. पोस्ट को 22,000 से ज़्यादा बार देखा गया और 12 लोगों ने इसकी रिपोर्ट की.

दूसरा केस, आयरलैंड में एक Instagram अकाउंट पर मौजूद वीडियो पर प्रतिक्रिया के रूप में पोस्ट किए गए एक कमेंट से संबंधित है. वीडियो में, यूज़र ने सड़क पर हुई एक नस्लवादी घटना को देखने के बाद गुस्सा जताया है और कैप्शन में आयरलैंड में नस्लवाद को अस्वीकार करने का आह्वान किया गया है. एक अन्य यूज़र ने कमेंट में कहा है कि वे इस मैसेज का समर्थन नहीं करते हैं, बल्कि वे चाहते हैं कि स्थिति "भड़के" और "सभी [बंदर इमोजी] के साथ सड़कों पर खूब मस्ती हो." कमेंट में बंदर, हंसी और प्रार्थना के कई इमोजी भी थे और इसमें "अच्छे दिन आने वाले हैं" पर ज़ोर दिया गया था. मूल पोस्ट को 4,000 से ज़्यादा बार देखा गया और 62 लोगों ने कमेंट की रिपोर्ट की.

Meta के ऑटोमेटेड सिस्टम और यूज़र की अपील के बाद ह्यूमन रिव्यूअर्स ने पोस्ट को बनाए रखा. इसके बाद यूज़र्स ने बोर्ड से अपील की. बोर्ड द्वारा रिव्यू के लिए इन केसों को चुने जाने के बाद, Meta ने तय किया कि उसके शुरुआती फ़ैसले गलत थे और नफ़रतपूर्ण आचरण से जुड़े कंपनी के कम्युनिटी स्टैंडर्ड का उल्लंघन करने के कारण जुलाई 2025 में उन पोस्ट को हटा दिया.

वाक्यांशों या इमोजी के ज़रिए व्यक्त की जाने वाली सांकेतिक भाषा (जिसे "एल्गोस्पीक" कहा जाता है) का उपयोग, ऑटोमेटेड कंटेंट मॉडरेशन सिस्टम से बचते हुए अमानवीय या नफ़रतपूर्ण मैसेज दिखाने के लिए किया जा सकता है.

मुख्य निष्कर्ष

बोर्ड, नफ़रतपूर्ण आचरण से जुड़ी पॉलिसी के एन्फ़ोर्समेंट की सटीकता को लेकर चिंतित है, खास तौर पर एल्गोस्पीक के रूप में उपयोग किए जाने वाले इमोजी के मूल्यांकन के संबंध में. क्लासिफ़ायर ने कंटेंट को पहचाना लेकिन कोई एक्शन नहीं लिया. Meta का कहना है कि रिव्यूअर्स को कंटेंट के सभी पहलुओं पर विचार करना चाहिए, जैसे कि इमेजरी, कैप्शन और टेक्स्ट ओवरले. साथ ही मुख्य पोस्ट और कमेंट सहित एकदम सामने दिखाई देने वाले कंटेंट से आगे की चीज़ों पर भी विचार करना चाहिए. Meta ने यह भी बताया कि उसके क्लासिफ़ायर को रिपोर्ट और लेबल किए गए उदाहरणों के डेटासेट का उपयोग करके ट्रेनिंग दी जाती है, जिसमें ऐसे केस शामिल हैं जहाँ इमोजी का उपयोग संभावित रूप से उल्लंघन करने वाले तरीकों से किया जाता है. हालाँकि, ऑटोमेटेड और ह्यूमन रिव्यू में पोस्ट का सही आकलन नहीं हुआ.

Meta को समय-समय पर अपने ट्रेनिंग डेटा का ऑडिट करके इमोजी के उल्लंघन करने वाले उपयोग की ऑटोमेटेड पहचान को बेहतर बनाना चाहिए. एन्फ़ोर्समेंट प्रोसेस में हमेशा ऐसे कंटेंट को रिव्यूअर्स के पास भेजा जाना चाहिए जिनके पास भाषा और क्षेत्र की उचित विशेषज्ञता हो.

बोर्ड के सवालों का जवाब देते हुए, Meta ने कहा कि कंपनी के 7 जनवरी, 2025 के अनाउंसमेंट के बाद, लार्ज लैंग्वेज मॉडल (LLM) को अब रिव्यू की एक अतिरिक्त लेयर के रूप में ज़्यादा व्यापक रूप से जोड़ा गया है. यह ऐसे कंटेंट का रिव्यू भी करता है जो नफ़रतपूर्ण आचरण से जुड़ी पॉलिसी का उल्लंघन कर सकता है. Meta के अनुसार, LLM, मौजूदा मॉडलों की जगह नहीं लेते, बल्कि एन्फ़ोर्समेंट से जुड़े फ़ैसलों पर अतिरिक्त राय देते हैं और उस कंटेंट पर फ़ोकस करते हैं जिन्हें हटाने के लिए चिह्नित किया गया है. इन केसों में, LLM को रिव्यू प्रोसेस में शामिल नहीं किया गया था.

बोर्ड ने पाया कि दोनों पोस्ट से नफ़रपूर्ण आचरण से जुड़े कम्युनिटी स्टैंडर्ड का उल्लंघन होता है, जिनके अनुसार पशुओं के साथ अमानवीय तुलना करना प्रतिबंधित है. दोनों पोस्ट में बंदर वाले इमोजी का इस्तेमाल अश्वेत लोगों को उनकी सुरक्षित विशिष्टता के आधार पर निशाना बनाने के लिए किया गया है.

इन पोस्ट को बनाए रखना, Meta की मानवाधिकार से जुड़ी ज़िम्मेदारियों के भी विपरीत है, क्योंकि ऐसे इमोजी को हटा दिया जाना चाहिए जो मनुष्यों से कमतर बताने वाली तुलना करते हैं और सुरक्षित विशिष्टता वाले समूहों के प्रति भेदभाव या दुश्मनी भड़काते हैं. दोनों पोस्ट को हटाना आवश्यक और आनुपातिक है.

दोनों पोस्ट में सुरक्षित विशिष्टता वाले समूहों के प्रति नफ़रत, भेदभाव और उत्पीड़न व्यक्त करने के लिए एल्गोस्पीक का उपयोग दिखाया गया है. साथ ही वे यह बताती हैं कि इमोजी का उपयोग किस तरह से दूसरों को भेदभावपूर्ण और संभावित रूप से शत्रुतापूर्ण कार्रवाई करने के लिए उकसाने के लिए किया जा सकता है.

ब्राज़ील की यह पोस्ट, फ़ुटबॉल में व्यापक रूप से डॉक्यूमेंट किए गए व्यवस्थित नस्लवाद और दुश्मनी के संदर्भ में की गई थी, जिसमें खास तौर पर अश्वेत खिलाड़ियों को निशाना बनाया जाता है. आयरलैंड के केस में किए गए कमेंट को आयरलैंड में बढ़ते नस्लीय भेदभाव और एफ़्रोफ़ोबिया के संदर्भ में शेयर किया गया था.

अपनी कोशिशों का बेहतर तालमेल करने और उन लोगों की रक्षा करने के लिए, जिनका नाम सीधे तौर पर नहीं लिया गया है, लेकिन जो नफ़रतपूर्ण कैंपेन के अप्रत्यक्ष लक्ष्य हैं, Meta को नफ़रतपूर्ण कैंपेन, खास तौर पर जिनमें इमोजी का उपयोग किया जाता है, को समय रहते रोकने के लिए अपने पहले से मौजूद उपायों में तालमेल बनाने के लिए एक फ़्रेमवर्क बनाना चाहिए. Meta को यह सुनिश्चित करना चाहिए कि जोखिमों से निपटने के लिए समय-समय पर की जाने वाली उसकी कोशिशों में, चाहे वह उसके इंटीग्रिटी प्रोडक्ट ऑपरेशंस सेंटर के ज़रिए हो या जोखिम दूर करने के किसी अन्य सिस्टम के ज़रिए, 2026 FIFA विश्व कप जैसे खेल के प्रमुख आयोजनों से पहले, उनके दौरान और उनके तुरंत बाद लक्षित भेदभाव या दुश्मनी भड़काने वाले इमोजी वाले कंटेंट की सक्रिय निगरानी शामिल हो.

ओवरसाइट बोर्ड का फ़ैसला

बोर्ड ने दोनों कंटेंट को प्लेटफ़ॉर्म पर बनाए रखने के Meta के मूल फ़ैसले को पलट दिया है.

बोर्ड ने Meta को ये सुझाव भी दिए हैं कि वह:

  • नफ़रतपूर्ण आचरण पॉलिसी के एन्फ़ोर्समेंट के लिए उपयोग किए जाने वाले ऑटोमेटेड सिस्टम के लिए अपने ट्रेनिंग डेटा का ऑडिट करे और सुनिश्चित करें कि डेटा को समय-समय पर अपडेट किया जाता है ताकि इसमें सभी भाषाओं के इमोजी वाले कंटेंट के उदाहरण, इमोजी के उल्लंघन करने वाले उपयोग और इमोजी के नफ़रतपूर्ण उपयोग के नए मामले शामिल हों.
  • नफ़रतपूर्ण कैंपेन, खास तौर पर जिनमें इमोजी का उपयोग किया जाता है, को समय रहते रोकने के लिए अपने पहले से मौजूद उपायों में तालमेल बनाए ताकि उन लोगों की रक्षा की जा सके, जिनका नाम सीधे तौर पर नहीं लिया गया है, लेकिन जो नफ़रतपूर्ण कैंपेन के अप्रत्यक्ष लक्ष्य हैं.
  • यह सुनिश्चित करे कि जोखिमों से निपटने के लिए समय-समय पर की जाने वाली उसकी कोशिशों में, चाहे वह उसके इंटीग्रिटी प्रोडक्ट ऑपरेशंस सेंटर के ज़रिए हो या जोखिम दूर करने के किसी अन्य सिस्टम के ज़रिए, FIFA विश्व कप जैसे खेल के प्रमुख आयोजनों से पहले, उनके दौरान और उनके तुरंत बाद लक्षित भेदभाव या दुश्मनी भड़काने वाले इमोजी वाले कंटेंट की सक्रिय निगरानी शामिल हो.

बोर्ड ने अपने पिछले प्रासंगिक सुझावों के महत्व को दोहराते हुए कहा कि Meta:

  • यूज़र्स को खुद समस्या दूर करने का अवसर दे, जो नवालनी के समर्थन में विरोध प्रदर्शन (सुझाव सं. 6) के परिणामस्वरूप बनाए गए पोस्ट करने के समय के टकराव में हस्तक्षेप के समान हो. अगर यह हस्तक्षेप अब प्रभावी न हो, तो कंपनी को इसके समान प्रोडक्ट हस्तक्षेप उपलब्ध कराना चाहिए.

*केस के सारांश से केस का ओवरव्यू मिलता है और भविष्य में लिए जाने वाले किसी फ़ैसले के लिए इसको आधार नहीं बनाया जा सकता है.

केस का पूरा फ़ैसला

  1. केस की जानकारी और बैकग्राउंड

इस फ़ैसले में ऐसे दो केस की चर्चा की गई है जिनमें अश्वेत लोगों के संदर्भ में बंदर वाले इमोजी का उपयोग किया गया था.

पहले केस में एक शॉर्ट वीडियो था जिसे ब्राज़ील के एक यूज़र द्वारा मई 2025 में Facebook पर पोस्ट किया गया था. वीडियो में द हैंगओवर मूवी का एक दृश्य है, जिसमें दो पात्र पुर्तगाली भाषा में बहस करते हैं और एक बंदर पर अपना हक जताते हैं. वीडियो में ओवरले टेक्स्ट में पात्रों का नाम “बार्सिलोना” और “रियल मैड्रिड” बताए गए हैं जो स्पेन के फ़ुटबॉल (सॉकर) क्लब हैं. बहस के दौरान, "रियल मैड्रिड" वाला पात्र कुछ देर के लिए "बार्सिलोना" नाम वाले पात्र को बंदूक से धमकाता है. अतिरिक्त ओवरले टेक्स्ट में ब्राज़ीलियन फ़ुटबॉल में लड़कों के बढ़ते दबदबे की बात कही गई है और वीडियो के कैप्शन में सिर्फ़ बंदर वाले इमोजी हैं. पोस्ट को 22,000 से ज़्यादा बार देखा गया और 12 लोगों ने कंटेंट की रिपोर्ट की.

दूसरा केस, आयरलैंड में एक Instagram अकाउंट पर यूज़र द्वारा मई 2025 में पोस्ट किए गए वीडियो पर प्रतिक्रिया के रूप में पोस्ट किए गए एक कमेंट से संबंधित है. वीडियो में, पोस्ट करने वाला यूज़र आयरलैंड की एक सड़क पर हुई नस्लवादी घटना को देखने के बाद अपना गुस्सा जताते हुए कैमरे पर दिखाई दे रहा है. इस घटना में टीनएजर बच्चों के एक समूह ने एक अश्वेत महिला को नस्लवादी गालियाँ दीं. कैप्शन में, पोस्ट करने वाले यूज़र ने पीड़िता के लिए अपना दुख जताया है और इस बात पर ज़ोर दिया है कि अश्वेत और आयरिश दोनों हुआ जा सकता है, लेकिन यह ऐसी बातचीत है जिसे "कुलीन श्वेत लोग" करना नहीं चाहते. यूज़र ने दूसरों से भी खुलकर बोलने और इस कठोर बातचीत में भाग लेने के लिए कहा और समाज को नस्लवाद से बेहतर ढंग से निपटने के लिए प्रोत्साहित किया. कैप्शन के अंत में आयरलैंड से नस्लवाद को खत्म करने से जुड़े हैशटैग का उपयोग किया गया है.

आयरलैंड के केस में, वीडियो पर प्रतिक्रिया देते हुए एक अन्य यूज़र ने कमेंट किया कि वे इस मैसेज का समर्थन नहीं करते. इसके बजाय, उन्होंने वीडियो बनाने वाले को चुनौती देते हुए कहा कि वे इस स्थिति के बारे में क्या करना चाहते हैं. कमेंट करने वाले यूज़र ने यह उत्सुकता भी जताई कि स्थिति "भड़के" और "सभी [बंदर इमोजी] के साथ सड़कों पर खूब मस्ती की जाए." कमेंट में बंदर, हंसी और प्रार्थना के कई इमोजी भी थे और इसमें "अच्छे दिन आने वाले हैं" पर ज़ोर दिया गया था. मूल पोस्ट को 4,000 से ज़्यादा बार देखा गया और 62 लोगों ने कमेंट की रिपोर्ट की.

Meta के ऑटोमेटेड सिस्टम ने दोनों पोस्ट की पहचान नफ़रतपूर्ण आचरण से जुड़ी पॉलिसी के संभावित उल्लंघन के रूप में की. क्लासिफ़ायर ने ब्राज़ील वाले केस में कंटेंट को उल्लंघन करने वाला नहीं पाया, जबकि वह आयरलैंड के केस में भाषा (अंग्रेज़ी) का निश्चित रूप से निर्धारण नहीं कर पाया और इसलिए उस पर कोई कार्रवाई नहीं की.

यूज़र्स ने दोनों पोस्ट की रिपोर्ट नफ़रतपूर्ण आचरण के लिए की और उन्हें रिव्यू के लिए भेजा गया. लेकिन, उन्हें ह्यूमन रिव्यू के लिए प्राथमिकता नहीं दी गई और पोस्ट प्लेटफ़ॉर्म पर बनी रहीं.

दोनों केसों में, रिपोर्ट करने वाले यूज़र्स ने पोस्ट को बनाए रखने के बारे में Meta के फ़ैसले के खिलाफ़ अपील की. ह्यूमन रिव्यू के बाद, Meta ने अपील पर अपने मूल फ़ैसले को कायम रखा. इसके बाद यूज़र्स ने बोर्ड से अपील की.

बोर्ड द्वारा रिव्यू के लिए इन केसों को चुने जाने के बाद, Meta ने तय किया कि उसके शुरुआती फ़ैसले गलत थे और नफ़रतपूर्ण आचरण से जुड़े कंपनी के कम्युनिटी स्टैंडर्ड का उल्लंघन करने के कारण जुलाई 2025 में उन पोस्ट को हटा दिया.

बोर्ड ने अपने फ़ैसले करते समय नीचे दिए संदर्भ पर ध्यान दिया:

ब्राज़ील के फ़ुटबॉल खिलाड़ियों, खास तौर पर अश्वेत खिलाड़ियों, से हो रहे नस्लवाद को भारीमीडियाकवरेज मिला है, जिससे खिलाड़ियों और फ़ुटबॉल फ़ैन के बीच नस्लवाद की व्यापक समस्या का पता चलता है. उदाहरण के लिए, रियल मैड्रिड के खिलाड़ी विनीसियस जूनियर के साथ कई नस्लवादी घटनाएँ हुईं, जिनमें बंदरों से उनकी तुलना शामिल है. नस्लवाद इस हद तक बढ़ गया है कि ब्राज़ील के रियो डी जनेरियो राज्य ने खेल आयोजनों के दौरान नस्लवाद से निपटने के लिए 2023 में “विनीसियस जूनियर कानून पास किया. कानून के अनुसार, नस्लवादी घटना होने पर खेल आयोजन को रोकना या यहाँ तक ​​कि खत्म करना ज़रूरी है.

यूरोपीय देशों में अफ़्रीकी मूल के फ़ुटबॉल खिलाड़ियों के खिलाफ़ कई बड़ी घटनाएँ हुई हैं, जिनमें मुख्य रूप से स्टेडियम और सोशल मीडिया पर फ़ैन द्वारा दुर्व्यवहार शामिल है (उदाहरण के लिए, स्पेन, इटली, फ़्रांस, इंग्लैंड). Euro 2020 प्रतियोगिता ने इस मामले पर लोगों का ध्यान खींचा क्योंकि खिलाड़ियों को ऑनलाइन नफ़रत के हमले का सामना करना पड़ा. दक्षिण अमेरिका में फ़ुटबॉल की महाद्वीपीय नियंत्रण संस्था CONMEBOL ने मार्च 2025 में फ़ुटबॉल में नस्लवाद, भेदभाव और हिंसा को खत्म करने के लिए एक टास्क फ़ोर्स बनाई. ऐसा कुछ हद तक ब्राज़ील के खिलाड़ियों के साथ हुई नस्लवाद की घटनाओं के जवाब में किया गया था, जिसमें खेलों के दौरान बंदरों जैसी आवाज़ें निकालना भी शामिल था.

स्टडी में मैचों के बाद दुर्व्यवहार में आई तेज़ी और खबरों में अचानक हुई बढ़ोतरी को डॉक्यूमेंट किया गया है. इंग्लैंड और वेल्स में पेशेवर फ़ुटबॉल खिलाड़ियों के ट्रेड यूनियन, प्रोफेशनल फ़ुटबॉलर्स एसोसिएशन (PFA), और डेटा साइंस कंपनी Signify ने पाया कि 2020 में कुछ खिलाड़ियों को भेजे गए 3,000 से ज़्यादा ट्वीट स्पष्ट रूप से दुर्व्यवहार वाले मैसेज थे और उनमें से 56% मैसेज नस्लवादी थे. उन नस्लीय दुर्व्यवहार वाली पोस्ट में से 29% पोस्ट में ऐसा इमोजी के रूप में किया गया था. इसी स्टडी में पाया गया कि इंग्लिश फ़ुटबॉल लीग सिस्टम के सबसे ऊँचे लेवल प्रीमियर लीग में 43% खिलाड़ियों ने स्पष्ट रूप से नस्लीय दुर्व्यवहार का सामना किया. इसी तरह, यूरोप में फ़ुटबॉल की नियंत्रण संस्था, यूरोपीय फ़ुटबॉल एसोसिएशन (UEFA) द्वारा हाल ही में की गई निगरानी में पाया गया कि UEFA क्लब फ़ाइनल के आसपास Meta, TikTok और X को दुर्व्यवहार वाले कंटेंट के रूप में फ़्लैग की गई 33% पोस्ट को नस्लवादी के रूप में वर्गीकृत किया गया था.

इन केसों में अपनी रिसर्च के भाग के रूप में, बोर्ड ने Meta की कंटेंट लाइब्रेरी में ऐसा कंटेंट सर्च किया जिनमें बंदर इमोजी का उपयोग किया गया था. 1 अक्टूबर, 2024 और 1 अक्टूबर, 2025 के बीच Facebook और Instagram पर लोगों द्वारा सबसे ज़्यादा इंटरैक्ट की गई 150 पोस्ट के विश्लेषण से पता चलता है कि इमोजी का उपयोग अक्सर बंदरों के वीडियो, मीम्स या वायरल होने के इरादे से बनाए गए हल्के-फुल्के शरारती कंटेंट के साथ किया जाता है. हालाँकि, रिसर्च से पता चला कि इमोजी जब अश्वेत लोगों से जुड़ी चर्चा में उपयोग किए जाते हैं, तो अलग-अलग संदर्भों में इसके अलग-अलग अर्थ होते हैं. इसका उपयोग अश्वेत लोगों की तुलना जानवरों से करने के लिए अमानवीय तरीके से किया जाता है. अन्य मामलों में, इसका उपयोग नस्लवाद को सामने लाने या उस पर कमेंट करने के लिए किया जाता है. और इसका उपयोग उन यूज़र्स द्वारा खुद के संदर्भ में और मज़ाकिया अंदाज़ किया जाता है जो अश्वेत समुदाय के लगते हैं, हालाँकि बोर्ड इन यूज़र्स की पहचान वेरिफ़ाई नहीं कर पाया. फ़ुटबॉल से संबंधित कई पोस्ट में बंदर इमोजी का उपयोग मनुष्यों की तुलना जानवरों से करने के लिए किया गया था और इनमें अक्सर खास फ़ुटबॉल खिलाड़ियों को निशाना बनाया गया था. जबकि कुछ अन्य मामलों में फ़ुटबॉल खिलाड़ियों के साथ हुए नस्लवाद पर चर्चा या उसकी निंदा की गई थी.

नस्लवाद और असहिष्णुता के खिलाफ़ यूरोपीय आयोग के छठे निगरानी चक्र के लिए आयरिश मानवाधिकार और समानता आयोग की रिपोर्ट में आयरलैंड में नस्लवाद, भेदभाव और असहिष्णुता में बढ़ोतरी को हाइलाइट किया गया है. साथ ही कहा गया है कि "अति-दक्षिणपंथी विचारधारा का विकास, जिसके कारण डबलिन दंगे जैसी घटनाएँ हुईं, आयरलैंड में नस्लवाद और असहिष्णुता के खिलाफ़ सुरक्षा में प्रणालीगत कमियों के कारण संभव हुआ है." 1990 के दशक में आयरलैंड ने श्वेत राष्ट्र की अपनी छवि को छोड़ते हुए ज़्यादा विविधता वाला देश बनने का फ़ैसला किया जिसमें दूसरे देशों से आने वाले लोगों का स्वागत किया जा रहा था. इसके कारण वहाँ के सामाजिक-राजनीतिक संबंधों में बदलाव हुआ है. इसमें पूरे आयरलैंड में अफ़्रीकी मूल के लोगों के खिलाफ़ नस्लवाद, जिसे "एफ़्रोफ़ोबिया" कहा जाता है, में बढ़ोतरी शामिल है.

यूरोपियन यूनियन की मौलिक अधिकार एजेंसी ने कहा है कि आयरलैंड सहित यूरोपियन यूनियन के 13 सदस्य देशों में रहने के अपने अनुभवों के बारे में सर्वे किए गए अफ़्रीकी मूल के लगभग आधे लोगों ने "नस्लीय भेदभाव का सामना किया, जो 2016 में 39% से बढ़कर 2022 में 45% हो गया." सर्वे में भाग लेने वाले आयरलैंड के 44% से ज़्यादा लोगों ने नस्लीय उत्पीड़न झेला और 34% ने चिंता जताई है कि अपने जातीय या आप्रवासी बैकग्राउंड के कारण उन पर शारीरिक हमला हो सकता है. यूरोप में सुरक्षा और सहयोग संगठन (OSCE) के लोकतांत्रिक संस्थानों और मानवाधिकार कार्यालय (ODIHR) की 2024 नफ़रतपूर्ण अपराध रिपोर्ट में कहा गया है कि आयरिश पुलिस द्वारा दर्ज किए गए नफ़रत से जुड़े 676 अपराधों में से 587 को नस्लवादी और ज़ेनोफोबिक पक्षधरता से प्रेरित बताया गया था.

वाक्यांशों या इमोजी के माध्यम से सांकेतिक भाषा (जिसे “एल्गोस्पीक” भी कहा जाता है) का उपयोग ऑटोमेटेड कंटेंट मॉडरेशन सिस्टम से बचने के लिए किया जाता है. रिसर्च से पता चलता है कि इमोजी का उपयोग "जेलब्रेकिंग का एक सामान्य तरीका है जिसका उपयोग यूज़र जान-बूझकर या अनजाने में, रूढ़िवादी जुड़ावों के ज़रिए आपत्तिजनक अर्थ व्यक्त करने के लिए करते हैं." रिसर्चर्स ने आगे बताया कि भले ही "लैंग्वेज मॉडल के पास टेक्स्ट की संरचनाओं की अच्छी समझ होती है, फिर भी मॉडलों को यह सिखाने की ज़रूरत है कि अलग-अलग संदर्भों में इमोजी का क्या अर्थ है और कैसे अलग-अलग इमोजी, किसी दिए गए ट्वीट, पोस्ट या कमेंट में नफ़रत की संभावना को प्रभावित करते हैं."

2. यूज़र सबमिशन

बोर्ड को दिए गए बयानों में, शिकायत करने वाले यूज़र्स ने बताया कि पोस्ट में अश्वेत लोगों की तुलना बंदरों से करके नस्लवादी भाषा का उपयोग किया गया था. आयरलैंड के मामले में शिकायतकर्ता ने इस बात पर ज़ोर दिया कि शब्दों की जगह इमोजी का उपयोग करना स्पष्ट रूप से नस्लवाद था और प्लेटफ़ॉर्म पर पोस्ट का बने रहना, Instagram के ऑटोमेटेड पहचान सिस्टम की कमियाँ बताता है.

3. Meta की कंटेंट पॉलिसी और सबमिशन

I. Meta की कंटेंट पॉलिसी

नफ़रतपूर्ण आचरण से जुड़ा कम्युनिटी स्टैंडर्ड, किसी व्यक्ति या लोगों के समूह को "लिखित या दृश्य रूप में" उनकी सुरक्षित विशिष्टताओं के आधार पर निशाना बनाने वाले कंटेंट को प्रतिबंधित करता है, जिसमें नस्ल, जातीयता और राष्ट्रीय मूल शामिल हैं. इसमें ऐसी अमानवीय भाषा शामिल है जिसमें मनुष्यों की तुलना जानवरों से की जाती है या जानवरों के आधार पर उनके बारे में ऐसी सामान्य बातें कही जाती हैं जिन्हें कुछ खास संस्कृतियों में हीन माना जाता है (जिसमें बिना किसी सीमा के ये शामिल हैं): अश्वेत लोग और बंदर या बंदर जैसे जीव).” इन तुलनाओं को इमोजी के ज़रिए विज़ुअल रूप से दिखाया जा सकता है और कंटेंट के संदर्भ से समझा जा सकता है.

अपने कम्युनिटी स्टैंडर्ड के परिचय में, Meta ने कहा है कि वह ऐसे कंटेंट को हटा सकता है जिसमें “संदिग्ध या निहित भाषा” का उपयोग किया गया हो और अतिरिक्त संदर्भ से उसे यथोचित रूप से कम्युनिटी स्टैंडर्ड का उल्लंघन करने वाला कंटेंट माना जा सकता हो.

II. Meta के सबमिशन

बोर्ड द्वारा इन केसों को चुने जाने के बाद, Meta ने दोनों पोस्ट को बनाए रखने के अपने मूल फ़ैसले को पलट दिया और उन्हें हटा दिया. कंपनी के विषयवस्तु विशेषज्ञों द्वारा समीक्षा के बाद, Meta ने फ़ैसला किया कि दोनों पोस्ट में अमानवीय भाषा है जिसमें संरक्षित विशेषताओं के आधार पर लोगों की तुलना जानवरों से की जाती है, नफ़रतपूर्ण आचरण से जुड़ी पॉलिसी में प्रतिबंधित है.

ब्राज़ील के केस में, Meta ने बताया कि ऐसा लगता है कि कंटेंट में यूरोपीय फ़ुटबॉल क्लबों में भर्ती के तरीकों पर कमेंट करने के लिए मूवी के एक सीन में बदलाव करते हुए उपयोग किया गया है. इसमें बताया गया है कि रियल मैड्रिड और बार्सिलोना, ब्राज़ील के खिलाड़ियों (जो अक्सर अश्वेत होते हैं) के लिए उसी तरह लड़ते हैं जैसे मूवी के सीन में दो पुरुष, बंदर के स्वामित्व को लेकर लड़ रहे हैं. हाल ही में हुई नस्लीय घटनाओं को देखते हुए, जिनमें दूसरी टीमों के समर्थकों ने इनमें से कुछ रिक्रूट की तुलना बंदरों से की थी, कंपनी ने यह तय किया कि बंदर इमोजी का उपयोग, ब्राज़ील के अश्वेत खिलाड़ियों की तुलना बंदरों से करने के लिए किया जा रहा था.

आयरलैंड के केस में, Meta ने पाया कि कमेंट करने वाला यूज़र, बंदर इमोजी का उपयोग करके अश्वेत लोगों को बंदरों के समान बता रहा है. Meta के अनुसार, वीडियो में एक अश्वेत महिला के सड़क पर उत्पीड़न के डिस्क्रिप्शन को देखते हुए, कमेंट करने वाले व्यक्ति द्वारा बंदर इमोजी का उपयोग उस व्यवहार को दर्शाता है, जिसमें अश्वेत लोगों की तुलना बंदरों से की जाती है और उनका उत्पीड़न करने का इरादा दर्शाता है, जैसा कि वीडियो में बताए गए युवाओं ने किया था.

Meta ने बोर्ड को बताया कि उसके शुरुआती रिव्यू करने वाले रिव्यूअर्स ने संदर्भ से जुड़ी अस्पष्टता, अधूरे रिव्यू, इमोजी जैसे विज़ुअल संकेतों पर पॉलिसी के मार्गदर्शन के गलत उपयोग और भाषा और टूल संबंधी सीमाओं के मिले-जुले परिणाम के कारण दोनों पोस्ट को प्लेटफ़ॉर्म पर बने रहने दिया. कंपनी ने बोर्ड को बताया कि रिव्यू को कोचिंग और फ़ीडबैक दे दिया गया है. आगे की जाँच में टूल की एक समस्या का भी पता चला जिसके कारण उचित अनुवाद और केस रूटिंग नहीं हुई. इसके परिणामस्वरूप ब्राज़ील से जुड़े कंटेंट को शुरुआती मूल्यांकन के लिए एक ऐसे रिव्यूअर को भेजा गया जिसके पास पुर्तगाली भाषा की विशेषज्ञता नहीं थी. Meta के अनुसार, रूटिंग की यह समस्या अब हल हो गई है और सभी रिव्यू को संबंधित भाषा और क्षेत्रीय विशेषज्ञता वाली कतारों में भेजा जाना चाहिए.

Meta ने इस बात पर ज़ोर दिया कि दोनों कंटेंट को हटाने का उसका फ़ैसला, दूसरों के भेदभाव से मुक्त रहने के अधिकार की रक्षा करना है और यह नागरिक और राजनैतिक अधिकारों पर अंतरराष्ट्रीय प्रतिज्ञापत्र (ICCPR) के आर्टिकल 20(2) के अनुसार भी है, जो "राष्ट्रीय, नस्लीय या धार्मिक नफ़रत के ऐसे किसी भी समर्थन को प्रतिबंधित करता है जो भेदभाव, दुश्मनी या हिंसा को उकसाने का काम करता है." कंपनी का यह भी मानना है कि यूज़र्स को भेदभाव या दुश्मनी से मुक्त माहौल देने के लिए यह कदम ज़रूरी था.

बोर्ड के सवालों के जवाब में, Meta ने कहा कि इमोजी कभी-कभी कंटेंट के मतलब को बदल सकते हैं, लेकिन अलग-अलग यूज़र्स और क्षेत्रों के लिए उनकी व्याख्या व्यापक रूप से अलग होती है और अलग-अलग पोस्ट में उनके अलग-अलग मतलब हो सकते हैं. इसलिए, कंपनी इमोजी को हमेशा ही उल्लंघन करने वाला नहीं मानती. इसके बजाय, Meta अपने आंतरिक दिशानिर्देशों में ह्यूमन रिव्यूअर्स को बंदर इमोजी जैसे आम तौर पर उपयोग होने वाले इमोजी के संभावित मतलबों के बारे में मार्गदर्शन और उदाहरण देता है और रिव्यूअर्स से यह तय करने के लिए हमेशा इमोजी के पूरे संदर्भ पर विचार करने के लिए कहता है कि क्या इसका उपयोग उल्लंघन करने वाला हो सकता है. इसमें कंटेंट के सभी पहलुओं पर विचार करना शामिल है, जैसे कि इमेजरी, कैप्शन और टेक्स्ट ओवरले. साथ ही मुख्य पोस्ट और संबंधित कमेंट सहित एकदम सामने दिखाई देने वाले कंटेंट से आगे की चीज़ों पर भी विचार करना चाहिए.

इसी प्रकार, Meta ने कहा कि उसके ऑटोमेटेड सिस्टम को उन इमोजी के उपयोग की पहचान करने के लिए डिज़ाइन किया गया है जो पॉलिसी का उल्लंघन कर सकते हैं. इसके लिए सिस्टम, उस संदर्भ पर विचार करते हैं जिसमें इमोजी दिखाई देते हैं. Meta के अनुसार, इस उद्देश्य से सिस्टम पूरी पोस्ट का विश्लेषण करते हैं, उसके सभी एलिमेंट और मुख्य मेटाडेटा को कैप्चर करते हैं, जो "मॉडल को ऐसे पैटर्न और संकेतों का पता लगाने की सुविधा देता है जो पॉलिसी उल्लंघन का संकेत दे सकते हैं, भले ही शब्दों या कंसेप्ट की जगह इमोजी का उपयोग किया गया हो." इसमें उल्लंघन करने वाले पुराने पैटर्न पर विचार करना शामिल है. हालाँकि Meta ने कहा कि उसके क्लासिफ़ायर सिर्फ़ नफ़रत फैलाने वाले आचरण के स्पष्ट उल्लंघनों को हटाने को प्राथमिकता देते हैं ताकि "गलत तरीके से हटाए जाने और ज़रूरत से ज़्यादा एन्फ़ोर्समेंट के जोखिम को कम किया जा सके." यह खास तौर पर से इमोजी के लिए प्रासंगिक है, जिनके मतलब, संदर्भ पर अत्यधिक निर्भर हो सकते हैं.

Meta ने बताया कि 7 जनवरी, 2025 को कंपनी के अनाउंसमेंट के बाद, वह पॉलिसी के उल्लंघन से जुड़े अपने ऑटोमेटेड सिस्टम के तरीके में बदलाव कर रहा है. उस तारीख से पहले, सिस्टम में प्रोएक्टिव एन्फ़ोर्समेंट का उपयोग किया जाता था, जिसमें उल्लंघन करने वाले सभी कंटेंट का अपने आप पता लगाना और उसे अपने आप हटाना शामिल था. भले ही Meta के ऑटोमेटेड सिस्टम अभी भी नफ़रतपूर्ण आचरण के संभावित उल्लंघनों का पता लगा सकते हैं, ऐसे उल्लंघनों को हटाना अब सिर्फ़ ऑटोमेटेड पहचान पर आधारित होने के बजाय यूज़र रिपोर्ट और भरोसेमंद पार्टनर से प्राप्त शिकायतों पर आधारित है. कंपनी ने बताया कि इस तरीको को पूरी दुनिया में उपयोग किया जाता है, लेकिन वह “संकटग्रस्त देशों में प्रोएक्टिव एन्फ़ोर्समेंट को जारी रख सकती है.” Meta ने आगे कहा कि कंपनी पूरी दुनिया में लगातार अपने कानूनी दायित्वों का आकलन कर रही है ताकि यह तय किया जा सके कि पहले से की जा रही ये कोशिशें, स्थानीय कानून के अनुरूप हैं. इसके अलावा, Meta ने बताया कि कंपनी अपने ऑटोमेटेड टूल के उपयोग के समय "ज़रूरत से हिसाब से बनाया गया तरीका" अपनाती है और सामने आने वाली खास समस्या के अनुसार अपने जवाब में बदलाव करती है. उदाहरण के लिए, Meta अपने प्लेटफ़ॉर्म पर पहचाने गए उच्च जोखिम वाले ट्रेंड से निपटने के लिए और साथ ही वोटर को रोकने जैसे लक्षित उद्देश्यों के लिए अपने ऑटोमेटेड टूल्स को डिप्लॉट करने की सुविधा बनाए रखता है. संकटग्रस्त (जिनमें संकट पॉलिसी प्रोटोकॉल में चिह्नित देश शामिल हो सकते हैं) या लंबे समय से अस्थिर देशों में, जहाँ निष्पक्षता और नियामक से जुड़े गंभीर जोखिम के कारण एक मज़बूत निगरानी सिस्टम ज़रूरी होता है, वहाँ कंपनी वास्तविक संदर्भ के आधार पर उल्लंघन करने वाले कंटेंट को पहले से ही हटा सकती है.

बोर्ड के सवालों के जवाब देते हुए, Meta ने कहा कि कंपनी के 7 जनवरी, 2025 के अनाउंसमेंट के बाद, लार्ज लैंग्वेज मॉडल (LLM) को अब रिव्यू की एक अतिरिक्त लेयर के रूप में ज़्यादा व्यापक रूप से जोड़ा गया है. यह ऐसे कंटेंट का रिव्यू भी करता है जो नफ़रतपूर्ण आचरण से जुड़ी पॉलिसी का उल्लंघन कर सकता है. Meta के अनुसार, LLM, मौजूदा मॉडलों की जगह नहीं लेते, बल्कि एन्फ़ोर्समेंट से जुड़े फ़ैसलों पर अतिरिक्त राय देते हैं और उस कंटेंट पर फ़ोकस करते हैं जिन्हें हटाने के लिए चिह्नित किया गया है. मौजूदा केसों में, LLM को रिव्यू प्रोसेस में शामिल नहीं किया गया था.

Meta ने यह भी कहा कि रिव्यू प्रोसेस से पक्षधरता हटाने के लिए उसने कई सिस्टम बनाए हैं. ह्यूमन रिव्यूअर्स के लिए, इसमें सभी रिव्यू टीमों का साप्ताहिक ऑडिट शामिल है. इससे Meta को यह समझने में मदद मिलती है कि गलतियाँ कहाँ हो रही हैं ताकि उन्हें दूर किया जा सके. इसके अलावा, Meta के अनुसार, रिव्यूअर्स को पॉलिसी की नियमित रूप से बार-बार ट्रेनिंग दी जाती है. कंपनी ने कहा कि वह पॉलिसी की जानकारी पर स्पष्टीकरण देने के लिए रिव्यूअर्स के लिए द्विसाप्ताहिक सेशन भी आयोजित करती है, ताकि यह सुनिश्चित किया जा सके कि स्टैंडर्ड को सही और एक जैसे तरीके से लागू किया जा रहा है. Meta ने बताया कि ऑटोमेटेड सिस्टम के लिए, कंपनी अपने क्लासिफ़ायर को ह्यूमन रिव्यू की गई रिपोर्ट से ट्रेन करती है और यह सुनिश्चित करने के लिए बड़ी मात्रा में कंटेंट का चुनाव करती है कि क्लासिफ़ायर सबसे गंभीर मामलों के साथ-साथ ऐसे कंटेंट से भी सीख रहे हैं जिसे अन्यथा अनदेखा किया जा सकता है.

बोर्ड के सवालों के जवाब में, Meta ने बताया कि Instagram यूज़र्स को सूचित किया जा सकता है कि उनके कमेंट या पोस्ट को फ़्लैग किया गया है, जिससे वे उस कंटेंट को हटा सकें. Meta के अनुसार, उसकी डेटा रिटेंशन पॉलिसी में 30 दिनों से ज़्यादा का डेटा नहीं रखा जाता, इसलिए यह कन्फ़र्म नहीं किया जा सकता कि आयरलैंड के केस में यूज़र को उनके कमेंट के बारे में सूचित किया गया था या नहीं.

"निर्देशित सामूहिक उत्पीड़न" को Meta, "विषय से जुड़े किसी खास व्यक्ति को टार्गेट करने के लिए बड़ी संख्या में लोगों को संगठित करने के लिए प्लेटफ़ॉर्म पर या प्लेटफ़ॉर्म के बाहर की गई कोशिशों" के रूप में परिभाषित करता है. Meta ऐसे कंटेंट को तब हटा देता है जब वह किसी भी तरीके से, यानी प्लेटफ़ॉर्म पर किसी भी जगह से, "ऑफ़लाइन नुकसान के ज़्यादा जोखिम वाले व्यक्तियों" को टार्गेट करता हो, जैसे मानवाधिकार रक्षक या नाबालिग. इसी तरह, Meta ऐसे कंटेंट को भी हटा देता है जो किसी व्यक्ति को उसकी निजी प्रोफ़ाइल या इनबॉक्स के माध्यम से इस तरह से टार्गेट करता हो: (1) आम लोगों के लिए धमकी और उत्पीड़न पॉलिसी का उल्लंघन करने वाला कंटेंट या (2) सुरक्षित विशिष्टता पर आधारित आपत्तिजनक कंटेंट. Meta ने कहा कि वह नफ़रतपूर्ण आचरण वाले कंटेंट को अनुमति नहीं देता, चाहे वह कंटेंट आम जनता को टार्गेट करता हो या किसी एक आदमी को.

बोर्ड ने इमोजी वाले कंटेंट के लिए पॉलिसी और एन्फ़ोर्समेंट से जुड़ी विचार योग्य बातों; पोस्ट के एन्फ़ोर्समेंट इतिहास; 7 जनवरी, 2025 के अनाउंसमेंट के बाद नफ़रतपूर्ण आचरण पॉलिसी के एन्फ़ोर्समेंट में किए गए अपडेट; और एन्फ़ोर्समेंट के अभी उपयोग किए जा रहे तरीकों की जानकारी से जुड़े सवाल पूछे. Meta ने सभी सवालों के जवाब दिए.

4. पब्लिक कमेंट

बोर्ड को नौ ऐसे पब्लिक कमेंट मिले जो सबमिशन की शर्तें पूरी करते हैं. आप कमेंट अमेरिका और कनाडा से और एक मध्य पूर्व और उत्तरी अफ़्रीका से सबमिट किए गए थे. प्रकाशन की सहमति के साथ सबमिट किए गए पब्लिक कमेंट पढ़ने के लिए यहाँ पर क्लिक करें.

सबमिशन में इन विषयों पर बात की गई थी: एल्गोस्पीक में इमोजी का बढ़ता उपयोग; सांकेतिक भाषा और ऐसे कंटेंट की ऑटोमेटेड पहचान में आने वाली चुनौतियाँ जिनमें कई अर्थों वाले इमोजी का उपयोग किया जाता है; संदर्भ से जुड़े आकलन का महत्व और एल्गोस्पीक में एन्फ़ोर्समेंट से बचने के तरीकों का पता लगाने के लिए मॉडरेटर की ट्रेनिंग; और खेलों में नस्लवाद के इनसाइट.

अक्टूबर 2025 में, स्टेकहोल्डर के जारी एंगेजमेंट के भाग के रूप में, बोर्ड ने हिमायती संगठनों के प्रतिनिधियों, शिक्षाविदों, अंतर-सरकारी संगठनों और अन्य विशेषज्ञों से इमोजी वाले कंटेंट के मॉडरेशन की समस्या पर बातचीत की. मेंबर्स ने इमोजी वाले कंटेंट के संदर्भ से जुड़े विश्लेषण की चुनौतियों पर ज़ोर दिया, जिनके अर्थ लगातार बदलते रहते हैं और व्यापक होते हैं. उन्होंने यह भी हाइलाइट किया कि कुछ इमोजी का उपयोग संरक्षित विशेषताओं वाले समूहों के विकल्प के रूप में या मैसेज की नुकसानदेह प्रकृति को भड़काने के लिए किया जाता रहा है, लेकिन उन्हीं इमोजी का उपयोग निंदा करने, लोगों को ताकत देने या जागरूकता बढ़ाने वाले संदर्भों में भी किया जा सकता है. इस बात पर ज़ोर दिया गया कि ऑटोमेटेड सिस्टम और LLM, सांकेतिक भाषा का पता लगाने में अच्छा काम कर रहे हैं, लेकिन संदर्भ और मतलब को ठीक से परिभाषित करने के लिए मानवीय निगरानी की ज़रूरत होती है.

5. ओवरसाइट बोर्ड का विश्लेषण

बोर्ड ने इमोजी के उपयोग को "एल्गोस्पीक" और ऑनलाइन नस्लीय उत्पीड़न और भेदभाव के एक रूप के रूप में जाँचने के लिए इन केसों को चुना. इसका उद्देश्य अभिव्यक्ति के ऐसे नए-नए तरीकों के लिए Meta के एन्फ़ोर्समेंट के तरीकों का आकलन करना भी है, चाहे वह ह्यूमन मॉडरेटर द्वारा हो या ऑटोमेटेड सिस्टम द्वारा, खास तौर पर 7 जनवरी, 2025 को Meta के इस अनाउंसमेंट के बाद कि कंपनी, पॉलिसी के उल्लंघन पर ऑटोमेटेड एन्फ़ोर्समेंट के लिए अपने तरीकों में बदलाव कर रही है. यह केस बोर्ड की सात स्ट्रेटेजिक प्राथमिकताओं, उपेक्षित समूहों के खिलाफ़ नफ़रत फैलाने वाली भाषा, के लिए प्रासंगिक है.

बोर्ड ने Meta की कंटेंट पॉलिसी, वैल्यू और मानवाधिकार से जुड़ी ज़िम्मेदारियों के संबंध में इन केस में दिए गए Meta के फ़ैसलों का विश्लेषण किया. बोर्ड ने यह भी आकलन किया कि कंटेंट गवर्नेंस को लेकर Meta के व्यापक दृष्टिकोण पर इन केसों का क्या असर पड़ेगा.

5.1 Meta की कंटेंट पॉलिसी का अनुपालन

  1. कंटेंट से जुड़े नियम

बोर्ड ने पाया कि दोनों पोस्ट से नफ़रपूर्ण आचरण से जुड़े कम्युनिटी स्टैंडर्ड का उल्लंघन होता है, जिनके अनुसार पशुओं के साथ अमानवीय तुलना करना प्रतिबंधित है. लागू पॉलिसी में खास तौर पर अश्वेत लोगों की तुलना बंदरों और बंदर जैसे जानवरों से करने का उल्लेख किया गया है, जिसे अमानवीय भाषा का एक उदाहरण माना गया है. दोनों पोस्ट में बंदर वाले इमोजी का इस्तेमाल अश्वेत लोगों को उनकी सुरक्षित विशिष्टता के आधार पर निशाना बनाने के लिए किया गया है. इसलिए, दोनों कंटेंट से नफ़रतपूर्ण आचरण पॉलिसी का उल्लंघन होता है.

ब्राज़ील के केस में, पोस्ट में एक मूवी के सीन का उपयोग किया गया है जिसमें दो पात्र बहस करते हैं और एक बंदर पर अपना मालिकाना हक जताते हैं. वीडियो में पात्रों के ऊपर जोड़ा गया ओवरले टेक्स्ट बताता है कि रियल मैड्रिड और बार्सिलोना जैसी फ़ुटबॉल टीमें, ब्राज़ील के उभरते हुए फ़ुटबॉल खिलाड़ियों (जो अक्सर अश्वेत होते हैं) को लेकर उसी तरह बहस करती हैं जिस तरह वीडियो में दिखाई दे रहा पात्र, बंदर को लेकर कर रहे हैं. इस व्याख्या को ब्राज़ीलियन फ़ुटबॉल में लड़कों के बढ़ते दबदबे का संदर्भ देने वाले अतिरिक्त ओवरले टेक्स्ट से समर्थन मिलता है. कैप्शन में बंदर वाले इमोजी का उपयोग, पोस्ट के इरादे को मज़बूती देता है. यह अप्रत्यक्ष रूप से ब्राज़ील के फ़ुटबॉल खिलाड़ियों की तुलना बंदरों से करता है. बोर्ड मानता है कि खेलों में, खास तौर पर फ़ुटबॉल में, फ़ैन द्वारा अश्वेत खिलाड़ियों के खिलाफ़ नस्लीय भेदभाव करने के लिए बंदरों के संदर्भों का उपयोग करना एक खतरनाक ट्रेंड है. इस स्थापित पैटर्न और मौजूदा संदर्भ को देखते हुए, यह पोस्ट Meta की नफ़रतपूर्ण आचरण पॉलिसी का स्पष्ट रूप से उल्लंघन करती है क्योंकि इसमें जानवरों से तुलना करके या उनके बारे में जानवरों से जुड़ी सामान्य बातें करके अश्वेत लोगों को मनुष्यों से कमतर दिखाया गया है.

आयरलैंड के केस में, कमेंट से आयरलैंड में अश्वेत विरोधी नस्लवाद की निंदा करने वाली मूल पोस्ट को चुनौती दी गई है. इसमें यह इच्छा भी जताई गई है कि स्थिति "भड़के" और "सभी [बंदर इमोजी] के साथ सड़कों पर खूब मस्ती की जाए." अश्वेत लोगों को बंदर बताना, हंसने और प्रार्थना करने वाले इमोजी का उपयोग करना और "आने वाले अच्छे दिनों" की कामना करना, अश्वेत लोगों की बंदरों के साथ तुलना करके उन्हें मनुष्यों से कमतर दिखाने के यूज़र के इरादे को दर्शाता है. आयरलैंड में बढ़ते हुए एफ़्रोफ़ोबिया और इस तथ्य को देखते हुए कि कमेंट को आयरलैंड में नस्लवाद के बारे में गुस्सा जताने वाले एक वीडियो के नीचे पोस्ट किया गया है, कमेंट में बंदर इमोजी का उपयोग स्पष्ट रूप से अश्वेत लोगों को, एक संरक्षित विशेषता वाले समूह के रूप में, बंदरों के बराबर बताने का संदर्भ है. इसलिए, यह पोस्ट नफ़रतपूर्ण आचरण से जुड़ी पॉलिसी का उल्लंघन करती है.

2. एन्फ़ोर्समेंट एक्शन

ये केस, नफ़रतपूर्ण आचरण पॉलिसी को सही तरीके से एन्फ़ोर्स करने से जुड़ी चिंताएँ पैदा करते हैं, खास तौर पर जब इमोजी के उपयोग का आकलन, एल्गोस्पीक के एक तरीके के रूप में किया जाता है.

Meta अपने रिव्यूअर्स को यह निर्देश देता है कि वे हमेशा इमोजी के पूरे संदर्भ पर विचार करें ताकि यह तय किया जा सके कि क्या इसका उपयोग उल्लंघन करता है. इसका मतलब है कि रिव्यूअर्स को कंटेंट के सभी पहलुओं पर विचार करना चाहिए, जैसे कि इमेजरी, कैप्शन और टेक्स्ट ओवरले. साथ ही मुख्य पोस्ट और संबंधित कमेंट सहित एकदम सामने दिखाई देने वाले कंटेंट से आगे की चीज़ों पर भी विचार करना चाहिए. इमोजी अलग-अलग अर्थ व्यक्त कर सकते हैं, इसलिए यह तरीका, पोस्ट के संदर्भ से जुड़े, पूरे मूल्यांकन के लिए बोर्ड द्वारा पहले दिए गए मार्गदर्शन के अनुरूप है (अन्य बातों के अलावा, वामपम बेल्ट देखें).

इन केसों में, एन्फ़ोर्समेंट के विभिन्न लेवल पर ऑटोमेटेड और कई ह्यूमन रिव्यू के दौरान पोस्ट का सटीक आकलन नहीं हो पाया, जिसके परिणामस्वरूप वे प्लेटफ़ॉर्म पर बनी रहीं. बोर्ड इस बात को लेकर चिंतित है कि क्लासिफ़ायर ने दोनों केस में कंटेंट का पता लगा लिया था, लेकिन फिर भी उन्होंने उन पर कोई कार्रवाई नहीं की: ब्राज़ील की पोस्ट को उल्लंघन करने वाली नहीं माना गया, जबकि क्लासिफ़ायर यह निश्चित रूप से तय नहीं कर पाया कि आयरलैंड की पोस्ट अंग्रेज़ी भाषा में थी या नहीं.

इसके अलावा, ब्राज़ील के केस में शुरुआती रिव्यू में रूटिंग और अनुवाद संबंधी समस्याएँ थीं और दर्ज़नों रिपोर्ट के बावजूद इस शुरुआती फ़ैसले का आगे रिव्यू नहीं किया गया. पर्याप्त रिव्यू सुनिश्चित करने के लिए, Meta के एन्फ़ोर्समेंट प्रोसेस में हमेशा ऐसे कंटेंट को रिव्यूअर्स के पास भेजा जाना चाहिए जिनके पास भाषा और क्षेत्र की उचित विशेषज्ञता हो. अंत में, बोर्ड इस बात को लेकर चिंतित है कि दोनों केसों में, इमोजी वाले कंटेंट के लिए संदर्भ से जुड़े और पूरे आकलन के लिए विस्तृत दिशानिर्देश उपलब्ध होने के बावजूद, अपील के समय दोनों ह्यूमन रिव्यूअर ने पोस्ट को प्लेटफ़ॉर्म पर बनाए रखने के शुरुआती फ़ैसले को कायम रखा, जबकि उनके द्वारा उल्लंघन स्पष्ट रूप से दिखाई दे रहा था.

Meta ने यह भी बताया कि उसके क्लासिफ़ायर को रिपोर्ट और लेबल किए गए उदाहरणों के डेटासेट का उपयोग करके ट्रेनिंग दी जाती है, जिसमें ऐसे केस शामिल हैं जहाँ इमोजी का उपयोग संभावित रूप से उल्लंघन करने वाले तरीकों से किया जाता है. कंपनी को अपने ऑटोमेटेड सिस्टम की उस क्षमता में सुधार करना चाहिए जिससे वह उल्लंघन करने वाले संदर्भों में इमोजी के उपयोग का सही-सही पता लगा सके. अलग-अलग मतलबों वाले इमोजी के व्यापक उपयोग को देखते हुए, Meta को समय-समय पर नफ़रतपूर्ण आचरण से जुड़ी पॉलिसी के एन्फ़ोर्समेंट के लिए उपयोग किए जाने वाले ट्रेनिंग डेटा का ऑडिट करना चाहिए, खास तौर पर सभी भाषाओं में इमोजी वाले उदाहरणों के संबंध में, और यह सुनिश्चित करना चाहिए कि ज़्यादा बेहतर डेटासेट शामिल किए जाएँ. कंपनी को इमोजी के बदलते उपयोग पर विचार करना चाहिए. ऐसा उन रिसर्च के निष्कर्षों के आधार पर किया जाना चाहिए जिनमें विभिन्न भाषाओं और क्षेत्रों में उसके प्लेटफ़ॉर्म पर इमोजी के उपयोग के ट्रेंड के बारे में जानकारी शामिल हो सकती है (PC-31493 भी देखें). भेदभाव के बिना अपने वैश्विक नियम बनाने और उन्हें एन्फ़ोर्स करने की Meta की प्रतिबद्धताओं के अनुसार, Meta को यह सुनिश्चित करना चाहिए कि डेटासेट में इमोजी वाले गैर-अंग्रेज़ी कंटेंट के उदाहरण शामिल हों.

5.2. Meta की मानवाधिकारों से जुड़ी ज़िम्मेदारियों का अनुपालन

बोर्ड ने पाया कि दोनों पोस्ट को प्लेटफ़ॉर्म पर रखना, Meta की मानवाधिकार से जुड़ी ज़िम्मेदारियों के अनुसार नहीं है.

अभिव्यक्ति की आज़ादी (आर्टिकल 19 ICCPR)

ICCPR का अनुच्छेद 19, पैरा. 2 कहता है कि "सभी को अभिव्यक्ति की आज़ादी का अधिकार होगा; इस अधिकार में सभी प्रकार की जानकारी और सुझाव लेने, प्राप्त करने और प्रदान करने की आज़ादी शामिल होगी, चाहे वह किसी भी तरह की हो, मौखिक, लिखित रूप में या प्रिंट में हो, कला के रूप में, या किसी अन्य माध्यम से हो". सामान्य कमेंट सं. 34 में आगे बताया गया है कि सुरक्षित अभिव्यक्ति में वह अभिव्यक्ति शामिल है जिसे “घोर आपत्तिजनक” माना जा सकता है (पैरा. 11).

जहाँ राज्य, अभिव्यक्ति पर प्रतिबंध लगाता है, वहाँ प्रतिबंधों को वैधानिकता, वैधानिक लक्ष्य और आवश्यकता तथा आनुपातिकता की शर्तों को पूरा करना चाहिए (अनुच्छेद 19, पैरा. 3, ICCPR). इन आवश्यकताओं को अक्सर “तीन भागों वाला परीक्षण” कहा जाता है. बोर्ड इस फ़्रेमवर्क का उपयोग बिज़नेस और मानवाधिकारों से जुड़े संयुक्त राष्ट्र (UN) के मार्गदर्शक सिद्धांतों के अनुरूप Meta की मानवाधिकार से जुड़ी ज़िम्मेदारियों को समझने के लिए करता है, जिसके लिए Meta ने खुद अपनी कॉर्पोरेट मानवाधिकार पॉलिसी में प्रतिबद्धता जताई है. बोर्ड ऐसा इसलिए करता है कि वह रिव्यू के लिए आए कंटेंट से जुड़े अलग-अलग फ़ैसले ले सके और यह समझ सके कि कंटेंट मॉडरेशन से जुड़ा Meta का व्यापक दृष्टिकोण क्या है. जैसा कि अभिव्यक्ति की आज़ादी के बारे में संयुक्त राष्ट्र के खास रैपर्टर में कहा गया है कि भले ही “कंपनियों का सरकारों के प्रति दायित्व नहीं है, लेकिन उनका प्रभाव इस तरह का है जो उनके लिए अपने यूज़र की सुरक्षा के बारे में इस तरह के सवालों का मूल्यांकन करना ज़रूरी बनाता है” (A/74/486, पैरा. 41).

I. वैधानिकता (नियमों की स्पष्टता और सुलभता)

वैधानिकता के सिद्धांत के लिए यह ज़रूरी है कि अभिव्यक्ति को सीमित करने वाले नियमों को एक्सेस किया जा सकता हो और वे स्पष्ट हों. उन्हें पर्याप्त सटीकता के साथ बनाया गया हो ताकि लोग अपने व्यवहार को उसके अनुसार बदल सकें (सामान्य कमेंट सं. 34, पैरा. 25). इसके अलावा, ये नियम “उन लोगों को अभिव्यक्ति की आज़ादी पर प्रतिबंध लगाने के निरंकुश अधिकार नहीं दे सकते, जिनके पास इन नियमों को लागू करने की ज़िम्मेदारी है” और नियमों में “उन लोगों के लिए पर्याप्त मार्गदर्शन भी होना ज़रूरी है जिन पर इन्हें लागू करने की ज़िम्मेदारी है ताकि वे यह पता लगा सकें कि किस तरह की अभिव्यक्ति को उचित रूप से प्रतिबंधित किया गया है और किसे नहीं,” (जैसा कि पहले बताया जा चुका है). अभिव्यक्ति की आज़ादी पर संयुक्त राष्ट्र संघ के विशेष रैपर्टर ने कहा है कि ऑनलाइन अभिव्यक्ति की निगरानी करने के मामले में निजी संस्थानों पर लागू होने वाले नियम स्पष्ट और विशिष्ट होने चाहिए (A/HRC/38/35, पैरा. 46). Meta के प्लेटफ़ॉर्म का उपयोग करने वाले लोगों के लिए ये नियम एक्सेस करने और समझने लायक होने चाहिए और उनके एन्फ़ोर्समेंट के संबंध में कंटेंट रिव्यूअर्स को स्पष्ट गाइडेंस दिया जाना चाहिए.

बोर्ड ने पाया कि सामान्य रूप से जानवरों या खास तरह के जानवरों, जिन्हें सांस्कृतिक रूप से हीन माना जाता है, से अमानवीय तुलना करने से जुड़े नियम पर्याप्त रूप से स्पष्ट हैं, जैसा कि इन केसों में पर लागू किया गया है. नफ़रतपूर्ण आचरण से जुड़े कम्युनिटी स्टैंडर्ड में स्पष्ट और सार्वजनिक रूप से कहा गया है कि अश्वेत लोगों की तुलना बंदरों या बंदर जैसे प्राणियों से करना प्रतिबंधित है. यह इस नस्लवादी समानता की व्यापक मान्यता बताता है. इसके अलावा, Meta के आंतरिक दिशानिर्देशों में इमोजी की उदाहरण सहित और अनंतिम लिस्ट दी गई है, जिसमें बंदर और केले के इमोजी भी शामिल हैं. इससे संरक्षित विशिष्टता वाले समूहों और जानवरों के बीच विज़ुअल तुलना का संकेत मिलता है.

II. वैधानिक लक्ष्य

अभिव्यक्ति की आज़ादी पर लगाए जाने वाले सभी प्रतिबंधों में ICCPR में सूचीबद्ध कानूनी लक्ष्यों में से एक या एक से ज़्यादा को भी पूरा किया जाना चाहिए, जिसमें अन्य लोगों के अधिकारों की रक्षा शामिल है (अनुच्छेद 19, पैरा. 3, ICCPR).

नस्लवाद, नस्लीय भेदभाव, ज़ेनोफ़ोबिया और संबंधित असहिष्णुता के समकालीन रूपों पर संयुक्त राष्ट्र के विशेष रैपर्टर में कहा गया है कि ऑनलाइन रूपों सहित नफ़रत फैलाने वाली भाषा का "सामाजिक स्तर पर बहुत नुकसानदेह असर डालती है, वह कम्युनिटी के सामाजिक ताने-बाने को नष्ट करती है और उससे समानता और भेदभाव न करने सहित मानवाधिकारों और लोकतंत्र के मानदंड कमज़ोर होते हैं" (A/78/538, पैरा. 31, (2023)). राय और अभिव्यक्ति की आज़ादी के अधिकार के प्रमोशन और सुरक्षा पर संयुक्त राष्ट्र के विशेष रैपर्टर में सोशल मीडिया कंपनियों को चेतावनी दी गई है कि “भड़काऊ भाषा न सिर्फ़ लोगों को खतरे में डालती है और खुद को अलग-थलग करने के लिए प्रोत्साहित करती है, बल्कि डर, संदेह और दुश्मनी को बढ़ावा देकर कम्युनिटी को बाँटती भी है. इससे सामाजिक भरोसा टूटता है और लोकतांत्रिक बातचीत और नागरिक भागीदारी में कमी आती है” ( A/80/341, पैरा. 30 (2025)).

बोर्ड ने पहले नफ़रत फैलाने वाली भाषा से जुड़े कम्युनिटी स्टैंडर्ड (अब नफ़रतपूर्ण आचरण पॉलिसी) को लेकर माना है कि यह दूसरों के अधिकारों की सुरक्षा करने के वैधानिक लक्ष्य को पूरा करता है. उन अधिकारों में समानता और अपने साथ भेदभाव न होने देने के अधिकार शामिल हैं (अनुच्छेद 2, पैरा. 1, ICCPR; अनुच्छेद 2 और 5, हर तरह के नस्लीय भेदभाव के उन्मूलन पर अंतरराष्ट्रीय सम्मेलन). दक्षिण अफ़्रीका के रंगभेद के समय का झंडा दिखाने वाली पोस्ट और केन्या की राजनीति पर चिह्नित गाली का उपयोग करने वाला कमेंट भी देखें).

III. आवश्यकता और आनुपातिकता

ICCPR के अनुच्छेद 19(3) के तहत, आवश्यकता और आनुपातिकता के सिद्धांत के अनुसार यह ज़रूरी है कि अभिव्यक्ति की आज़ादी पर लगाए जाने वाले प्रतिबंध “उनके सुरक्षात्मक कार्य को सही तरीके से पूरा करने वाले होने चाहिए; उनसे उन लोगों के अधिकारों के साथ कम से कम हस्तक्षेप होना चाहिए, जिन अधिकारों से उन्हें सुरक्षात्मक कार्यों का लाभ मिल सकता है; उन हितों के अनुसार सही अनुपात में होने चाहिए, जिनकी सुरक्षा की जानी है,” (सामान्य कमेंट सं. 34, पैरा. 34).

अलग-अलग पोस्ट

बोर्ड यह मानता है कि इमोजी वाले कंटेंट के कई मतलब हो सकते हैं, जिनमें निंदा करने, खुद के संदर्भ में या सशक्तिकरण के लिए इसका उपयोग शामिल है. जिस तरह किसी भाषा का उपयोग नफ़रत फैलाने वाले और न फैलाने वाले तरीके से किया जा सकता है, उसी तरह इमोजी के मतलब को पूरी तरह से समझने के लिए संदर्भ को समझने की ज़रूरत होती है. लेकिन सुरक्षित विशिष्टता वाले समूहों के प्रति भेदभाव, दुश्मनी या हिंसा भड़काने वाले इमोजी का उपयोग करने वाले कंटेंट को हटा दिया जाना चाहिए.

ICCPR का अनुच्छेद 20, पैरा. 2 कहता है कि “राष्ट्रीय, नस्लीय या धार्मिक नफ़रत के किसी भी समर्थन, जिससे भेदभाव, दुश्मनी या हिंसा को उकसावा मिलता है, को कानून द्वारा प्रतिबंधित किया जाना चाहिए.” यह प्रतिबंध “अनुच्छेद 19 [ICCPR] में बताए गए अभिव्यक्ति की आज़ादी के अधिकार के अनुरूप है. यह ऐसा व्यवहार है जिसके साथ विशेष कर्तव्य और ज़िम्मेदारियाँ जुड़ी हैं.” ( सामान्य कमेंट सं. 11, (1983), पैरा. 2). अनुच्छेद 20 के तहत प्रतिबंध, अनुच्छेद 19 के तीन भागों वाले परीक्षण के अधीन है ( सामान्य कमेंट 34, पैरा 50-52).

बोर्ड का मानना ​​है कि इन पोस्ट को हटाना आवश्यक और आनुपातिक है ताकि संरक्षित विशेषताओं वाले समूहों, खास तौर पर अश्वेत लोगों के खिलाफ़ भेदभाव या शत्रुतापूर्ण कामों को भड़काने के लिए Meta के प्लेटफार्मों का दुरुपयोग न किया जा सके. नस्लीय भेदभाव उन्मूलन समिति का मानना ​​है कि "उकसावे में आम तौर पर दूसरों को कुछ खास तरह के आचरण करने के लिए प्रभावित किया जाता है. इसमें समर्थन या धमकियों के ज़रिए अपराध करना शामिल है. उकसावा स्पष्ट या अस्पष्ट हो सकता है, जैसे कि नस्लवादी प्रतीक दिखाना या सामग्री के साथ-साथ भाषा को फैलाना," ( सामान्य सुझाव संख्या 35, पैरा. 16 (2013)). कमिटी ने कहा कि "उकसावे को अपराध की कोशिश मानने के लिए यह ज़रूरी नहीं है कि उकसावे पर अमल किया गया हो, लेकिन उकसावे के रूपों को विनियमित करते समय, सदस्य देशों को उकसावे से जुड़े अपराधों के महत्वपूर्ण एलिमेंट के रूप में वक्ता के इरादे और इस बात की निकट संभावना या जोखिम को ध्यान में रखना चाहिए कि वक्ता द्वारा वांछित या इच्छित आचरण, विचाराधीन भाषा के परिणामस्वरूप होगा." (Id.)

पॉलिसी निर्माताओं और उनका उपयोग करने वालों के लिए 2023 की संयुक्त राष्ट्र गाइड, वीडियो, म्यूज़िक, मीम और अन्य मीडिया के ज़रिए व्यक्त ऐसी "गैर-मौखिक नफ़रत फैलाने वाली भाषा" के साथ-साथ "सांकेतिक भाषा" की पहचान करने और उसे दूर करने के महत्व पर ज़ोर देती है, जिसका पता लगाना ज़्यादा मुश्किल हो सकता है. बोर्ड ने सोशल मीडिया प्लेटफ़ॉर्म पर पकड़े जाने से बचने के लिए "सांकेतिक भाषा के उपयोग; दोहराए जाने वाले, संदर्भ-आधारित विज़ुअल और टेक्स्ट मीम्स; और अन्य तरीकों को रेफ़र करने के लिए पहले विल्सन सेंटर द्वारा दिए गए शब्द "बुरी रचनात्मकता" का उल्लेख किया है” (ट्रांसजेंडर लोगों को टार्गेट करने के लिए पोलिश भाषा में की गई पोस्ट फ़ैसला देखें).

कुछ संदर्भों में, इमोजी, खास सुरक्षित विशिष्टता वाले समूहों के प्रति नफ़रत, भेदभाव और उत्पीड़न व्यक्त करने के लिए "एल्गोस्पीक" के रूप हो सकते हैं. बोर्ड का मानना ​​है कि दोनों केस का कंटेंट, इस ट्रेंड में आता है क्योंकि इसमें स्पष्ट रूप से अश्वेत लोगों की तुलना बंदरों से की गई है.

ब्राज़ील के केस में, बंदरों की फ़ोटो और इमोजी का उपयोग, ब्राज़ील के फ़ुटबॉल खिलाड़ियों, जिनमें से कई खिलाड़ी अश्वेत हैं, की तुलना बंदरों से करने के लिए किया गया था. कंटेंट को फ़ुटबॉल में व्यापक रूप से डॉक्यूमेंट किए गए व्यवस्थित नस्लवाद और दुश्मनी के सामान्य संदर्भ में पोस्ट किया गया था. इसमें खास तौर पर अश्वेत फ़ुटबॉल खिलाड़ियों को टार्गेट करने वाले हमलों पर फ़ोकस किया गया था. कंटेंट को 22,000 से ज़्यादा बार देखा गया और यह नस्लवादी रूढ़ियों को कायम रखने और खास सुरक्षित विशिष्टता वाले समूहों, इस मामले में अश्वेत लोगों, के खिलाफ़ संभावित और निकट भेदभाव और शत्रुतापूर्ण कार्रवाई को उकसाने का चिंताजनक ट्रेंड दर्शाता है.

आयरलैंड के केस में, कमेंट करने वाले व्यक्ति ने मुख्य पोस्ट में बताए गए सभी अश्वेत लोगों की तुलना बंदरों से करने के लिए, बंदर इमोजी का उपयोग किया. यह कमेंट, आयरलैंड में अश्वेत लोगों से बढ़ते भेदभाव और बहिष्कार के दौरान एक ऐसी मूल पोस्ट पर शेयर किया गया था, जिसे 293,000 से ज़्यादा लाइक और 9,500 कमेंट मिले थे. क्निन कार्टून केस में, बोर्ड ने पाया कि हिंसा के ऐतिहासिक कृत्यों का रेफ़रेंस देते हुए सर्ब लोगों को चूहों के रूप में दिखाने और लोगों से उनका बहिष्कार करने के लिए कहने से टार्गेट किए जा रहे लोगों के समानता और गैर-भेदभाव के अधिकार पर असर पड़ता है. इसी तरह, इस केस में भी कमेंट करने वाले व्यक्ति ने अश्वेत लोगों को बंदरों के रूप में दिखाया था. कमेंट में मुख्य पोस्ट में बताए गए शत्रुतापूर्ण व्यवहार जैसे व्यवहार को प्रोत्साहित किया था, जिससे भेदभाव और दुश्मनी को उकसावा मिला.

ये पोस्ट दिखाती हैं कि इमोजी का उपयोग, दूसरे लोगों को भेदभावपूर्ण और संभावित रूप से दुश्मनी वाले काम करने के लिए उकसाने के लिए कैसे किया जा सकता है. लेबल, चेतावनी स्क्रीन लगाने या फैलाव कम करने के अन्य उपाय करने जैसी कम कठोर कार्रवाइयों से प्लेटफ़ॉर्म पर इस तरह के कंटेंट को बने रहने से पड़ने वाले असर से पर्याप्त सुरक्षा नहीं मिलती. इसलिए, उन्हें हटाना ज़रूरी होती है.

ज़्यादा अस्पष्ट मामलों में, बोर्ड ने रूस में प्रो-नवलनी विरोध प्रदर्शन फ़ैसले में दिए गए अपने सुझाव के अनुसार, Meta को सावधानीपूर्वक कम कठोर उपाय ढूँढने के लिए प्रेरित करता है. These would allow users to self-remediate or foster understanding that users' content can be impacting others negatively. ऐसे उपाय बनाते समय, Meta को यह सुनिश्चित करना चाहिए कि वे प्रभावी हैं और मानवाधिकारों पर उनका बुरा असर नहीं पड़ता (केन्या की राजनीति पर चिह्नित गाली का उपयोग करने वाला कमेंट, सुझाव सं. 1 देखें).

व्यापक समस्याएँ

बोर्ड की अपनी रिसर्च और रिपोर्ट से पता चलता है कि ऐसा कंटेंट अक्सर खास लोगों को उनकी संरक्षित विशेषताओं के आधार पर टार्गेट करता है, खास तौर पर फ़ुटबॉल जैसे खेलों के मामले में. धमकाना और उत्पीड़न से जुड़ी पॉलिसी के तहत, Meta तब सामूहिक उत्पीड़न के लिए बनाए गए कंटेंट को हटा देता है, जब कंटेंट को उसके विषयवस्तु विशेषज्ञ रिव्यू के लिए भेजा जाता है. कंपनी ने दुरुपयोग से निपटने के लिए कई यूज़र कंट्रोल उपाय भी पेश किए हैं. उदाहरण के लिए, Instagram पर यूज़र्स एक साथ कई अनचाहे कमेंट को मैनेज कर सकते हैं या उन्हें पोस्ट करने वाले अकाउंट को बल्क में ब्लॉक कर सकते हैं. साथ ही वे "ऐसे कमेंट को रोकने के लिए कमेंट फ़िल्टर सेट कर सकते हैं जिनमें ऐसे शब्द, वाक्यांश या इमोजी हों जिन्हें वे देखना नहीं चाहते."

अपनी कोशिशों का बेहतर तालमेल करने और उन यूज़र्स की रक्षा करने के लिए, जिनका नाम सीधे तौर पर नहीं लिया गया है, लेकिन जो नफ़रतपूर्ण कैंपेन के अप्रत्यक्ष लक्ष्य हैं, Meta को नफ़रतपूर्ण कैंपेन, खास तौर पर जिनमें इमोजी का उपयोग किया जाता है, को समय रहते रोकने के लिए अपने पहले से मौजूद उपायों में तालमेल बनाने के लिए एक फ़्रेमवर्क बनाना चाहिए. इसमें प्रत्यक्ष/स्पष्ट और अप्रत्यक्ष/निहित मेंशन के ज़रिए निजी और सार्वजनिक हस्तियों के लिए बनाए गए ऐसे कैंपेन शामिल होने चाहिए, जिनसे धमकाना और उत्पीड़न या नफ़रतपूर्ण आचरण से जुड़ी पॉलिसी ट्रिगर होती हैं. इस फ़्रेमवर्क से यह सुनिश्चित होगा कि Meta के पास अपने मॉडरेशन सिस्टम में कमियों को दूर करने, नफ़रत फैलाने वाले समन्वित और टार्गेटेड कैंपेन को पहचानने और उनका मूल्यांकन करने और स्थायी फ़ीडबैक चैनल बनाने के लिए बेहतर तालमेल वाला तरीका है.

यह सुनिश्चित करना कि उसके सिस्टम टार्गेटेड कैंपेन को हैंडल के लिए अच्छी तरह से तैयार हैं, खेलकूद के बड़े आयोजनों की तैयारी के लिए भी महत्वपूर्ण है, खास तौर पर फ़ुटबॉल में. ऑनलाइन और स्टेडियम, दोनों जगहों पर डॉक्यूमेंट की गई कई घटनाओं से समर्थकों और दर्शकों के समूहों के बीच नस्लीय दुश्मनी का एक चिंताजनक ट्रेंड सामने आता है. Meta को यह सुनिश्चित करना चाहिए कि जोखिमों से निपटने के लिए समय-समय पर की जाने वाली उसकी कोशिशों में, 2026 FIFA विश्व कप जैसे खेल के प्रमुख आयोजनों से पहले, उनके दौरान और उनके तुरंत बाद लक्षित भेदभाव या दुश्मनी भड़काने वाले इमोजी वाले कंटेंट की सक्रिय निगरानी शामिल हो. इस लक्ष्य को इस तरह हासिल किया जा सकता है: इंटीग्रिटी प्रोडक्ट ऑपरेशंस सेंटर की तरह, पूरी कंपनी के विषयवस्तु विशेषज्ञों की एक ऐसी क्रॉस-फ़ंक्शनल टीम बनाना जो संभावित समस्याओं और ट्रेंड पर "रियल टाइम में प्रतिक्रिया दे"; खेलकूद के आयोजनों से जुड़े उल्लंघनों से संबंधित अपीलों के लिए फ़ास्ट-ट्रैक रिव्यू प्रोसेस लागू करना; और इमोजी वाले ऐसे कंटेंट में तेज़ी को पहचानने के लिए रियल-टाइम ट्रेंड्स की निगरानी करना, जो खास लोगों या सुरक्षित विशिष्टता वाले समूहों को टार्गेट करता है. Meta को संबंधित ट्रेंड्स और डायनेमिक्स की जानकारी लेने के लिए FIFA और दूसरे प्रोफ़ेशनल स्पोर्ट्स एसोसिएशन के साथ भी काम करना चाहिए.

6. ओवरसाइट बोर्ड का फ़ैसला

बोर्ड ने दोनों केसों में समीक्षाधीन कंटेंट को बनाए रखने के Meta के मूल फ़ैसले को बदल दिया.

7. सुझाव

एन्फ़ोर्समेंट

1.उल्लंघन करने वाले संदर्भों में इमोजी के उपयोग की सटीकता से पहचान करने में अपने ऑटोमेटेड सिस्टम की कुशलता बढ़ाने के लिए, Meta को नफ़रतपूर्ण आचरण पॉलिसी के एन्फ़ोर्समेंट के लिए उपयोग किए जाने वाले अपने ट्रेनिंग डेटा का ऑडिट करना चाहिए और सुनिश्चित करना चाहिए कि डेटा को समय-समय पर अपडेट किया जाता है ताकि इसमें सभी भाषाओं के इमोजी वाले कंटेंट के उदाहरण, इमोजी के उल्लंघन करने वाले उपयोग और इमोजी के नफ़रतपूर्ण उपयोग के नए मामले शामिल हों.

बोर्ड इस सुझाव को तब लागू मानेगा जब Meta, बोर्ड को अपने पहले ऑडिट के विस्तृत परिणाम और उन ज़रूरी सुधारों की जानकारी उपलब्ध कराएगा जिन्हें कंपनी इस ऑडिट के परिणामस्वरूप लागू करेगी.

2.उन लोगों की रक्षा करने के लिए, जिनका नाम सीधे तौर पर नहीं लिया गया है, लेकिन जो नफ़रतपूर्ण कैंपेन के अप्रत्यक्ष लक्ष्य हैं, Meta को नफ़रतपूर्ण कैंपेन, खास तौर पर जिनमें इमोजी का उपयोग किया जाता है, को समय रहते रोकने के लिए अपने पहले से मौजूद उपायों में तालमेल बनाना चाहिए. इसमें प्रत्यक्ष/स्पष्ट और अप्रत्यक्ष/निहित मेंशन के ज़रिए निजी और सार्वजनिक हस्तियों के लिए बनाए गए ऐसे कैंपेन शामिल होने चाहिए, जिनसे धमकाना और उत्पीड़न या नफ़रतपूर्ण आचरण से जुड़ी पॉलिसी ट्रिगर होती हैं.

बोर्ड इस सुझाव को तब लागू मानेगा जब Meta, नफ़रत फैलाने वाले टार्गेटेड कैंपेन के लिए एन्फ़ोर्समेंट के अपने अपडेट किए गए तरीकों को बोर्ड से शेयर करेगा.

3.यह सुनिश्चित करने के लिए कि FIFA विश्व कप जैसे खेलकूद के बड़े आयोजनों के दौरान, नफ़रतपूर्ण कैंपेन से निपटने के लिए उसके सिस्टम पूरी तरह तैयार हैं, Meta को यह सुनिश्चित करना चाहिए कि ऐसी घटनाओं से निपटने की उसकी समय-संवेदनशील कोशिशों, चाहे वह उसके इंटीग्रिटी प्रोडक्ट ऑपरेशंस सेंटर के ज़रिए हो या जोखिम दूर करने के किसी अन्य सिस्टम के ज़रिए, में इमोजी वाले ऐसे कंटेंट की सक्रिय निगरानी शामिल हो जो इन ईवेंट से पहले, उनके दौरान और उनके तुरंत बाद टार्गेटेड भेदभाव या दुश्मनी भड़काता है.

बोर्ड इस सुझाव को तब लागू मानेगा जब Meta, बोर्ड के साथ ऐसे सबूत शेयर करेगा जो खेलकूद के बड़े आयोजनों के दौरान उपयोग किए जाने वाले जोखिम मूल्यांकन और उन्हें कम करने की कोशिशों के डिप्लॉय होने की पुष्टि करते हों.

बोर्ड ने अपने पिछले सुझावों के महत्व को भी दोहराया और कहा कि वे इस केस में भी प्रासंगिक हैं (केन्या की राजनीति पर चिह्नित गाली का उपयोग करने वाला कमेंट की सुझाव सं. 1). उन सुझावों के अनुसार Meta को:

  • यूज़र्स को खुद समस्या दूर करने का अवसर दे, जो नवालनी के समर्थन में विरोध प्रदर्शन (सुझाव सं. 6) के परिणामस्वरूप बनाए गए पोस्ट करने के समय के टकराव में हस्तक्षेप के समान हो. अगर यह हस्तक्षेप अब प्रभावी न हो, तो Meta को इसके समान प्रोडक्ट हस्तक्षेप उपलब्ध कराना चाहिए.

प्रक्रिया संबंधी नोट:

  • ओवरसाइट बोर्ड के फ़ैसले पाँच मेंबर्स के पैनल द्वारा लिए जाते हैं और उन पर बोर्ड के ज़्यादातर मेंबर्स की सहमति होती है. ज़रूरी नहीं है कि बोर्ड के फ़ैसले, सभी सदस्यों की राय दर्शाएँ.
  • अपने चार्टर के तहत, ओवरसाइट बोर्ड उन यूज़र्स की अपील का रिव्यू कर सकता है, जिनका कंटेंट Meta ने हटा दिया था और उन यूज़र्स की अपील का रिव्यू कर सकता है जिन्होंने उस कंटेंट की रिपोर्ट की थी जिसे Meta ने बनाए रखा. साथ ही, बोर्ड Meta की ओर से रेफ़र किए गए फ़ैसलों का रिव्यू कर सकता है (चार्टर आर्टिकल 2, सेक्शन 1). बोर्ड के पास Meta के कंटेंट से जुड़े फ़ैसलों को कायम रखने या उन्हें बदलने का बाध्यकारी अधिकार है (चार्टर आर्टिकल 3, सेक्शन 5; चार्टर आर्टिकल 4). बोर्ड ऐसे गैर-बाध्यकारी सुझाव दे सकता है, जिनका जवाब देना Meta के लिए ज़रूरी है (चार्टर आर्टिकल 3, सेक्शन 4; आर्टिकल 4). जहाँ Meta सुझावों पर एक्शन लेने की प्रतिबद्धता व्यक्त करता है, वहाँ बोर्ड उनके लागू होने की निगरानी करता है.
  • इस केस के फ़ैसले के लिए, बोर्ड की ओर से स्वतंत्र रिसर्च करवाई गई थी. बोर्ड को Duco Advisers की सहायता मिली, जो भौगोलिक-राजनैतिक, विश्वास और सुरक्षा तथा टेक्नोलॉजी के आपसी संबंध पर काम करने वाली एक एडवाइज़री फ़र्म है.

मामले के निर्णयों और नीति सलाहकार राय पर लौटें