पलट जाना

“खमेर लोगों को काम मत दो” कहने वाली पोस्ट

एक यूज़र ने थाई भाषा की एक Facebook पोस्ट को बनाए रखने के Meta के फ़ैसले के खिलाफ़ अपील की जिसमें कहा गया था कि: “Stop hiring Khmer people” (खमेर लोगों को काम मत दो).

निर्णय का प्रकार

सारांश

नीतियां और विषय

विषय
जाति और नस्ल, भेदभाव, युद्ध और मतभेद
सामुदायिक मानक
नफ़रत फ़ैलाने वाली भाषा

क्षेत्र/देश

जगह
कंबोडिया, थाईलैंड

प्लैटफ़ॉर्म

प्लैटफ़ॉर्म
Facebook

संक्षिप्त फ़ैसलों में उन केस का परीक्षण किया जाता है जिनमें बोर्ड द्वारा कंटेंट पर Meta का ध्यान आकर्षित करने के बाद कंपनी ने कंटेंट के बारे में अपने मूल फ़ैसले को पलटा है और इसमें Meta द्वारा मानी गई गलतियों की जानकारी होती है. उन्हें पूरे बोर्ड के बजाय, बोर्ड के किसी सदस्य द्वारा स्वीकृत किया जाता है, उनमें पब्लिक कमेंट शामिल नहीं होते और उन्हें बोर्ड द्वारा आगे के फ़ैसलों के लिए आधार नहीं बनाया जा सकता. संक्षिप्त फ़ैसले, Meta के फ़ैसलों में सीधे बदलाव लाते हैं, इन सुधारों के बारे में पारदर्शिता देते हैं और साथ ही यह बताते हैं कि Meta अपने एन्फ़ोर्समेंट में कहाँ सुधार कर सकता है.

सारांश

एक यूज़र ने थाई भाषा की एक Facebook पोस्ट को बनाए रखने के Meta के फ़ैसले के खिलाफ़ अपील की जिसमें कहा गया था कि: “Stop hiring Khmer people” (खमेर लोगों को काम मत दो). जब बोर्ड ने Meta का ध्यान अपील पर आकर्षित किया, तो कंपनी ने अपना मूल फ़ैसला पलट दिया और पोस्ट को हटा दिया.

केस की जानकारी

जुलाई 2025 में Facebook के एक यूज़र ने यूनिफ़ॉर्म पहने चार लोगों की फ़ोटो पोस्ट की. ऐसा लग रहा था कि ये लोग किसी निर्माण स्थल पर रेत की बोरियाँ उठा रहे हैं. साथ में थाई भाषा में दिए गए कैप्शन में कहा गया था: “#Stop hiring Khmer people” (खमेर लोगों को काम मत दो). कैप्शन में यह भी कहा गया था कि लोगों को उन दुकानों या कंपनियों को सपोर्ट नहीं करना चाहिए जो कंबोडिया के लोगों को काम पर रखते हैं. इसमें आगे अन्य यूज़र्स से कहा गया कि अगर वे सहमत हैं, तो मैसेज को शेयर करें. कंटेंट को थाईलैंड और कंबोडिया के बीच सीमा पर संघर्ष के संदर्भ में पोस्ट किया गया था, जिसमें नागरिक घायल हुए और उनकी जान गई. अशांति के बीच भेदभाव और हिंसा के डर से कंबोडिया के हज़ारों अप्रवासियों ने थाईलैंड छोड़ दिया और कंबोडिया लौट गए.

बोर्ड को की गई अपनी अपील में, रिपोर्ट करने वाले यूज़र ने कहा कि पोस्ट से “कंबोडिया के लोगों के खिलाफ़ जातीय नफ़रत और भेदभाव फैल रहा है” जो “सामाजिक बँटवारे” को बढ़ाता है और “निर्दोष लोगों को जोखिम” में डालता है.

नफ़रतपूर्ण आचरण से जुड़े कम्युनिटी स्टैंडर्ड के तहत, Meta ऐसे “कंटेंट को हटा देता है जो किसी व्यक्ति या समूह को उनकी सुरक्षित विशिष्टताओं के आधार पर टार्गेट करता है” और जिसमें “बहिष्कार या अलगाव के आह्वान या समर्थन या बहिष्कार या अलगाव के इरादे वाले कथन होते हैं.” इसमें “आर्थिक बहिष्कार शामिल है, जिसका अर्थ है किसी व्यक्ति को आर्थिक अधिकारों का उपयोग करने से वंचित करना और श्रमिक बाज़ार में उसकी भागीदारी को सीमित करना.”

जब बोर्ड ने Meta का ध्यान इस केस की ओर आकर्षित किया, तो कंपनी ने पाया कि कंटेंट से नफ़रत फैलाने वाले व्यवहार से जुड़ी पॉलिसी का उल्लंघन होता है और यह कि कंटेंट को बनाए रखने का उसका शुरुआती फ़ैसला गलत था. Meta ने पाया कि पोस्ट में स्पष्ट रूप से कहा गया था कि खमेर लोगों को काम न दिया जाए, जो “उन्हें श्रम बाज़ार की एक्सेस न देने का आह्वान” है और कंपनी ने इसे Facebook से हटा दिया.

बोर्ड का प्राधिकार और दायरा

बोर्ड को उस यूज़र के अपील करने के बाद Meta के फ़ैसले का रिव्यू करने का अधिकार है, जिसने ऐसे कंटेंट की रिपोर्ट की जिसे तब छोड़ दिया गया था (चार्टर आर्टिकल 2, सेक्शन 1; उपनियम आर्टिकल 3, सेक्शन 1).

जहाँ बोर्ड द्वारा रिव्यू किए जा रहे केस में Meta यह स्वीकार करता है कि उससे गलती हुई है और वह अपना फ़ैसला पलट देता है, वहाँ बोर्ड उस केस का चुनाव संक्षिप्त फ़ैसले के लिए कर सकता है (उपनियम अनुच्छेद 2, सेक्शन 2.1.3). बोर्ड, कंटेंट मॉडरेशन प्रोसेस के बारे में ज़्यादा जानकारी पाने, गलतियों में कमी लाने और Facebook, Instagram और Threads के यूज़र्स के लिए निष्पक्षता बढ़ाने के लिए मूल फ़ैसले का रिव्यू करता है.

केस की सार्थकता

इस केस का कंटेंट, Meta की नफ़रतपूर्ण आचरण से जुड़ी पॉलिसी के ज़रूरत से कम एन्फ़ोर्समेंस का उदाहरण देता है, जिससे थाईलैंड में कंबोडिया के लोगों से भेदभाव बढ़ सकता है, खास तौर पर थाईलैंड और कंबोडिया के बीच हालिया संघर्षों को देखते हुए. बोर्ड इस कम्युनिटी स्टैंडर्ड के एन्फ़ोर्समेंट के संबंध में Meta की गलतियों पर इस संबंध में 7 जनवरी, 2025 को कंपनी के अनाउंसमेंट के बाद से खास तौर पर ध्यान दे रहा है.

बोर्ड ने एक सुझाव दिया है जिसका लक्ष्य Meta की नफ़रतपूर्ण आचरण से जुड़ी पॉलिसी के एन्फ़ोर्समेंट को बेहतर बनाना है. राष्ट्रीयता के आधार पर आपराधिक आरोप फ़ैसले में, बोर्ड ने कहा कि Meta को “[लोगों के साथ] उस आंतरिक ऑडिट के परिणाम इस तरह शेयर करना चाहिए जो उसने अपनी नफ़रत फैलाने वाली भाषा [अब नफ़रतपूर्ण आचरण] से जुड़ी पॉलिसी को एन्फ़ोर्स करने में ह्यूमन रिव्यू की सटीकता और ऑटोमेटेड सिस्टम की परफ़ॉर्मेंस का आकलन करने के लिए किया है [...] ये परिणाम इस तरह शेयर किए जाने चाहिए जिससे इन परिणामों की सभी भाषाओं और/या क्षेत्रों में तुलना की जा सके” (सुझाव सं. 2). बोर्ड को अपने शुरुआती जवाब में, Meta ने कहा कि वह एन्फ़ोर्समेंट की सटीकता के डेटा को सार्वजनिक करने के बजाय, उसे बोर्ड के साथ गोपनीय रूप से शेयर करेगा. इस सुझाव के संबंध में हालिया अपडेट में, Meta ने रिपोर्ट किया कि “गलतियों को कम करने के लिए, कंपनी द्वारा अपनी पॉलिसी को एन्फ़ोर्स करने के तरीकों में बदलाव करने की उसकी कोशिशों के भाग के रूप में, वह उल्लंघन के कई प्रकारों के लिए कंपनी द्वारा पहचान के बजाय यूज़र्स की रिपोर्ट पर ज़्यादा भरोसा कर रहा है और इसमें नफ़रतपूर्ण आचरण भी शामिल है” (ओवरसाइट बोर्ड के लिए Meta की H1 2025 की रिपोर्ट). Meta के अनुसार, “टीमों को ये बदलाव लागू करने की सुविधा देने के लिए, बाद में” एक आकलन किया जाएगा.” ऐसा लगता है कि इसका क्रियान्वयन अभी जारी है और बोर्ड के साथ डेटा शेयर किया जाना बाकी है.

बोर्ड का मानना है कि राष्ट्रीयता के आधार पर आपराधिक आरोप के फ़ैसले के सुझाव सं. 2 को पूरी तरह लागू करने से कमज़ोर समूहों को प्रभावित करने वाले नुकसानदेह कंटेंट के ज़रूरत से कम एन्फ़ोर्समेंट की कंपनी की क्षमता बेहतर बनेगी. इससे Meta सभी भाषाओं और/या क्षेत्रों के सटीकता के डेटा की तुलना कर पाएगा और ज़रूरत के हिसाब से सटीकता को बेहतर बनाने के लिए संसाधन आवंटित किए जा सकेंगे. इसके अलावा, नफ़रतपूर्ण आचरण से जुड़ी पॉलिसी के तहत रिव्यू की सटीकता पर सार्वजनिक रिपोर्टिंग से पारदर्शिता बढ़ेगी और Meta के साथ एंगेजमेंट जेनरेट होगा. इस एंगेजमेंट के आधार पर आगे और सुधार होने की संभावना है, क्योंकि कंपनी, स्टेकहोल्डर्स से फ़ीडबैक लेती है और उनके अनुसार कार्रवाई करती है.

फ़ैसला

बोर्ड ने संबंधित कंटेंट को प्लेटफ़ॉर्म पर बनाए रखने के Meta के मूल फ़ैसले को पलट दिया है. बोर्ड द्वारा केस को Meta के ध्यान में लाए जाने के बाद, Meta द्वारा शुरुआती फ़ैसले की गलती में किए गए सुधार को बोर्ड ने स्वीकार किया.

मामले के निर्णयों और नीति सलाहकार राय पर लौटें