पलट जाना

गाज़ा के लोगों के बारे में अमानवीय कमेंट

एक यूज़र ने Meta के एक ऐसी Facebook पोस्ट को बनाए रखने के फ़ैसले के खिलाफ़ अपील की जिसमें यह दावा किया गया था कि हमास का जन्म गाज़ा की जनसंख्या से हुआ है और उनकी तुलना “वहशी संप्रदाय” से की गई है. जब बोर्ड ने Meta का ध्यान अपील पर आकर्षित किया, तो कंपनी ने अपना मूल फ़ैसला पलट दिया और पोस्ट को हटा दिया.

निर्णय का प्रकार

सारांश

नीतियां और विषय

विषय
अधिकारहीन कम्युनिटी, जाति और नस्ल, युद्ध और मतभेद
सामुदायिक मानक
नफ़रत फ़ैलाने वाली भाषा

क्षेत्र/देश

जगह
इज़राइल, फ़िलिस्तीनी क्षेत्र

प्लैटफ़ॉर्म

प्लैटफ़ॉर्म
Facebook

यह संक्षिप्त फ़ैसला है.संक्षिप्त फ़ैसलों में उन केसों का परीक्षण किया जाता है जिनमें बोर्ड द्वारा कंटेंट पर Meta का ध्यान आकर्षित के बाद कंपनी ने कंटेंट के बारे में अपने मूल फ़ैसले को पलटा है और इसमें Meta द्वारा मानी गई गलतियों की जानकारी होती है. उन्हें पूरे बोर्ड के बजाय, बोर्ड के किसी सदस्य द्वारा स्वीकृत किया जाता है, उनमें पब्लिक कमेंट शामिल नहीं होते और उन्हें बोर्ड द्वारा आगे के फ़ैसलों के लिए आधार नहीं बनाया जा सकता. संक्षिप्त फ़ैसले, Meta के फ़ैसलों में सीधे बदलाव लाते हैं, इन सुधारों के बारे में पारदर्शिता देते हैं और साथ ही यह बताते हैं कि Meta अपने एन्फ़ोर्समेंट में कहाँ सुधार कर सकता है.

सारांश

एक यूज़र ने Meta के एक ऐसी Facebook पोस्ट को बनाए रखने के फ़ैसले के खिलाफ़ अपील की जिसमें यह दावा किया गया था कि हमास का जन्म गाज़ा की जनसंख्या से हुआ है और वे अपनी “अंतरतम इच्छाएँ” दिखाते हैं और उनकी तुलना “वहशी संप्रदाय” से की गई है. जब बोर्ड ने Meta का ध्यान अपील पर आकर्षित किया, तो कंपनी ने अपना मूल फ़ैसला पलट दिया और पोस्ट को हटा दिया.

केस की जानकारी

दिसंबर 2023 में, एक यूज़र ने Facebook पर एक फ़ोटो रीपोस्ट की जिसमें एक अनाम पुरुष की फ़ोटो के साथ एक टेक्स्ट दिया गया था. उसमें यह राय जाहिर की गई थी कि गाज़ा की “सामान्य जनता” हमास से “पीड़ित” नहीं है, बल्कि यह आतंकी समूह “एक वहशी संप्रदाय की अंतरतम इच्छाओं” के “सच्चे प्रतिबिंब” के रूप में उभरा है. रीपोस्ट करने वाली फ़ोटो में समर्थन करने वाला एक कैप्शन था जिसमे “the truth” शब्द शामिल थे. उस पोस्ट को 500 से कम बार देखा गया था.

Meta की नफ़रत फैलाने वाली भाषा से जुड़ी पॉलिसी के तहत, Meta ऐसे कंटेंट को प्रतिबंधित करती है जिसमें किसी व्यक्ति या लोगों के किसी समूह को उनकी सुरक्षित विशिष्टताओं के आधार पर टार्गेट किया जाता है और उसमें “मनुष्यों से नीचा” दिखाने की तुलना का विशेष रूप से उल्लेख किया गया है और उसमें उदाहरण के रूप में “वहशी” शब्द को शामिल किया गया है. इस कंटेंट में, “गाज़ा की सामान्य जनता,” गाज़ा में फ़िलिस्तीन का अप्रत्यक्ष रेफ़रेंस है, इसलिए वह नस्ल और राष्ट्रीयता की सुरक्षित विशिष्टताओं को टार्गेट करती है.

इस केस की बोर्ड के सामने अपील करते समय अपने कथन में यूज़र ने नोट किया कि गाज़ा के लोगों का सामान्यीकरण करके यह पोस्ट “मनुष्यों से हीन दिखाने की भाषा” का उपयोग दिखाती है.

बोर्ड द्वारा Meta का ध्यान इस केस की ओर आकर्षित किए जाने के बाद, कंपनी ने पाया कि कंटेंट से Meta की नफ़रत फैलाने वाली भाषा से जुड़ी उसकी पॉलिसी का उल्लंघन हुआ है और कंटेंट को बनाए रखने का उसका शुरुआती फ़ैसला गलत था. कंपनी ने फिर Facebook से कंटेंट को हटा दिया.

बोर्ड का प्राधिकार और दायरा

बोर्ड को उस यूज़र के अपील करने के बाद Meta के फ़ैसले का रिव्यू करने का अधिकार है, जिसने ऐसे कंटेंट की रिपोर्ट की जिसे तब छोड़ दिया गया था (चार्टर अनुच्छेद 2, सेक्शन 1; उपनियम अनुच्छेद 3, सेक्शन 1).

जहाँ बोर्ड द्वारा रिव्यू किए जा रहे केस में Meta यह स्वीकार करता है कि उससे गलती हुई है और वह अपना फ़ैसला पलट देता है, वहाँ बोर्ड उस केस का चुनाव संक्षिप्त फ़ैसले के लिए कर सकता है (उपनियम अनुच्छेद 2, सेक्शन 2.1.3). बोर्ड कंटेंट मॉडरेशन प्रोसेस के बारे में ज़्यादा जानकारी पाने, गलतियाँ कम करने और Facebook और Instagram के यूज़र्स के लिए निष्पक्षता बढ़ाने के लिए मूल फ़ैसले का रिव्यू करता है.

केस की सार्थकता

यह केस Meta द्वारा नफ़रत फैलाने वाली भाषा से जुड़ी अपनी पॉलिसी के एन्फ़ोर्समेंट की गलतियाँ हाइलाइट करता है, खास तौर पर उस कंटेंट के संबंध में जो लोगों पर उनकी सुरक्षित विशिष्टताओं के आधार पर हमले करता है. जारी सशस्त्र संघर्ष के समय में मॉडरेशन से जुड़ी गलतियाँ खास तौर पर नुकसानदेह होती हैं. कंटेंट के ज़्यादा सुदृढ़ मॉडरेशन प्रक्रियाएँ मौजूद होनी चाहिए थीं.

क्निन कार्टून से जुड़े केस में इसी तरह से नफ़रत फैलाने वाली भाषा थी जिसमें एक सुरक्षित विशिष्टता – नस्लीयता – को टार्गेट किया गया था और एक नस्लीय समूह का नाम लिए बिना उनकी तुलना चूहों से की गई थी. हालाँकि, क्निन कार्टून के केस में किसी नस्लीय समूह का प्रतीकात्मक प्रदर्शन समझने के लिए ऐतिहासिक और सांस्कृतिक संदर्भ की ज़रूरत है, जबकि इस केस का कंटेंट पूरी जनसंख्या को मनुष्यों से नीचा दिखाने से सीधे तौर पर जुड़ा है, जिन्हें यथोचित रूप से सुरक्षित विशिष्टता वाले लोगों का रेफ़रेंस समझा जाना चाहिए.

क्निन कार्टून फ़ैसले में, बोर्ड ने सुझाव दिया कि “Meta को नफ़रत फैलाने वाली भाषा से जुड़े कम्युनिटी स्टैंडर्ड और रिव्यूअर्स को उसके बारे में दिए जाने वाले गाइडेंस में यह समझाते हुए स्पष्ट करना चाहिए कि संरक्षित समूह के बारे में ऐसे अप्रत्यक्ष संदर्भ देना भी पॉलिसी के खिलाफ़ है, जब वह संदर्भ उचित रूप से समझ आ रहा हो” ( क्निन कार्टून फ़ैसला, सुझाव सं. 1). Meta ने कहा कि इस सुझाव को आंशिक रूप से लागू कर दिया गया है. 2022 के Q4 में, Meta ने रिपोर्ट किया कि उसने “कम्युनिटी स्टैंडर्ड और रिव्यूअर्स को दिए जाने वाले पॉलिसी मार्गदर्शन में ऐसी भाषा जोड़ी है जो स्पष्ट करती है कि नफ़रत फैलाने वाली स्पष्ट भाषा को हटा दिया जाएगा, अगर उसे शुरुआती रिव्यूअर्स द्वारा विशेषज्ञ रिव्यू के लिए तब एस्केलेट किया जाता है जब Meta यथोचित रूप से यूज़र का इरादा समझता हो.” बोर्ड इस सुझाव को आंशिक रूप से लागू किया गया मानता है क्योंकि नफ़रत फैलाने वाली भाषा से जुड़े कम्युनिटी स्टैंडर्ड में अपडेट नहीं किए गए हैं, लेकिन कम्युनिटी स्टैंडर्ड के सामान्य परिचय में अपडेट किए गए हैं.

बोर्ड मानता है कि इस सुझाव को पूरी तरह लागू करने से नफ़रत फैलाने वाली भाषा से जुड़ी Meta की पॉलिसी के तहत एन्फ़ोर्समेंट की गलतियों की संख्या कम होगी.

फ़ैसला

बोर्ड ने संबंधित कंटेंट को प्लेटफ़ॉर्म पर बनाए रखने के Meta के मूल फ़ैसले को पलट दिया है. बोर्ड द्वारा केस को Meta के ध्यान में लाए जाने के बाद, Meta द्वारा मूल फ़ैसले की गलती में किए गए सुधार को बोर्ड ने स्वीकार किया.

मामले के निर्णयों और नीति सलाहकार राय पर लौटें