पलट जाना

मीडिया षडयंत्र कार्टून

एक यूज़र ने Facebook पर एक कमेंट को बनाए रखने के Meta के फ़ैसले के खिलाफ़ अपील की. कमेंट में शामिल फ़ोटो में एक यहूदी व्यक्ति का कैरिकेचर था जिसमें वह “मीडिया” लेबल वाला एक बॉक्स पकड़े हुए है और उसके कंधे पर बैठे बंदर पर “BLM” लेबल लगा है.

निर्णय का प्रकार

सारांश

नीतियां और विषय

विषय
अधिकारहीन कम्युनिटी, जाति और नस्ल, भेदभाव
सामुदायिक मानक
नफ़रत फ़ैलाने वाली भाषा

क्षेत्र/देश

जगह
इज़राइल, ऑस्ट्रेलिया, जर्मनी

प्लैटफ़ॉर्म

प्लैटफ़ॉर्म
Facebook

यह संक्षिप्त फ़ैसला है. संक्षिप्त फ़ैसलों में उन केसों का परीक्षण किया जाता है जिनमें बोर्ड द्वारा कंटेंट पर Meta का ध्यान आकर्षित के बाद कंपनी ने कंटेंट के बारे में अपने मूल फ़ैसले को पलटा है. इन फ़ैसलों में उन गलतियों की जानकारी होती है जिन्हें Meta ने स्वीकार किया है और इनमें लोगों को यह जानकारी दी जाती है कि बोर्ड के काम का क्या असर पड़ता है. उन्हें बोर्ड के सदस्यों की पैनल द्वारा स्वीकार किया गया है, न कि पूरे बोर्ड द्वारा. उनमें सार्वजनिक कमेंट प्रोसेस शामिल नहीं होती और बोर्ड आगे के फ़ैसलों के लिए उन्हें आधार भी नहीं बनाता है. संक्षिप्त फ़ैसले, Meta के सुधारों के बारे में पारदर्शिता देते हैं और यह बताते हैं कि पॉलिसी के एन्फ़ोर्समेंट के संबंध में कंपनी कहाँ सुधार कर सकती है.

केस का सारांश

एक यूज़र ने Facebook पर एक कमेंट को बनाए रखने के Meta के फ़ैसले के खिलाफ़ अपील की. कमेंट में शामिल फ़ोटो में एक यहूदी व्यक्ति का कैरिकेचर था जिसमें वह “मीडिया” लेबल वाला एक बॉक्स पकड़े हुए है और उसके कंधे पर बैठे बंदर पर “BLM” लेबल लगा है. जब बोर्ड ने Meta का ध्यान अपील पर आकर्षित किया, तो कंपनी ने अपना मूल फ़ैसला पलट दिया और कमेंट को हटा दिया.

केस की जानकारी और बैकग्राउंड

मई 2023 को, एक यूज़र ने एक ऐसा कमेंट पोस्ट किया जिसमें एक फ़ोटो में शामिल कैरिकेचर में एक यहूदी व्यक्ति को दिखाया गया था जिसने पुराने ज़माने का म्यूज़िक बॉक्स पकड़ा है और उसके कंधे पर एक बंदर बैठा है. कैरिकेचर में व्यक्ति की नाक ज़रूरत से ज़्यादा बड़ी और मुड़ी हुई दिखाई गई है और उस पर “जूड” लिखे हुए स्टार ऑफ़ डेविड का लेबल लगा है. यह उन बैज की याद दिलाता है जिन्हें होलोकॉस्ट के दौरान यहूदी लोगों को पहनने के लिए मजबूर किया जाता था. उसके कंधे पर बैठे बंदर पर “BLM” (“ब्लैक लाइव्स मैटर” मूवमेंट का संक्षिप्त रूप) लेबल लगा है जबकि म्यूज़िक बॉक्स पर “मीडिया” लेबल लगा है. कमेंट को 100 से कम बार देखा गया.

यह कंटेंट Meta की नफ़रत फैलाने वाली भाषा से जुड़ी पॉलिसी के दो अलग-अलग एलिमेंट का उल्लंघन करता है. Meta की नफ़रत फैलाने वाली भाषा से जुड़ी पॉलिसी में ऐसे कंटेंट को प्रतिबंधित किया जाता है जो धमकी से ऐतिहासिक रूप से जुड़ी नुकसानदेह रूढ़िवादिता का संदर्भ देता है, जैसे “ऐसे दावे कि यहूदी लोग वित्तीय या मीडिया संस्थानों को कंट्रोल करते हैं.” इसके अलावा, Meta की नफ़रत फैलाने वाली भाषा से जुड़ी पॉलिसी से अनुसार मनुष्यों को नीचा दिखाने वाली फ़ोटो पोस्ट नहीं की जा सकती जैसे “अश्वेत लोगों और बंदरों या बंदर जैसे प्राणियों” की तुलना दिखाने वाला कंटेंट. यह कंटेंट दोनों एलिमेंट का उल्लंघन करता है क्योंकि इसमें यह इशारा किया गया है कि यहूदी लोग मीडिया को कंट्रोल करते हैं और बंदर के साथ “BLM” दिखाया गया है. बोर्ड को की गई अपनी अपील में, कंटेंट की रिपोर्ट करने वाले यूज़र ने कहा कि कंटेंट यहूदी लोगों से नफ़रत करने वाला और अश्वेत लोगों से नस्लवाद दिखाने वाला था.

Meta ने शुरुआत में कंटेंट को Facebook पर बनाए रखा था. जब बोर्ड ने Meta का ध्यान इस केस की ओर आकर्षित किया, तो कंपनी ने पाया कि पोस्ट से नफ़रत फैलाने वाली भाषा से जुड़ी उसकी पॉलिसी का उल्लंघन होता है और कंटेंट को बनाए रखने का उसका शुरुआती फ़ैसला गलत था. कंपनी ने फिर Facebook से कंटेंट को हटा दिया.

बोर्ड का प्राधिकार और दायरा

बोर्ड को उस व्यक्ति की अपील मिलने के बाद Meta के फ़ैसले का रिव्यू करने का अधिकार है, जिसने उस कंटेंट की रिपोर्ट की जिसे तब छोड़ दिया गया था (चार्टर अनुच्छेद 2, सेक्शन 1; उपनियम अनुच्छेद 3, सेक्शन 1).

जहाँ बोर्ड द्वारा रिव्यू किए जा रहे केस में Meta यह स्वीकार करता है कि उससे गलती हुई है और वह अपना फ़ैसला पलट देता है, वहाँ बोर्ड उस केस का चुनाव संक्षिप्त फ़ैसले के लिए कर सकता है (उपनियम अनुच्छेद 2, सेक्शन 2.1.3). बोर्ड कंटेंट मॉडरेशन प्रोसेस के बारे में ज़्यादा जानकारी पाने, गलतियाँ कम करने और Facebook और Instagram के यूज़र्स के लिए निष्पक्षता बढ़ाने के लिए मूल फ़ैसले का रिव्यू करता है.

केस का महत्व

यह केस हाइलाइट करता है कि नफ़रत फैलाने वाली भाषा से जुड़ी पॉलिसी को एन्फ़ोर्स करने में Meta से गलतियाँ होती हैं, जिससे ऐसे कंटेंट का प्रसार हो सकता है जिसमें नुकसानदेह रूढ़िवादिता और मनुष्यों को नीचा दिखाने वाली इमेजरी को बढ़ावा दिया जाता है. इस केस जैसी एन्फ़ोर्समेंट की गलतियों को ठीक किया जाना ज़रूरी है क्योंकि उपेक्षित समूहों को टार्गेट करने वाले कंटेंट से जुड़े नुकसान के जोखिम को कम करना Meta की ज़िम्मेदारी है.

बोर्ड ने पहले नफ़रत फैलाने वाली भाषा से जुड़ी Meta की पॉलिसी के एन्फ़ोर्समेंट में कमी का परीक्षण किया है जिसमें यूज़र ने कंपनी के स्टैंडर्ड का स्पष्ट निहित उल्लंघन किया था. बोर्ड ने सुझाव दिया कि Meta “नफ़रत फैलाने वाली भाषा से जुड़े कम्युनिटी स्टैंडर्ड और रिव्यूअर्स को उसके बारे में दिए जाने वाले गाइडेंस में यह समझाते हुए स्पष्ट करे कि संरक्षित समूह के बारे में ऐसे अप्रत्यक्ष संदर्भ देना भी पॉलिसी के खिलाफ़ है, जब वह संदर्भ उचित रूप से समझ आ रहा हो” ( क्निन कार्टून फ़ैसला, सुझाव सं. 1). Meta ने इस सुझाव को आंशिक रूप से लागू किया.

बोर्ड ने एन्फ़ोर्समेंट की गलतियों की संख्या कम करने के लिए भी सुझाव दिए हैं. बोर्ड ने सुझाव दिया कि Meta, “एन्फ़ोर्समेंट की गलतियों को पलटने और उनसे सीखने के लिए एक आंतरिक ऑडिट प्रोसेस बनाए जिसमें ऑटोमेटेड साधनों से हटाए कंटेंट के सांख्यिकीय प्रतिनिधि नमूने का लगातार विश्लेषण किया जाए.” ( ब्रेस्ट कैंसर के लक्षण और नग्नता से जुड़ा फ़ैसला, सुझाव सं. 5). Meta ने कहा कि इस सुझाव में बताया गया काम वह पहले से ही कर रहा है लेकिन उसे दर्शाने वाली जानकारी प्रकाशित नहीं की जाती.

बोर्ड ने यह दोहराया कि ऊपर दिए गए सुझावों को पूरी तरह लागू करने से नफ़रत फैलाने वाली भाषा से जुड़ी पॉलिसी के तहत एन्फ़ोर्समेंट की गलतियों में कमी आएगी और ऐसे कंटेंट के प्रसार में कमी आएगी जो आपत्तिजनक रूढ़िवादिता और मनुष्यों को नीचा दिखाने वाली इमेजरी को बढ़ावा देता है.

फ़ैसला

बोर्ड ने संबंधित कंटेंट को प्लेटफ़ॉर्म पर बनाए रखने के Meta के मूल फ़ैसले को पलट दिया है. बोर्ड द्वारा केस को Meta के ध्यान में लाए जाने के बाद, Meta द्वारा मूल फ़ैसले की गलती में किए गए सुधार को बोर्ड ने स्वीकार किया.

मामले के निर्णयों और नीति सलाहकार राय पर लौटें