एकाधिक मामले का निर्णय

अफ़्रीकी अमेरिकी लोगों का नकारात्मक रूढ़ीवाद

बोर्ड ने तीन Facebook पोस्ट का रिव्यू किया जिनमें नस्लीय सामग्री थी लेकिन Meta ने उन्हें बनाए रखा था. जब बोर्ड ने Meta का ध्यान इन अपीलों पर आकर्षित किया, तो कंपनी ने अपने मूल फ़ैसले पलट दिए और पोस्ट को हटा दिया.

3 इस बंडल में केस शामिल हैं

पलट जाना

FB-LHBURU6Z

Facebook पर नफ़रत फैलाने वाली भाषा से जुड़ा केस

प्लैटफ़ॉर्म
Facebook
विषय
भेदभाव,जाति और नस्ल
मानक
नफ़रत फ़ैलाने वाली भाषा
जगह
अमेरिका
Date
पर प्रकाशित 18 अप्रैल 2024
पलट जाना

FB-1HX5SN1H

Facebook पर नफ़रत फैलाने वाली भाषा से जुड़ा केस

प्लैटफ़ॉर्म
Facebook
विषय
भेदभाव,जाति और नस्ल
मानक
नफ़रत फ़ैलाने वाली भाषा
जगह
युनाइटेड किंगडम,अमेरिका
Date
पर प्रकाशित 18 अप्रैल 2024
पलट जाना

FB-ZD01WKKW

Facebook पर नफ़रत फैलाने वाली भाषा से जुड़ा केस

प्लैटफ़ॉर्म
Facebook
विषय
भेदभाव,जाति और नस्ल
मानक
नफ़रत फ़ैलाने वाली भाषा
जगह
अमेरिका
Date
पर प्रकाशित 18 अप्रैल 2024

यह संक्षिप्त फ़ैसला है. संक्षिप्त फ़ैसलों में उन केसों का परीक्षण किया जाता है जिनमें बोर्ड द्वारा कंटेंट पर Meta का ध्यान आकर्षित के बाद कंपनी ने कंटेंट के बारे में अपने मूल फ़ैसले को पलटा है और इसमें Meta द्वारा मानी गई गलतियों की जानकारी होती है. उन्हें पूरे बोर्ड के बजाय, बोर्ड के किसी सदस्य द्वारा स्वीकृत किया जाता है, उनमें पब्लिक कमेंट शामिल नहीं होते और उन्हें बोर्ड द्वारा आगे के फ़ैसलों के लिए आधार नहीं बनाया जा सकता. संक्षिप्त फ़ैसले, Meta के फ़ैसलों में सीधे बदलाव लाते हैं, इन सुधारों के बारे में पारदर्शिता देते हैं और साथ ही यह बताते हैं कि Meta अपने एन्फ़ोर्समेंट में कहाँ सुधार कर सकता है.

सारांश

बोर्ड ने तीन Facebook पोस्ट का रिव्यू किया जिनमें नस्लीय सामग्री थी लेकिन Meta ने उन्हें बनाए रखा था. हर पोस्ट में अफ़्रीकी अमेरिकी लोगों का कैरिकेचर या हेरफेर की गई फ़ोटो थी जिससे आपत्तिजनक रूढ़ीवाद हाइलाइट होता है, जिनमें पिता का न होना, लोगों की दया पर निर्भर होना और स्टोर के लुटेरे होना शामिल है. ये केस Meta की नफ़रत फैलाने वाली भाषा और धमकी और उत्पीड़न से जुड़ी पॉलिसी के उसके एन्फ़ोर्समेंट की गलतियाँ हाइलाइट करते हैं. जब बोर्ड ने Meta का ध्यान इन अपीलों पर आकर्षित किया, तो कंपनी ने अपने मूल फ़ैसले पलट दिए और पोस्ट को हटा दिया.

केस की जानकारी

2023 के अंतिम दिनों में, बोर्ड को Facebook पर पोस्ट की गई तीन अलग-अलग फ़ोटो के बारे में तीन अलग-अलग अपीलें प्राप्त हुईं. तीनों फ़ोटो में अफ़्रीकी अमेरिकी लोगों के बारे में नकारात्मक सामग्री थी.

पहली पोस्ट में, जिसे लगभग 500,000 बार देखा गया था, एक यूज़र ने कंप्यूटर से जेनरेट की गई एक फ़ोटो पोस्ट की थी जिसमें दिखाया गया था कि एक स्टोर में आग लगी हुई है और कार्टून पात्रों के रूप में दिखाए गए अश्वेत लोग, जो स्वेटशर्ट पहने हुए थे, सामान उठाकर स्टोर से बाहर भाग रहे हैं. फ़ोटो में स्टोर के नाम को Target से बदलकर “Loot” कर दिया गया है और साथ में दिए गए कैप्शन में यूज़र ने फ़ोटो को अगली Pixar मूवी बताया है.

दूसरी पोस्ट में कंप्यूटर से जेनरेट की गई एक फ़ोटो है जिसमें भी एक मूवी के पोस्टर की नकल की गई है जिसमें एक अश्वेत महिला, जिसके शारीरिक अंगों को बढ़ा-चढ़ाकर दिखाया गया है, शॉपिंग कार्ट लेकर जा रही है जो चीटोज़ से भरी हुई है. मूवी का नाम “EBT” है, जो उस सिस्टम का नाम है जिसके ज़रिए अमेरिका में सामाजिक कल्याण का सामान मिलता है. पोस्टर में सबसे ऊपर, कलाकारों के नाम की जगह पर, ट्रेवोन मार्टिन और जॉर्ज फ़्लायड के नाम हैं. ये दोनों लोग अफ़्रीकी अमेरिकी लोग हैं जो हिंसा के शिकार हुए हैं. एक को निगरानी समिति के सशस्त्र सदस्य ने 2012 में गोली मारी थी जबकि दूसरा 2020 में पुलिस के हाथों मारा गया था. उनकी मौतों से अमेरिकी न्याय प्रणाली में नस्लीय भेदभाव के खिलाफ़ विरोध प्रदर्शन शुरू हुए थे.

तीसरी पोस्ट, जिसे लगभग 14 मिलियन बार देखा गया था, में एक मीम था जिसमें दावा किया गया था कि “Adobe ने एक ऐसा सॉफ़्टवेयर बनाया है जो किसी फ़ोटो में फ़ोटोशॉप का पता लगा सकता है.” दावे के नीचे एक महिला की फ़ोटो थी जिसके पूरे चेहरे में रंग-बिरंगे निशान थे (जिसे आम तौर पर गर्मी की पहचान के लिए उपयोग किया जाता है) जो दिखाता है कि फ़ोटो के कुछ भागों में हेरफेर की गई है. इसे भोजन करते हुए एक अश्वेत परिवार की फ़ोटो पर कंट्रास्ट किया गया है. फ़ोटो में पिता और टेबल पर मौजूद भोजन के निशान एक रंग के हैं, जो दिखाता है कि इन दो एलिमेंट को एडिटिंग के ज़रिए जोड़ा गया है. यह पोस्ट अमेरिका में अश्वेत परिवारों में पिताओं की कमी के व्यापक नकारात्मक रूढ़ीवाद को मज़बूती देती है, जिसकी जड़ें प्रणालीगत नस्लवाद और आर्थिक असमानता के ज़टिल इतिहास से जुड़ी हैं.

Meta ने शुरुआत में तीनों पोस्ट को यूज़र्स की अपील के बावजूद Facebook पर बनाए रखा. बोर्ड को की गई अपनी अपीलों में, उन्हीं यूज़र्स ने यह तर्क दिया कि कंटेंट में अफ़्रीकी अमेरिकी लोगों के साथ हो रहे नुकसानदेह नस्लीय रूढ़ीवाद को दिखाया गया है.

बोर्ड द्वारा इन केसों को Meta के ध्यान में लाए जाने के बाद, कंपनी ने पाया कि हर पोस्ट नफ़रत फैलाने वाली भाषा से जुड़े कम्युनिटी स्टैंडर्ड का उल्लंघन करती है, जिसमें नस्ल और जातीयता सहित अन्य सुरक्षित विशिष्टताओं के आधार पर लोगों पर सीधे हमले करना प्रतिबंधित है. पॉलिसी में खास तौर पर “किसी व्यक्ति या समूह” को “अमानवीय भाषा” के साथ निशाना बनाए जाना प्रतिबंधित है जिसमें “उनकी तुलना चोरों सहित अन्य अपराधियों से की गई हो,” “नफ़रत फैलाने वाले अपराधों की अवधारणाों, घटनाओं या शिकारों का उपहास किया गया हो” और “नैतिक मूल्यों ... में हीनता दिखाने को सामान्य बताते हों.”

इसके अलावा, Meta ने पाया कि दूसरी पोस्ट, जिसमें ट्रेवोन मार्टिन और जॉर्ज फ़्लॉयड के नाम थे, ने भी धमकी और उत्पीड़न से जुड़े कम्युनिटी स्टैंडर्ड का उल्लंघन किया है जिसके तहत कंपनी किसी भी व्यक्ति की “मृत्यु या चिकित्सीय स्थिति का जश्न मनाना या उसका उपहास करना” प्रतिबंधित करती है. कंपनी ने बताया कि “फ़ोटो में दो मृत लोगों ट्रेवोन मार्टिन और जॉर्ज फ़्लॉयड के नाम थे ... कंटेंट में यह बताकर उनकी मृत्यु की याद दिलाई गई है कि वे किसी काल्पनिक ऐनिमेटेड मूवी में स्टार बनेंगे.”
कंपनी ने इसलिए सभी तीनों पोस्ट को हटा दिया.

बोर्ड का प्राधिकार और दायरा

बोर्ड को उस यूज़र के अपील करने के बाद Meta के फ़ैसले का रिव्यू करने का अधिकार है, जिसने ऐसे कंटेंट की रिपोर्ट की जिसे तब छोड़ दिया गया था (चार्टर अनुच्छेद 2, सेक्शन 1; उपनियम अनुच्छेद 3, सेक्शन 1).

जहाँ बोर्ड द्वारा रिव्यू किए जा रहे केस में Meta यह स्वीकार करता है कि उससे गलती हुई है और वह अपना फ़ैसला पलट देता है, वहाँ बोर्ड उस केस का चुनाव संक्षिप्त फ़ैसले के लिए कर सकता है (उपनियम अनुच्छेद 2, सेक्शन 2.1.3). बोर्ड, कंटेंट मॉडरेशन प्रोसेस के बारे में ज़्यादा जानकारी पाने, गलतियों में कमी लाने और Facebook और Instagram के यूज़र्स के लिए निष्पक्षता बढ़ाने के लिए मूल फ़ैसले का रिव्यू करता है.

केस की सार्थकता

ये केस ऐसे तीन मामलों को हाइलाइट करते हैं जिनमें यूज़र की शिकायतों के बावजूद उल्लंघन करने वाली पोस्ट को बनाए रखकर Meta, नफ़रत फैलाने वाली भाषा और धमकी और उत्पीड़न से जुड़ी अपनी पॉलिसी को प्रभावी रूप से एन्फ़ोर्स करने में विफल रहा. इनमें से दो पोस्ट को बड़ी संख्या में देखा गया था. मॉडरेशन में ज़रूरत से कम एन्फ़ोर्समेंट की ऐसी गलतियाँ, सुरक्षित विशिष्टता वाले समूहों के लोगों पर बुरा असर डाल सकती हैं और इनसे भेदभाव का माहौल बन सकता है. बोर्ड ने Meta के लिए यह ज़रूरी किया कि वह कमज़ोर समूहों के खिलाफ़ नफ़रत फैलाने वाली भाषा के समाधान को स्ट्रेटेजिक प्राथमिकता बनाए.

2022 में बोर्ड ने सुझाव दिया कि “Meta को नफ़रत फैलाने वाली भाषा से जुड़े कम्युनिटी स्टैंडर्ड और रिव्यूअर्स को उसके बारे में दिए जाने वाले गाइडेंस में यह समझाते हुए स्पष्ट करना चाहिए कि संरक्षित समूह के बारे में ऐसे अप्रत्यक्ष संदर्भ देना भी पॉलिसी के खिलाफ़ है, जहाँ संदर्भ यथोचित रूप से समझा जा सकता हो” ( क्निन कार्टून, सुझाव सं. 1). Meta ने कहा कि इस सुझाव को आंशिक रूप से लागू कर दिया गया है.

फ़ैसला

बोर्ड ने तीन पोस्ट को प्लेटफ़ॉर्म पर बनाए रखने के Meta के मूल फ़ैसले को पलट दिया है. बोर्ड द्वारा केस को कंपनी के ध्यान में लाए जाने के बाद, Meta द्वारा मूल फ़ैसलों की गलती में किए गए सुधार को बोर्ड ने स्वीकार किया.

मामले के निर्णयों और नीति सलाहकार राय पर लौटें