पलट जाना

प्लेनेट ऑफ़ ऐप्स जातिवाद

एक यूज़र ने एक ऐसी Facebook पोस्ट को बनाए रखने के Meta के फ़ैसले के खिलाफ़ अपील की जिसमें फ़्रांस के एक दंगे में शामिल रहे अश्वेत लोगों के एक समूह की तुलना “प्लेनेट ऑफ़ द ऐप्स” से की गई है.

निर्णय का प्रकार

सारांश

नीतियां और विषय

विषय
अधिकारहीन कम्युनिटी, जाति और नस्ल, भेदभाव
सामुदायिक मानक
नफ़रत फ़ैलाने वाली भाषा

क्षेत्र/देश

जगह
फ़्रांस

प्लैटफ़ॉर्म

प्लैटफ़ॉर्म
Facebook

यह संक्षिप्त फ़ैसला है. संक्षिप्त फ़ैसलों में उन केसों का परीक्षण किया जाता है जिनमें बोर्ड द्वारा कंटेंट पर Meta का ध्यान आकर्षित के बाद कंपनी ने कंटेंट के बारे में अपने मूल फ़ैसले को पलटा. इन फ़ैसलों में वह जानकारी भी शामिल है जिनमें Meta ने अपनी गलतियाँ मानीं. उन्हें बोर्ड के सदस्यों की पैनल द्वारा स्वीकार किया गया, न कि पूरे बोर्ड द्वारा. उनमें सार्वजनिक कमेंट पर विचार नहीं किया जाता और बोर्ड आगे के फ़ैसलों के लिए उन्हें आधार भी नहीं बनाता है. संक्षिप्त फ़ैसले, Meta के सुधारों के बारे में पारदर्शिता देते हैं और यह बताते हैं कि पॉलिसी के एन्फ़ोर्समेंट के संबंध में कंपनी कहाँ सुधार कर सकती है.

केस का सारांश

एक यूज़र ने एक ऐसी Facebook पोस्ट को बनाए रखने के Meta के फ़ैसले के खिलाफ़ अपील की जिसमें फ़्रांस के एक दंगे में शामिल रहे अश्वेत लोगों के एक समूह की तुलना “प्लेनेट ऑफ़ द ऐप्स” से की गई है. जब बोर्ड ने Meta का ध्यान अपील पर आकर्षित किया, तो कंपनी ने अपना मूल फ़ैसला पलट दिया और पोस्ट को हटा दिया.

केस की जानकारी और बैकग्राउंड

जनवरी 2023 में, Facebook के एक यूज़र ने एक वीडियो पोस्ट किया. ऐसा लगता है कि वह वीडियो रात में कार चलाते हुए बनाया गया था. वीडियो में चलती हुई कार से बाहर का दृश्य दिखाया गया है जिसमें आगे अश्वेत लोगों का एक समूह दिखाई पड़ता है जो फ़ुटेज के अंत तक कार का पीछा करता है. अंग्रेज़ी भाषा में लिखे गए कैप्शन में कहा गया है कि “France has fell like planet of the friggin apes over there rioting in the streets running amok savages” (ऐसा लगता है कि फ़्रांस में बंदरों का राज हो गया है जो सड़कों पर उत्पात कर रहे हैं और लोगों को शिकार बना रहे हैं) और इस बारे में लिखा गया है कि किस तरह “वे लोग” “हमारी शरण” में आए थे और हमने उन्हें आसरा दिया था लेकिन अब यूज़र से अनुसार उसकी गंभीर कीमत चुकानी पड़ रही है. पोस्ट को 500 से कम बार देखा गया. एक Facebook यूज़र ने कंटेंट की रिपोर्ट की.

नफ़रत फैलाने वाली भाषा से जुड़ी Meta की पॉलिसी के तहत, कंपनी ऐसे कंटेंट को हटा देती है जिसमें सुरक्षित विशिष्टता वाले समूह के रूप में चिह्नित लोगों की “कीड़े-मकोड़ों” या “सामान्य पशुओं या ऐसे ख़ास तरह के पशुओं से तुलना की जाती है जिन्हें सामान्य तौर पर बौद्धिक या शारीरिक रूप से कमज़ोर माना जाता है (बिना किसी सीमा के इनके सहित: अश्वेत लोग और बंदर या बंदर जैसे जीव; यहूदी लोग और चूहे; मुसलमान लोग और सूअर; मैक्सिकन लोग और कीड़े).”

Meta ने शुरुआत में कंटेंट को Facebook पर बनाए रखा था. जब बोर्ड ने Meta का ध्यान इस केस की ओर आकर्षित किया, तो कंपनी ने पाया कि पोस्ट से नफ़रत फैलाने वाली भाषा से जुड़े उसके कम्युनिटी स्टैंडर्ड का उल्लंघन होता है और कंटेंट को बनाए रखने का उसका शुरुआती फ़ैसला गलत था. Meta ने बोर्ड को बताया कि वीडियो के लिए उपयोग किए गए कैप्शन से नफ़रत फैलाने वाली भाषा से जुड़ी उसकी पॉलिसी का उल्लंघन होता है क्योंकि उसमें पुरुषों की तुलना बंदरों से की गई है और उस कंटेंट को हटा दिया जाना चाहिए था. कंपनी ने फिर Facebook से कंटेंट को हटा दिया.

बोर्ड का प्राधिकार और दायरा

बोर्ड को उस यूज़र के अपील करने के बाद Meta के फ़ैसले का रिव्यू करने का अधिकार है, जिसने ऐसे कंटेंट की रिपोर्ट की जिसे तब छोड़ दिया गया था (चार्टर अनुच्छेद 2, सेक्शन 1; उपनियम आर्टिकल 3, सेक्शन 1).

जहाँ बोर्ड द्वारा रिव्यू किए जा रहे केस में Meta यह स्वीकार करता है कि उससे गलती हुई है और वह अपना फ़ैसला पलट देता है, वहाँ बोर्ड उस केस का चुनाव संक्षिप्त फ़ैसले के लिए कर सकता है (उपनियम अनुच्छेद 2, सेक्शन 2.1.3). बोर्ड कंटेंट मॉडरेशन प्रोसेस के बारे में ज़्यादा जानकारी पाने, गलतियाँ कम करने और Facebook और Instagram का उपयोग करने वाले लोगों के लिए निष्पक्षता बढ़ाने के लिए मूल फ़ैसले का रिव्यू करता है.

केस का महत्व

यह केस हाइलाइट करता है कि Meta को अपनी कंटेंट पॉलिसीज़ के एक समान उपयोग में परेशानियाँ आती हैं. नफ़रत फैलाने वाली भाषा से जुड़ी Meta की पॉलिसी में एक ख़ास प्रावधान है जिसके तहत अश्वेत लोगों की तुलना बंदरों से करने की मनाही है, लेकिन फिर भी वह इस केस में शामिल कंटेंट को हटाने में विफल रहा. बोर्ड द्वारा विचार किए गए अन्य केसों में यह तय करने के लिए नफ़रत फैलाने वाली भाषा से जुड़ी Meta की पॉलिसीज़ और संदर्भ से जुड़े कारणों पर विचार किया गया है कि क्या उस अभिव्यक्ति में विधिसम्मत सोशल कमेंटरी के लिए किसी सुरक्षित समूह के बारे में व्यवहार से जुड़े योग्य या अयोग्य कथन हैं. हालाँकि इस केस में शामिल कंटेंट में लोगों के एक समूह की उनकी नस्ल के आधार पर निंदा करने के स्पष्ट उद्देश्य से स्पष्ट रूप से नफ़रत फैलाने वाली अमानवीय भाषा का उपयोग किया गया है और उसे हटा दिया जाना चाहिए था. इस केस से यह भी पता चलता है कि एन्फ़ोर्समेंट की समस्याओं के कारण किस तरह कंटेंट, Meta के प्लेटफ़ॉर्म पर बना रह सकता है जिससे लोगों के किसी समूह के साथ उनकी नस्ल या जातीयता के आधार पर भेदभाव होता है. बोर्ड ने नोट किया कि इस तरह का कंटेंट, अल्पसंख्यक समूहों को और उपेक्षित बनाने में योगदान देता है और इससे उन्हें संभावित रूप से ऑफ़लाइन नुकसान भी हो सकता है, ख़ास तौर पर उन क्षेत्रों में जहाँ अप्रवासी लोगों को पहले ही दुश्मन समझा जाता है.

पहले बोर्ड ने ऐसा सुझाव दिया है जिसमें इस बात पर ज़ोर दिया गया है कि मॉडरेटर्स, नफ़रत फैलाने वाली भाषा से जुड़ी Meta की पॉलिसी की छोटी-छोटी बातों को ठीक से समझें. ख़ास तौर पर बोर्ड ने सुझाव दिया कि “Meta को नफ़रत फैलाने वाली भाषा से जुड़े कम्युनिटी स्टैंडर्ड और रिव्यूअर्स को उसके बारे में दिए जाने वाले गाइडेंस में यह समझाते हुए स्पष्ट करना चाहिए कि संरक्षित समूह के बारे में ऐसे अप्रत्यक्ष संदर्भ देना भी पॉलिसी के खिलाफ़ है, जब वह संदर्भ उचित रूप से समझ आ रहा हो” ( क्निन कार्टून फ़ैसला, सुझाव सं. 1). Meta द्वारा इस सुझाव का आंशिक क्रियान्वयन, प्रकाशित जानकारी द्वारा दिखाया गया है. बोर्ड ने कहा कि नफ़रत फैलाने वाली भाषा से जुड़े कंटेंट को मॉडरेट करने में होने वाली गलतियों की दर को कम करने के लिए Meta को इन चिंताओं का समाधान करने की ज़रूरत है.

फ़ैसला

बोर्ड ने संबंधित कंटेंट को प्लेटफ़ॉर्म पर बनाए रखने के Meta के मूल फ़ैसले को पलट दिया है. बोर्ड द्वारा केस को Meta के ध्यान में लाए जाने के बाद, Meta द्वारा मूल फ़ैसले की गलती में किए गए सुधार को बोर्ड ने स्वीकार किया.

मामले के निर्णयों और नीति सलाहकार राय पर लौटें