पलट जाना
व्हाइट हुड्स में सुप्रीम कोर्ट
18 दिसम्बर 2023
एक यूज़र ने Facebook से एक ऐसी पोस्ट हटाने के Meta के फ़ैसले के खिलाफ़ अपील की जिसमें अमेरिका की सुप्रीम कोर्ट की एडिट की गई फ़ोटो थी. फ़ोटो में नौ में से छह सदस्य कू क्लक्स क्लान के रोब पहने हुए दिखाए गए हैं.
यह संक्षिप्त फ़ैसला है. संक्षिप्त फ़ैसलों में उन केसों का परीक्षण किया जाता है जिनमें बोर्ड द्वारा कंटेंट पर Meta का ध्यान आकर्षित के बाद कंपनी ने कंटेंट के बारे में अपने मूल फ़ैसले को पलटा है. इन फ़ैसलों में उन गलतियों की जानकारी होती है जिन्हें Meta ने स्वीकार किया है और इनमें लोगों को यह जानकारी दी जाती है कि बोर्ड के काम का क्या असर पड़ता है. उन्हें बोर्ड के सदस्यों की पैनल द्वारा स्वीकार किया गया है, न कि पूरे बोर्ड द्वारा. उनमें सार्वजनिक कमेंट प्रोसेस शामिल नहीं होती और बोर्ड आगे के फ़ैसलों के लिए उन्हें आधार भी नहीं बनाता है. संक्षिप्त फ़ैसले, Meta के सुधारों के बारे में पारदर्शिता देते हैं और यह बताते हैं कि पॉलिसी के एन्फ़ोर्समेंट के संबंध में कंपनी कहाँ सुधार कर सकती है.
केस का सारांश
एक यूज़र ने Facebook से एक ऐसी पोस्ट हटाने के Meta के फ़ैसले के खिलाफ़ अपील की जिसमें अमेरिका की सुप्रीम कोर्ट की एडिट की गई फ़ोटो थी. फ़ोटो में नौ में से छह सदस्य कू क्लक्स क्लान के रोब पहने हुए दिखाए गए हैं. जब बोर्ड ने Meta का ध्यान अपील पर आकर्षित किया, तो कंपनी ने अपना मूल फ़ैसला पलट दिया और पोस्ट को रीस्टोर कर दिया.
केस की जानकारी और बैकग्राउंड
जुलाई 2023 में, एक यूज़र ने Facebook पर एक एडिट की गई फ़ोटो पोस्ट की जिसमें अमेरिका की सुप्रीम कोर्ट के नौ में से छह जजों को कू क्लक्स क्लान के सदस्यों की तरह दिखाया गया है जबकि तीन जजों की फ़ोटो में कोई बदलाव नहीं किया गया है. इन तीन जजों को ज़्यादा उदारवादी माना जाता है. पोस्ट में कोई कैप्शन नहीं था और उसे 200 से कम बार देखा गया.
पोस्ट को Meta की खतरनाक संगठनों और लोगों से जुड़ी पॉलिसी का उल्लंघन करने के कारण हटा दिया गया था. यह पॉलिसी ऐसे कंटेंट को प्रतिबंधित करती है जिसमें ऐसे संगठनों या लोगों की प्रशंसा, मौलिक समर्थन या प्रतिनिधित्व होता है जिन्हें Meta खतरनाक मानता है.
बोर्ड को की गई अपनी अपील में, यूज़र ने इस बात पर ज़ोर दिया कि पोस्ट का उद्देश्य कू क्लक्स क्लान का समर्थन करने के बजाय राजनैतिक आलोचना करना था. यूज़र ने कहा कि कंटेंट उन चीज़ों को हाइलाइट करता है जो यूज़र के अनुसार छह जजों का “महिलाओं, गर्भपात चुनने के महिलाओं के अधिकारों, समलैंगिक पुरुष, समलैंगिक स्त्री, ट्रांसजेंडर और समलैंगिक समुदाय और अन्य जोखिमग्रस्त ग्रुप्स के कल्याण के प्रति पक्षपातपूर्ण, घृणित और घातक व्यवहार” है.
बोर्ड द्वारा इस केस को Meta के ध्यान में लाए जाने के बाद, कंपनी ने पाया कि कंटेंट से खतरनाक संगठनों और लोगों से जुड़ी Meta की पॉलिसी का उल्लंघन नहीं हुआ और यह कि उसे हटाना गलत था. कंपनी ने फिर कंटेंट को Facebook पर रीस्टोर कर दिया.
बोर्ड का प्राधिकार और दायरा
बोर्ड को उस व्यक्ति के अपील करने के बाद Meta के फ़ैसले का रिव्यू करने का अधिकार है, जिसका कंटेंट हटा दिया गया था (चार्टर आर्टिकल 2, सेक्शन 1; उपनियम अनुच्छेद 3, सेक्शन 1).
जहाँ बोर्ड द्वारा रिव्यू किए जा रहे केस में Meta यह स्वीकार करता है कि उससे गलती हुई है और वह अपना फ़ैसला पलट देता है, वहाँ बोर्ड उस केस का चुनाव संक्षिप्त फ़ैसले के लिए कर सकता है (उपनियम अनुच्छेद 2, सेक्शन 2.1.3). बोर्ड कंटेंट मॉडरेशन प्रोसेस के बारे में ज़्यादा जानकारी पाने, गलतियाँ कम करने और Facebook और Instagram के यूज़र्स के लिए निष्पक्षता बढ़ाने के लिए मूल फ़ैसले का रिव्यू करता है.
केस का महत्व
यह केस कंपनी की खतरनाक संगठनों और व्यक्तियों से जुड़ी पॉलिसी के Meta द्वारा एन्फ़ोर्समेंट में की गई गलती हाइलाइट करता है, ख़ास तौर पर राजनैतिक आलोचना के रूप में शेयर किए गए कंटेंट के संबंध में. अगर इस तरह की गलतियाँ जारी रहती हैं, तो उससे मुक्त अभिव्यक्ति की यूज़र्स की महत्वपूर्ण क्षमता काफ़ी हद तक सीमित हो सकती है और कंपनी को उच्च प्राथमिकता देते हुए ऐसी गलतियों को कम करना चाहिए.
खतरनाक संगठन और लोगों से जुड़ा कम्युनिटी स्टैंडर्ड, कई गलत निष्कासनों का सोर्स है और बोर्ड के कई पुराने फ़ैसलों में इस बारे में बात की गई है. एक पुराने फ़ैसले में, बोर्ड ने Meta से “कम्युनिटी स्टैंडर्ड में यह समझाने के लिए कहा कि यूज़र्स अपनी पोस्ट के पीछे के अपने इरादे को किस तरह से Facebook को स्पष्ट कर सकते हैं.” इसी दिशा में, बोर्ड ने यह सुझाव भी दिया कि कंपनी, चिह्नित लोगों और संगठनों की अपनी लिस्ट को सार्वजनिक करे और यह कि “Facebook को वर्णनात्मक उदाहरण देते हुए यह बताना चाहिए कि कौन-से कंटेंट की परमिशन है और कौन-सा कंटेंट प्रतिबंधित है जिसमें उस नियम का उपयोग स्पष्ट करना भी शामिल है कि ‘समर्थन’ में क्या शामिल नहीं है” ( ओजलान का एकांतवास फ़ैसला, सुझाव सं. 6). Meta इस सुझाव को आंशिक रूप से लागू करने के लिए प्रतिबद्ध है. इसके अलावा, बोर्ड ने Meta से कहा कि वह “खतरनाक लोगों और संगठनों की ‘प्रशंसा’ और ‘समर्थन’ पर एन्फ़ोर्स किए जाने वाले नियमों से जुड़े गड़बड़ी के रेट की ज़्यादा व्यापक जानकारी शामिल करें,” ( ओजलान का एकांतवास फ़ैसला, सुझाव सं. 12). व्यवहार्यता का आकलन करने के बाद, Meta ने इस सुझाव को लागू करने से मना कर दिया.
बोर्ड ने इस बात पर ज़ोर दिया कि इन सुझावों को पूरी तरह लागू करने से खतरनाक संगठनों और लोगों से जुड़ी Meta की पॉलिसी के तहत एन्फ़ोर्समेंट की गलतियों की संख्या कम हो सकती है.
फ़ैसला
बोर्ड ने संबंधित कंटेंट को हटाने के Meta के मूल फ़ैसले को पलट दिया. बोर्ड द्वारा केस को Meta के ध्यान में लाए जाने के बाद, Meta द्वारा मूल फ़ैसले की गलती में किए गए सुधार को बोर्ड ने स्वीकार किया.