पलट जाना
कराची नगरीय निकाय चुनाव से जुड़ा कमेंट
18 दिसम्बर 2023
Facebook के एक यूज़र ने अपने उस कमेंट को हटाने के Meta के फ़ैसले के खिलाफ़ अपील की जिसमें 2023 के कराची के नगरीय निकाय चुनावों के परिणाम दिखाए गए थे और जिसमें तहरीक-ए-लब्बाक पाकिस्तान (TLP) का नाम था जो खतरनाक संगठनों और लोगों की Meta की पॉलिसी में चिह्नित एक पार्टी है.
यह संक्षिप्त फ़ैसला है.संक्षिप्त फ़ैसलों में उन केसों का परीक्षण किया जाता है जिनमें बोर्ड द्वारा कंटेंट पर Meta का ध्यान आकर्षित के बाद कंपनी ने कंटेंट के बारे में अपने मूल फ़ैसले को पलटा है. इन फ़ैसलों में उन गलतियों की जानकारी होती है जिन्हें Meta ने स्वीकार किया है और इनमें लोगों को यह जानकारी दी जाती है कि बोर्ड के काम का क्या असर पड़ता है. उन्हें बोर्ड के सदस्यों की पैनल द्वारा स्वीकार किया गया है, न कि पूरे बोर्ड द्वारा. उनमें सार्वजनिक कमेंट प्रोसेस शामिल नहीं होती और बोर्ड आगे के फ़ैसलों के लिए उन्हें आधार भी नहीं बनाता है. संक्षिप्त फ़ैसले, Meta के सुधारों के बारे में पारदर्शिता देते हैं और यह बताते हैं कि पॉलिसी के एन्फ़ोर्समेंट के संबंध में कंपनी कहाँ सुधार कर सकती है.
केस का सारांश
Facebook के एक यूज़र ने अपने उस कमेंट को हटाने के Meta के फ़ैसले के खिलाफ़ अपील की जिसमें 2023 के कराची के नगरीय निकाय चुनावों के परिणाम दिखाए गए थे और जिसमें तहरीक-ए-लब्बाक पाकिस्तान (TLP) का नाम था जो एक अत्यंत रूढ़िवादी इस्लामी राजनैतिक पार्टी है और खतरनाक संगठनों और लोगों की Meta की पॉलिसी में चिह्नित है. यह केस, इस पॉलिसी का ज़रूरत से ज़्यादा एन्फ़ोर्समेंट और राजनैतिक कमेंटरी और न्यूज़ रिपोर्टिंग शेयर करने की यूज़र की क्षमता पर उसका असर दर्शाता है. जब बोर्ड ने Meta का ध्यान अपील पर आकर्षित किया, तो कंपनी ने अपना मूल फ़ैसला पलट दिया और कमेंट को रीस्टोर कर दिया.
केस की जानकारी और बैकग्राउंड
जून 2023 में, Facebook के एक यूज़र ने कराची के राजनेता हाफिज़ नईम उर रहमान की पाकिस्तान के पूर्व प्रधानमंत्री इमरान खान और जमात-ए-इस्लामी राजनैतिक पार्टी के जनरल सेक्रेटरी लियाकत बलूच के साथ फ़ोटो वाली एक पोस्ट पर कमेंट किया. कमेंट में एक ग्राफ़ की फ़ोटो थी जो एक टेलीविज़न प्रोग्राम से ली गई थी. उसमें दिखाया गया था कि कराची के नगरीय निकाय चुनाव में किसी पार्टी को कितनी सीटें मिलीं. लिस्ट में शामिल एक पार्टी तहरीक-ए-लब्बाक पाकिस्तान (TLP) थी जो पाकिस्तान की एक अत्यंत रूढ़िवादी इस्लामी राजनैतिक पार्टी है. कराची के 2023 के नगरीय निकाय चुनाव विवादित रहे थे जिसमें हारने वाली पार्टियों में से एक ने आरोप लगाया कि वोटों को अनुचित रूप से एक पार्टी की ओर ले जाया गया. इससे अलग-अलग पार्टियों के समर्थकों के बीच हिंसक प्रदर्शन शुरू हो गए.
Meta ने शुरुआत में कमेंट को यह कहते हुए Facebook से हटा दिया था कि वह खतरनाक संगठनों और लोगों से जुड़ी उसकी पॉलिसी का उल्लंघन करती है. इस पॉलिसी के तहत कंपनी ऐसे कंटेंट को हटा देती है जिनमें कंपनी द्वारा खतरनाक चिह्नित लोगों और संगठनों की “प्रशंसा” की जाती है, उनका “मौलिक समर्थन” किया जाता है या उनका “प्रतिनिधित्व” किया जाता है. हालाँकि, पॉलिसी में यह माना गया है कि “यूज़र्स ऐसा कंटेंट शेयर कर सकते हैं जिसमें सामाजिक और राजनैतिक बातचीत में चिह्नित खतरनाक संगठनों और लोगों का उल्लेख किया गया हो.” इसमें खतरनाक संगठनों और लोगों या उनकी गतिविधियों की रिपोर्ट करने, निष्पक्ष रूप से चर्चा करने या उनकी निंदा करने वाला कंटेंट शामिल है.”
बोर्ड को की गई अपील में, यूज़र ने खुद को पत्रकार बताया और कहा कि कमेंट कराची के नगरीय निकाय चुनाव के परिणामों के बारे में था. यूज़र ने यह स्पष्ट किया कि कमेंट का उद्देश्य लोगों को सूचित करना और लोकतांत्रिक प्रक्रिया की चर्चा करना था.
बोर्ड द्वारा इस केस को Meta के ध्यान में लाए जाने के बाद, कंपनी ने पाया कि कंटेंट से उसकी किसी भी पॉलिसी का उल्लंघन नहीं हुआ. Meta की पॉलिसी, सामाजिक और राजनैतिक चर्चाओं के संदर्भ में किसी चिह्नित एंटिटी की निष्पक्ष चर्चा की परमिशन देती है. इस केस में ऐसा चुनाव के परिणाम की रिपोर्ट करके किया गया था.
बोर्ड का प्राधिकार और दायरा
बोर्ड को उस व्यक्ति के अपील करने के बाद Meta के फ़ैसले का रिव्यू करने का अधिकार है, जिसका कंटेंट हटा दिया गया था (चार्टर आर्टिकल 2, सेक्शन 1; उपनियम अनुच्छेद 3, सेक्शन 1).
जहाँ बोर्ड द्वारा रिव्यू किए जा रहे केस में Meta यह स्वीकार करता है कि उससे गलती हुई है और वह अपना फ़ैसला पलट देता है, वहाँ बोर्ड उस केस का चुनाव संक्षिप्त फ़ैसले के लिए कर सकता है (उपनियम अनुच्छेद 2, सेक्शन 2.1.3). बोर्ड कंटेंट मॉडरेशन प्रोसेस के बारे में ज़्यादा जानकारी पाने, गलतियाँ कम करने और Facebook और Instagram के यूज़र्स के लिए निष्पक्षता बढ़ाने के लिए मूल फ़ैसले का रिव्यू करता है.
केस का महत्व
यह केस Meta की खतरनाक संगठनों और व्यक्तियों से जुड़ी पॉलिसी का ज़रूरत से ज़्यादा एन्फ़ोर्समेंट हाइलाइट करता है. बोर्ड के केस यह बताते हैं कि इस तरह की गलतियाँ बार-बार हो रही हैं. इससे खतरनाक के रूप में लेबल किए गए संगठनों के बारे में तथ्यात्मक जानकारी रिपोर्ट करने की यूज़र्स, ख़ास तौर पर पत्रकारों, की क्षमता में बाधा आती है. कंपनी को उच्च प्राथमिकता देते हुए ऐसी गलतियों को कम करना चाहिए.
बोर्ड ने खतरनाक संगठनों और लोगों से जुड़ी Meta की पॉलिसी के संबंध में कई सुझाव दिए हैं. इनमें “DOI पॉलिसी के एन्फ़ोर्समेंट के लिए बनाई गई ऑटोमेटेड मॉडरेशन प्रोसेस का मूल्यांकन करना” शामिल है, जिसे लागू करने से Meta ने इंकार कर दिया ( ओजलान का एकांतवास फ़ैसला, सुझाव सं. 2). बोर्ड ने यह सुझाव भी दिया कि “सिस्टम की जिन समस्याओं के कारण एन्फ़ोर्समेंट में गलतियाँ हो रही हैं, उनका पता लगाने के लिए Meta, DOI पॉलिसी के तहत रिपोर्टिंग की छूट देने वाले रिव्यूअर्स की सटीकता का आकलन करे” ( न्यूज़ रिपोर्टिंग में तालिबान का उल्लेख फ़ैसला, सुझाव क्र. 5). Meta, खतरनाक संगठनों और लोगों से जुड़ी अपनी पॉलिसी में अपडेट लागू करने की प्रक्रिया में है, जिसमें यह जानकारी शामिल होगी कि Meta, न्यूज़ रिपोर्टिंग और निष्पक्ष और निंदा करने वाला चर्चा से किस तरह व्यवहार करता है. इसके अलावा, बोर्ड ने सुझाव दिया कि Meta “खतरनाक लोग और संगठन के कम्युनिटी स्टैंडर्ड में ‘खतरनाक’ चिह्नित संगठनों और व्यक्तियों की सार्वजनिक लिस्ट दें” जिसे Meta ने व्यवहार्यता आकलन करने के बाद लागू करने से इंकार कर दिया, ( नाज़ी उद्धरण फ़ैसला, सुझाव सं. 3).
फ़ैसला
बोर्ड ने संबंधित कंटेंट को हटाने के Meta के मूल फ़ैसले को पलट दिया. बोर्ड द्वारा केस को कंपनी के ध्यान में लाए जाने के बाद, Meta द्वारा मूल फ़ैसले की गलती में किए गए सुधार को बोर्ड ने स्वीकार किया.