पलट जाना

कराची नगरीय निकाय चुनाव से जुड़ा कमेंट

Facebook के एक यूज़र ने अपने उस कमेंट को हटाने के Meta के फ़ैसले के खिलाफ़ अपील की जिसमें 2023 के कराची के नगरीय निकाय चुनावों के परिणाम दिखाए गए थे और जिसमें तहरीक-ए-लब्बाक पाकिस्तान (TLP) का नाम था जो खतरनाक संगठनों और लोगों की Meta की पॉलिसी में चिह्नित एक पार्टी है.

निर्णय का प्रकार

सारांश

नीतियां और विषय

विषय
अभिव्यक्ति की स्वतंत्रता, चुनाव, राजनीति
सामुदायिक मानक
ख़तरनाक लोग और संगठन

क्षेत्र/देश

जगह
पाकिस्तान

प्लैटफ़ॉर्म

प्लैटफ़ॉर्म
Facebook

यह संक्षिप्त फ़ैसला है.संक्षिप्त फ़ैसलों में उन केसों का परीक्षण किया जाता है जिनमें बोर्ड द्वारा कंटेंट पर Meta का ध्यान आकर्षित के बाद कंपनी ने कंटेंट के बारे में अपने मूल फ़ैसले को पलटा है. इन फ़ैसलों में उन गलतियों की जानकारी होती है जिन्हें Meta ने स्वीकार किया है और इनमें लोगों को यह जानकारी दी जाती है कि बोर्ड के काम का क्या असर पड़ता है. उन्हें बोर्ड के सदस्यों की पैनल द्वारा स्वीकार किया गया है, न कि पूरे बोर्ड द्वारा. उनमें सार्वजनिक कमेंट प्रोसेस शामिल नहीं होती और बोर्ड आगे के फ़ैसलों के लिए उन्हें आधार भी नहीं बनाता है. संक्षिप्त फ़ैसले, Meta के सुधारों के बारे में पारदर्शिता देते हैं और यह बताते हैं कि पॉलिसी के एन्फ़ोर्समेंट के संबंध में कंपनी कहाँ सुधार कर सकती है.

केस का सारांश

Facebook के एक यूज़र ने अपने उस कमेंट को हटाने के Meta के फ़ैसले के खिलाफ़ अपील की जिसमें 2023 के कराची के नगरीय निकाय चुनावों के परिणाम दिखाए गए थे और जिसमें तहरीक-ए-लब्बाक पाकिस्तान (TLP) का नाम था जो एक अत्यंत रूढ़िवादी इस्लामी राजनैतिक पार्टी है और खतरनाक संगठनों और लोगों की Meta की पॉलिसी में चिह्नित है. यह केस, इस पॉलिसी का ज़रूरत से ज़्यादा एन्फ़ोर्समेंट और राजनैतिक कमेंटरी और न्यूज़ रिपोर्टिंग शेयर करने की यूज़र की क्षमता पर उसका असर दर्शाता है. जब बोर्ड ने Meta का ध्यान अपील पर आकर्षित किया, तो कंपनी ने अपना मूल फ़ैसला पलट दिया और कमेंट को रीस्टोर कर दिया.

केस की जानकारी और बैकग्राउंड

जून 2023 में, Facebook के एक यूज़र ने कराची के राजनेता हाफिज़ नईम उर रहमान की पाकिस्तान के पूर्व प्रधानमंत्री इमरान खान और जमात-ए-इस्लामी राजनैतिक पार्टी के जनरल सेक्रेटरी लियाकत बलूच के साथ फ़ोटो वाली एक पोस्ट पर कमेंट किया. कमेंट में एक ग्राफ़ की फ़ोटो थी जो एक टेलीविज़न प्रोग्राम से ली गई थी. उसमें दिखाया गया था कि कराची के नगरीय निकाय चुनाव में किसी पार्टी को कितनी सीटें मिलीं. लिस्ट में शामिल एक पार्टी तहरीक-ए-लब्बाक पाकिस्तान (TLP) थी जो पाकिस्तान की एक अत्यंत रूढ़िवादी इस्लामी राजनैतिक पार्टी है. कराची के 2023 के नगरीय निकाय चुनाव विवादित रहे थे जिसमें हारने वाली पार्टियों में से एक ने आरोप लगाया कि वोटों को अनुचित रूप से एक पार्टी की ओर ले जाया गया. इससे अलग-अलग पार्टियों के समर्थकों के बीच हिंसक प्रदर्शन शुरू हो गए.

Meta ने शुरुआत में कमेंट को यह कहते हुए Facebook से हटा दिया था कि वह खतरनाक संगठनों और लोगों से जुड़ी उसकी पॉलिसी का उल्लंघन करती है. इस पॉलिसी के तहत कंपनी ऐसे कंटेंट को हटा देती है जिनमें कंपनी द्वारा खतरनाक चिह्नित लोगों और संगठनों की “प्रशंसा” की जाती है, उनका “मौलिक समर्थन” किया जाता है या उनका “प्रतिनिधित्व” किया जाता है. हालाँकि, पॉलिसी में यह माना गया है कि “यूज़र्स ऐसा कंटेंट शेयर कर सकते हैं जिसमें सामाजिक और राजनैतिक बातचीत में चिह्नित खतरनाक संगठनों और लोगों का उल्लेख किया गया हो.” इसमें खतरनाक संगठनों और लोगों या उनकी गतिविधियों की रिपोर्ट करने, निष्पक्ष रूप से चर्चा करने या उनकी निंदा करने वाला कंटेंट शामिल है.”

बोर्ड को की गई अपील में, यूज़र ने खुद को पत्रकार बताया और कहा कि कमेंट कराची के नगरीय निकाय चुनाव के परिणामों के बारे में था. यूज़र ने यह स्पष्ट किया कि कमेंट का उद्देश्य लोगों को सूचित करना और लोकतांत्रिक प्रक्रिया की चर्चा करना था.

बोर्ड द्वारा इस केस को Meta के ध्यान में लाए जाने के बाद, कंपनी ने पाया कि कंटेंट से उसकी किसी भी पॉलिसी का उल्लंघन नहीं हुआ. Meta की पॉलिसी, सामाजिक और राजनैतिक चर्चाओं के संदर्भ में किसी चिह्नित एंटिटी की निष्पक्ष चर्चा की परमिशन देती है. इस केस में ऐसा चुनाव के परिणाम की रिपोर्ट करके किया गया था.

बोर्ड का प्राधिकार और दायरा

बोर्ड को उस व्यक्ति के अपील करने के बाद Meta के फ़ैसले का रिव्यू करने का अधिकार है, जिसका कंटेंट हटा दिया गया था (चार्टर आर्टिकल 2, सेक्शन 1; उपनियम अनुच्छेद 3, सेक्शन 1).

जहाँ बोर्ड द्वारा रिव्यू किए जा रहे केस में Meta यह स्वीकार करता है कि उससे गलती हुई है और वह अपना फ़ैसला पलट देता है, वहाँ बोर्ड उस केस का चुनाव संक्षिप्त फ़ैसले के लिए कर सकता है (उपनियम अनुच्छेद 2, सेक्शन 2.1.3). बोर्ड कंटेंट मॉडरेशन प्रोसेस के बारे में ज़्यादा जानकारी पाने, गलतियाँ कम करने और Facebook और Instagram के यूज़र्स के लिए निष्पक्षता बढ़ाने के लिए मूल फ़ैसले का रिव्यू करता है.

केस का महत्व

यह केस Meta की खतरनाक संगठनों और व्यक्तियों से जुड़ी पॉलिसी का ज़रूरत से ज़्यादा एन्फ़ोर्समेंट हाइलाइट करता है. बोर्ड के केस यह बताते हैं कि इस तरह की गलतियाँ बार-बार हो रही हैं. इससे खतरनाक के रूप में लेबल किए गए संगठनों के बारे में तथ्यात्मक जानकारी रिपोर्ट करने की यूज़र्स, ख़ास तौर पर पत्रकारों, की क्षमता में बाधा आती है. कंपनी को उच्च प्राथमिकता देते हुए ऐसी गलतियों को कम करना चाहिए.

बोर्ड ने खतरनाक संगठनों और लोगों से जुड़ी Meta की पॉलिसी के संबंध में कई सुझाव दिए हैं. इनमें “DOI पॉलिसी के एन्फ़ोर्समेंट के लिए बनाई गई ऑटोमेटेड मॉडरेशन प्रोसेस का मूल्यांकन करना” शामिल है, जिसे लागू करने से Meta ने इंकार कर दिया ( ओजलान का एकांतवास फ़ैसला, सुझाव सं. 2). बोर्ड ने यह सुझाव भी दिया कि “सिस्टम की जिन समस्याओं के कारण एन्फ़ोर्समेंट में गलतियाँ हो रही हैं, उनका पता लगाने के लिए Meta, DOI पॉलिसी के तहत रिपोर्टिंग की छूट देने वाले रिव्यूअर्स की सटीकता का आकलन करे” ( न्यूज़ रिपोर्टिंग में तालिबान का उल्लेख फ़ैसला, सुझाव क्र. 5). Meta, खतरनाक संगठनों और लोगों से जुड़ी अपनी पॉलिसी में अपडेट लागू करने की प्रक्रिया में है, जिसमें यह जानकारी शामिल होगी कि Meta, न्यूज़ रिपोर्टिंग और निष्पक्ष और निंदा करने वाला चर्चा से किस तरह व्यवहार करता है. इसके अलावा, बोर्ड ने सुझाव दिया कि Meta “खतरनाक लोग और संगठन के कम्युनिटी स्टैंडर्ड में ‘खतरनाक’ चिह्नित संगठनों और व्यक्तियों की सार्वजनिक लिस्ट दें” जिसे Meta ने व्यवहार्यता आकलन करने के बाद लागू करने से इंकार कर दिया, ( नाज़ी उद्धरण फ़ैसला, सुझाव सं. 3).

फ़ैसला
बोर्ड ने संबंधित कंटेंट को हटाने के Meta के मूल फ़ैसले को पलट दिया. बोर्ड द्वारा केस को कंपनी के ध्यान में लाए जाने के बाद, Meta द्वारा मूल फ़ैसले की गलती में किए गए सुधार को बोर्ड ने स्वीकार किया.

मामले के निर्णयों और नीति सलाहकार राय पर लौटें