पलट जाना

सीरिया का विरोध प्रदर्शन

एक Instagram यूज़र ने एक ऐसे वीडियो को हटाने के Meta के फ़ैसले के खिलाफ़ अपील की जिसमें सीरिया के लोगों को बशर अल-असद के शासन का विरोध करने के लिए प्रेरित किया गया था. जब बोर्ड ने Meta का ध्यान अपील पर आकर्षित किया, तो कंपनी ने अपना मूल फ़ैसला पलट दिया और पोस्ट को रीस्टोर कर दिया.

निर्णय का प्रकार

सारांश

नीतियां और विषय

विषय
अभिव्यक्ति की स्वतंत्रता, विरोध, सामुदायिक संगठन
सामुदायिक मानक
ख़तरनाक लोग और संगठन

क्षेत्र/देश

जगह
अमेरिका, सीरिया

प्लैटफ़ॉर्म

प्लैटफ़ॉर्म
Instagram

यह संक्षिप्त फ़ैसला है. संक्षिप्त फ़ैसलों में उन केसों का परीक्षण किया जाता है जिनमें बोर्ड द्वारा कंटेंट पर Meta का ध्यान आकर्षित के बाद कंपनी ने कंटेंट के बारे में अपने मूल फ़ैसले को पलटा है. इन फ़ैसलों में उन गलतियों की जानकारी होती है जिन्हें Meta ने स्वीकार किया है और इनमें लोगों को यह जानकारी दी जाती है कि बोर्ड के काम का क्या असर पड़ता है. उन्हें बोर्ड के सदस्यों की पैनल द्वारा स्वीकार किया गया है, न कि पूरे बोर्ड द्वारा. उनमें सार्वजनिक कमेंट पर विचार नहीं किया जाता और बोर्ड आगे के फ़ैसलों के लिए उन्हें आधार भी नहीं बनाता है. संक्षिप्त फ़ैसले, Meta के सुधारों के बारे में पारदर्शिता देते हैं और यह बताते हैं कि पॉलिसी के एन्फ़ोर्समेंट के संबंध में कंपनी कहाँ सुधार कर सकती है.

केस का सारांश

एक Instagram यूज़र ने एक ऐसे वीडियो को हटाने के Meta के फ़ैसले के खिलाफ़ अपील की जिसमें सीरिया के लोगों को बशर अल-असद के शासन का विरोध करने के लिए प्रेरित किया गया था. जब बोर्ड ने Meta का ध्यान अपील पर आकर्षित किया, तो कंपनी ने अपना मूल फ़ैसला पलट दिया और पोस्ट को रीस्टोर कर दिया.

केस की जानकारी और बैकग्राउंड

अगस्त 2023 में, Instagram के एक यूज़र ने एक वीडियो पोस्ट किया जिसमें सीरिया के एक फ़ुटबॉल खिलाड़ी, कार्यकर्ता और देश के राष्ट्रपति बशर अल-असद के विरोध के सार्वजनिक प्रतीक अब्दुल बासित अल-सरोत को दिखाया गया था. सरोत की 2019 में हत्या हो गई थी. वीडियो में सरोत अरबी भाषा में कह रहे हैं कि "हम सीरिया को मुक्त कराएँगे, इस शासन में एक काँटा है, हम इस देश में वापसी करेंगे" और यह कि बशर अल-असद के शासन के विरोध के लिए सीरिया के लोगों को प्रेरित करने की “क्रांति जारी रहेगी.” वीडियो को लगभग 30,000 बार देखा गया.

Instagram पोस्ट को Meta की खतरनाक संगठनों और लोगों से जुड़ी पॉलिसी के उल्लंघन के कारण हटा दिया गया था. इस पॉलिसी के तहत ऐसे समूहों और लोगों का निरूपण और उनके बारे में कुछ खास तरह के कथन प्रतिबंधित हैं, जिनके कारण कंपनी के अनुसार असली जीवन में लोगों को गंभीर नुकसान हो सकता है.

बोर्ड को की गई अपनी अपील में, यूज़र ने बताया कि उनका अकाउंट एक गैर-लाभकारी पेज है जो “जानकारी का प्रसार करने और जागरूकता फैलाने का काम करता है.” इसके अलावा, यूज़र ने तर्क दिया कि कंटेंट से Instagram की गाइडलाइन का उल्लंघन नहीं होता.

जब बोर्ड ने Meta का ध्यान इस केस की ओर आकर्षित किया, तो कंपनी ने पाया कि कंटेंट में चिह्नित संगठनों या लोगों का कोई संदर्भ नहीं है और वह उसकी पॉलिसी का उल्लंघन नहीं करता. कंपनी ने कंटेंट को प्लेटफ़ॉर्म पर रीस्टोर कर दिया.

बोर्ड का प्राधिकार और दायरा

बोर्ड को उस यूज़र के अपील करने के बाद Meta के फ़ैसले का रिव्यू करने का अधिकार है, जिसका कंटेंट हटा दिया गया था (चार्टर अनुच्छेद 2, सेक्शन 1; उपनियम अनुच्छेद 3, सेक्शन 1).

जहाँ बोर्ड द्वारा रिव्यू किए जा रहे केस में Meta यह स्वीकार करता है कि उससे गलती हुई है और वह अपना फ़ैसला पलट देता है, वहाँ बोर्ड उस केस का चुनाव संक्षिप्त फ़ैसले के लिए कर सकता है (उपनियम अनुच्छेद 2, सेक्शन 2.1.3). बोर्ड, कंटेंट मॉडरेशन प्रोसेस के बारे में ज़्यादा जानकारी पाने, गलतियों में कमी लाने और Facebook और Instagram के यूज़र्स के लिए निष्पक्षता बढ़ाने के लिए मूल फ़ैसले का रिव्यू करता है.

केस का महत्व

यह केस हाइलाइट करता है कि ऐसे कंटेंट को गलती से हटा दिया गया जिसमें चिह्नित संगठन या लोगों का कोई संदर्भ मौजूद नहीं था.

संघर्ष वाली जगहों या अन्य संवेदनशील स्थितियों में एन्फ़ोर्समेंट की गलतियाँ कम करने के लिए, बोर्ड ने सुझाव दिया है कि Meta “सभी भाषाओं में HIPO [हाई इंपैक्ट फ़ाल्स पॉज़िटिव ओवरराइड सिस्टम] रिव्यू पर लगाए गए लोगों की संख्या बढ़ाए ताकि यह सुनिश्चित किया जा सके कि एन्फ़ोर्समेंट की संभावित गलतियों के कारण कंटेंट को हटाने के ज़्यादा से ज़्यादा फ़ैसलों का अतिरिक्त ह्यूमन रिव्यू हो.” Meta ने इस बारे में क्रियान्वयन की प्रगति रिपोर्ट की है ( न्यूज़ रिपोर्टिंग में तालिबान का उल्लेख, सुझाव सं. 7). बोर्ड ने यह भी सुझाव दिया है कि Meta, “खतरनाक संगठनों और लोगों से जुड़ी पॉलिसी के एन्फ़ोर्समेंट के लिए बनाई गई ऑटोमेटेड प्रोसेस का मूल्यांकन करे” ( ओजलान का एकांतवास, सुझाव सं. 2). Meta ने इसे लागू करने से इंकार कर दिया है.

यह केस Meta की खतरनाक संगठनों और व्यक्तियों से जुड़ी पॉलिसी का ज़रूरत से ज़्यादा एन्फ़ोर्समेंट हाइलाइट करता है. बोर्ड के केस यह बताते हैं कि इस तरह की गलतियाँ बार-बार हो रही हैं. कंपनी को उच्च प्राथमिकता देते हुए ऐसी गलतियों को कम करना चाहिए. इन सुझावों को पूरी तरह लागू करने और साथ ही उनका सफल क्रियान्वयन दिखाने के लिए जानकारी प्रकाशित करने से खतरनाक संगठन और लोगों से जुड़ी Meta की पॉलिसी के तहत गलत निष्कासनों की संख्या में कमी आ सकती है.

फ़ैसला

बोर्ड ने संबंधित कंटेंट को हटाने के Meta के मूल फ़ैसले को पलट दिया. बोर्ड द्वारा केस को Meta के ध्यान में लाए जाने के बाद, Meta द्वारा मूल फ़ैसले की गलती में किए गए सुधार को बोर्ड ने स्वीकार किया.

मामले के निर्णयों और नीति सलाहकार राय पर लौटें