पलट जाना

सीरिया में नरसंहार का फ़ुटेज

एक यूज़र ने एक ऐसी Facebook पोस्ट को हटाने के Meta के फ़ैसले के खिलाफ़ अपील की जिसमें सीरिया की हिंसा के आपत्तिजनक फ़ुटेज का वीडियो था.

निर्णय का प्रकार

सारांश

नीतियां और विषय

विषय
न्यूज़ ईवेंट, युद्ध और मतभेद, हिंसा
सामुदायिक मानक
हिंसक और आपत्तिजनक कंटेंट

क्षेत्र/देश

जगह
सीरिया

प्लैटफ़ॉर्म

प्लैटफ़ॉर्म
Facebook

संक्षिप्त फ़ैसलों में उन केसों का परीक्षण किया जाता है जिनमें बोर्ड द्वारा कंटेंट पर Meta का ध्यान आकर्षित के बाद कंपनी ने कंटेंट के बारे में अपने मूल फ़ैसले को पलटा है और इसमें Meta द्वारा मानी गई गलतियों की जानकारी होती है. उन्हें पूरे बोर्ड के बजाय, बोर्ड के किसी सदस्य द्वारा स्वीकृत किया जाता है, उनमें पब्लिक कमेंट शामिल नहीं होते और उन्हें बोर्ड द्वारा आगे के फ़ैसलों के लिए आधार नहीं बनाया जा सकता. संक्षिप्त फ़ैसले, Meta के फ़ैसलों में सीधे बदलाव लाते हैं, इन सुधारों के बारे में पारदर्शिता देते हैं और साथ ही यह बताते हैं कि Meta अपने एन्फ़ोर्समेंट में कहाँ सुधार कर सकता है.

सारांश

एक यूज़र ने एक ऐसी Facebook पोस्ट को हटाने के Meta के फ़ैसले के खिलाफ़ अपील की जिसमें सीरिया की हिंसा के आपत्तिजनक फ़ुटेज का वीडियो था. जब बोर्ड ने Meta का ध्यान अपील पर आकर्षित किया, तो कंपनी ने अपना मूल फ़ैसला पलट दिया और चेतावनी स्क्रीन के साथ पोस्ट को रीस्टोर कर दिया.

केस की जानकारी

दिसंबर 2024 में, एक यूज़र ने पीटने और चाकू मारने, लोगों को आग में फेंकने और घायलों और बच्चों सहित अन्य मृतकों के हिंसक दृश्य थे. वीडियो के ऊपर अरबी भाषा में लिखे कैप्शन में बताया गया था कि कंटेंट में किस तरह “सीरिया में शैतान की पार्टी के अपराधियों” द्वारा नरसंहार के दृश्य दिखाए गए हैं. उसमें यह दावा किया गया कि लोग इन अपराधों को भूले नहीं हैं और ना भूलेंगे. प्रतिष्ठित न्यूज़ रिपोर्टिंग के अनुसार, “शैतान की पार्टी” को हेज़बुल्ला के संदर्भ में उपयोग किया गया है.

Meta के हिंसक और आपत्तिजनक कंटेंट से जुड़े कम्युनिटी स्टैंडर्ड के तहत, Meta “अधिकांश आपत्तिजनक कंटेंट को हटा देता है और अन्य आपत्तिजनक कंटेंट पर चेतावनी का लेबल लगा देता है ताकि क्लिक करने से पहले लोग यह जान जाएँ कि कंटेंट संवेदनशील या परेशान करने वाला हो सकता है.” इसलिए “गैर-चिकित्सीय संदर्भों में जीवित या मृत लोगों के ऐसे वीडियो” की परमिशन नहीं है जिनमें “अंगों का निकाला जाना,” “आंतरिक अंगों का दिखाई देना,” “लोगों का जलना या झुलसना” या “गला काटा जाना” दिखाया गया हो. Meta ने यह भी नोट किया कि कंपनी ऐसी इमेजरी (वीडियो और फ़ोटो) पर चेतावनी स्क्रीन लगा देती है “जिसमें लोगों की हिंसक मृत्यु दिखाई गई हो (उनकी मृत्यु के पल या उसके बाद की घटनाओं सहित) या व्यक्ति के जानलेवा घटना के अनुभव के पल दिखाए गए हों” ताकि लोगों को इस बात की जानकारी रहे कि कंटेंट परेशान करने वाला हो सकता है. इन मामलों में, कंपनी यह प्रतिबंध भी लगा सकती है कि उस कंटेंट को 18 वर्ष या इससे अधिक उम्र के वयस्क ही देख पाएँ. इसके अलावा, ज़्यादा संदर्भ दिए जाने पर, Meta “मानवाधिकारों के हनन या सशस्त्र संघर्ष जैसे कृत्यों को हाइलाइट करने या उनकी निंदा करने के लिए” आपत्तिजनक कंटेंट को परमिशन दे सकता है ताकि लोगों को “चर्चा करने और जागरूकता फैलाने की जगह मिले.”

बोर्ड द्वारा केस को Meta के ध्यान में लाए जाने के बाद, कंपनी ने पाया कि कंटेंट को हिंसक और आपत्तिजनक कंटेंट पॉलिसी के तहत हटाया नहीं जाना चाहिए था. कंपनी ने फिर कंटेंट को चेतावनी स्क्रीन के साथ Facebook पर रीस्टोर कर दिया.

बोर्ड का प्राधिकार और दायरा

बोर्ड को उस यूज़र के अपील करने के बाद Meta के फ़ैसले का रिव्यू करने का अधिकार है, जिसका कंटेंट हटा दिया गया था (चार्टर अनुच्छेद 2, सेक्शन 1; उपनियम अनुच्छेद 3, सेक्शन 1).

जहाँ बोर्ड द्वारा रिव्यू किए जा रहे केस में Meta यह स्वीकार करता है कि उससे गलती हुई है और वह अपना फ़ैसला पलट देता है, वहाँ बोर्ड उस केस का चुनाव संक्षिप्त फ़ैसले के लिए कर सकता है (उपनियम अनुच्छेद 2, सेक्शन 2.1.3). बोर्ड, कंटेंट मॉडरेशन प्रोसेस के बारे में ज़्यादा जानकारी पाने, गलतियों में कमी लाने और Facebook, Instagram और Threads के यूज़र्स के लिए निष्पक्षता बढ़ाने के लिए मूल फ़ैसले का रिव्यू करता है.

केस की सार्थकता

यह केस, मानवाधिकारों के उल्लंघन के बारे में जागरूकता फैलाने और उसे डॉक्यूमेंट करने वाले कंटेंट को मॉडरेट करने में Meta की ओर से लगातार आने वाली समस्याओं को हाइलाइट करता है. हिंसक और आपत्तिजनक कंटेंट से जुड़ी Meta की पॉलिसी में यह कहे जाने के बावजूद कि यूज़र ऐसे कंटेंट को शेयर कर सकते हैं जो “मानवाधिकार के हनन या सशस्त्र संघर्ष” जैसे कृत्यों को हाइलाइट करते या उनकी निंदा करते हैं, कंपनी की ओर से ऐसे कंटेंट को लगातार हटाया जा रहा है कि जिन्हें इसी काम के लिए पोस्ट किया गया था.

बोर्ड ने ऐसे हिंसक और आपत्तिजनक कंटेंट से निपटने के Meta के एन्फ़ोर्समेंट के तरीकों के बारे में सुझाव दिए हैं जिन्हें निंदा करने या जागरूकता फैलेने के संदर्भ में शेयर किया जाता है. इस सुझावों का इरादा है कि इन छूटों को शुरुआती रिव्यू के समय भी लागू किया जाए और उन उपयोग सिर्फ़ अपवाद की परिस्थितियों में न हो. उदाहरण के लिए, सूडान का आपत्तिजनक वीडियो केस के फ़ैसले में, बोर्ड ने सुझाव दिया कि “Meta को हिंसक और आपत्तिजनक कंटेंट कम्युनिटी स्टैंडर्ड में बदलाव करना चाहिए और ऐसे लोगों या मृत शरीरों के वीडियो दिखाने की परमिशन देना चाहिए जहाँ उनका उद्देश्य मानवाधिकार हनन के बारे में जागरूकता फैलाना या उन्हें डॉक्यूमेंट करना हो. इन कंटेंट को एक चेतावनी स्क्रीन के साथ परमिशन दी जानी चाहिए ताकि लोगों को पता हो कि कंटेंट परेशान करने वाला हो सकता है.” ( सूडान का आपत्तिजनक वीडियो, सुझाव सं. 1). व्यावहारिकता के आकलन के बाद, इस सुझाव को ठुकरा दिया गया था. Meta ने रिपोर्ट किया कि वह इस बारे में पॉलिसी बना रहा है और बाद में उसने फ़ैसला किया कि वह “कंटेंट को डिफ़ॉल्ट रूप से हटा देने का अपना व्यवहार जारी रखेगा, लेकिन अगर अतिरिक्त संदर्भ दिया जाता है तो वह कंटेंट को चेतावनी लेबल के साथ परमिशन देगा”( ओवरसाइट बोर्ड पर Meta का Q4 2023 तिमाही अपडेट).

इसके अलावा, बोर्ड ने पहले सुझाव दिया था कि “Meta को अपने हिंसक और आपत्तिजनक कंटेंट के कम्युनिटी स्टैंडर्ड की लोगों को दिखाई देने वाली भाषा में अपनी आंतरिक गाइडलाइन से यह जानकारी जोड़नी चाहिए कि कंपनी यह किस तरह तय करती है कि कोई फ़ोटो “दुर्घटना या हत्या द्वारा एक या ज़्यादा लोगों की हिंसक मृत्यु दिखाती है या नहीं.” ( रूसी कविता, सुझाव सं. 2). Meta ने प्रकाशित जानकारी के माध्यम से इस सुझाव का आंशिक क्रियान्वयन दर्शाया और कंपनी ने अपने हिंसक और आपत्तिजनक कंटेंट से जुड़े कम्युनिटी स्टैंडर्ड की भाषा को अपडेट करते हुए यह स्पष्ट करने के लिए कोष्ठक में विशेष भाषा का उपयोग किया कि “हिंसक मृत्यु” से कंपनी का क्या तात्पर्य है.” इसमें अब कहा गया है कि “किसी व्यक्ति की हिंसक मृत्यु (उनकी मृत्यु के पल या उसके बाद की घटनाओं सहित) दिखाने वाली इमेजरी (वीडियो और फ़ोटो).” लेकिन Meta की विस्तारित परिभाषा पर्याप्त रूप से यह नहीं बताती कि कंपनी यह कैसे तय करती है कि इमेज में “दिखाए गए व्यक्ति या लोगों की हिंसक मृत्यु दुर्घटना से हुई है या हत्या है.”

इसके अलावा, बोर्ड ने सुझाव दिया कि Meta “हर कम्युनिटी स्टैंडर्ड के लिए एरर रेट से जुड़ी आम जानकारी को देश और भाषा के अनुसार देखने के लिए उपलब्ध करवाकर उस सार्वजनिक जानकारी को बढ़ाने के लिए अपनी ट्रांसपेरेंसी रिपोर्टिंग को बेहतर बनाए” ( भारत में RSS पर पंजाबी चिंता, सुझाव सं. 3). इस सुझाव में बोर्ड ने इस बात पर ज़ोर दिया कि “ज़्यादा विस्तृत ट्रांसपेरेंसी रिपोर्ट से अल्पसंख्यक समूहों पर पड़ने वाले संभावित विशेष प्रभावों सहित लोगों को ऐसी जगहों का पता लगाने में मदद मिलेगी जहाँ गलतियाँ अक्सर होती हैं.” इस सुझाव का क्रियान्वयन अभी जारी है. इस सुझाव पर अपने पिछले अपडेट में, Meta ने बताया कि कंपनी “बोर्ड से आत्मविश्वास के साथ शेयर करने के लिए एन्फ़ोर्समेंट डेटा के ओवरव्यू को कंपाइल करने के प्रोसेस में है.” डॉक्यूमेंट में ऐसे डेटा पॉइंट शामिल किए जाएँगे जो विभिन्न पॉलिसी के बारे में एन्फ़ोर्समेंट की सटीकता के संकेत देंगे. Meta ने कहा कि कंपनी “एक ऐसे ओवरव्यू को कंपाइल करने के लिए प्रतिबद्ध है जो सभी पॉलिसी के बारे में एन्फ़ोर्समेंट की सटीकता पर ज़्यादा पारदर्शिता के बोर्ड के व्यापक आह्वान का समाधान करे” (ओवरसाइट बोर्ड के बारे में Meta की H2 2024 अर्द्ध-वार्षिक रिपोर्ट – परिशिष्ट).

बोर्ड ने इस बात के महत्व पर ज़ोर दिया कि Meta ऐसे कंटेंट की सटीकता से पहचान की अपनी क्षमता को बेहतर बनाना जारी रखे जिसमें मानवाधिकारों के हनन के बारे में जागरूकता फैलाई गई हो या उसकी निंदा की गई हो और ऐसे कंटेंट को कंपनी की हिंसक और आपत्तिजनक कंटेंट पॉलिसी के तहत प्लेटफ़ॉर्म पर चेतावनी स्क्रीन के साथ बनाए रखे.

फ़ैसला

बोर्ड ने संबंधित कंटेंट को हटाने के Meta के मूल फ़ैसले को पलट दिया. बोर्ड द्वारा केस को Meta के ध्यान में लाए जाने के बाद, Meta द्वारा मूल फ़ैसले की गलती में किए गए सुधार को बोर्ड ने स्वीकार किया.

मामले के निर्णयों और नीति सलाहकार राय पर लौटें