बोर्ड के अगले केसों और हमारे उपनियमों में होने वाले बदलावों की घोषणा

आज बोर्ड हमारे उपनियमों में होने जा रहे बदलावों के साथ-साथ तीन नए केस की सुनवाई करने की घोषणा करने जा रहा है.

केस का चयन

चूँकि हम सभी अपीलों पर सुनवाई नहीं कर सकते हैं, इसलिए बोर्ड उन केसों को प्राथमिकता देता है जिनमें दुनिया भर के बहुत सारे यूज़र्स को प्रभावित करने की संभावना हो, जो सार्वजनिक विचार-विमर्श के लिए बेहद ज़रूरी हों या जो Facebook, जिसे अब Meta कहा जाता है, की पॉलिसी के बारे में महत्वपूर्ण सवाल खड़े करते हों.

आज हम इन केसों की सुनवाई करने की घोषणा करने जा रहे हैं:

2021-015-FB-UA

Facebook पर कंटेंट रीस्टोर करने के लिए यूज़र की अपील

पब्लिक कमेंट यहाँ सबमिट करें.

जून 2021 में अमेरिका के एक Facebook यूज़र ने ध्यानाभाव एवं अतिसक्रियता विकार (अटेंशन डेफ़िसिट हाइपरएक्टिविटी डिसऑर्डर) (ADHD) से प्रभावित वयस्कों के एक प्राइवेट ग्रुप में एक पोस्ट की. उस पोस्ट का टेक्स्ट अंग्रेजी भाषा में था, जिसकी शुरुआत यूज़र ने “CW” (Content Warning) on “Medication, addiction” (दवाइयों और लत के संबंध में कंटेंट की चेतावनी) लिखकर की थी. यूज़र ने खुद को ADHD से प्रभावित व्यक्ति बताया और ग्रुप में पूछा कि डॉक्टर से किसी ख़ास दवाई के बारे में बातचीत कैसे की जानी चाहिए. यूज़र ने कहा कि एडेरॉल नाम की दवाई से उन्हें पहले फ़ायदा हुआ था, लेकिन वे अन्य दवाइयाँ “zombie me out” (ले-लेकर वे थक चुके हैं), लेकिन उन्हें चिंता इस बात की है कि अगर वे अपने डॉक्टर से सीधे यही दवाई लिख देने के लिए कहेंगे, तो ऐसा लगेगा जैसे कि वे उस दवाई को लेने के आदी हो चुके हैं. ग्रुप के मेंबर्स ने पोस्ट पर कमेंट किए थे जिनमें उन्होंने अपने अनुभव बताए थे और इस बारे में सलाह दी थी कि उन्हें अपनी हालत किसी डॉक्टर को किस तरह बतानी चाहिए. उस ग्रुप के एडमिन कनाडा और न्यूज़ीलैंड में रहते हैं.

Meta ने Facebook के विनियमित सामान से जुड़े कम्युनिटी स्टैंडर्डके तहत उस कंटेंट को हटा दिया. बोर्ड द्वारा इस केस को चुने जाने की वजह से Meta ने कंटेंट को हटाने के अपने फ़ैसले को “एन्फ़ोर्समेंट से जुड़ी गलती” माना और कंटेंट को रीस्टोर कर दिया. हटाते समय यह कंटेंट 700 से ज़्यादा बार देखा जा चुका था और उसे शेयर एक भी बार नहीं किया गया था. किसी भी यूज़र ने उस कंटेंट की रिपोर्ट नहीं की थी.

Facebook की विनियमित सामान से जुड़ी पॉलिसी के तहत Meta ऐसे कंटेंट को हटा देता है, जिसमें "बीमारियों के इलाज की दवाइयों को खरीदने, बेचने या उनका व्यापार करने की कोशिशें की जाती हैं...[या] उनकी माँग की जाती है, उस स्थिति को छोड़कर जब कंटेंट के ज़रिए चिकित्सा के संदर्भ में बीमारियों के इलाज की दवाइयों को खरीदने की योग्यता, उनकी उपलब्धता या उनके प्रभाव के बारे में चर्चा की जा रही हो."

बोर्ड के सामने की गई अपनी अपील में यूज़र ने कहा कि वे एक मरीज़ हैं और इस बारे में सलाह लेना चाहते हैं कि अपने डॉक्टर से किसी महत्वपूर्ण समस्या के बारे में चर्चा करने का सबसे अच्छा तरीका क्या हो सकता है. यूज़र ने स्वास्थ्य देखभाल से जुड़ी समस्याओं और मानसिक स्वास्थ्य संबंधी विषयों के बारे में खुले तौर पर और समझदारी से बातचीत करने की ज़रूरत की ओर लोगों का ध्यान खींचा.

बोर्ड ऐसे पब्लिक कमेंट चाहता है, जो बताएँ कि:

  • क्या Meta का पोस्ट को हटाने का शुरुआती फ़ैसला Facebook के विनियमित सामान से जुड़े कम्युनिटी स्टैंडर्ड और उसके द्वारा निर्धारित मूल्यों के अनुरूप था.
  • क्या Meta का पोस्ट को हटाने का शुरुआती फ़ैसला कंपनी की मानवाधिकारों से जुड़ी ज़िम्मेदारियों और प्रतिबद्धताओं के अनुरूप था.
  • ऑटोमेशन के उपयोग सहित Meta के कंटेंट मॉडरेशन से अभिव्यक्ति की स्वतंत्रता तथा स्वास्थ्य से संबंधित जानकारी की एक्सेस किस तरह प्रभावित होती है और इन नकारात्मक प्रभावों से कैसे बचा जा सकता है या इन्हें कम कैसे किया जा सकता है.
  • चिकित्सीय दवाइयों के बारे में होने वाली चर्चाओं पर और साथ ही यूज़र्स द्वारा मानसिक स्वास्थ्य से जुड़ी समस्याओं के बारे में हो सकने वाली गलत धारणाओं तथा अपनी मानसिक स्वास्थ्य समस्याओं पर चर्चा कर सकने या समस्याएँ दूसरों को बता सकने की क्षमता पर Facebook की कंटेंट पॉलिसी और उनके एन्फ़ोर्समेंट का क्या प्रभाव पड़ता है.
  • डॉक्टर की सलाह पर मिलने वाली दवाइयों के दुरूपयोग पर सोशल मीडिया की भूमिका और प्रभाव

बोर्ड अपने फ़ैसलों में Meta को पॉलिसी से जुड़े सुझाव दे सकता है. सुझाव बाध्यकारी नहीं होते हैं, लेकिन Meta को 30 दिनों के अंदर इनका जवाब देना होता है. वैसे, बोर्ड इस केस के लिए प्रासंगिक सुझाव देने वाले पब्लिक कमेंट का स्वागत करता है.

2021-016-FB-FBR

Meta द्वारा रेफ़र किया गया केस

पब्लिक कमेंट यहाँ सबमिट करें.

नोट: पढ़ने से पहले कृपया यह जान लें कि केस के इस सारांश में संभावित तौर पर संवेदनशील सामग्री शामिल है जो नाबालिगों के विरुद्ध यौन हिंसा से जुड़े कंटेंट से संबंधित है. जिस कंटेंट का रिव्यू चल रहा है, उसकी कुछ जानकारी को बाल पीड़ितों के हितों को सुरक्षित रखने के लिए इस सारांश से निकाल दिया गया है.

20 सिंतबर 2021 को Meta ने बोर्ड के सामने एक ऐसा केस प्रस्तुत किया, जो नाबालिगों के विरुद्ध यौन हिंसा की रिपोर्टिंग करने वाले स्वीडिश पत्रकार से संबंधित था. संबंधित कंटेंट को 2019 के मध्य में पत्रकार के "वेरिफ़ाई किए गए" Facebook पेज पर पोस्ट किया गया था.

इस कंटेंट में दो अज्ञात नाबालिगों के बलात्कार से जुड़ी जानकारी शामिल है, जिसमें उनकी उम्र और उस नगरीय क्षेत्र के बारे में बताया गया है, जहाँ ये अपराध हुए थे. पोस्ट में उन अपराधों के लिए दो अज्ञात अपराधियों को मिली सज़ा का विवरण भी दिया गया है. उनमें से एक अपराधी को कथित तौर पर गैर-हिरासती सज़ा मिली, क्योंकि वह अपराध करते समय नाबालिग था. दूसरे मामले में अपराधी के बारे में यह रिपोर्ट दी गई थी कि उसने हाल ही में एक अन्य महिला के विरुद्ध हिंसक अपराध करने के लिए हिरासत की सज़ा पूरी की है. पोस्ट में यह तर्क दिया गया है कि स्वीडन की आपराधिक न्याय प्रणाली बहुत उदार है और वह अपराध को बढ़ावा देती है. वे देश में यौन दुराचार करने वालों का रजिस्टर तैयार करने की वकालत करते हैं.

इस कंटेंट में पहले पीड़ित के साथ हुए अपराध के हानिकारक प्रभाव का व्यापक और स्पष्ट विवरण मिलता है, जिसमें उनकी शारीरिक और मानसिक चोटों, उनके साथ हुए ऑफ़लाइन और ऑनलाइन उत्पीड़न के साथ-साथ उन्हें मिली मानसिक सहायता का वर्णन भी है. इस पोस्ट में बलात्कार के बारे में अपने दोस्तों के सामने कथित तौर पर डींगे मारने और नाबालिगों को अश्लील शब्दों से पुकारने से जुड़े अपराधी द्वारा कहे गए स्पष्ट कथन भी दिए गए हैं.

इस पोस्ट को 14,000 से ज़्यादा बार देखा गया था और इस पर 1,800 से ज़्यादा कमेंट और 10,000 से ज़्यादा रिएक्शन मिले थे. एक यूज़र ने सितंबर 2019 में धमकी और उत्पीड़न के रूप में इस कंटेंट की रिपोर्ट की थी, जिसके बाद इसका ऑटोमेटेड रिव्यू करके पता लगाया गया कि यह कंटेंट ऐसा कोई उल्लंघन नहीं करता है और इसे प्लेटफ़ॉर्म पर रहने दिया गया. बाद में Facebook के ऑटोमेटेड सिस्टम ने अगस्त 2021 में इस पोस्ट को संभावित तौर पर उल्लंघन करने वाला पाया और किसी कंटेंट रिव्यूअर ने बताया कि इस पोस्ट में कम्युनिटी स्टैंडर्ड का उल्लंघन किया गया था और फिर इसे हटा दिया गया. इसलिए यह कंटेंट लगभग दो सालों तक प्लेटफ़ॉर्म पर दिखाई देता रहा.

Meta ने Facebook की बच्चों के यौन शोषण, दुर्व्यवहार और नग्नता से संबंधित पॉलिसी का उल्लंघन करने के कारण इस कंटेंट को हटा दिया. इस पॉलिसी के तहत Meta ऐसे कंटेंट को हटा देता है, जिसमें अन्य चीज़ों के साथ-साथ "बच्चों को यौन संदर्भ में दिखाया जाता है." Meta ने बोर्ड को भेजी गई जानकारी में बताया कि इस पोस्ट से इस पॉलिसी का उल्लंघन इसलिए हुआ था, क्योंकि इसमें "स्पष्ट तौर पर अश्लील शब्दों में बताया गया है कि बलात्कारी का नाबालिग के प्रति क्या नज़रिया था."

Meta ने अपने द्वारा भेजी गई जानकारी में बताया कि इस कंटेंट के बारे में फ़ैसला लेना मुश्किल है, क्योंकि इससे वह तनाव और चुनौतियाँ सामने आती हैं, जिनका "सामना कंपनी को सुरक्षा, गरिमा और अभिव्यक्ति के मूल्यों के बीच संतुलन बनाते समय करना पड़ता है." Meta ने यह भी स्पष्ट किया कि यह केस इसलिए भी अहम है क्योंकि "यूज़र एक प्रसिद्ध खोजी पत्रकार हैं और उन्होंने एक अपराध के बारे में सार्वजनिक हित से जुड़ी पोस्ट की है." Meta ने आगे कहा कि हालाँकि यह ज़रूरी है कि यूज़र्स "Facebook पर अपराधों, अत्याचारों और मानवाधिकारों के उल्लंघन के बारे में जागरूकता फैलाएँ,” लेकिन यह भी ज़रूरी है कि Facebook "ऐसा प्लेटफ़ॉर्म न बने, जिससे कि इन अपराधों से पीड़ित लोगों को फिर से सदमा लगे या उनका उत्पीड़न हो.”

इस सारांश को प्रकाशित किए जाने तक बोर्ड को यूज़र की ओर से कोई बयान नहीं मिला है.

बोर्ड ऐसे पब्लिक कमेंट चाहता है, जो बताएँ कि:

  • Meta का पोस्ट को हटाने का फ़ैसला बच्चों के यौन शोषण, दुर्व्यवहार और नग्नता से जुड़े Facebook के कम्युनिटी स्टैंडर्ड और Facebook द्वारा निर्धारित मूल्यों तथा मानवाधिकारों से जुड़ी उसकी ज़िम्मेदारियों व प्रतिबद्धताओं के अनुरूप है या नहीं.
  • Facebook की पॉलिसी और उनके एन्फ़ोर्समेंट से यौन अपराधों के शिकार हुए बच्चों की पहचान और अधिकारों की पर्याप्त रूप से सुरक्षा होती है या नहीं, जिसमें उन पीड़ितों को फिर से उस सदमे से बचाना और ऐसे अपराधों व आपराधिक न्याय प्रणाली के बारे में सार्वजनिक हित में की जाने वाली टीका-टिप्पणी की अनुमति देना शामिल है.
  • क्या Meta के डिज़ाइन विकल्पों से बच्चों के अधिकारों को प्रभावित करने वाले मुद्दों की सनसनीखेज़ रिपोर्टिंग को बढ़ावा मिलता है, क्या Meta को ऐसे प्रभावों पर प्रतिक्रिया देनी चाहिए और अगर देनी चाहिए, तो कैसे, तथा इस संबंध में नैतिक पत्रकारिता मानकों की प्रासंगिकता.

बोर्ड अपने फ़ैसलों में Meta को पॉलिसी से जुड़े सुझाव दे सकता है. सुझाव बाध्यकारी नहीं होते हैं, लेकिन Meta को 30 दिनों के अंदर इनका जवाब देना होता है. वैसे, बोर्ड इस केस के लिए प्रासंगिक सुझाव देने वाले पब्लिक कमेंट का स्वागत करता है.

2021-017-FB-UA

Facebook पर कंटेंट रीस्टोर करने के लिए यूज़र की अपील

पब्लिक कमेंट यहाँ सबमिट करें.

अगस्त 2021 में पत्रकार होने का दावा करने वाले अफ़गानिस्तान के एक यूज़र ने देश पर तालिबान का कब्ज़ा हो जाने, शासन करने के लिए उस समूह की नई ज़िम्मेदारी और आगे आने वाली चुनौतियों के बारे में अपनी Facebook टाइमलाइन पर दारी भाषा में पोस्ट की.

यूज़र ने यह कहते हुए शुरुआत की कि तालिबान का लक्ष्य “sacred and virtuous, at least to their way of thinking," (कम से कम उनके नज़रिए से तो पवित्र और सम्मानजनक था) और यह कि उन्होंने “liberate Afghanistan from what they called occupation and colonization,” (अफ़गानिस्तान को कब्ज़े और उपनिवेशीकरण से मुक्त करने) की लड़ाई लड़ी, और यह भी कि उन्होंने अपना लक्ष्य हासिल कर लिया है.

यूज़र आगे कहता है कि तालिबान के ऊपर अब देश पर शासन करने की ज़िम्मेदारी है और वह इस तरह के बदलाव की चुनौतियों के बारे में चर्चा करता है, ख़ास तौर पर एक ऐसा बदलाव जो लोकतंत्र की वैश्विक माँगों के विपरीत है. यूज़र ने कहा कि “capitalists, businessmen, and other financial resources have fled the country,” (पूँजीपति, व्यापारी और अन्य वित्तीय स्रोत देश छोड़कर भाग गए हैं) और आर्थिक रूप से नष्ट हो चुकी अर्थव्यवस्था तथा संसाधनों की कमी से जूझ रहे समाज को पीछे छोड़ गए हैं. यूज़र कहता है कि अगर अंतरराष्ट्रीय सहायता रोक दी गई और अफ़गानिस्तान के बैंकिंग सिस्टम को बहाल नहीं किया गया तो फिर “chaos and civil war will ensue.” (अराजकता फैलेगी और गृह-युद्ध होगा). वे कहते हैं कि अफ़गानिस्तान में यह “the calm before the storm” (तूफ़ान के पहले की शांति है) और यह कि भुखमरी झेल रहे समाज के पास खोने के लिए कुछ नहीं है और वह “strive to overthrow the system.” (इस व्यवस्था को उखाड़ फेंकने की कोशिश करेगा.)

फिर यूज़र ने बताया कि अफ़गानिस्तान में सुरक्षा की स्थिति “may seem adequate today,” (आज पर्याप्त लग सकती है) लेकिन तालिबान को जल्द से जल्द एक प्रशासनिक ढांचा तैयार करना होगा, बैंकों की भूमिका को स्पष्ट करना होगा और एक आर्थिक रणनीति बनानी होगी. यूज़र ने यह भी कहा कि अगर तालिबान सुरक्षा सुनिश्चित कर पाया और अर्थव्यवस्था में सुधार कर पाया, तो वे पिछली सरकारों की तुलना में कहीं अधिक सफल होंगे. अंत में यूज़र ने कहा कि किसी समाज की सबसे बड़ी ज़रूरत भोजन और सुरक्षा होती है और अगर ये न मिलें, तो अराजकता फैल जाती है.

उस पोस्ट को 600 से ज़्यादा बार देखा गया, उस पर 20 से ज़्यादा रिएक्शन मिले और उस पर पाँच से भी कम कमेंट किए गए. Meta के अनुसार यूज़र का अकाउंट काबुल, अफ़गानिस्तान का है. उस पोस्ट की रिपोर्ट ऑटोमेटिक रूप से हुई थी. इसके बाद, Meta ने Facebook के खतरनाक लोगों और संगठनों से जुड़े कम्युनिटी स्टैंडर्ड के तहत पोस्ट को हटा दिया. बोर्ड द्वारा इस केस को चुने जाने की वजह से Meta ने बाद में पोस्ट को हटाने के इस फ़ैसले को “एन्फ़ोर्समेंट से जुड़ी गलती” माना और उसे प्लेटफ़ॉर्म पर रीस्टोर कर दिया.

खतरनाक लोगों और संगठनों से जुड़े कम्युनिटी स्टैंडर्ड की श्रेणी 1 के तहत Facebook ऐसे कंटेंट पर रोक लगा देता है, जिसमें नागरिकों के विरुद्ध हिंसा की योजना बनाने या उसका समर्थन करने सहित गंभीर ऑफ़लाइन हानि पहुँचाने वाले आतंकवादी संगठनों की प्रशंसा की जाती है, उनका समर्थन किया जाता है या उन्हें दर्शाया जाता है. लोगों को ध्यान में रखकर बनाए गए इस स्टैंडर्ड को यह बताने के लिए 26 अगस्त 2021 को अपडेट किया गया था कि इसमें ऐसी संस्थाएँ और लोग शामिल हैं, जिन्हें अमेरिकी सरकार द्वारा विदेशी आतंकवादी संगठन (FTO) या ख़ास तौर पर चिह्नित वैश्विक आतंकवादी (SDGT) के रूप में चिह्नित किया गया है. Facebook ने अपनी पॉलिसी के तहत तालिबान को खतरनाक संगठन के रूप में चिह्नित किया है.

इस केस से संबंधित कंटेंट दारी भाषा में था, लेकिन संबंधित यूज़र ने बोर्ड को अपनी अपील अंग्रेजी भाषा में सबमिट की. अपने बयान में, यूज़र ने बताया कि वे एक पत्रकार हैं और उनकी पोस्ट का उद्देश्य अफ़गानिस्तान की स्थिति का विश्लेषणात्मक और आलोचनात्मक मूल्यांकन करना था. उन्होंने यह नहीं बताया कि वे किसी मीडिया संगठन के लिए काम करते हैं या फिर वे स्वतंत्र पत्रकार हैं. उन्होंने दावा किया कि उनकी पोस्ट आतंकवाद नहीं थी और वे केवल अपने देश के भविष्य के बारे में जानकारी दे रहे थे. यूज़र ने कहा कि यह तीसरी बार था, जब Facebook ने उनके बहुत सावधान रहने के बावजूद उनके अकाउंट पर रोक लगा दी थी. यूज़र ने दावा किया कि उनके साथ हुए व्यवहार से पता चलता है कि Facebook में फ़ारसी भाषा का स्टाफ़ “are not impartial.” (निष्पक्ष नहीं है.)

बोर्ड ऐसे पब्लिक कमेंट चाहता है, जो बताएँ कि:

  • Meta का पोस्ट को हटाने का शुरुआती फ़ैसला खतरनाक लोगों और संगठनों से जुड़े Facebook के कम्युनिटी स्टैंडर्ड, उसके निर्धारित मूल्यों और मानवाधिकारों से जुड़ी उसकी ज़िम्मेदारियों व प्रतिबद्धताओं के अनुरूप है या नहीं.
  • कंटेंट मॉडरेशन को लेकर ख़ास तौर पर अफ़गानिस्तान और इस देश में बोली जाने वाली भाषाओं से जुड़ी चुनौतियाँ क्या हैं.
  • तालिबान के कब्ज़े से पहले और उसके बाद, अफ़गानिस्तान में कंटेंट मॉडरेशन पॉलिसी सार्वजनिक विचार-विमर्श को किस तरह प्रभावित करती हैं.
  • तालिबान के कब्ज़े के बाद से अफ़गानिस्तान में पत्रकारों की सुरक्षा की स्थिति और मीडिया की स्वतंत्रता की सीमा क्या है और ये कारक तालिबान के बारे में रिपोर्टिंग तथा देश के सामने आने वाली राजनैतिक और सुरक्षा चुनौतियों से जुड़ी जानकारी तक लोगों की पहुँच को कैसे प्रभावित करते हैं.
  • क्या खतरनाक लोगों और संगठनों से जुड़े Facebook के कम्युनिटी स्टैंडर्ड में उन चिह्नित समूहों की चर्चा को अनावश्यक रूप से सीमित किया गया है, जो या तो सरकार बना लेते हैं या उसकी जगह ले लेते हैं.
  • चिह्नित आतंकवादी संगठनों के समर्थन पर रोक लगाने वाले अमेरिकी कानून और Facebook की कंटेंट पॉलिसी के बीच अंतर, और यह अंतर दुनिया भर में अभिव्यक्ति की स्वतंत्रता को किस तरह प्रभावित कर सकता है.

बोर्ड अपने फ़ैसलों में Meta को पॉलिसी से जुड़े सुझाव दे सकता है. सुझाव बाध्यकारी नहीं होते हैं, लेकिन Meta को 30 दिनों के अंदर इनका जवाब देना होता है. वैसे, बोर्ड इस केस के लिए प्रासंगिक सुझाव देने वाले पब्लिक कमेंट का स्वागत करता है.

पब्लिक कमेंट

अगर आपको या आपके संगठन को लगे कि आज घोषित इन केसों के बारे में आप हमें ऐसे मूल्यवान दृष्टिकोण दे सकते हैं जिनसे हमें फ़ैसला लेने में मदद मिले, तो आप ऊपर दिए गए लिंक के ज़रिए अपनी राय हमें भेज सकते हैं. इन केसों के लिए पब्लिक कमेंट की विंडो 14 दिनों तक खुली रहेगी, जो मंगलवार, 16 नवंबर को UTC के अनुसार दोपहर 3:00 बजे बंद होगी.

हमारे उपनियमों में बदलाव

पिछले साल बोर्ड द्वारा किए गए कार्य से हमें इस बारे में नई इनसाइट मिली हैं कि केसों को चुनने और फ़ैसला करने के हमारे तरीकों में यूज़र्स को सबसे अच्छी सुविधा कैसे दी जा सकती है. इसी आधार पर आज हम अपने उपनियमों में कई बदलावों की घोषणा करने जा रहे हैं.

संशोधित उपनियमों के तहत, हमने केसों को हमें बताए जाने के समय से लेकर उनको चुनने तक की समय-सीमा को 60 दिन से बढ़ाकर 90 दिन कर दिया है, जिससे अपीलों का और सार्थक विश्लेषण करने में मदद मिलेगी. इसके अलावा, हमारे फ़ैसलों को प्रकाशित करने के लिए 90-दिनों का समय अब तब से शुरू होगा, जब हम किसी केस का चुना जाना प्रकाशित करेंगे, न कि जब इसे पैनल को सौंपा जाएगा. आग जिन केसों की सुनवाई की घोषणा की गई है, वह पिछले टाइम-टेबल के अंतर्गत आने वाले आखिरी केस होंगे. आगे से, उपनियमों के इस सबसे नए वर्जन में बताई गई समय-सीमा लागू होगी.

हमने ये बदलाव इसलिए भी किए हैं, ताकि हमें उन मामलों में अंतिम फ़ैसले तक पहुँचने के लिए और समय मिल सके, जिनमें हमारे सामने तकनीकी और कामकाज से संबंधित समस्याएँ आती हैं. अंत में, हमने बोर्ड के उपनियमों में इस प्रकार संशोधन किया है कि हम किसी विशेष बोर्ड मेंबर का नाम बताए बिना केस के पैनल में सहभागिता की और हितों के टकराव के कारण उससे किसी को हटाने की जानकारी प्रकाशित कर सकें.

उपनियमों में किए गए इन बदलावों को पिछले हफ़्ते Facebook का नाम बदलने की घोषणा से पहले ही स्वीकृति मिल गई थी. हालाँकि हम उम्मीद करते हैं कि हम कुछ समय में अपनी वेबसाइट और नियामक दस्तावेज़ों में नया नाम शामिल कर लेंगे, लेकिन उपनियमों के आज रिलीज़ हुए वर्जन में वो बदलाव शामिल नहीं हैं.

इसके बाद क्या होगा

आने वाले हफ़्तों में, बोर्ड के सदस्य इन केस पर विचार-विमर्श करेंगे. उनके द्वारा अपने आखिरी फ़ैसले लिए जाने के बाद, हम उन्हें ओवरसाइट बोर्ड की वेबसाइट पर पोस्ट करेंगे. यहाँ साइन अप करें, ताकि जब बोर्ड नए केसों की सुनवाई की घोषणा करे या अपने फ़ैसले प्रकाशित करे, तो उसके अपडेट आपको मिल जाएँ.

संलग्नक

Oversight Board Bylaws

समाचार पर लौटें