أسقط

بیمارستان الشفا

هیئت تصمیم اولیه Meta را مبنی بر برداشتن محتوا از Instagram رد کرد. هیئت دریافته است که بازگرداندن محتوا به پلتفورم، با صفحه هشدار «علامت‌گذاری به‌عنوان آزاردهنده»، با خط‌مشی‌های محتوای Meta، ارزش‌ها و مسئولیت‌های حقوق بشری این شرکت سازگار است.

نوع القرار

Expedited

السياسات والمواضيع

عنوان
سلامة، عنف، حرب وصراع
معيار المجتمع
محتوى عنيف وصادم

المناطق/البلدان

موقع
إسرائيل، الأراضي الفلسطينية

منصة

منصة
Instagram

چند هفته پس از انتشار این تصمیم، ترجمه‌ای به زبان عبری در اینجا آپلود خواهیم کرد و ترجمه عربی ازطریق برگه «زبان» موجود در منوی بالای این صفحه دردسترس خواهد بود.

לקריאת החלטה זו בעברית יש ללחוץ כאן.

۱. خلاصه

این پرونده حاوی ویدیویی به‌شدت احساسی از وقایع پس از یک حمله به بیمارستان الشفا یا نزدیک آن در غزه است که طی عملیات تهاجمی زمینی اسرائیل رخ می‌دهد، و شرحی نیز در محکوم‌سازی این حمله آورده شده است. سیستم‌های خودکار Meta این پست را به دلیل نقض «استاندارد انجمن درخصوص محتوای خشن و بی‌پرده برداشتند. کاربر پس از اینکه در اعتراض به این تصمیم نزد Meta ناموفق بود، نزد هیئت نظارت درخواست تجدیدنظر کرد. پس از اینکه هیئت این پرونده را جهت بازبینی شناسایی کرد، Meta تصمیم خود را لغو نمود و محتوا را با گذاشتن صفحه هشدار به پلتفورم برگرداند. هیئت معتقد است تصمیم اصلی مبنی بر برداشتن محتوا با خط‌مشی‌های محتوایی Meta یا مسئولیت‌های حقوق بشری این شرکت همخوانی نداشته است. هیئت تصمیم به بازیابی محتوا با گذاشتن صفحه هشدار را تأیید می‌کند، اما تنزل محتوا را که درنتیجه این موضوع انجام شده است و مانع از توصیه شدن محتوا می‌شود رد می‌کند. این پرونده، همراه با پرونده گروگان‌های ربوده‌شده از اسرائیل (‎2023-050-FB-UA)، اولین پرونده‌های هیئت هستند که تحت رویه‌های بررسی تعجیلی درمورد آن‌ها تصمیم‌گیری شده است.

۲. بافتار و پاسخ Meta

در ۷ اکتبر ۲۰۲۳، حماس، سازمانی که تحت «استاندارد انجمن درخصوص سازمان‌ها و افراد خطرناک» Meta به‌عنوان یک سازمان «درجه یک» تعیین می‌شود، حملات تروریستی بی‌سابقه‌ای را از غزه به اسرائیل هدایت کرد که حدود ۱۲۰۰ کشته برجای گذاشت و منجر به گروگان گرفتن حدود ۲۴۰ نفر شد ( وزارت امور خارجه، دولت اسرائیل). اسرائیل بلافاصله در پاسخ به این حملات به غزه حمله نظامی کرد. عملیات نظامی اسرائیل تا اواسط دسامبر ۲۰۲۳ باعث کشته شن بیش از ۱۸۰۰۰ نفر در غزه شده است (دفتر هماهنگی امور انسان‌دوستانه سازمان ملل متحد، برگرفته از داده‌های وزارت بهداشت غزه). در این درگیری، هر دو طرف متهم به نقض قوانین بین‌المللی شده‌اند. هم حملات تروریستی و هم اقدامات نظامی متعاقب اسرائیل موضوع تبلیغات، گفتگوها و تحقیقات و مشاجره‌های شدیدی در سراسر جهان بوده است که بیشتر آن‌ها در شبکه‌های اجتماعی، ازجمله Instagram و فیس‌بوک، صورت گرفته است.

Meta بلافاصله وقایع ۷ اکتبر را تحت خط‌مشی «افراد و سازمان‌های خطرناک» خود یک حمله تروریستی اعلام کرد. طبق «استانداردهای انجمن» Meta، این بدان معناست که Meta هر محتوایی را که به «تمجید»، «حمایت اساسی» یا «نمایندگی از» حملات ۷ اکتبر یا مرتکیبین آن ‌ها بپردازد از پلتفورم‌های خود برمی‌‌دارد.

Meta در واکنش به موج سرکش و استثنایی محتوای خشونت‌آمیز و بی‌پرده که به دنبال حملات تروریستی و پاسخ نظامی در پلتفورم‌هایش پست می‌شد، اقدامات موقتی را انجام داد، ازجمله کاهشی در آستانه اطمینان برای سیستم‌های طبقه‌بندی خودکار (طبقه‌بندی‌کننده‌های) «محتوای خشن و بی‌پرده» برای شناسایی و برداشتن محتوا. Meta به هیئت اطلاع داد که این اقدامات بر محتوای مربوط به اسرائیل و غزه در همه زبان‌ها اعمال می‌شود. تغییرات ایجادشده در این طبقه‌بندی‌کننده‌ها باعث افزایش برداشتن خودکار محتوا شد، چرا که امتیاز اطمینان کمتری برای محتوای ناقض خط‌مشی‌های Meta وجود داشت. به‌عبارت دیگر، Meta از ابزارهای خودکار خود با شدت بیشتری برای برداشتن محتوای ناقض خط‌مشی‌هایش استفاده کرد. Meta با برداشتن محتوای بیشتر نسبت به محتوایی که تحت آستانه اطمینان بالاتر قبل از ۷ اکتبر برداشته می‌شد، اصل امنیت خود را در اولویت قرار داد. درحالی‌که این اقدام Meta احتمال برداشته نشدن محتوای ناقض را توسط Meta کاهش داد، محتوایی که درصورت عدم انجام این اقدام یا به‌دلیل ظرفیت محدود بررسی انسانی شناسایی نمی‌شد، این احتمال نیز وجود داشت که درنتیجه این اقدام Meta محتوایی را که به این درگیری مربوط می‌شد اما ناقض نبود به‌اشتباه بردارد.

وقتی تیم‌های ارجاع به مقامات بالاتر ویدیوها را به‌عنوان ناقض خط‌مشی‌های «محتوای خشن و بی‌پرده»، «خشونت و تحریک» و «سازمان‌ها و افراد خطرناک» ارزیابی کردند، Meta برای برداشتن خودکار ویدیوهای مطابق، بر بانک‌های «سرویس تطبیق‌دهی محتوای رسانه» تکیه کرد. این رویکرد نگرانی از افراط در اجرای استانداردها را افزایش داد، ازجمله افرادی که به‌دلیل چندین تخلف در خط‌مشی‌های محتوای Meta با محدودیت‌ها یا تعلیق حساب‌های خود مواجه می‌شوند (که گاهی اوقات «زندان فیس‌بوک» نامیده می‌شود). برای کاهش این نگرانی، Meta از اعمال « اخطار» خودداری کرد، چیزی که معمولاً با برداشتن پست‌هایی همراه است که براساس بانک‌های «سرویس تطبیق‌دهی محتوای رسانه‌ای» خودبه‌خود رخ می‌دهد (همانطور که Meta در پست اتاق خبری خود اعلام کرد).

تغییرات Meta در آستانه اطمینان طبقه‌بندی‌کننده و خط‌مشی حاکم بر اعمال اخطار به درگیری اسرائیل و غزه محدود می‌شود و قرار است موقتی باشد. از ۱۱ دسامبر ۲۰۲۳، Meta آستانه اطمینان را به سطوح قبل از ۷ اکتبر بازنگردانده بود.

۳. شرح تصمیم

محتوای این پرونده مربوط به یک پست ویدیویی در Instagram طی هفته دوم نوامبر می‌شود و آنچه نشان می‌دهد ظاهراً وقایع پس از حمله به بیمارستان الشفا یا نزدیک آن در شهر غزه طی عملیات تهاجمی زمینی اسرائیل در شمال نوار غزه است. پست Instagram در این پرونده افرادی (ازجمله کودکان) خوابیده بر زمین را نشان می‌دهد که عده‌ای از آن‌ها جان باخته‌اند و عده‌ای دیگر مجروح و درحال اشک ریختن هستند. یکی از کودکان که آسیبی شدیدی از ناحیه سر دیده است به‌نظر می‌رسد مرده باشد. شرحی به زبان عربی و انگلیسی زیر ویدیو بیان می‌کند که این بیمارستان را «رژیم اشغال‌گر غاصب» هدف قرار داده است؛ اصطلاحی که اشاره به ارتش اسرائیل دارد. ضمناً، حقوق بشر و سازمان‌های خبری در آن نشان‌گذاری شده است.

براساس «استاندارد انجمن» محتوای خشن و بی‌پرده Meta، که بر محتوای فیس‌بوک و Instagram اعمال می‌شود، «ویدیوهای افراد یا پیکرهای بی‌جان در محیط‌های غیرپزشکی در صورتی که اندام‌های داخلی قابل مشاهده را نشان دهند.» ممنوع است. در زمان پست، این خط‌مشی «تصاویری را مجاز می‌دانست که مرگ خشونت‌آمیز یک فرد یا افراد بر اثر تصادف یا قتل را نشان می‌دهد»، مشروط بر اینکه چنین محتوایی در پشت صفحه هشدار «علامت‌گذاری به‌عنوان آزاردهنده» قرار گرفته باشد و فقط برای افراد بالای ۱۸ سال قابل مشاهده باشد. این قانون در ۲۹ نوامبر، پس از بازیابی محتوای این پرونده، به‌روزرسانی شد تا روشن شود که این قانون برای «لحظه مرگ یا پس از آن» و همچنین تصاویر «شخصی که یک رویداد مرگ‌بار را تجربه می‌کند» اعمال می‌شود.

سیستم‌های خودکار Meta این محتوا را به‌دلیل نقض «استاندارد انجمن درخصوص محتوای خشن و بی‌پرده» برداشتند. درخواست تجدیدنظر کاربر نسبت به این تصمیم به‌طور خودکار رد شد زیرا طبقه‌بندی‌کننده‌های Meta «سطح اطمینان بالایی» را برای ناقض بودن این محتوا نشان دادند. سپس کاربر نسبت به تصمیم Meta به هیئت نظارت اعتراض کرد.

پس از انتخاب این پرونده توسط هیئت نظارت، Meta اظهار داشت که نمی‌توانسته است به‌طور قطعی تعیین کند که این ویدیو اندام‌های داخلی قابل مشاهده را نشان می‌دهد. بنابراین Meta به این نتیجه رسید که اگرچه این محتوا ازنظر ناقض بودن «مرزی» است، نباید آن را برداشته می‌داشته است. Meta همچنین توضیح داد که حتی اگر اندام‌های داخلی قابل مشاهده بودند، پست باید با صفحه هشدار «علامت‌گذاری به‌عنوان آزاردهنده» حفظ می‌شد زیرا برای افزایش آگاهی به اشتراک گذاشته شده بود. این شرکت مجدداً تأکید کرد که مطابق با منطق خط‌مشی «محتوای بی‌پرده و خشن»، چنین محتوایی درصورت اشتراک‌گذاری برای افزایش آگاهی «درباره موضوعات مهمی مانند نقض حقوق بشر، درگیری‌های مسلحانه یا اقدامات تروریستی مجاز است».

بنابراین Meta تصمیم اصلی خود را تغییر داد و محتوا را با صفحه هشدار بازیابی کرد. صفحه هشدار به کاربران می‌گوید که محتوا ممکن است آزاردهنده باشد. کاربران بزرگسال می‌توانند برای دیدن پست روی آن کلیک کنند، اما Meta این پست‌ها را از فید کاربران زیر ۱۸ سال در Instagram و همچنین از توصیه‌های کاربران بزرگسال Instagram برمی‌دارد. Meta همچنین یک نمونه جداگانه از همین ویدیو را به بانک «خدمات تطبیق‌دهی رسانه‌ای» اضافه کرد، تا سایر ویدیوهای مشابه این ویدیو به‌طور خودکار با یک صفحه هشدار نگه داشته شوند و فقط برای افراد بالای ۱۸ سال قابل مشاهده باشند.

۴. توجیه برای بررسی تسریعی

در «آیین‌نامه‌های» هیئت نظارت، بررسی تعجیلی در «شرایط استثنایی، ازجمله زمانی که محتوا بتواند منجر به پیامدهای فوری در جهان واقعی شود» لحاظ شده است و تصمیمات برای Meta الزام‌آور هستند (اساسنامه، ماده ۳، بخش ۷.۲؛ آیین‌نامه، ماده ۲، بخش ۲.۱.۲). روند تسریع‌شده مانع از تحقیقات در سطح وسیع، مشاوره‌های خارجی یا نظرات عمومی شد که در پرونده‌های بررسی‌شده در بازه زمانی معمول و بدون فوریت انجام می‌شود. تصمیم‌گیری درباره این پرونده براساس اطلاعاتی که در زمان شور دردسترس هیئت قرار می‌گیرد و توسط یک گروه پنج عضوی و بدون رأی کامل هیئت انجام می‌شود.

هیئت نظارت این پرونده و یک پرونده دیگر، «گروگان‌های ربوده‌شدده از اسرائیل» (2023-050-FB-UA) را به‌دلیل اهمیت آزادی بیان در شرایط درگیری که درجریان درگیری اسرائیل و حماس به خطر افتاده است، انتخاب کرد. هر دو پرونده نشان‌دهنده انواع درخواست‌های تجدیدنظری است که کاربران در منطقه از زمان حملات ۷ اکتبر و اقدام نظامی بعدی اسرائیل به هیئت ارسال کرده‌اند. هر دو پرونده در اولویت وضعیت بحران و درگیری هیئت نظارت قرار دارند. تصمیمات Meta در هر دو پرونده مطابق با استاندارد «پیامدهای فوری در دنیای واقعی» را برای توجیه بررسی تعجیلی است و براین‌اساس، هیئت و Meta توافق کردند که طبق رویه‌های تعجیلی هیئت عمل کنند.

Meta در موارد ارسالی خود به هیئت خاطرنشان کرد که «تصمیم‌گیری درباره نحوه برخورد با این محتوا دشوار است و مستلزم بررسی دقیق و سبک‌وسنگین کردن اصول و ارزش‌ها است» و از نظرات هیئت درباره این موضوع استقبال کرد.

۵. اظهارات ارسالی کاربر

نویسنده این پست در درخواست تجدیدنظر خود از هیئت نظارت اعلام کرد که او هیچ خشونتی را تحریک نکرده است، بلکه محتوایی را به اشتراک گذاشته است که رنج فلسطینیان ازجمله کودکان را نشان می‌دهد. این کاربر افزود که برداشتن این محتوا رفتاری مغرضانه درمقابل درد و رنج فلسطینیان بوده است. کاربر از نتیجه بررسی درخواست تجدیدنظر توسط هیئت مطلع شد.

۶. تصمیم

درحالی‌که اعضای هیئت درباره پاسخ نظامی اسرائیل و توجیه آن اختلاف نظر دارند، آن‌ها به اتفاق آرا درمورد اهمیت احترام Meta به حق آزادی بیان و سایر حقوق بشر همه افراد که تحت تأثیر این رویدادها قرار گرفته اند و توانایی این افراد برای برقراری ارتباط در این بحران توافق دارند.

هیئت تصمیم اولیه Meta را مبنی بر برداشتن محتوا از Instagram رد کرد. هیئت دریافته است که بازگرداندن محتوا به پلتفورم، با صفحه هشدار «علامت‌گذاری به‌عنوان آزاردهنده»، با خط‌مشی‌های محتوای Meta، ارزش‌ها و مسئولیت‌های حقوق بشری این شرکت سازگار است. با این حال، هیئت همچنین به این نتیجه رسیده است که تنزل رتبه محتوای بازیابی‌شده توسط Meta، در قالب محرومیت آن از امکان توصیه، با مسئولیت‌های شرکت درباره احترام به آزادی بیان منافات دارد.

۶.۱ تبعیت از خط‌مشی‌های Meta درمورد محتوا

هیئت نظارت با Meta درمورد اینکه تشخیص نمایش «اندام‌های داخلی قابل مشاهده» در ویدیوی موردبحث در این پرونده دشوار است موافق است. با توجه به بافتار این پرونده که در آن محافظت از دسترسی به اطلاعات و ارائه راه‌هایی برای افزایش آگاهی درباره تأثیر درگیری از منفعت عمومی با ارزش بسیار بالایی برخوردار است، محتوایی که ازنظر نقض خط‌مشی «محتوای خشن و بی‌پرده» در حالتی «مرزی» قرار دارد نباید برداشته شود. از آنجایی که این محتوا شامل تصاویری است که مرگ خشونت‌آمیز یک فرد و جراحت خونین سری را به تصویر می‌کشد، Meta باید یک صفحه هشدار اعمال می‌کرد و مطابق با خط‌مشی‌های خود آن را فقط برای افراد بالای ۱۸ سال دردسترس قرار می‌داد.

هیئت همچنین با تشخیص بعدی Meta موافق است که اگر حتی این ویدیو اندام‌های داخلی قابل مشاهده را نشان می‌داد، چون زبان به‌کاررفته در پست برای محکوم کردن یا افزایش آگاهی درباره خشونت است، باید پست با صفحه هشدار «علامت‌گذاری به‌عنوان آزاردهنده» حفظ می‌شد و برای کاربران زیر ۱۸ از دسترس خارج می‌شد. «استاندارد انجمن» درارتباط با خط («ویدیوهایی از افراد یا اجساد مرده در یک محیط پزشکی در صورتی که […] اندام‌های داخلی قابل مشاهده را نشان می‌دهند») در خط‌مشی مربوطه صفحه هشدار درنظر نمی‌گیرد. در پرونده ویدیوی بی‌پردهٔ سودان، هیئت توضیح داد که Meta مقرر کرده است بازبین‌‌ها باید از نص صریح خط‌مشی‌های «پست نکنید» این شرکت پیروی کنند. در این منطق آمده است که «[الف] دررابطه با بحث‌های مربوط به مسائل مهم مانند سوء‌استفاده‌های اعمال‌شده نسبت به حقوق بشر، مبارزات مسلحانه و رفتارهای تروریستی، (با بعضی محدودیت‌ها) اجازه پخش محتوای بی‌پرده را می‌دهیم تا افراد بتوانند با محکوم کردن این اتفاقات، به افزایش آگاهی درباره وضعیت موجود کمک کنند.» بااین‌حال، قانون «استاندارد انجمن»، همه ویدیوهایی را که «اندام‌های داخلی قابل مشاهده» را در بافتاری غیرپزشکی نشان می‌دهند ممنوع می‌کند، بدون اینکه به بازبین‌‌ها امکان دهد صفحه هشدار را در جایی که استثنای منطقی خط‌مشی در آن اعمال می‌شود اضافه کنند. به‌نظر می‌رسد برای اعمال صفحه هشدار بر ویدیوهای حاوی محتوای بی‌پرده درصورت وجود بافتار محکوم‌سازی یا افزایش آگاهی نسبت به خشونت، سیستم‌های خودکار Meta پیکربندی نشده‌اند. همچنین مشخص نیست که درصورت وجود این بافتار، طبقه‌بندی‌کننده‌های قابل اجرا می‌توانند محتوا را برای ارزیابی بیشتر به بازبین‌های انسانی ارسال کنند.

۶.۲ پیروی از مسئولیت‌های Meta نسبت به حقوق بشر

در راستای مسئولیت‌های حقوق بشری Meta، تعدیل محتوای بی‌پرده و خشن توسط Meta باید با احترام به حق آزادی بیان، که شامل آزادی جستجو، دریافت و انتشار اطلاعات می‌شود انجام شود. بند ۱۹، پیمان بین‌المللی حقوق مدنی و سیاسی ((ICCPR)). همانطور که هیئت در پرونده ویدیوی زندانیان جنگی ارمنی بیان کرد، حفاظت‌های آزادی بیان بر اساس ماده ۱۹ «پیمان بین‌المللی حقوق مدنی و سیاسی» (ICCPR) «درجریان درگیرهای مسلحانه همواره دخیل است و همچنان باید به‌عنوان عنصری در اطلاع‌رسانی درباره مسئولیت‌های Meta در زمینه حقوق بشر در کنار قواعد مکمل و تقویت‌کننده متقابل در حقوق بشردوستانه بین‌المللی که در چنین درگیری‌هایی اعمال می‌شود ادامه یابد. اصول راهنمای سازمان ملل در زمینه کسب‌وکار و حقوق بشر مسئولیت عمیق‌تری را بردوش کسب‌وکارهای فعال در محیط‌های درگیری وارد می‌کند (حقوق کسب‌وکارها و حقوق بشر در مناطق درگیری‌زده: به‌سوی اقدامی عمیق‌تر،» A/75/212).

هیئت در پرونده‌های قبلی تأکید کرده است که پلتفورم رسانه‌های اجتماعی مانند فیس‌بوک و Instagram وسیله‌ای مهم برای انتقال بی‌درنگ اطلاعات درباره رویدادهای خشونت‌آمیز، ازجمله گزارش‌های خبری هستند (به‌عنوان مثال به اشاره به طالبان در گزارش‌های خبری رجوع کنید). آن‌ها به‌ویژه نقش مهمی در بافتارهای مربوط به درگیری‌های مسلحانه بازی می‌کنند، به‌خصوص وقتی دسترسی خبرنگاران محدود باشد. علاوه‌براین، محتوایی که حملات خشونت‌آمیز و نقض حقوق بشر را به تصویر می‌کشد از منفعت عمومی زیادی برخوردار است (به ویدیوی بی‌پردهٔ سودان رجوع کنید).

وقتی یک دولت برای حق بیان محدودیت اعمال می‌کند، طبق قانون بین‌المللی حقوق بشر باید با الزامات مربوط به مشروعیت، داشتن هدف مشروع، و ضرورت و تناسب مطابقت داشته باشد (ماده ۱۹، پاراگراف ۳، ICCPR). به این الزامات غالباً «آزمون سه‌بخشی» اطلاق می‌شود. هیئت از این چارچوب استفاده می‌کند تا تعهدات داوطلبانه Meta نسبت به حقوق بشر را، هم در رابطه با تصمیم محتوایی مورد بحث و هم برای آنچه این موضوع درمورد رویکرد وسیع‌تر Meta نسبت به مدیریت محتوا مشخص می‌کند، تفسیر نماید. در انجام این کار، هیئت تلاش می‌کند تا نسبت به اینکه چگونه این حقوق ممکن است در یک شرکت خصوصی رسانه‌های اجتماعی نسبت به یک بخش دولتی متفاوت اعمال شود حساسیت به‌خرج دهد. بااین‌حال، همان‌طور که «گزارشگر ویژه سازمان ملل در زمینه آزادی بیان» عنوان کرده است، اگرچه «شرکت‌ها مانند دولت‌ها متعهد نیستند، اما تأثیرشان به گونه‌ای است که برای ارزیابی بعضی سؤالات درباره حفاظت از حقوق کاربران در زمینه آزادی بیان، باید به سؤالاتی یکسان پاسخ بدهند» (A/74/486، پاراگراف ۴۱).

قانون‌مندی مستلزم آن است که هرگونه محدودیت در آزادی بیان باید به‌اندازه‌ای قابل دسترس و شفاف باشد که افراد را درخصوص موارد مجاز و غیرمجاز راهنمایی کند. هیئت قبلاً ابراز نگرانی کرده بود که قوانین «استاندارد انجمن درخصوص محتوای بی‌پرده و خشن» به‌طور کامل با منطق خط‌مشی‌ای که اهداف این خط‌مشی را مشخص می‌کند مطابقت ندارد (به ویدیوی بی‌پردهٔ سودان و ویدیوی پس از حمله به کلیسای نیجریه رجوع کنید). هیئت نظارت بر اهمیت توصیه‌های شماره ۱ و ۲ در پرونده «ویدیوی بی‌پردهٔ سودان» تأکید می‌کند، در آنجا از Meta خواسته بود «استاندارد انجمن درخصوص محتوای بی‌پرده و خشن» خود را به‌گونه‌ای اصلاح کند که ویدیوهای مربوط به افراد یا اجساد درصورت اشتراک‌گذاری با هدف افزایش آگاهی یا مستندسازی نقض حقوق بشر مجاز باشد (این پرونده مربوط به مثله‌سازی قابل مشاهده بود). Meta در پاسخ به این توصیه‌ها یک فرآیند گسترش خط‌مشی را درپیش گرفته است و قصد دارد پیشرفت خود را در به‌روزرسانی سه ماهه بعدی خود به هیئت گزارش دهد. از نظر هیئت، این توصیه باید درمورد قوانین مربوط به ویدیوهایی که اندام‌های داخلی قابل مشاهده را نشان می‌دهند اعمال شود، و به‌ویژه صفحه‌های هشدار را به‌عنوان یک اقدام اجرایی برای مواقع استثنائی که هدف افزایش آگاهی (ازجمله گزارش واقعیت) و محکوم‌سازی است ارائه کند.

طبق پاراگراف ۳، ماده ۱۹ از ICCPR، محدودیت در بیان برای دلایلی مشخص و محدود مجاز است. هیئت قبلاً دریافته است که خط‌مشی «محتوای خشن و بی‌پرده» هدف مشروع حفاظت از حقوق دیگران را دنبال می‌کند، ازجمله حفاظت از حریم‌خصوصی افراد داخل تصویر (به ویدیوی بی‌پرده سودان و ویدیوی منتشرشده پس از حمله به کلیسا در نیجریه رجوع کنید). پرونده جاری علاوه‌بر آن نشان می‌دهد محدودیت دسترسی به محتوا برای افراد زیر ۱۸ سال در خدمت هدف مشروع حفاظت از حق سلامت افراد نابالغ عمل می‌کرد (کنوانسیون حقوق کودکان، ماده ۲۴).

اصل ضرورت و تناسب ایجاب می‌کند که هرگونه محدودیت در آزادی بیان «باید برای دستیابی به عملکرد محافظتی موردنظر متناسب باشد؛ این کار باید از طریق ابزاری انجام شود که می‌تواند با حداقل دخالت ممکن، عملکردهای محافظتی موردنظر را داشته باشد» و «این محدودیت‌ها باید با منافعی که از آن‌ها حفاظت می‌شود، تناسب داشته باشند» (نظر عمومی شماره ۳۴، پاراگراف ۳۴).

هیئت قبلاً دریافته است که در رابطه با محتوای خشن و بی‌پرده، گذاشتن صفحه هشدار «بار بی‌موردی را روی دوش کسانی که مایل به دیدن این محتوا هستند نمی‌گذارد، و ازطرفی ماهیت محتوا را به سایرین اطلاع می‌دهد تا بتوانند نسبت به دیدن یا ندیدن آن تصمیم بگیرند» (به ویدیوی بی‌پردهٔ سودان رجوع کنید). صفحه‌های از مشاهده ناخواسته محتوای بالقوه آزاردهنده توسط کاربران جلوگیری می‌کنند. طبق خط‌مشی Meta اگر اعضای خانواده قربانی درخواست کنند، ویدیوها و عکس‌هایی که مرگ خشونت‌آمیز یک نفر (یا دقیقاً‌ لحظه پس از آن) را به تصویر می‌کشند برداشته می‌شود؛ این کار در راستای محافظت بیشتر از حقوق قربانی انجام می‌شود. محتوای این پرونده را می‌توان از محتوای پرونده شعر روسی متمایز کرد، چرا که در آن پرونده تصویر ثابتی از جسدی نشان می‌شد که در فاصله طولانی روی زمین افتاده بود، جایی که صورت قربانی قابل مشاهده نبود و هیچ نشانه بصری واضحی از خشونت وجود نداشت. اعمال صفحه هشدار در این پرونده با راهنمایی Meta به بازبینان مطابقت نداشت و یک محدودیت ضروری یا متناسب در حق بیان محسوب نمی‌شد. محتوای این پرونده بیشتر شبیه محتوای تصمیم ویدیوی پس از حمله به کلیسای نیجریه است که افراد کشته‌شده و مجروحین را با علائم بصری بسیار واضحی از خشونت از فاصله نزدیک نشان می‌دهد.

در این پرونده، به تصویر کشیدن کودکان مجروح و پیکر بی‌جان آن‌ها، ویدیو را شدیداً آزاردهنده می‌کند. در چنین شرایطی دادن اختیار به کاربر برای مشاهده محتوای آزاردهنده اقدامی ضروری و متناسب است (به ویدیوی زندانیان جنگی ارمنی رجوع کنید).

هیئت دریافته است که با توجه به منافع عمومی بسیار بالای چنین محتواهایی، برداشتن محتوایی که درباره موارد سوءاستفاده بالقوه در حقوق بشر، نقض قوانین جنگ، درگیری‌ها، یا اقدامات تروریستی اطلاع‌رسانی می‌کند از توصیه‌های بزرگسالان محدودیتی ضروری یا متناسب برای آزادی بیان نیست. «صفحه‌های هشدار» و «برداشتن از توصیه‌ها» عملکردهای مجزایی دارند و در برخی موارد، به‌ویژه در شرایط بحرانی، باید جدا شوند. توصیه‌ها در Instagram توسط سیستم‌های خودکار ایجاد می‌شوند که براساس علایق پیش‌بینی‌شده کاربران به آن‌ها محتوا پیشنهاد می‌کنند. برداشتن محتوا از سیستم‌های توصیه به معنای کاهش دسترسی است که درغیراین‌صورت دسترسی به محتوا افزایش می‌یابد. هیئت دریافته است که این رویه با آزادی بیان به طرق نامتناسبی تداخل دارد تاجایی‌که درمورد محتوایی اعمال می‌شود که قبلاً محدود به کاربران بزرگسال شده است و برای افزایش آگاهی، محکوم کردن یا گزارش دادن درباره موضوعات دارای منافع عمومی مانند گسترش یک درگیری خشونت‌آمیز پست شده است.

هیئت بر این امر واقف است که واکنش‌های فوری به بحران می‌تواند مستلزم اقدامات موقت استثنایی باشد، و در بعضی از بافتارها اولویت دادن به نگرانی‌های امنیتی و وارد کردن محدودیت‌های بزرگتر به‌صورت موقت و به تناسب لازم روی آزادی بیان اقدامی قانونی و مشروع است. بعضی از این‌ها مثلاً در تعهدات مقابله با «تروریست و محتوای خشونت‌آمیز افراطی» مقرر در فراخوان کرایست عنوان شده است. بااین‌حال، هیئت عنوان می‌کند که «Chirstchurch Call» بر لزوم پاسخگویی به چنین محتوایی به شیوه‌ای سازگار با حقوق بشر و آزادی‌های اساسی تأکید می‌کند. به اعتقاد هیئت، گرفتن جانب برداشتن محتواهای بی‌پرده‌ای که هدف آن محکوم‌سازی یا آگاه‌سازی درمورد جنایات جنگی احتمالی، جنایات علیه بشریت یا نقض شدید حقوق بشر است با نگرانی‌های امنیتی قابل‌توجیه نیست. چنین محدودیت‌هایی حتی می‌تواند سد راه اطلاعاتی شود که برای امنیت افراد حاضر در محل وقوع آن درگیری‌ها ضرورت دارد.

اقداماتی همچون عدم تحمیل اخطار به کاهش اثرات نامطلوب و به‌طور بالقوه نامتناسب خطاهای اجرایی حاصل از اقدامات اضطراری مانند کاهش آستانه اطمینان برای حذف محتوا در شرایط درگیری کمک می‌کند. بااین‌حال، آن‌ها برای محافظت از توانایی کاربران برای به اشتراک گذاشتن محتوایی که آگاهی را درباره نقض سؤاستفاده بالقوه در حقوق بشر و نقض قوانین بشردوستانه و سایر اطلاعات مهم در شرایط درگیری افزایش می‌دهد کافی نیستند.

هیئت بارها بر نیاز به توسعه یک چارچوب اصولی و شفاف برای تعدیل محتوا درجریان بحران‌ها و در مناطق درگیری تأکید کرده است (به ویدیوی ایستگاه پلیس در هائیتی و دفتر امور ارتباطات منطقه تیگرای رجوع کنید). دقیقاً در مواقعی است که درگیری‌های به سرعت در حال تغییر هستند، شرکت‌های بزرگ رسانه‌های اجتماعی باید منابع لازم را برای اطمینان از محدود نشدن غیرضروری آزادی بیان اختصاص دهند. در چنین مواقعی که منابع مطبوعاتی اغلب درمعرض حملات فیزیکی و دیگر حملات قرار می‌گیرند، گزارش خبری شهروندان عادی در رسانه‌های اجتماعی از ضرورت ویژه‌ای برخوردار می‌شود.

هیئت همچنین قبلاً متوجه شده بود که در بافتار جنگ یا ناآرامی‌های سیاسی، محتواهای بیشتری با تصاویر بی‌پرده و خشن با هدف آگاه‌سازی یا مستندسازی موارد سوء‌استفاده، توسط کاربران ضبط و در پلتفورم به‌اشتراک گذاشته می‌شود (به ویدیوی بی‌پردهٔ سودان رجوع کنید). در شرایطی مانند درگیری اسرائیل و غزه، که در آن تعداد نگران‌کننده‌ای از غیرنظامیان کشته یا مجروح شده‌اند و نسبت بالایی از آن‌ها را کودکان تشکیل می‌دهند، در بحبوحه تشدید بحران انسانی، این نوع تبصره‌ها از اهمیت ویژه ای برخوردار می‌شوند. هیئت نظارت ضمن تأیید روند درجریان توسعه خط‌مشی Meta درمورد خط‌مشی «محتوای خشن بی‌پرده» این شرکت، انتظار دارد Meta آماده باشد تا به‌سرعت اقدامات موقتی را برای اجازه دادن به این نوع محتوا با صفحه‌های هشدار اجرا کند و این نوع محتوا را از توصیه‌ها حذف نکند.

هیئت خاطرنشان کرده است که وضعیت غزه در زمان انتشار این محتوا، مجموعه چالش‌های مشابه حملات ۷ اکتبر را برای متا دربرنداشت. در غزه، مشکلاتی در دستیابی به اطلاعات از مردم حاضر در صحنه وجود داشته است، این درحالی است که دسترسی خبرنگاران به منطقه محدود است و اتصال به اینترنت مختل شده است. علاوه‌براین، بر خلاف پیامدهای اولیه حملات ۷ اکتبر، در وضعیت غزه آنچنان که در این پرونده ارائه شده است تروریست‌ها اقدام به استفاده از رسانه‌های اجتماعی برای پخش اعمال خشونت‌آمیز خود نکردند. درمقابل، در زمینه درگیری مسلحانه، Meta باید اطمینان حاصل کند که اقداماتش اشتراک‌گذاری محتوا با مشخصات زیر را برای مردم دشوار نکرده باشد: محتوایی که ماهیت اطلاع‌رسانی دارد و آگاهی را درباره آسیب‌های وارده به غیرنظامیان افزایش می‌دهد و ممکن است برای تعیین اینکه آیا نقض قانون بین‌المللی بشردوستانه و قانون بین‌الملل حقوق بشر رخ داده است لازم باشد. این سؤال که آیا محتوا برای افزایش آگاهی درباره رویدادها یا محکوم کردن آن‌ها در صحنه وقوع به اشتراک گذاشته شده است، باید نقطه شروع هر بازبینی باشد که چنین محتوایی را ارزیابی می کند، و سیستم‌های خودکار Meta باید طوری طراحی شوند که از برداشتن نادرست محتوایی که باید از استثنائات قابل استفاده بهره‌مند شوند، جلوگیری کنند.

این پرونده بیشتر نشان می‌دهد که نظارت ناکافی انسان بر تعدیل خودکار در بافتار واکنش به بحران می‌تواند منجر به برداشتن اشتباه سخنانی شود که ممکن است از منافع عمومی مهم برخودار باشد. هم تصمیم اولیه برای برداشتن این محتوا و هم رد درخواست تجدیدنظر کاربر به‌طور خودکار براساس امتیاز طبقه‌بندی‌کننده و بدون بررسی انسانی گرفته شده است. این امر به‌نوبه خود ممکن است با واکنش Meta در بحران برای کاهش آستانه برداشتن محتوا تحت خط‌مشی «محتوای خشن و بی‌پرده» پس از حملات ۷ اکتبر تشدید شده باشد. این یعنی حتی اگر طبقه‌بندی‌کننده امتیاز نسبتاً کمتری به احتمال نقض نسبت به آنچه معمولاً لازم است بدهد، Meta آن محتوا را برمی‌دارد.

برای اینکه Meta از سیستم‌های خودکارش به‌گونه‌ای سازگار با تعهدات حقوق بشری خود استفاده کند، هیئت به Meta توصیه شماره ۱ را در پرونده کارتون پلیس کلمبیا یادآوری می‌کند. در این پرونده، هیئت از Meta خواست تا اطمینان یابد که محتواهایی با میزان بالای درخواست تجدیدنظر و میزان بالای نتیجه‌بخش بودن درخواست‌های تجدیدنظر مجدد ارزیابی شوند تا امکان برداشتن آن‌ها از بانک‌های «خدمات تطبیق‌دهی محتواهای رسانه‌ای» مشخص گردد. در پاسخ به این توصیه، Meta یک کارگروه اختصاصی برای بهبود نظارت در بانک‌های «خدمات تطبیق‌دهی محتوای رسانه‌ای» خود ایجاد کرد (به جدیدترین به‌روزرسانی‌های Meta در اینجا رجوع کنید). هیئت خاطرنشان می‌کند که این موضوع اهمیت دارد که این گروه به استفاده از «خدمات تطبیق‌دهی محتوای رسانه‌ای» در بافتار درگیری‌های مسلحانه توجه ویژه داشته باشد. در پرونده علائم سرطان سینه و برهنگی (توصیه شماره ۳ و شماره ۶)، هیئت توصیه کرد که Meta به کاربران اطلاع دهد که برای انجام اقدامات اجرایی علیه محتوایشان از سیستم‌های خودکار استفاده می‌شود، و همچنین تعداد تصمیمات حذف خودکار به‌موجب «استاندارد انجمن» و نسبت تصمیماتی که پس از بررسی انسانی تغییر کردند را به اطلاع کاربران برساند. این امر به‌ویژه زمانی مهم است که آستانه‌های اطمینان برای محتوای بالقوه ناقض طبق گزارش به میزان قابل توجهی کاهش یافته باشد. هیئت نظارت از Meta می‌خواهد که در اجرای توصیه شماره ۶ پیشرفت بیشتری داشته باشد و طبق توصیه شماره ۳ شواهد اجرا را با هیئت به اشتراک بگذارد.

اعمال محدودیت روی آزادی بیان باید از تبعیض، ازجمله تبعیض بر مبنای ملیت، قومیت، دین یا عقاید، یا دیدگاه سیاسی و غیره به‌دور باشد (ماده ۲، پاراگراف ۱، و ماده ۲۶ از ICCPR). تبعیض در اجرای «استانداردهای انجمن» موجب این جنبۀ اساسی آزادی بیان را زیر سؤال می‌برد. در پرونده پست اشتراک‌گذاری‌شدهٔ الجزیره، هیئت درباره اینکه اشتباهات در تعدیل محتوای Meta در اسرائیل و سرزمین‌های فلسطینی اشغالی ممکن است به‌طور نابرابر صورت گرفته باشد نگرانی جدی خود را ابزار کرد و خواستار تحقیقات مستقل شد (توصیه شماره ۳ در پرونده «درباره پست اشتراک‌گذاری‌شدهٔ الجزیره»). ارزیابی تاثیر حقوق بشر انجام‌شده توسط شرکت Business for Social Responsibility (به‌اختصار BSR) درباره پاسخ Meta به این توصیه نشان داد «موارد مختلفی از سوگیری غیرعمدی شناسایی شده است که در آن خط‌مشی و عملکرد Meta همراه با فعالیت‌های پویای خارجی گسترده‌تر، منجر به اثرات متفاوت حقوق بشری بر کاربران فلسطینی و عرب زبان می‌شود.» هیئت از Meta می‌خواهد تا به تعهدات خود در پاسخ به گزارش BSR عمل کند.

درنهایت، Meta درقبال حفظ شواهد مربوط به نقض بالقوه حقوق بشر و نقض حقوق بین‌الملل بشردوستانه، همان‌طور که در گزارش BSR (توصیه شماره ۲۱) توصیه شده و توسط گروه‌های مختلف جامعه مدنی حمایت شده است مسئولیت دارد. حتی زمانی که محتوا از پلتفورم‌های Meta برداشته می‌شود، حفظ چنین شواهدی برای پاسخگویی در آینده ضروری است (به ویدیوی بی‌پرده سودان و زندانیان جنگی ارمنی رجوع کنید). در‌حالی‌که Meta توضیح داد که تمام محتوایی را که «استانداردهای انجمن» آن را نقض می‌کنند برای یک دوره یک ساله حفظ می‌کند، هیئت می‌خواهد محتوایی که به‌ویژه به جنایات جنگی احتمالی، جنایات علیه بشریت و نقض شدید حقوق بشر مربوط است شناسایی شود و برای مدتی طولانی‌تر و به‌روشی قابل دسترس‌تر برای اهداف پاسخ‌گویی در درازمدت حفظ شود. هیئت خاطرنشان کرده است که Meta با اجرای توصیه شماره ۱ در پرونده ویدیوی زندانیان جنگی ارمنی موافقت کرده است. در این توصیه از Meta خواسته شده است پروتکلی مشخص تدوین کند که با آن بتواند اطلاعات مفید در تحقیقات و رویه‌های حقوقی جبران خسارت یا پیگرد قانونی جنایات وحشیانه یا موارد سنگین نقض حقوق بشر را حفظ کند، و در موارد مقتضی با مراجع ذی‌صلاح به‌اشتراک بگذارد. Meta به هیئت اطلاع داده است که در مراحل پایانی تدوین یک «رویکرد منسجم برای حفظ شواهد بالقوه جنایات وحشیانه و نقض جدی حقوق بین الملل بشردوستانه» است و پیش‌بینی می‌کند به‌زودی توضیحاتی را درباره رویکرد خود به هیئت ارائه دهد. هیئت انتظار دارد Meta به‌طور کامل توصیه فوق را اجرا کند.

*نکته‌ای درباره روند تصمیم‌گیری:

تصمیمات تعجیلی هیئت نظارت توسط گروه‌های پنج نفره تهیه می‌شود و مشروط به تأیید اکثریت کل هیئت نیست. تصمیمات هیئت لزوماً منعکس‌کننده نظرات شخصی تمام اعضا نیست.

العودة إلى قرارات الحالة والآراء الاستشارية المتعلقة بالسياسة