أسقط
بیمارستان الشفا
تم النشر بتاريخ 19 كانُون الْأَوَّل 2023
هیئت تصمیم اولیه Meta را مبنی بر برداشتن محتوا از Instagram رد کرد. هیئت دریافته است که بازگرداندن محتوا به پلتفورم، با صفحه هشدار «علامتگذاری بهعنوان آزاردهنده»، با خطمشیهای محتوای Meta، ارزشها و مسئولیتهای حقوق بشری این شرکت سازگار است.
چند هفته پس از انتشار این تصمیم، ترجمهای به زبان عبری در اینجا آپلود خواهیم کرد و ترجمه عربی ازطریق برگه «زبان» موجود در منوی بالای این صفحه دردسترس خواهد بود.
לקריאת החלטה זו בעברית יש ללחוץ כאן.
۱. خلاصه
این پرونده حاوی ویدیویی بهشدت احساسی از وقایع پس از یک حمله به بیمارستان الشفا یا نزدیک آن در غزه است که طی عملیات تهاجمی زمینی اسرائیل رخ میدهد، و شرحی نیز در محکومسازی این حمله آورده شده است. سیستمهای خودکار Meta این پست را به دلیل نقض «استاندارد انجمن درخصوص محتوای خشن و بیپرده برداشتند. کاربر پس از اینکه در اعتراض به این تصمیم نزد Meta ناموفق بود، نزد هیئت نظارت درخواست تجدیدنظر کرد. پس از اینکه هیئت این پرونده را جهت بازبینی شناسایی کرد، Meta تصمیم خود را لغو نمود و محتوا را با گذاشتن صفحه هشدار به پلتفورم برگرداند. هیئت معتقد است تصمیم اصلی مبنی بر برداشتن محتوا با خطمشیهای محتوایی Meta یا مسئولیتهای حقوق بشری این شرکت همخوانی نداشته است. هیئت تصمیم به بازیابی محتوا با گذاشتن صفحه هشدار را تأیید میکند، اما تنزل محتوا را که درنتیجه این موضوع انجام شده است و مانع از توصیه شدن محتوا میشود رد میکند. این پرونده، همراه با پرونده گروگانهای ربودهشده از اسرائیل (2023-050-FB-UA)، اولین پروندههای هیئت هستند که تحت رویههای بررسی تعجیلی درمورد آنها تصمیمگیری شده است.
۲. بافتار و پاسخ Meta
در ۷ اکتبر ۲۰۲۳، حماس، سازمانی که تحت «استاندارد انجمن درخصوص سازمانها و افراد خطرناک» Meta بهعنوان یک سازمان «درجه یک» تعیین میشود، حملات تروریستی بیسابقهای را از غزه به اسرائیل هدایت کرد که حدود ۱۲۰۰ کشته برجای گذاشت و منجر به گروگان گرفتن حدود ۲۴۰ نفر شد ( وزارت امور خارجه، دولت اسرائیل). اسرائیل بلافاصله در پاسخ به این حملات به غزه حمله نظامی کرد. عملیات نظامی اسرائیل تا اواسط دسامبر ۲۰۲۳ باعث کشته شن بیش از ۱۸۰۰۰ نفر در غزه شده است (دفتر هماهنگی امور انساندوستانه سازمان ملل متحد، برگرفته از دادههای وزارت بهداشت غزه). در این درگیری، هر دو طرف متهم به نقض قوانین بینالمللی شدهاند. هم حملات تروریستی و هم اقدامات نظامی متعاقب اسرائیل موضوع تبلیغات، گفتگوها و تحقیقات و مشاجرههای شدیدی در سراسر جهان بوده است که بیشتر آنها در شبکههای اجتماعی، ازجمله Instagram و فیسبوک، صورت گرفته است.
Meta بلافاصله وقایع ۷ اکتبر را تحت خطمشی «افراد و سازمانهای خطرناک» خود یک حمله تروریستی اعلام کرد. طبق «استانداردهای انجمن» Meta، این بدان معناست که Meta هر محتوایی را که به «تمجید»، «حمایت اساسی» یا «نمایندگی از» حملات ۷ اکتبر یا مرتکیبین آن ها بپردازد از پلتفورمهای خود برمیدارد.
Meta در واکنش به موج سرکش و استثنایی محتوای خشونتآمیز و بیپرده که به دنبال حملات تروریستی و پاسخ نظامی در پلتفورمهایش پست میشد، اقدامات موقتی را انجام داد، ازجمله کاهشی در آستانه اطمینان برای سیستمهای طبقهبندی خودکار (طبقهبندیکنندههای) «محتوای خشن و بیپرده» برای شناسایی و برداشتن محتوا. Meta به هیئت اطلاع داد که این اقدامات بر محتوای مربوط به اسرائیل و غزه در همه زبانها اعمال میشود. تغییرات ایجادشده در این طبقهبندیکنندهها باعث افزایش برداشتن خودکار محتوا شد، چرا که امتیاز اطمینان کمتری برای محتوای ناقض خطمشیهای Meta وجود داشت. بهعبارت دیگر، Meta از ابزارهای خودکار خود با شدت بیشتری برای برداشتن محتوای ناقض خطمشیهایش استفاده کرد. Meta با برداشتن محتوای بیشتر نسبت به محتوایی که تحت آستانه اطمینان بالاتر قبل از ۷ اکتبر برداشته میشد، اصل امنیت خود را در اولویت قرار داد. درحالیکه این اقدام Meta احتمال برداشته نشدن محتوای ناقض را توسط Meta کاهش داد، محتوایی که درصورت عدم انجام این اقدام یا بهدلیل ظرفیت محدود بررسی انسانی شناسایی نمیشد، این احتمال نیز وجود داشت که درنتیجه این اقدام Meta محتوایی را که به این درگیری مربوط میشد اما ناقض نبود بهاشتباه بردارد.
وقتی تیمهای ارجاع به مقامات بالاتر ویدیوها را بهعنوان ناقض خطمشیهای «محتوای خشن و بیپرده»، «خشونت و تحریک» و «سازمانها و افراد خطرناک» ارزیابی کردند، Meta برای برداشتن خودکار ویدیوهای مطابق، بر بانکهای «سرویس تطبیقدهی محتوای رسانه» تکیه کرد. این رویکرد نگرانی از افراط در اجرای استانداردها را افزایش داد، ازجمله افرادی که بهدلیل چندین تخلف در خطمشیهای محتوای Meta با محدودیتها یا تعلیق حسابهای خود مواجه میشوند (که گاهی اوقات «زندان فیسبوک» نامیده میشود). برای کاهش این نگرانی، Meta از اعمال « اخطار» خودداری کرد، چیزی که معمولاً با برداشتن پستهایی همراه است که براساس بانکهای «سرویس تطبیقدهی محتوای رسانهای» خودبهخود رخ میدهد (همانطور که Meta در پست اتاق خبری خود اعلام کرد).
تغییرات Meta در آستانه اطمینان طبقهبندیکننده و خطمشی حاکم بر اعمال اخطار به درگیری اسرائیل و غزه محدود میشود و قرار است موقتی باشد. از ۱۱ دسامبر ۲۰۲۳، Meta آستانه اطمینان را به سطوح قبل از ۷ اکتبر بازنگردانده بود.
۳. شرح تصمیم
محتوای این پرونده مربوط به یک پست ویدیویی در Instagram طی هفته دوم نوامبر میشود و آنچه نشان میدهد ظاهراً وقایع پس از حمله به بیمارستان الشفا یا نزدیک آن در شهر غزه طی عملیات تهاجمی زمینی اسرائیل در شمال نوار غزه است. پست Instagram در این پرونده افرادی (ازجمله کودکان) خوابیده بر زمین را نشان میدهد که عدهای از آنها جان باختهاند و عدهای دیگر مجروح و درحال اشک ریختن هستند. یکی از کودکان که آسیبی شدیدی از ناحیه سر دیده است بهنظر میرسد مرده باشد. شرحی به زبان عربی و انگلیسی زیر ویدیو بیان میکند که این بیمارستان را «رژیم اشغالگر غاصب» هدف قرار داده است؛ اصطلاحی که اشاره به ارتش اسرائیل دارد. ضمناً، حقوق بشر و سازمانهای خبری در آن نشانگذاری شده است.
براساس «استاندارد انجمن» محتوای خشن و بیپرده Meta، که بر محتوای فیسبوک و Instagram اعمال میشود، «ویدیوهای افراد یا پیکرهای بیجان در محیطهای غیرپزشکی در صورتی که اندامهای داخلی قابل مشاهده را نشان دهند.» ممنوع است. در زمان پست، این خطمشی «تصاویری را مجاز میدانست که مرگ خشونتآمیز یک فرد یا افراد بر اثر تصادف یا قتل را نشان میدهد»، مشروط بر اینکه چنین محتوایی در پشت صفحه هشدار «علامتگذاری بهعنوان آزاردهنده» قرار گرفته باشد و فقط برای افراد بالای ۱۸ سال قابل مشاهده باشد. این قانون در ۲۹ نوامبر، پس از بازیابی محتوای این پرونده، بهروزرسانی شد تا روشن شود که این قانون برای «لحظه مرگ یا پس از آن» و همچنین تصاویر «شخصی که یک رویداد مرگبار را تجربه میکند» اعمال میشود.
سیستمهای خودکار Meta این محتوا را بهدلیل نقض «استاندارد انجمن درخصوص محتوای خشن و بیپرده» برداشتند. درخواست تجدیدنظر کاربر نسبت به این تصمیم بهطور خودکار رد شد زیرا طبقهبندیکنندههای Meta «سطح اطمینان بالایی» را برای ناقض بودن این محتوا نشان دادند. سپس کاربر نسبت به تصمیم Meta به هیئت نظارت اعتراض کرد.
پس از انتخاب این پرونده توسط هیئت نظارت، Meta اظهار داشت که نمیتوانسته است بهطور قطعی تعیین کند که این ویدیو اندامهای داخلی قابل مشاهده را نشان میدهد. بنابراین Meta به این نتیجه رسید که اگرچه این محتوا ازنظر ناقض بودن «مرزی» است، نباید آن را برداشته میداشته است. Meta همچنین توضیح داد که حتی اگر اندامهای داخلی قابل مشاهده بودند، پست باید با صفحه هشدار «علامتگذاری بهعنوان آزاردهنده» حفظ میشد زیرا برای افزایش آگاهی به اشتراک گذاشته شده بود. این شرکت مجدداً تأکید کرد که مطابق با منطق خطمشی «محتوای بیپرده و خشن»، چنین محتوایی درصورت اشتراکگذاری برای افزایش آگاهی «درباره موضوعات مهمی مانند نقض حقوق بشر، درگیریهای مسلحانه یا اقدامات تروریستی مجاز است».
بنابراین Meta تصمیم اصلی خود را تغییر داد و محتوا را با صفحه هشدار بازیابی کرد. صفحه هشدار به کاربران میگوید که محتوا ممکن است آزاردهنده باشد. کاربران بزرگسال میتوانند برای دیدن پست روی آن کلیک کنند، اما Meta این پستها را از فید کاربران زیر ۱۸ سال در Instagram و همچنین از توصیههای کاربران بزرگسال Instagram برمیدارد. Meta همچنین یک نمونه جداگانه از همین ویدیو را به بانک «خدمات تطبیقدهی رسانهای» اضافه کرد، تا سایر ویدیوهای مشابه این ویدیو بهطور خودکار با یک صفحه هشدار نگه داشته شوند و فقط برای افراد بالای ۱۸ سال قابل مشاهده باشند.
۴. توجیه برای بررسی تسریعی
در «آییننامههای» هیئت نظارت، بررسی تعجیلی در «شرایط استثنایی، ازجمله زمانی که محتوا بتواند منجر به پیامدهای فوری در جهان واقعی شود» لحاظ شده است و تصمیمات برای Meta الزامآور هستند (اساسنامه، ماده ۳، بخش ۷.۲؛ آییننامه، ماده ۲، بخش ۲.۱.۲). روند تسریعشده مانع از تحقیقات در سطح وسیع، مشاورههای خارجی یا نظرات عمومی شد که در پروندههای بررسیشده در بازه زمانی معمول و بدون فوریت انجام میشود. تصمیمگیری درباره این پرونده براساس اطلاعاتی که در زمان شور دردسترس هیئت قرار میگیرد و توسط یک گروه پنج عضوی و بدون رأی کامل هیئت انجام میشود.
هیئت نظارت این پرونده و یک پرونده دیگر، «گروگانهای ربودهشدده از اسرائیل» (2023-050-FB-UA) را بهدلیل اهمیت آزادی بیان در شرایط درگیری که درجریان درگیری اسرائیل و حماس به خطر افتاده است، انتخاب کرد. هر دو پرونده نشاندهنده انواع درخواستهای تجدیدنظری است که کاربران در منطقه از زمان حملات ۷ اکتبر و اقدام نظامی بعدی اسرائیل به هیئت ارسال کردهاند. هر دو پرونده در اولویت وضعیت بحران و درگیری هیئت نظارت قرار دارند. تصمیمات Meta در هر دو پرونده مطابق با استاندارد «پیامدهای فوری در دنیای واقعی» را برای توجیه بررسی تعجیلی است و برایناساس، هیئت و Meta توافق کردند که طبق رویههای تعجیلی هیئت عمل کنند.
Meta در موارد ارسالی خود به هیئت خاطرنشان کرد که «تصمیمگیری درباره نحوه برخورد با این محتوا دشوار است و مستلزم بررسی دقیق و سبکوسنگین کردن اصول و ارزشها است» و از نظرات هیئت درباره این موضوع استقبال کرد.
۵. اظهارات ارسالی کاربر
نویسنده این پست در درخواست تجدیدنظر خود از هیئت نظارت اعلام کرد که او هیچ خشونتی را تحریک نکرده است، بلکه محتوایی را به اشتراک گذاشته است که رنج فلسطینیان ازجمله کودکان را نشان میدهد. این کاربر افزود که برداشتن این محتوا رفتاری مغرضانه درمقابل درد و رنج فلسطینیان بوده است. کاربر از نتیجه بررسی درخواست تجدیدنظر توسط هیئت مطلع شد.
۶. تصمیم
درحالیکه اعضای هیئت درباره پاسخ نظامی اسرائیل و توجیه آن اختلاف نظر دارند، آنها به اتفاق آرا درمورد اهمیت احترام Meta به حق آزادی بیان و سایر حقوق بشر همه افراد که تحت تأثیر این رویدادها قرار گرفته اند و توانایی این افراد برای برقراری ارتباط در این بحران توافق دارند.
هیئت تصمیم اولیه Meta را مبنی بر برداشتن محتوا از Instagram رد کرد. هیئت دریافته است که بازگرداندن محتوا به پلتفورم، با صفحه هشدار «علامتگذاری بهعنوان آزاردهنده»، با خطمشیهای محتوای Meta، ارزشها و مسئولیتهای حقوق بشری این شرکت سازگار است. با این حال، هیئت همچنین به این نتیجه رسیده است که تنزل رتبه محتوای بازیابیشده توسط Meta، در قالب محرومیت آن از امکان توصیه، با مسئولیتهای شرکت درباره احترام به آزادی بیان منافات دارد.
۶.۱ تبعیت از خطمشیهای Meta درمورد محتوا
هیئت نظارت با Meta درمورد اینکه تشخیص نمایش «اندامهای داخلی قابل مشاهده» در ویدیوی موردبحث در این پرونده دشوار است موافق است. با توجه به بافتار این پرونده که در آن محافظت از دسترسی به اطلاعات و ارائه راههایی برای افزایش آگاهی درباره تأثیر درگیری از منفعت عمومی با ارزش بسیار بالایی برخوردار است، محتوایی که ازنظر نقض خطمشی «محتوای خشن و بیپرده» در حالتی «مرزی» قرار دارد نباید برداشته شود. از آنجایی که این محتوا شامل تصاویری است که مرگ خشونتآمیز یک فرد و جراحت خونین سری را به تصویر میکشد، Meta باید یک صفحه هشدار اعمال میکرد و مطابق با خطمشیهای خود آن را فقط برای افراد بالای ۱۸ سال دردسترس قرار میداد.
هیئت همچنین با تشخیص بعدی Meta موافق است که اگر حتی این ویدیو اندامهای داخلی قابل مشاهده را نشان میداد، چون زبان بهکاررفته در پست برای محکوم کردن یا افزایش آگاهی درباره خشونت است، باید پست با صفحه هشدار «علامتگذاری بهعنوان آزاردهنده» حفظ میشد و برای کاربران زیر ۱۸ از دسترس خارج میشد. «استاندارد انجمن» درارتباط با خط («ویدیوهایی از افراد یا اجساد مرده در یک محیط پزشکی در صورتی که […] اندامهای داخلی قابل مشاهده را نشان میدهند») در خطمشی مربوطه صفحه هشدار درنظر نمیگیرد. در پرونده ویدیوی بیپردهٔ سودان، هیئت توضیح داد که Meta مقرر کرده است بازبینها باید از نص صریح خطمشیهای «پست نکنید» این شرکت پیروی کنند. در این منطق آمده است که «[الف] دررابطه با بحثهای مربوط به مسائل مهم مانند سوءاستفادههای اعمالشده نسبت به حقوق بشر، مبارزات مسلحانه و رفتارهای تروریستی، (با بعضی محدودیتها) اجازه پخش محتوای بیپرده را میدهیم تا افراد بتوانند با محکوم کردن این اتفاقات، به افزایش آگاهی درباره وضعیت موجود کمک کنند.» بااینحال، قانون «استاندارد انجمن»، همه ویدیوهایی را که «اندامهای داخلی قابل مشاهده» را در بافتاری غیرپزشکی نشان میدهند ممنوع میکند، بدون اینکه به بازبینها امکان دهد صفحه هشدار را در جایی که استثنای منطقی خطمشی در آن اعمال میشود اضافه کنند. بهنظر میرسد برای اعمال صفحه هشدار بر ویدیوهای حاوی محتوای بیپرده درصورت وجود بافتار محکومسازی یا افزایش آگاهی نسبت به خشونت، سیستمهای خودکار Meta پیکربندی نشدهاند. همچنین مشخص نیست که درصورت وجود این بافتار، طبقهبندیکنندههای قابل اجرا میتوانند محتوا را برای ارزیابی بیشتر به بازبینهای انسانی ارسال کنند.
۶.۲ پیروی از مسئولیتهای Meta نسبت به حقوق بشر
در راستای مسئولیتهای حقوق بشری Meta، تعدیل محتوای بیپرده و خشن توسط Meta باید با احترام به حق آزادی بیان، که شامل آزادی جستجو، دریافت و انتشار اطلاعات میشود انجام شود. بند ۱۹، پیمان بینالمللی حقوق مدنی و سیاسی ((ICCPR)). همانطور که هیئت در پرونده ویدیوی زندانیان جنگی ارمنی بیان کرد، حفاظتهای آزادی بیان بر اساس ماده ۱۹ «پیمان بینالمللی حقوق مدنی و سیاسی» (ICCPR) «درجریان درگیرهای مسلحانه همواره دخیل است و همچنان باید بهعنوان عنصری در اطلاعرسانی درباره مسئولیتهای Meta در زمینه حقوق بشر در کنار قواعد مکمل و تقویتکننده متقابل در حقوق بشردوستانه بینالمللی که در چنین درگیریهایی اعمال میشود ادامه یابد. اصول راهنمای سازمان ملل در زمینه کسبوکار و حقوق بشر مسئولیت عمیقتری را بردوش کسبوکارهای فعال در محیطهای درگیری وارد میکند (حقوق کسبوکارها و حقوق بشر در مناطق درگیریزده: بهسوی اقدامی عمیقتر،» A/75/212).
هیئت در پروندههای قبلی تأکید کرده است که پلتفورم رسانههای اجتماعی مانند فیسبوک و Instagram وسیلهای مهم برای انتقال بیدرنگ اطلاعات درباره رویدادهای خشونتآمیز، ازجمله گزارشهای خبری هستند (بهعنوان مثال به اشاره به طالبان در گزارشهای خبری رجوع کنید). آنها بهویژه نقش مهمی در بافتارهای مربوط به درگیریهای مسلحانه بازی میکنند، بهخصوص وقتی دسترسی خبرنگاران محدود باشد. علاوهبراین، محتوایی که حملات خشونتآمیز و نقض حقوق بشر را به تصویر میکشد از منفعت عمومی زیادی برخوردار است (به ویدیوی بیپردهٔ سودان رجوع کنید).
وقتی یک دولت برای حق بیان محدودیت اعمال میکند، طبق قانون بینالمللی حقوق بشر باید با الزامات مربوط به مشروعیت، داشتن هدف مشروع، و ضرورت و تناسب مطابقت داشته باشد (ماده ۱۹، پاراگراف ۳، ICCPR). به این الزامات غالباً «آزمون سهبخشی» اطلاق میشود. هیئت از این چارچوب استفاده میکند تا تعهدات داوطلبانه Meta نسبت به حقوق بشر را، هم در رابطه با تصمیم محتوایی مورد بحث و هم برای آنچه این موضوع درمورد رویکرد وسیعتر Meta نسبت به مدیریت محتوا مشخص میکند، تفسیر نماید. در انجام این کار، هیئت تلاش میکند تا نسبت به اینکه چگونه این حقوق ممکن است در یک شرکت خصوصی رسانههای اجتماعی نسبت به یک بخش دولتی متفاوت اعمال شود حساسیت بهخرج دهد. بااینحال، همانطور که «گزارشگر ویژه سازمان ملل در زمینه آزادی بیان» عنوان کرده است، اگرچه «شرکتها مانند دولتها متعهد نیستند، اما تأثیرشان به گونهای است که برای ارزیابی بعضی سؤالات درباره حفاظت از حقوق کاربران در زمینه آزادی بیان، باید به سؤالاتی یکسان پاسخ بدهند» (A/74/486، پاراگراف ۴۱).
قانونمندی مستلزم آن است که هرگونه محدودیت در آزادی بیان باید بهاندازهای قابل دسترس و شفاف باشد که افراد را درخصوص موارد مجاز و غیرمجاز راهنمایی کند. هیئت قبلاً ابراز نگرانی کرده بود که قوانین «استاندارد انجمن درخصوص محتوای بیپرده و خشن» بهطور کامل با منطق خطمشیای که اهداف این خطمشی را مشخص میکند مطابقت ندارد (به ویدیوی بیپردهٔ سودان و ویدیوی پس از حمله به کلیسای نیجریه رجوع کنید). هیئت نظارت بر اهمیت توصیههای شماره ۱ و ۲ در پرونده «ویدیوی بیپردهٔ سودان» تأکید میکند، در آنجا از Meta خواسته بود «استاندارد انجمن درخصوص محتوای بیپرده و خشن» خود را بهگونهای اصلاح کند که ویدیوهای مربوط به افراد یا اجساد درصورت اشتراکگذاری با هدف افزایش آگاهی یا مستندسازی نقض حقوق بشر مجاز باشد (این پرونده مربوط به مثلهسازی قابل مشاهده بود). Meta در پاسخ به این توصیهها یک فرآیند گسترش خطمشی را درپیش گرفته است و قصد دارد پیشرفت خود را در بهروزرسانی سه ماهه بعدی خود به هیئت گزارش دهد. از نظر هیئت، این توصیه باید درمورد قوانین مربوط به ویدیوهایی که اندامهای داخلی قابل مشاهده را نشان میدهند اعمال شود، و بهویژه صفحههای هشدار را بهعنوان یک اقدام اجرایی برای مواقع استثنائی که هدف افزایش آگاهی (ازجمله گزارش واقعیت) و محکومسازی است ارائه کند.
طبق پاراگراف ۳، ماده ۱۹ از ICCPR، محدودیت در بیان برای دلایلی مشخص و محدود مجاز است. هیئت قبلاً دریافته است که خطمشی «محتوای خشن و بیپرده» هدف مشروع حفاظت از حقوق دیگران را دنبال میکند، ازجمله حفاظت از حریمخصوصی افراد داخل تصویر (به ویدیوی بیپرده سودان و ویدیوی منتشرشده پس از حمله به کلیسا در نیجریه رجوع کنید). پرونده جاری علاوهبر آن نشان میدهد محدودیت دسترسی به محتوا برای افراد زیر ۱۸ سال در خدمت هدف مشروع حفاظت از حق سلامت افراد نابالغ عمل میکرد (کنوانسیون حقوق کودکان، ماده ۲۴).
اصل ضرورت و تناسب ایجاب میکند که هرگونه محدودیت در آزادی بیان «باید برای دستیابی به عملکرد محافظتی موردنظر متناسب باشد؛ این کار باید از طریق ابزاری انجام شود که میتواند با حداقل دخالت ممکن، عملکردهای محافظتی موردنظر را داشته باشد» و «این محدودیتها باید با منافعی که از آنها حفاظت میشود، تناسب داشته باشند» (نظر عمومی شماره ۳۴، پاراگراف ۳۴).
هیئت قبلاً دریافته است که در رابطه با محتوای خشن و بیپرده، گذاشتن صفحه هشدار «بار بیموردی را روی دوش کسانی که مایل به دیدن این محتوا هستند نمیگذارد، و ازطرفی ماهیت محتوا را به سایرین اطلاع میدهد تا بتوانند نسبت به دیدن یا ندیدن آن تصمیم بگیرند» (به ویدیوی بیپردهٔ سودان رجوع کنید). صفحههای از مشاهده ناخواسته محتوای بالقوه آزاردهنده توسط کاربران جلوگیری میکنند. طبق خطمشی Meta اگر اعضای خانواده قربانی درخواست کنند، ویدیوها و عکسهایی که مرگ خشونتآمیز یک نفر (یا دقیقاً لحظه پس از آن) را به تصویر میکشند برداشته میشود؛ این کار در راستای محافظت بیشتر از حقوق قربانی انجام میشود. محتوای این پرونده را میتوان از محتوای پرونده شعر روسی متمایز کرد، چرا که در آن پرونده تصویر ثابتی از جسدی نشان میشد که در فاصله طولانی روی زمین افتاده بود، جایی که صورت قربانی قابل مشاهده نبود و هیچ نشانه بصری واضحی از خشونت وجود نداشت. اعمال صفحه هشدار در این پرونده با راهنمایی Meta به بازبینان مطابقت نداشت و یک محدودیت ضروری یا متناسب در حق بیان محسوب نمیشد. محتوای این پرونده بیشتر شبیه محتوای تصمیم ویدیوی پس از حمله به کلیسای نیجریه است که افراد کشتهشده و مجروحین را با علائم بصری بسیار واضحی از خشونت از فاصله نزدیک نشان میدهد.
در این پرونده، به تصویر کشیدن کودکان مجروح و پیکر بیجان آنها، ویدیو را شدیداً آزاردهنده میکند. در چنین شرایطی دادن اختیار به کاربر برای مشاهده محتوای آزاردهنده اقدامی ضروری و متناسب است (به ویدیوی زندانیان جنگی ارمنی رجوع کنید).
هیئت دریافته است که با توجه به منافع عمومی بسیار بالای چنین محتواهایی، برداشتن محتوایی که درباره موارد سوءاستفاده بالقوه در حقوق بشر، نقض قوانین جنگ، درگیریها، یا اقدامات تروریستی اطلاعرسانی میکند از توصیههای بزرگسالان محدودیتی ضروری یا متناسب برای آزادی بیان نیست. «صفحههای هشدار» و «برداشتن از توصیهها» عملکردهای مجزایی دارند و در برخی موارد، بهویژه در شرایط بحرانی، باید جدا شوند. توصیهها در Instagram توسط سیستمهای خودکار ایجاد میشوند که براساس علایق پیشبینیشده کاربران به آنها محتوا پیشنهاد میکنند. برداشتن محتوا از سیستمهای توصیه به معنای کاهش دسترسی است که درغیراینصورت دسترسی به محتوا افزایش مییابد. هیئت دریافته است که این رویه با آزادی بیان به طرق نامتناسبی تداخل دارد تاجاییکه درمورد محتوایی اعمال میشود که قبلاً محدود به کاربران بزرگسال شده است و برای افزایش آگاهی، محکوم کردن یا گزارش دادن درباره موضوعات دارای منافع عمومی مانند گسترش یک درگیری خشونتآمیز پست شده است.
هیئت بر این امر واقف است که واکنشهای فوری به بحران میتواند مستلزم اقدامات موقت استثنایی باشد، و در بعضی از بافتارها اولویت دادن به نگرانیهای امنیتی و وارد کردن محدودیتهای بزرگتر بهصورت موقت و به تناسب لازم روی آزادی بیان اقدامی قانونی و مشروع است. بعضی از اینها مثلاً در تعهدات مقابله با «تروریست و محتوای خشونتآمیز افراطی» مقرر در فراخوان کرایست عنوان شده است. بااینحال، هیئت عنوان میکند که «Chirstchurch Call» بر لزوم پاسخگویی به چنین محتوایی به شیوهای سازگار با حقوق بشر و آزادیهای اساسی تأکید میکند. به اعتقاد هیئت، گرفتن جانب برداشتن محتواهای بیپردهای که هدف آن محکومسازی یا آگاهسازی درمورد جنایات جنگی احتمالی، جنایات علیه بشریت یا نقض شدید حقوق بشر است با نگرانیهای امنیتی قابلتوجیه نیست. چنین محدودیتهایی حتی میتواند سد راه اطلاعاتی شود که برای امنیت افراد حاضر در محل وقوع آن درگیریها ضرورت دارد.
اقداماتی همچون عدم تحمیل اخطار به کاهش اثرات نامطلوب و بهطور بالقوه نامتناسب خطاهای اجرایی حاصل از اقدامات اضطراری مانند کاهش آستانه اطمینان برای حذف محتوا در شرایط درگیری کمک میکند. بااینحال، آنها برای محافظت از توانایی کاربران برای به اشتراک گذاشتن محتوایی که آگاهی را درباره نقض سؤاستفاده بالقوه در حقوق بشر و نقض قوانین بشردوستانه و سایر اطلاعات مهم در شرایط درگیری افزایش میدهد کافی نیستند.
هیئت بارها بر نیاز به توسعه یک چارچوب اصولی و شفاف برای تعدیل محتوا درجریان بحرانها و در مناطق درگیری تأکید کرده است (به ویدیوی ایستگاه پلیس در هائیتی و دفتر امور ارتباطات منطقه تیگرای رجوع کنید). دقیقاً در مواقعی است که درگیریهای به سرعت در حال تغییر هستند، شرکتهای بزرگ رسانههای اجتماعی باید منابع لازم را برای اطمینان از محدود نشدن غیرضروری آزادی بیان اختصاص دهند. در چنین مواقعی که منابع مطبوعاتی اغلب درمعرض حملات فیزیکی و دیگر حملات قرار میگیرند، گزارش خبری شهروندان عادی در رسانههای اجتماعی از ضرورت ویژهای برخوردار میشود.
هیئت همچنین قبلاً متوجه شده بود که در بافتار جنگ یا ناآرامیهای سیاسی، محتواهای بیشتری با تصاویر بیپرده و خشن با هدف آگاهسازی یا مستندسازی موارد سوءاستفاده، توسط کاربران ضبط و در پلتفورم بهاشتراک گذاشته میشود (به ویدیوی بیپردهٔ سودان رجوع کنید). در شرایطی مانند درگیری اسرائیل و غزه، که در آن تعداد نگرانکنندهای از غیرنظامیان کشته یا مجروح شدهاند و نسبت بالایی از آنها را کودکان تشکیل میدهند، در بحبوحه تشدید بحران انسانی، این نوع تبصرهها از اهمیت ویژه ای برخوردار میشوند. هیئت نظارت ضمن تأیید روند درجریان توسعه خطمشی Meta درمورد خطمشی «محتوای خشن بیپرده» این شرکت، انتظار دارد Meta آماده باشد تا بهسرعت اقدامات موقتی را برای اجازه دادن به این نوع محتوا با صفحههای هشدار اجرا کند و این نوع محتوا را از توصیهها حذف نکند.
هیئت خاطرنشان کرده است که وضعیت غزه در زمان انتشار این محتوا، مجموعه چالشهای مشابه حملات ۷ اکتبر را برای متا دربرنداشت. در غزه، مشکلاتی در دستیابی به اطلاعات از مردم حاضر در صحنه وجود داشته است، این درحالی است که دسترسی خبرنگاران به منطقه محدود است و اتصال به اینترنت مختل شده است. علاوهبراین، بر خلاف پیامدهای اولیه حملات ۷ اکتبر، در وضعیت غزه آنچنان که در این پرونده ارائه شده است تروریستها اقدام به استفاده از رسانههای اجتماعی برای پخش اعمال خشونتآمیز خود نکردند. درمقابل، در زمینه درگیری مسلحانه، Meta باید اطمینان حاصل کند که اقداماتش اشتراکگذاری محتوا با مشخصات زیر را برای مردم دشوار نکرده باشد: محتوایی که ماهیت اطلاعرسانی دارد و آگاهی را درباره آسیبهای وارده به غیرنظامیان افزایش میدهد و ممکن است برای تعیین اینکه آیا نقض قانون بینالمللی بشردوستانه و قانون بینالملل حقوق بشر رخ داده است لازم باشد. این سؤال که آیا محتوا برای افزایش آگاهی درباره رویدادها یا محکوم کردن آنها در صحنه وقوع به اشتراک گذاشته شده است، باید نقطه شروع هر بازبینی باشد که چنین محتوایی را ارزیابی می کند، و سیستمهای خودکار Meta باید طوری طراحی شوند که از برداشتن نادرست محتوایی که باید از استثنائات قابل استفاده بهرهمند شوند، جلوگیری کنند.
این پرونده بیشتر نشان میدهد که نظارت ناکافی انسان بر تعدیل خودکار در بافتار واکنش به بحران میتواند منجر به برداشتن اشتباه سخنانی شود که ممکن است از منافع عمومی مهم برخودار باشد. هم تصمیم اولیه برای برداشتن این محتوا و هم رد درخواست تجدیدنظر کاربر بهطور خودکار براساس امتیاز طبقهبندیکننده و بدون بررسی انسانی گرفته شده است. این امر بهنوبه خود ممکن است با واکنش Meta در بحران برای کاهش آستانه برداشتن محتوا تحت خطمشی «محتوای خشن و بیپرده» پس از حملات ۷ اکتبر تشدید شده باشد. این یعنی حتی اگر طبقهبندیکننده امتیاز نسبتاً کمتری به احتمال نقض نسبت به آنچه معمولاً لازم است بدهد، Meta آن محتوا را برمیدارد.
برای اینکه Meta از سیستمهای خودکارش بهگونهای سازگار با تعهدات حقوق بشری خود استفاده کند، هیئت به Meta توصیه شماره ۱ را در پرونده کارتون پلیس کلمبیا یادآوری میکند. در این پرونده، هیئت از Meta خواست تا اطمینان یابد که محتواهایی با میزان بالای درخواست تجدیدنظر و میزان بالای نتیجهبخش بودن درخواستهای تجدیدنظر مجدد ارزیابی شوند تا امکان برداشتن آنها از بانکهای «خدمات تطبیقدهی محتواهای رسانهای» مشخص گردد. در پاسخ به این توصیه، Meta یک کارگروه اختصاصی برای بهبود نظارت در بانکهای «خدمات تطبیقدهی محتوای رسانهای» خود ایجاد کرد (به جدیدترین بهروزرسانیهای Meta در اینجا رجوع کنید). هیئت خاطرنشان میکند که این موضوع اهمیت دارد که این گروه به استفاده از «خدمات تطبیقدهی محتوای رسانهای» در بافتار درگیریهای مسلحانه توجه ویژه داشته باشد. در پرونده علائم سرطان سینه و برهنگی (توصیه شماره ۳ و شماره ۶)، هیئت توصیه کرد که Meta به کاربران اطلاع دهد که برای انجام اقدامات اجرایی علیه محتوایشان از سیستمهای خودکار استفاده میشود، و همچنین تعداد تصمیمات حذف خودکار بهموجب «استاندارد انجمن» و نسبت تصمیماتی که پس از بررسی انسانی تغییر کردند را به اطلاع کاربران برساند. این امر بهویژه زمانی مهم است که آستانههای اطمینان برای محتوای بالقوه ناقض طبق گزارش به میزان قابل توجهی کاهش یافته باشد. هیئت نظارت از Meta میخواهد که در اجرای توصیه شماره ۶ پیشرفت بیشتری داشته باشد و طبق توصیه شماره ۳ شواهد اجرا را با هیئت به اشتراک بگذارد.
اعمال محدودیت روی آزادی بیان باید از تبعیض، ازجمله تبعیض بر مبنای ملیت، قومیت، دین یا عقاید، یا دیدگاه سیاسی و غیره بهدور باشد (ماده ۲، پاراگراف ۱، و ماده ۲۶ از ICCPR). تبعیض در اجرای «استانداردهای انجمن» موجب این جنبۀ اساسی آزادی بیان را زیر سؤال میبرد. در پرونده پست اشتراکگذاریشدهٔ الجزیره، هیئت درباره اینکه اشتباهات در تعدیل محتوای Meta در اسرائیل و سرزمینهای فلسطینی اشغالی ممکن است بهطور نابرابر صورت گرفته باشد نگرانی جدی خود را ابزار کرد و خواستار تحقیقات مستقل شد (توصیه شماره ۳ در پرونده «درباره پست اشتراکگذاریشدهٔ الجزیره»). ارزیابی تاثیر حقوق بشر انجامشده توسط شرکت Business for Social Responsibility (بهاختصار BSR) درباره پاسخ Meta به این توصیه نشان داد «موارد مختلفی از سوگیری غیرعمدی شناسایی شده است که در آن خطمشی و عملکرد Meta همراه با فعالیتهای پویای خارجی گستردهتر، منجر به اثرات متفاوت حقوق بشری بر کاربران فلسطینی و عرب زبان میشود.» هیئت از Meta میخواهد تا به تعهدات خود در پاسخ به گزارش BSR عمل کند.
درنهایت، Meta درقبال حفظ شواهد مربوط به نقض بالقوه حقوق بشر و نقض حقوق بینالملل بشردوستانه، همانطور که در گزارش BSR (توصیه شماره ۲۱) توصیه شده و توسط گروههای مختلف جامعه مدنی حمایت شده است مسئولیت دارد. حتی زمانی که محتوا از پلتفورمهای Meta برداشته میشود، حفظ چنین شواهدی برای پاسخگویی در آینده ضروری است (به ویدیوی بیپرده سودان و زندانیان جنگی ارمنی رجوع کنید). درحالیکه Meta توضیح داد که تمام محتوایی را که «استانداردهای انجمن» آن را نقض میکنند برای یک دوره یک ساله حفظ میکند، هیئت میخواهد محتوایی که بهویژه به جنایات جنگی احتمالی، جنایات علیه بشریت و نقض شدید حقوق بشر مربوط است شناسایی شود و برای مدتی طولانیتر و بهروشی قابل دسترستر برای اهداف پاسخگویی در درازمدت حفظ شود. هیئت خاطرنشان کرده است که Meta با اجرای توصیه شماره ۱ در پرونده ویدیوی زندانیان جنگی ارمنی موافقت کرده است. در این توصیه از Meta خواسته شده است پروتکلی مشخص تدوین کند که با آن بتواند اطلاعات مفید در تحقیقات و رویههای حقوقی جبران خسارت یا پیگرد قانونی جنایات وحشیانه یا موارد سنگین نقض حقوق بشر را حفظ کند، و در موارد مقتضی با مراجع ذیصلاح بهاشتراک بگذارد. Meta به هیئت اطلاع داده است که در مراحل پایانی تدوین یک «رویکرد منسجم برای حفظ شواهد بالقوه جنایات وحشیانه و نقض جدی حقوق بین الملل بشردوستانه» است و پیشبینی میکند بهزودی توضیحاتی را درباره رویکرد خود به هیئت ارائه دهد. هیئت انتظار دارد Meta بهطور کامل توصیه فوق را اجرا کند.
*نکتهای درباره روند تصمیمگیری:
تصمیمات تعجیلی هیئت نظارت توسط گروههای پنج نفره تهیه میشود و مشروط به تأیید اکثریت کل هیئت نیست. تصمیمات هیئت لزوماً منعکسکننده نظرات شخصی تمام اعضا نیست.
العودة إلى قرارات الحالة والآراء الاستشارية المتعلقة بالسياسة