أسقط

عبارتی درمورد حزب کمونیست چین

یکی از کاربران نسبت به تصمیم Meta به برداشتن یک نظر در Instagram که خواستار «مرگ» حزب کمونیست چین شده بود درخواست تجدیدنظر کرد.

نوع القرار

ملخص

السياسات والمواضيع

عنوان
حرية التعبير، حكومات، احتجاجات
معيار المجتمع
العنف والتحريض

المناطق/البلدان

موقع
الصين

منصة

منصة
Instagram

تصمیمات اجمالی به بررسی پرونده‌هایی می‌پردازد که در آن Meta تصمیم اولیه‌اش درمورد یک محتوا را پس از جلب شدن توجه شرکت به آن پرونده ازسوی هیئت لغو نموده است و حاوی اطلاعاتی درمورد خطاهایی می‌شود که Meta به وقوع آن‌ها اذعان کرده است. این تصمیمات را گروهی از اعضای هیئت، و نه کل اعضا، تأیید می‌کنند، نظرات عمومی در آن دخیل نیست و برای هیئت از ارزش سابقه‌ای برخوردار نیست. تصمیمات اجمالی مستقیماً تغییراتی را در تصمیمات Meta به‌دنبال دارد، و علاوه‌بر ایجاد شفافیت درمورد این اصلاحات، حیطه‌هایی را شناسایی می‌کند که Meta می‌تواند اقدامات اجرایی خود را در آن‌ها بهبود بخشد.

خلاصه

یکی از کاربران نسبت به تصمیم Meta به برداشتن یک نظر در Instagram که خواستار «مرگ» حزب کمونیست چین شده بود درخواست تجدیدنظر کرد. پس از اینکه هیئت توجه Meta را به این درخواست تجدیدنظر جلب کرد، شرکت تصمیم اولیه‌اش را لغو نمود و پست را برگرداند.

درباره این پرونده

ماه مارس ۲۰۲۴، یکی از کاربران Instagram نظری پست کرد که در آن گفته بود: «مرگ بر حزب کمونیست چین!» و در ادامه، اموجی جمجمه گذاشته بود. این نظر در واکنش به پستی از حساب یک منبع خبری بود که ویدیویی از سخنگوی سابق وزارت امور خارجه چین، آقای وانگ ونبین، را نشان می‌داد. در این ویدیو، او تصویب لایحه‌ای در مجلس نمایندگان ایالات متحده را که می‌توانست بر حضور TikTok در کشور اثرگذار باشد محکوم کرد.

Meta در ابتدا پست این کاربر را طبق استاندارد انجمن درخصوص خشونت و تحریک از فیس‌بوک برداشت، چون طبق آن «تهدید به خشونت» ممنوع شده است. شرکت توضیح داد که این ممنوعیت شامل مورد ذیل می‌شود: «انواع خاصی از عباراتِ خواستار مرگ اگر هدف و روشی برای اعمال خشونت درکار باشد.»

وقتی هیئت توجه Meta را به این پرونده جلب کرد، شرکت تشخیص داد برداشتن این نظر نادرست بوده و بنابراین آن را به Instagram برگرداند. همان‌طور که در دستورالعمل‌های داخلی Meta برای بازبینان توصیف شده است، Meta توضیح داد که عباراتِ خواستار مرگ یک نهاد، همچون حزب کمونیست چین، ناقض قوانین دانسته نمی‌شود.

حدود و اختیارات هیئت

هیئت این اختیار را دارد که تصمیم Meta را پس از طرح درخواست تجدیدنظر از طرف کاربری که محتوای او برداشته شده است بازبینی کند (منشور، ماده ۲، بخش ۱؛ آیین‌نامه، ماده ۳، بخش ۱).

مواقعی که Meta به مرتکب شدن خطا اذعان کند و تصمیمش در یک پرونده تحت بررسی را جهت بازبینی هیئت لغو کند، هیئت ممکن است آن پرونده را برای گنجاندن در یک تصمیم اجمالی انتخاب نماید (ماده ۲ از آیین‌نامه، بخش ۲‏.۱‏.۳). هیئت به بازبینی تصمیم اولیه می‌پردازد تا درک و آگاهی از رویه‌های دخیل در نظارت بر محتوا را افزایش دهد، از وقوع خطاها بکاهد و عدالت بیشتری را برای کاربران فیس‌بوک، Instagram و Threads فراهم کند.

اهمیت پرونده

این پرونده نشانگر ناهماهنگی در رویه Meta برای اجرای خط‌مشی «خشونت و تحریک» روی عبارات استعاری یا مجازی در بافتارهای سیاسی است، که می‌تواند تأثیر نامتناسبی بر گفتار سیاسی داشته باشد، چیزی که برای دولت‌ها و مؤسسات دولتی حیاتی است. این پرونده بر اهمیت لحاظ شدنِ هدف گفتار توسط Meta (که در این پرونده یک حزب سیاسی است)، و همین‌طور بر استفاده افراد از گفتار مبالغه‌آمیز، بلاغی، کنایه‌آمیز و هجو در انتقاد از مؤسسات تأکید می‌کند که باید موقع طراحی سیستم‌های نظارتی خود مدنظر قرار گیرد.

در گفتمان بلاغی، هیئت در پرونده شعر روسی ملاحظه کرد که گزیده‌هایی از لحن خشونت‌آمیز شعر «بکُشیدش!» می‌تواند طوری خوانده شود که گویی «توصیف‌کنندۀ یک وضعیت ذهنی است، نه ترغیب‌کنندۀ آن.» هیئت تشخیص داد که از لحن به‌عنوان ابزاری بلاغی برای انتقال پیام کاربر استفاده شده است و درنتیجۀ آن، بخش مذکور محتوا طبق دستورالعمل‌های داخلی Meta در رابطه با خط‌مشی «خشونت و تحریک» مجاز شناخته شد.

تصمیم ربات میانمار بااینکه به نوع دیگری از استاندارد انجمن (نفرت‌پراکنی) می‌پردازد، موضوعی مرتبط در اینجا است چون به گفتاری که مخاطبش دولت‌های یا مؤسسات سیاسی هستند نیز مربوط می‌شود. در آن پرونده، هیئت نتیجه گرفت ازآنجایی که لحن ناسزای آن پست هیچ گروهی از افراد را برمبنای نژاد، قومیت یا ملیت اصلی هدف قرار نداده و درعوض مخاطبش یک دولت بوده است، موجب نقض «استاندارد انجمن فیس‌بوک درخصوص نفرت‌پراکنی» نمی‌شود. هیئت تأکید کرد: «اطمینان از این موضوع اهمیت ویژه دارد که ممنوعیت‌های تعیین‌شده در هدف قرار دادن افراد برمبنای ویژگی‌های محافظت‌شده به‌شکلی تفسیر نشود که دولت‌ها یا نهادها در مقابل انتقاد مصون دانسته شوند.»

هیئت پیش‌تر با جدیت از Meta خواسته است رویه‌های مقتضی را برای ارزیابی محتواها در بافتار ذیربطشان وارد کار کند (توصیه شماره ۳ در پرونده میمدو دکمه‌ای). همچنین توصیه کرده است: «برای آگاه‌سازی بهتر کاربران از انواع عباراتی که ممنوع هستند، Meta باید «استاندارد انجمن درخصوص خشونت و تحریک» را طبق شرح ذیل اصلاح کند: (الف) توضیح دهد که تهدیدات استعاری مثل عبارات «مرگ بر فلانی» عموماً مجاز هستند، به‌جز در مواقعی که هدف آن تهدید یکی از اشخاص پرخطر باشد...» (توصیه شماره ۱ در پرونده شعار اعتراضی ایران)؛ و «درمواقعی که تخصیص استثنائات در سطح کلان (الف) محتمل به منجر شدن به خشونت نباشد؛ (ب) محتواهای ناقض احتمالی در بافتارهای اعتراضی به‌کار رود؛ و (ج) سطح بالایی از منافع عمومی درکار باشد، اولویت را بر تخصیص آن‌ها بگذارد (توصیه شماره ۲ در پرونده شعار اعتراضی ایران).

Meta گزارشی از اجرای توصیه مربوط به پرونده «میم دو دکمه‌ای» و توصیه شماره ۲ در پرونده «شعار اعتراضی ایران» ارائه داد، اما اطلاعاتی در اثبات این موضوع منتشر نکرد. درخصوص توصیه شماره ۱ از پرونده شعار اعتراضی ایران، Meta در به‌روزرسانی سه‌ماهه چهارم سال ۲۰۲۳ برای هیئت بیان کرد: «ما استانداردهای انجمن درخصوص خشونت و تحریک را با ارائه جزئیات بیشتر درمورد آنچه «تهدید» به‌حساب می‌آید و با متمایز کردن اقدامات اجرایی‌مان برپایه هدف تهدید، به‌روزرسانی کرده‌ایم. طی بخشی از این کار، رهنمود داخلی را نیز به‌روزرسانی‌ کردیم.»

هیئت معتقد است اجرای کامل این توصیه‌ها می‌تواند در کاهش تعداد خطاهای اجرایی مرتبط با خط‌مشی «خشونت و تحریک» نقشی ایفا کند.

تصمیم

هیئت تصمیم اولیه Meta به برداشتن محتوا را رد می‌کند. هیئت اذعان می‌کند که Meta خطای ابتدایی خود را موقعی که توجه Meta ازسوی هیئت به این پرونده جلب شد اصلاح نمود.

العودة إلى قرارات الحالة والآراء الاستشارية المتعلقة بالسياسة