قرار قضية متعددة

الصور النمطية السلبية للأمريكيين من أصول أفريقية

راجَع المجلس ثلاث منشورات على فيسبوك تحتوي على مواد تنطوي على عنصرية، ولم تحذف Meta تلك المنشورات. وبعد أن لفت المجلس انتباه Meta إلى هذه الطعون، ألغت الشركة قرارتها الأصلية وأزالت المنشورات.

3 تم تضمين من الحالات في هذه الحزمة

أسقط

FB-LHBURU6Z

حالة بشأن خطاب يحض على الكراهية على فيسبوك

منصة
Facebook
عنوان
تمييز,عِرق وسلالة
معيار
الخطاب الذي يحض على الكراهية
موقع
الولايات المتحدة
Date
تم النشر بتاريخ تم النشر بتاريخ 18 نَيْسان 2024
أسقط

FB-1HX5SN1H

حالة بشأن خطاب يحض على الكراهية على فيسبوك

منصة
Facebook
عنوان
تمييز,عِرق وسلالة
معيار
الخطاب الذي يحض على الكراهية
موقع
المملكة المتحدة,الولايات المتحدة
Date
تم النشر بتاريخ تم النشر بتاريخ 18 نَيْسان 2024
أسقط

FB-ZD01WKKW

حالة بشأن خطاب يحض على الكراهية على فيسبوك

منصة
Facebook
عنوان
تمييز,عِرق وسلالة
معيار
الخطاب الذي يحض على الكراهية
موقع
الولايات المتحدة
Date
تم النشر بتاريخ تم النشر بتاريخ 18 نَيْسان 2024

هذا قرار موجز. تتم في القرارات الموجزة دراسة الحالات التي ألغت فيها Meta قرارها الأصلي بشأن أحد عناصر المحتوى بعد أن لفت المجلس انتباه الشركة إليه وتتضمن معلومات عن الأخطاء التي أقرت Meta بها. وتوافق عليها لجنة من أعضاء المجلس، وليس المجلس بكامله، ولا تتضمن تعليقات عامة ولا تُشكّل سابقة قانونية لدى المجلس. وتؤدي القرارات الموجزة إلى إحداث تغييرات مباشرة في قرارات Meta؛ مما يوفر الشفافية بشأن هذه التصحيحات، مع تحديد الجوانب التي يمكن أن تقوم Meta فيها بتحسين الإنفاذ.

الملخص

راجَع المجلس ثلاث منشورات على فيسبوك تحتوي على مواد تنطوي على عنصرية، ولم تحذف Meta تلك المنشورات. وتضمّن كل منشور صورة كاريكاتورية أو صورة تم التلاعب بها لأمريكيين من أصول أفريقية تسلط الضوء على الصور النمطية المسيئة، بما في ذلك وصفم بأنهم آباء غائبون، والاعتماد على المساعدات الاجتماعية في العيش، ولصوص في أحد المتاجر. تسلط هذه الحالات الضوء على الأخطاء في إنفاذ Meta لسياساتها بشأن الخطاب الذي يحض على الكراهية والمضايقة والإساءة. وبعد أن لفت المجلس انتباه Meta إلى هذه الطعون، ألغت الشركة قرارتها الأصلية وأزالت المنشورات.

حول الحالات

في أواخر عام 2023، تلقى المجلس ثلاثة طعون منفصلة بشأن ثلاث صور مختلفة تم نشرها على فيسبوك، وتحتوي جميعها على مواد سلبية عن الأمريكيين من أصول أفريقية.

في المنشور الأول الذي تمت مشاهدته حوالي 500 ألف مرة، نشر أحد المستخدمين صورة تم إنشاؤها باستخدام برامج الكمبيوتر لمتجر يحترق وبداخله أشخاص من أصحاب البشرة السمراء في شكل شخصيات كرتونية يرتدون سترات بغطاء للرأس ويحملون سِلعًا ويفرّون من المتجر. وتم تغيير اسم المتجر من Target (الهدف) إلى "Loot" (النّهب) في الصورة والشرح التوضيحي المصاحب على حد سواء، ويعلق المستخدم على الصورة بأنها الفيلم القادم من إنتاج شركة Pixar.

يحتوي المنشور الثاني على صورة تم إنشاؤها باستخدام برامج الكمبيوتر تحاكي أيضًا ملصقًا سينمائيًا لأحد الأفلام، وفيه تظهر امرأة سمراء البشرة ذات ملامح جسدية مبالغ فيها تجُر عربة تسوُّق تمتلئ بأكياس الشيتوس. اسم الفيلم هو "EBT"، وهو الاسم الذي يُطلق على منظومة تلقي مزايا الرعاية الاجتماعية في الولايات المتحدة. وفي الجزء العلوي من الملصق في موضع أسماء الممثلين يظهر اسم ترايفون مارتن واسم جورج فلويد، وهما من ضحايا العنف ضد الأمريكيين من أصول أفريقية، فأحدهما أطلق عليه أحد الحراس المسلحين النار في عام 2012 والآخر قُتل على يد أفراد الشرطة في عام 2020. وأشعَل موتهما شرارة الاحتجاجات بشأن الاضطهاد العرقي في النظام القضائي الأمريكي.

يحتوي المنشور الثالث الذي تمت مشاهدته حوالي 14 مليون مرة على ميم يزعم أن "شركة Adobe قامت بتطوير برنامج لديه القدرة على كشف تعديلات الفوتوشوب في الصور". وتوجد أسفل المطالبة صورة لامرأة وعلى كل أجزاء وجهها علامات ملونة (تُستخدم عادةً لإظهار أي تغييرات في الألوان) للإشارة إلى إجراء تغييرات على أجزاء من الصورة. ويأتي ذلك في مقارنة مع صورة لعائلة من أصحاب البشرة السمراء بينما يتناولون الطعام، حيث تظهر نفس العلامات الملونة على وجه الأب والطعام الموجود على الطاولة؛ وهو ما يعني أنه تمت إضافة هذين العنصرين من خلال التعديل. ويُرسخ المنشور الصورة النمطية السلبية المنتشرة حول غياب الأب في العائلات أصحاب البشرة السمراء في الولايات المتحدة، والنابعة من تاريخ مُعقد من العنصرية النظامية وعدم المساواة على المستوى الاقتصادي.

في البداية، لم تحذف Meta أيًا من المنشورات الثلاثة على فيسبوك بالرغم من الطعون التي تقدَّم بها المستخدمون. وقد أفاد نفس هؤلاء المستخدمين في طعونهم المقدَّمة إلى المجلس بأن المحتوى يقدم صورًا نمطية عنصرية مسيئة للأمريكيين من أصول أفريقية.

بعد أن لفت المجلس انتباه Meta إلى هذه الحالات، قررت الشركة أن كل منشور من المنشورات الثلاثة ينتهك معيار المجتمع بشأن الخطاب الذي يحض على الكراهية، والذي بدوره يحظر الهجمات المباشرة ضد الأشخاص على أساس السمات التي تتمتع بحقوق حماية، بما في ذلك العرق والسلالة. وتحظر السياسة أيضًا على وجه التحديد "استهداف شخص أو مجموعة" باستخدام "خطاب ازدرائي" في شكل "مقارنات مع المجرمين، ومنهم اللصوص" و"الاستهزاء بمفهوم جرائم الكراهية أو أحداثها أو ضحاياها" و"التعميمات التي تشير إلى الدونية في ... السمات الأخلاقية."

بالإضافة إلى ذلك، قررت Meta أن المنشور الثاني الذي يتضمن اسم ترايفون مارتن واسم جورج فلويد قد انتهك أيضًا معيار المجتمع بشأن المضايقة والإساءة الذي بموجبه تزيل الشركة "الاحتفاء بحالة موت أو حالة مرضية أو الاستهزاء بها." لأي شخص. وأوضحت الشركة أن "الصورة تتضمن اسم الشخصين المتوفين، ترايفون مارتن وجورج فلويد … المحتوى يستهين بموتهم من خلال الإشارة إلى أنهما سيلعبان دور البطولة في فيلم رسوم متحركة خيالي".
لذا، أزالت الشركة المنشورات الثلاثة دون استثناء.

سُلطة المجلس ونطاق عمله

يتمتع المجلس بسلطة مراجعة قرار شركة Meta بعد تلقي طعن من المستخدم الذي أبلغ عن المحتوى الذي لم تتم إزالته (المادة 2، القسم 1 من اتفاقية المجلس؛ والمادة 3، القسم 1 من اللائحة الداخلية).

عندما تُقر Meta بأنها ارتكبت خطأً وتُلغي قرارها الصادر بشأن حالة قيد النظر نتيجة مراجعة المجلس، يجوز للمجلس اختيار هذه الحالة لإصدار قرار موجز (المادة 2، القسم 2.1.3 من اللائحة الداخلية). ويراجع المجلس القرار الأصلي لزيادة فهم عمليات الإشراف على المحتوى والحد من الأخطاء وتعزيز معدلات الإنصاف لمستخدمي فيسبوك وInstagram.

أهمية الحالات

تسلط هذه الحالات الضوء على ثلاث حالات فشلت شركة Meta فيها في إنفاذ سياساتها بفعّالية ضد الخطاب الذي يحض على الكراهية والمضايقة والإساءة، وذلك من خلال عدم إزالة المنشورات المخالفة على الرغم من شكاوى المستخدمين. وحصل منشوران على عدد كبير من المشاهدات. ويمكن أن تؤثر مثل تلك الأخطاء في الإشراف والمتمثلة في ضعف الإنفاذ بالسلب على الأشخاص التابعين لمجموعات ذات سمات التي تتمتع بحقوق حماية، وتساهم في خلق بيئة من التمييز. وقد قدَّم المجلس لشركة Meta حجة مقنعة لتوجيه أولوية استراتيجية تجاه الخطاب الذي يحض على الكراهية ضد المجموعات المهمشة.

أصدر المجلس في 2022 توصيةً بأنه يجب على شركة Meta "توضيح معيار المجتمع بشأن الخطاب الذي يحض على الكراهية والإرشادات المقدمة للمراجعين، مع توضيح أنه حتى الإشارات الضمنية للمجموعات التي تتمتع بالحماية محظورة بموجب السياسة، عندما يسهل بشكل معقول فهم تلك الإشارات،" ( كرتون كنين، التوصية رقم 1)، والتي أبلغت Meta بالتنفيذ الجزئي بشأنها.

القرار

ألغى المجلس قرار Meta الأصلي بعدم إزالة المنشورات الثلاثة. ويعرب المجلس عن تقديره لقيام Meta بتصحيح أخطائها الأولية بمجرد أن لفت المجلس انتباه الشركة لهاتين الحالتين.

العودة إلى قرارات الحالة والآراء الاستشارية المتعلقة بالسياسة