قرار قضية متعددة
مقاطع فيديو لمعلمين يضربون الأطفال
تم النشر بتاريخ 31 تَمُّوز 2025
يوصي مجلس الإشراف بتضمين استثناء في معيار مجتمع Meta بشأن عُري الأطفال وإساءة معاملتهم، واستغلالهم جنسيًا للسماح بمقاطع الفيديو التي تُظهر استغلالاً غير جنسي للأطفال في البيئات التعليمية، في ظروف معينة.
2 تم تضمين من الحالات في هذه الحزمة
FB-3WTN9CX3
حالة بشأن عُري الأطفال واستغلالهم جنسيًا على فيسبوك
FB-UR3UXTEA
حالة بشأن عُري الأطفال واستغلالهم جنسيًا على فيسبوك
للاطلاع على القرار بالكامل باللغة البنجابية، انقر هنا.
ਇਸ ਫ਼ੈਸਲੇ ਨੂੰ ਪੰਜਾਬੀ ਵਿੱਚ ਪੜ੍ਹਨ ਲਈ, ਇੱਥੇ ਕਲਿੱਕ ਕਰੋ।
الملخص
عند النظر في مقطعي فيديو يُظهران استغلالاً غير جنسي للأطفال في بيئات تعليمية، يوصي مجلس الإشراف بتضمين استثناء في معيار مجتمع Meta بشأن عُري الأطفال وإساءة معاملتهم، واستغلالهم جنسيًا للسماح بمثل هذا المحتوى، عند مشاركته بهدف الإدانة أو الإبلاغ أو تعزيز الوعي، وعندما لا تكون هوية الأطفال قابلة للتحديد. إن الحظر الحالي الذي تفرضه Meta على نشر مقاطع الفيديو أو الصور التي تتناول الاستغلال غير الجنسي للأطفال، بغض النظر عن النية وحتى عند إخفاء هوية الأطفال، يؤدي إلى فرض قيود غير متناسبة على حرية التعبير. فمن شأن مشاركة مثل هذا المحتوى أن تساهم في النقاش العام حول قضايا مهمة تتعلق بحقوق الأطفال.
وقد أيّد المجلس قرار Meta بالسماح بهذا المحتوى في إحدى الحالتين، وألغى قرارها بإزالته في الحالة الأخرى. يجب الإبقاء على كلا المنشورين بموجب استثناء الأهمية الإخبارية، مع عرض شاشات تحذيرية.
حول الحالات
في الحالة الأولى، نشرت مؤسسة إعلامية هندية مقطع فيديو على صفحتها على فيسبوك تظهر فيه معلمة تصرخ على تلميذ صغير لعدم المذاكرة، وتضربه بشكل متكرر على رأسه وظهره، وبدا أنها تجذب عمامته. وقد غطت علامة تمويه وجه الطفل خلال معظم أوقات الفيديو. وأشار الشرح التوضيحي إلى أن مسؤولاً في الولاية قد دعا إلى المساءلة.
في الحالة الثانية، تم نشر مقطع فيديو على صفحة فيسبوك يبدو أنها مخصصة لمشاركة الأخبار المحلية من إحدى المناطق في فرنسا. ويُظهر الفيديو مجموعة من الأطفال الصغار جدًا، بينما يبكي أحدهم. يقوم أحد المعلمين بضرب الطفل، الذي يسقط على الأرض بينما يشاهده الأطفال الآخرون. وجميع الوجوه في الفيديو مموهة. ويشير الشرح التوضيحي إلى المدرسة والتاريخ والحي الذي وقع فيه الحادث، وإلى وجود تحقيق جارٍ.
بعد الإبلاغ عن المحتوى الهندي وتصعيده، قرر خبراء السياسات في Meta أن المحتوى ينتهك سياسة "عُري الأطفال وإساءة معاملتهم، واستغلالهم جنسيًا" وقاموا بإزالته. وكشفت الشركة للمجلس أنها لم تطبق أي إنذار على الحساب، لأن المحتوى نُشر بهدف تعزيز الوعي.
أما المحتوى الفرنسي، فقد تمت إزالته دون مراجعة بشرية لانتهاكه السياسة نفسها. وبعد أن طعن منشئ المحتوى في القرار، أكدت Meta صحة الإزالة، لكنها ألغت الإنذارات التي طبقتها سابقًا نظرًا للمصلحة العامة ولأن المحتوى تمت مشاركته بهدف تعزيز الوعي.
وقد أحالت Meta كلتا الحالتين إلى المجلس. وعند إعداد المعلومات التي سيتم تقديمها إلى المجلس، قرر خبراء السياسات في Meta الإبقاء على المحتوى الفرنسي مع منحه استثناء الأهمية الإخبارية وعرض شاشة تحذيرية. وذكرت Meta أن محاميًا يمثل والدي الطفل قد شارك الفيديو في وسائل الإعلام المحلية لتعزيز الوعي بالحادث. بالنسبة إلى Meta، كان هذا يعني أن قيمة المصلحة العامة تفوق الضرر، حيث إن "موافقة الوالدين خففت من المخاوف المتعلقة بالخصوصية والكرامة".
النتائج الرئيسية
يرى المجلس أن الحظر الذي تفرضه Meta على نشر مقاطع الفيديو أو الصور التي تتناول الاستغلال غير الجنسي للأطفال، بغض النظر عن النية وحتى عند إخفاء هوية الأطفال، يؤدي إلى فرض قيود غير متناسبة على حرية التعبير. فسياسة "عُري الأطفال وإساءة معاملتهم، واستغلالهم جنسيًا" لا تفرق بين الأطفال الذين يمكن تحديد هويتهم وأولئك الذين لا يمكن تحديد هويتهم. ومع ذلك، فإن إمكانية تحديد الهوية تعد أمرًا بالغ الأهمية. فإذا تم تخفيف هذا الخطر، تكون المخاوف المتعلقة بالخصوصية والكرامة محدودة بشكل أكبر.
يرى المجلس أن كلا المنشورين ينتهك سياسة "عُري الأطفال وإساءة معاملتهم، واستغلالهم جنسيًا". ومع ذلك، ترى الأغلبية أنه يجب الإبقاء عليهما بموجب استثناء الأهمية الإخبارية، مع عرض شاشات تحذيرية وتقييد إمكانية ظهورهما للمستخدمين الذين تزيد أعمارهم عن 18 عامًا. وهذا يتوافق مع مسؤوليات Meta تجاه حقوق الإنسان، ويحقق بشكل أفضل اختبار الضرورة والتناسب، مما يتيح قدرًا أكبر من حرية التعبير. يتمتع كلا المنشورين بقيمة عالية من حيث المصلحة العامة، ويشجعان على المساءلة، ويحاولان منع تحديد هوية الأطفال. وفي الحالة الفرنسية، فإن موافقة الوالدين، على الرغم من أنها ليست قاطعة، تدعم افتراض أن نشر الفيديو لا يتعارض مع مصالح الطفل الفضلى. وتساهم مثل هذه التغطية الإعلامية في نقاشات عامة مهمة حول حقوق الأطفال، في سياق الجهود العالمية المتزايدة لحظر الإساءة للأطفال في البيئات التعليمية.
وتختلف أقلية من أعضاء المجلس مع هذا الرأي، حيث ترى أن المصلحة العامة لا تفوق خطر الإضرار بخصوصية وكرامة الأطفال الظاهرين في الفيديو. فبالنسبة إلى هؤلاء الأعضاء، فإن إزالة المحتوى هي الطريقة المثلى لاحترام مصالح الأطفال.
قرار مجلس الإشراف
يؤيد المجلس قرار Meta في الحالة الفرنسية بالإبقاء على المحتوى على المنصة بموجب استثناء الأهمية الإخبارية وعرض شاشة تحذيرية. ويلغي المجلس قرار Meta في الحالة الهندية، ويطالب باستعادة المحتوى بموجب استثناء الأهمية الإخبارية وعرض شاشة تحذيرية.
يوصي المجلس Meta بما يلي:
- تضمين استثناء في سياسة "عُري الأطفال وإساءة معاملتهم، واستغلالهم جنسيًا" المتاحة للعامة يسمح بنشر الصور ومقاطع الفيديو التي تتناول الاستغلال غير الجنسي للأطفال على يد البالغين، عند مشاركتها بقصد الإدانة أو الإبلاغ أو تعزيز الوعي. ويجب تطبيق هذا الاستثناء فقط عندما لا يكون الطفل قابلاً للتحديد بشكل مباشر بالاسم أو الصورة، أو قابلاً للتحديد وظيفيًا (عندما يُحتمل أن تؤدي القرائن السياقية إلى تحديد هوية الفرد). ويجب السماح بالمحتوى مع عرض شاشة تحذيرية وتقييد إمكانية ظهوره للمستخدمين الذين تبلغ أعمارهم 18 عامًا فأكثر. ويجب تطبيق هذا الاستثناء فقط في الحالات التي يتم تصعيدها.
- عدم تطبيق أي إنذارات على الحسابات التي يُزال منها محتوى يتعلق بالاستغلال غير الجنسي للأطفال بعد تصعيد الحالة، عندما تكون هناك مؤشرات واضحة على نية المستخدم في الإدانة أو الإبلاغ أو تعزيز الوعي.
القرار الكامل بشأن الحالة
1. وصف الحالة ومعلومات أساسية عنها
يتناول هذا القرار حالتين لمقطعي فيديو نُشرا على فيسبوك يُظهران استغلالاً غير جنسي للأطفال في بيئات تعليمية. وقد نُشِر هذان المقطعان بهدف تعزيز الوعي. قررت Meta أن كلا عنصري المحتوى ينتهك سياستها بشأن عُري الأطفال وإساءة معاملتهم، واستغلالهم جنسيًا التي تحظر "مقاطع الفيديو أو الصور التي تعرض أطفالاً يتعرضون لاستغلال غير جنسي بصرف النظر عن الغرض من المشاركة". وقد أحالت Meta كلتا الحالتين إلى المجلس طلبًا للإرشاد حول كيفية التعامل مع سلامة الأطفال وكرامتهم، بالإضافة إلى الحاجة إلى تعزيز الوعي حول الأحداث والقضايا ذات الأهمية الإخبارية.
في الحالة الأولى، نشرت مؤسسة إعلامية في الهند مقطع فيديو على صفحتها على فيسبوك تظهر فيه معلمة تصرخ على تلميذ صغير لعدم المذاكرة. وقد قامت بضربه بشكل متكرر على رأسه وظهره، وبدا أنها تجذب عمامته. ووُضِعت علامة تمويه على وجه الطفل. وعلى الرغم من أن علامة التمويه فشلت أحيانًا في تغطية وجهه المتحرك، إلا أنه ظل من الصعب تحديد هويته بوضوح. وكانت المعلمة والطلاب الآخرون ظاهرين في الفيديو. وحدد الشرح التوضيحي مكان وقوع الحادث وأشار إلى أن مسؤولاً في الولاية قد دعا إلى المساءلة.
وقد شُوهد المنشور آلاف المرات. وأبلغ عنه عشرة أشخاص. ونظرًا لأن الحساب يتمتع بوسائل حماية عبر التحقق الشامل، فقد تم تصعيد أحد البلاغات إلى خبراء السياسات الذين قرروا أن المحتوى ينتهك سياسة "عُري الأطفال وإساءة معاملتهم، واستغلالهم جنسيًا" وقاموا بإزالة المنشور. تصف Meta برنامج التحقق الشامل بأنه استراتيجية لمنع الأخطاء توفر مستويات إضافية من المراجعة. وكشفت Meta للمجلس أنها لم تطبق أي إنذار على حساب منشئ المحتوى لأن المحتوى نُشر بهدف تعزيز الوعي.
في الحالة الثانية، تم نشر مقطع فيديو على صفحة فيسبوك يبدو أنها مخصصة لمشاركة الأخبار المحلية من إحدى المناطق في فرنسا. ويُظهر الفيديو مجموعة من الأطفال الصغار جدًا في إحدى البيئات التعليمية، بينما يبكي أحدهم. ويقوم المعلم بضرب الطفل، الذي يسقط على الأرض بينما يشاهده الأطفال الآخرون. ويظهر المعلم أيضًا وهو يرش شيئًا ما على الطفل. جميع الوجوه في هذا الفيديو مموهة. ويذكر الشرح التوضيحي الحي والتاريخ والمدرسة المحددة التي تم فيها تصوير الحادث على ما يبدو، ويشير إلى وجود تحقيق جارٍ.
وقد شُوهد المنشور آلاف المرات. وأبلغ عنه أحد المستخدمين وحدده نظام تلقائي على أنه يُحتمل أن يكون مخالفًا لسياسة "عُري الأطفال وإساءة معاملتهم، واستغلالهم جنسيًا". وقد تمت إزالة المحتوى دون مراجعة بشرية لانتهاك السياسة. وقد طبقت Meta إنذارًا عاديًا وآخر شديدًا على حساب منشئ المحتوى الخاص بالحالة. وقام مسؤول الصفحة بتصعيد المحتوى من خلال "قناة دعم منشئي المحتوى" للطعن في الإزالة. توفر Meta موارد لمنشئي المحتوى الذين يسعون إلى زيادة جمهورهم وكسب المال، وقد تتضمن قنوات دعم إضافية للمستخدمين. بعد ذلك، أكد خبراء السياسات صحة الإزالة ولكنهم ألغوا القرار السابق بتطبيق الإنذارات بسبب "المصلحة العامة وسياق تعزيز الوعي".
وفي وقت لاحق، بينما كانت Meta تعد المعلومات التي سيتم تقديمها إلى المجلس، قرر خبراء السياسات لديها السماح ببقاء المحتوى على المنصة بموجب استثناء الأهمية الإخبارية وعرض شاشة تحذيرية. ووفقًا لشركة Meta، فإن محاميًا يمثل والدي الطفل قد شارك الفيديو في وسائل الإعلام المحلية لتعزيز الوعي بالحادث. بالنسبة إلى الشركة، كان هذا يعني أن قيمة المصلحة العامة تفوق الضرر، حيث إن "موافقة الوالدين خففت من المخاوف المتعلقة بالخصوصية والكرامة".
أخذ المجلس السياق التالي في الحسبان عند التوصل إلى قراره:
تفيد منظمة الأمم المتحدة للتربية والعلم والثقافة (اليونسكو) بأن العنف المدرسي منتشر على نطاق واسع، ويؤثر في الطلاب والعاملين في مجال التعليم. وتشير تقديراتها إلى أن مليار طفل تتراوح أعمارهم بين سنتين و17 عامًا يواجهون شكلاً من أشكال هذا العنف كل عام. ووفقًا لمنظمة الصحة العالمية (WHO)، "في بعض البلدان، يبلغ جميع الطلاب تقريبًا عن تعرضهم للعقاب الجسدي من قِبل موظفي المدارس"، مع ملاحظة وجود أعلى المعدلات في أفريقيا وجنوب آسيا. أظهرت دراسة أجرتها اليونيسف - منظمة الأمم المتحدة للطفولة - أن العقاب البدني والمضايقات في المدارس لا تزال شائعة في جنوب آسيا على الرغم من الحظر التشريعي.
ووفقًا لمنظمة المجتمع المدني End Corporal Punishment (إنهاء العقاب البدني)، فإن العقاب البدني محظور في المدارس في الهند. ولا ينطبق القانون إلا على الأطفال الذين تتراوح أعمارهم بين 6 و14 عامًا، ويستثني بعض البيئات مثل المدارس الدينية ومراكز الرعاية النهارية والمنزل. في المقابل، حظرت فرنسا العقاب البدني في جميع البيئات، بما في ذلك المنزل، منذ عام 2019.
2. المعلومات المقدَّمة من المستخدمين
عقب إحالة Meta للحالتين وقرار المجلس بقبولهما، أُتيحت للمستخدمَين اللذين نشرا المحتوى فرصة لتقديم إفادة. لكن لم يتم تلقي أي رد.
3. سياسات المحتوى والمعلومات المقدمة من Meta
1. سياسات المحتوى لدى Meta
عُري الأطفال وإساءة معاملتهم، واستغلالهم جنسيًا
تنص مبادئ سياسة Meta على أن الشركة "لا تسمح بالمحتوى أو النشاط الذي يستغل الأطفال جنسيًا أو يعرّضهم للخطر". ويحظر معيار المجتمع "مقاطع الفيديو أو الصور التي تصوّر استغلالاً غير جنسي للأطفال سواء كان حقيقيًا أو غير حقيقي وبغض النظر عن القصد من وراء مشاركته، ما لم تكن الصور من عمل فني واقعي، أو رسوم متحركة أو أفلام سينما أو ألعاب فيديو". كما تحظر السياسة "المحتوى الذي يشيد بالاستغلال غير الجنسي للأطفال أو يدعمه أو يروّجه أو يؤيده أو يوفر إرشادات للقيام به أو يشجّع على المشاركة فيه". أوضحت Meta للمجلس أن إرشاداتها الداخلية تستخدم "قائمة شاملة لأفعال محددة من الإيذاء الجسدي غير الجنسي يرتكبها شخص بالغ أو حيوان تجاه أي شخص دون سن 18 عامًا" لتعريف الاستغلال غير الجنسي للأطفال.
وهناك عدد قليل من الأحكام المتعلقة بالسياق في هذه السياسة، والتي يتم تطبيقها، وفقًا لما تراه Meta، عند تصعيد الحالات إلى فرق متخصصة. وتسمح السياسة الحالية، عند تصعيد الحالة، بالإبقاء على "مقاطع الفيديو أو الصور التي تتناول الاستغلال غير الجنسي للأطفال" على المنصة عندما تطلب ذلك جهات تطبيق القانون أو وكالات حماية الطفل أو شركاء السلامة الموثوق بهم، وذلك بهدف المساعدة تحديدًا في الجهود المبذولة لتأمين سلامة الطفل. كما تسمح "بمقاطع فيديو أو صور تصوّر ضباط شرطة أو عسكريين يرتكبون أفعالاً تنطوي على استغلال غير جنسي للأطفال". وفي كلتا الحالتين، تطبق Meta شاشة تحذيرية على المحتوى المزعج وتقصر إمكانية ظهوره على المستخدمين الذين تبلغ أعمارهم 18 عامًا فأكثر. وتنص سياسة الحماية الإضافية للقاصرين أيضًا على أن Meta تمتثل "للطلبات الحكومية بإزالة صور الاستغلال غير الجنسي للأطفال".
ولا يوجد استثناء على مستوى السياسة يتعلق بعمليات تصوير الاستغلال غير الجنسي للأطفال عند مشاركتها في سياق التغطية الإخبارية أو تعزيز الوعي أو الإدانة. ومع ذلك، يجوز للشركة السماح بهذا المحتوى بموجب استثناء الأهمية الإخبارية العام لديها، بعد مراجعة يتم تصعيدها إلى فرق السياسات (راجع صور عُري جزئي لنساء من السكان الأصليين).
في ظروف معينة، ستسمح الشركة ببقاء المحتوى الذي ينتهك سياساتها على المنصة إذا كان "له أهمية إخبارية وإذا كان إبقاؤه معروضًا على المنصة يخدم المصلحة العامة". وتذكر Meta أنها عند اتخاذ هذا القرار، توازن بين المصلحة العامة لنشر المحتوى وخطر وقوع الضرر. وتقيّم الشركة "ما إذا كان المحتوى ينطوي على تهديد وشيك للصحة أو السلامة العامة أو يعبر عن وجهات نظر تتم مناقشتها حاليًا كجزء من عملية سياسية". وتقول الشركة إن تحليلها يستند إلى الظروف الخاصة بكل بلد، وطبيعة الخطاب، والبنية السياسية ذات الصلة، ومقدار حرية الصحافة. وبالنسبة إلى المحتوى الذي قد يكون حساسًا أو مزعجًا والذي تبقيه Meta على المنصة بموجب هذا الاستثناء، فإن الشركة تضع شاشة تحذيرية. كما يمكنها تقييد الوصول إليه للمستخدمين الذين تبلغ أعمارهم 18 عامًا فأكثر. يمكن تطبيق هذا الاستثناء على أي سياسة محتوى، ولكن نظرًا لأنه لا يجوز منحه إلا من قِبل المشرفين المتخصصين، فإنه نادر الحدوث. وتذكر Meta في مركز الشفافية التابع لها أنها طبقت هذا الاستثناء 32 مرة بين يونيو 2023 ويونيو 2024.
2. المعلومات المقدَّمة من Meta
تتخذ Meta "موقفًا حازمًا ضد مشاركة المحتوى الذي يتناول الاستغلال غير الجنسي للأطفال، بغض النظر عن النية، لإعطاء الأولوية لسلامة القاصرين وكرامتهم وخصوصيتهم"، نظرًا "لخطر الضرر الكبير" الذي يشكله مثل هذا المحتوى. ووفقًا لشركة Meta، فقد أكدت مجموعة واسعة من الأطراف المعنية أن مشاركة هذه المواد يمكن أن تتسبب في إعادة صدمة الطفل نفسيًا، وتعرضه للمضايقة المستمرة والشعور بالخزي، وتعيق تعافيه، خاصةً بالنظر إلى الظهور الدائم للمحتوى على وسائل التواصل الاجتماعي.
وأكدت Meta أن المدافعين عن حقوق الطفل يدعمون إعطاء الأولوية لسلامة الأطفال الضحايا وخصوصيتهم، مع الاعتراف في الوقت ذاته بأن وسائل التواصل الاجتماعي يمكن أن تلعب دورًا إيجابيًا في تعزيز الوعي. كما أشارت Meta إلى أن "مخاطر الخصوصية تقل، ولكنها لا تزول، عندما يكون وجه الضحية غير ظاهر أو مموهًا". ولتحقيق التوازن بين هذه المخاوف، تحظر السياسة مقاطع الفيديو والصور التي تتناول الاستغلال غير الجنسي للأطفال ولكنها تسمح بالأوصاف النصية، والتي تُستخدم غالبًا في التغطية الإخبارية.
قررت Meta أن كلا المنشورين ينتهك سياستها التي تحظر تصوير "الاستغلال غير الجنسي للأطفال، سواء كان حقيقيًا أو غير حقيقي وبغض النظر عن القصد من وراء مشاركته". ومع ذلك، وجدت Meta في النهاية أن المحتوى في الحالة الفرنسية كان مؤهلاً للحصول على استثناء الأهمية الإخبارية، وأعادت المنشور مع عرض شاشة تحذيرية. وقد مُنح الاستثناء نظرًا لقيمة المصلحة العامة للمنشور ومحدودية المخاطر. وقد وافق والدا الطفل على نشر الفيديو، مما خفف من المخاوف المتعلقة بالخصوصية والكرامة. كما أشارت Meta إلى أن وجه الطفل قد تم تمويهه. وذكرت Meta أنه لو كان أي من هذين العاملين مختلفًا، لكانت النتيجة قد تغيرت. كما أقرت Meta بأن تمويه وجه الطفل يقلل من الخطر ولكنه لا يزيله، حيث إن القرائن السياقية الأخرى قد تؤدي إلى تحديد الهوية.
في المقابل، تمت إزالة المنشور في الحالة الهندية ولم يحصل على استثناء الأهمية الإخبارية. ورأت Meta أنه على الرغم من أن المحتوى له قيمة من حيث المصلحة العامة لتعزيز الوعي حول الإساءة للأطفال في المدارس، إلا أن خطر الضرر كان كبيرًا. فقد كشف المنشور عن موقع المدرسة وأظهر وجه المعلمة دون تمويه، مما قلل من درجة إخفاء الهوية. ونتيجة لذلك، كان من المحتمل أن يتمكن السكان المحليون من تحديد هوية الطفل. كما أشارت Meta إلى أنه، على عكس الحالة الفرنسية، لم يكن هناك دليل على موافقة الطفل أو أسرته على مشاركة الصور. لذلك، فإن المصلحة العامة لم تفُق خطر الضرر الناجم عنه.
وأوضحت Meta للمجلس أنها في النهاية لم تطبق أي إنذار على أي من منشئي المحتوى، حيث تمت مشاركة كلا المنشورين بهدف تعزيز الوعي. وقد تلقى المنشور الفرنسي إنذارًا عاديًا وآخر شديدًا بعد المراجعة الأولى، ولكن تم إلغاء هذا القرار بعد فترة وجيزة خلال المراجعة التي تم تصعيدها.
وطرح المجلس على Meta أسئلة حول سياستها المتعلقة بالاستغلال غير الجنسي للأطفال، بما في ذلك المبادئ التي تستند إليها هذه السياسة، والأطراف المعنية التي تمت استشارتها وآراؤهم، وتطبيق استثناء الأهمية الإخبارية، وعمليات إنفاذ السياسة. كما استفسر المجلس عن جدوى تزويد المستخدمين بأدوات تجعل هوية الأطفال غير قابلة للتحديد. وقد أجابت Meta عن كل هذه الأسئلة.
4. التعليقات العامة
تلقى المجلس سبعة تعليقات عامة استوفت شروط إرسال التعليقات. وقد قُدمت ستة تعليقات من الولايات المتحدة وكندا، وواحد من أوروبا. وللاطلاع على التعليقات العامة المقدمة التي وافق أصحابها على نشرها، انقر هنا.
تناولت المعلومات المقدمة الموضوعات التالية: الأضرار المحتملة على الأطفال وأسرهم والمجتمع من السماح بنشر صور الاستغلال غير الجنسي للأطفال على وسائل التواصل الاجتماعي، ومسؤوليات منصات التواصل الاجتماعي، والعقاب البدني كانتهاك لحقوق الإنسان للطفل، والتغطية الإعلامية لاستغلال الأطفال كقضية تهم المصلحة العامة، من أجل المساءلة.
5. تحليل مجلس الإشراف
اختار المجلس هاتين الحالتين نظرًا لأهمية حرية التعبير التي تدعم المساءلة حول القضايا التي تهم المصلحة العامة، والحاجة إلى احترام المصالح الفضلى للطفل. وتسلط هاتان الحالتان الضوء على حالة الشد والجذب بين قيم Meta المتمثلة في حرية الرأي وضمان خصوصية الأطفال وسلامتهم وكرامتهم.
أجرى المجلس تحليلاً لقرار Meta بشأن هذه الحالة في ضوء سياسات المحتوى التي تتبعها الشركة، وقيمها، ومسؤولياتها تجاه حقوق الإنسان. كما أجرى المجلس تقييمًا للآثار التي تمثلها هذه الحالة فيما يتعلق بنهج Meta الأوسع في إدارة المحتوى.
5.1 الامتثال لسياسات المحتوى لدى شركة Meta
قواعد المحتوى
يرى المجلس أن كلا المنشورين يمثل انتهاكًا لسياسة Meta بشأن "عُري الأطفال وإساءة معاملتهم، واستغلالهم جنسيًا"، حيث تحظر هذه السياسة عرض أي صور للاستغلال غير الجنسي للأطفال. يُظهر كلا المقطعين بالغين يضربون أطفالاً.
وترى غالبية أعضاء المجلس أن Meta كانت على صواب في تطبيق استثناء الأهمية الإخبارية في الحالة الفرنسية، وأنه كان ينبغي على Meta تطبيق هذا الاستثناء على الحالة الهندية أيضًا. بالنسبة إلى الأغلبية، وبموجب سياسات Meta، يجب الإبقاء على كلا عنصري المحتوى على المنصة مع عرض شاشات تحذيرية، وقصر ظهورهما على المستخدمين الذين تزيد أعمارهم عن 18 عامًا.
ووفقًا لاختبار استثناء الأهمية الإخبارية لدى Meta، كان لكلا عنصري المحتوى قيمة عالية من حيث المصلحة العامة. تصور مقاطع الفيديو أعمال عنف يرتكبها بالغون، وهم في مواقع سلطة ومسؤولية تعليمية، ضد أطفال، ويحتوي كل منهما على شروح توضيحية تعكس الجهود المبذولة للمساءلة عن هذه الإساءة. وأكدت الأغلبية على الأهمية الخاصة التي يمكن أن تحملها الصور المرئية في الصحافة وجهود الدفاع والوعي العام.
كما يمثل كلا عنصري المحتوى خطرًا محدودًا على الأطفال الذين تم تصويرهم. وسلطت الأغلبية الضوء على الجهود المبذولة لإخفاء هوية الأطفال من خلال تمويه وجوههم. وفي حين أن المعلومات المتعلقة بالموقع في الشروح التوضيحية والقرائن السياقية في المحتوى يمكن أن تسهل تحديد هوية المدارس، ترى الأغلبية أنه سيظل من الصعب تحديد هوية الأطفال الذين تم تمويه وجوههم. وعلى الرغم من أن Meta سلطت الضوء على وجود خطر للضرر في الحالة الهندية، ترى الأغلبية أن هذا الضرر غير واضح نظرًا لعدم احتمال تحديد الهوية. بالإضافة إلى ذلك، في الحالة الفرنسية، فإن موافقة والدي الطفل المعتدى عليه، على الرغم من أنها ليست عاملًا حاسمًا، تدعم افتراض أن نشر الفيديو لا يتعارض مع المصالح الفضلى للطفل.
وتختلف أقلية من أعضاء المجلس مع هذا الرأي، حيث ترى أنه ما كان ينبغي تطبيق استثناء الأهمية الإخبارية على أي من الحالتين. ويوافق هؤلاء الأعضاء على وجود مصلحة عامة في المحتوى، لكنهم يرون أنها لا تفوق خطر الإضرار بخصوصية وكرامة الأطفال الذين تم تصويرهم. وركزت الأقلية على استمرارية تداول المحتوى بمجرد نشره عبر الإنترنت وإمكانية تحديد هوية الأطفال الضحايا، على الرغم من التمويه، من خلال القرائن السياقية في كلا المنشورين. بالنسبة إلى الأقلية، فإن موافقة الوالدين لا تقلل من تلك المخاطر. ويعتقد هؤلاء الأعضاء أنه حتى لو وافق بعض الآباء على مشاركة مقاطع الفيديو هذه على وسائل التواصل الاجتماعي، فإن ذلك لا يخدم بالضرورة المصالح الفضلى للطفل أو الأطفال المعنيين.
5.2 الامتثال لمسؤوليات Meta تجاه حقوق الإنسان
ترى أغلبية أعضاء المجلس أن الإبقاء على المحتوى مع عرض شاشة تحذيرية وقصر إمكانية ظهوره على الأشخاص فوق 18 عامًا في كلتا الحالتين يتوافق مع مسؤوليات Meta تجاه حقوق الإنسان. ولم تكن إزالة Meta للمنشور في الحالة الهندية ضرورية أو متناسبة. وتختلف أقلية من أعضاء المجلس مع هذا الرأي، حيث ترى أنه، تماشيًا مع سياسات Meta الحالية، فإن الإزالة ضرورية لحماية حقوق الأطفال الذين تم تصويرهم في مقاطع الفيديو.
حرية التعبير (المادة 19 من العهد الدولي الخاص بالحقوق المدنية والسياسية)
في 16 مارس 2021، أعلنت Meta عن سياسة حقوق الإنسان الخاصة بالشركة والتي أوضحت من خلالها التزامها تجاه احترام الحقوق على نحو يتفق مع مبادئ الأمم المتحدة التوجيهية بشأن الأعمال التجارية وحقوق الإنسان (UNGP). وفقًا لمبادئ الأمم المتحدة التوجيهية بشأن الأعمال التجارية وحقوق الإنسان، ينبغي على الشركات "أن تتجنب انتهاك حقوق الإنسان الخاصة بالآخرين وأن تعالج ما تقع فيه من آثار ضارة بهذه الحقوق" (المبدأ 11 من مبادئ الأمم المتحدة التوجيهية بشأن الأعمال التجارية وحقوق الإنسان).
توفر المادة 19 من العهد الدولي الخاص بالحقوق المدنية والسياسية حماية واسعة لحرية التعبير، وقد أشارت لجنة حقوق الإنسان التابعة للأمم المتحدة إلى أنها تحمي التعليق على الشؤون العامة، ومناقشة حقوق الإنسان، والصحافة (التعليق العام رقم 34، الفقرة 11). كما ذكرت اللجنة أن التعبير شرط ضروري لضمان المساءلة، وهو أمر أساسي لتعزيز حقوق الإنسان وحمايتها (التعليق العام رقم 34، الفقرة 2).
ويجب أن تمتثل أي قيود تفرضها الدولة على حرية التعبير لمتطلبات الشرعية، والهدف المشروع، والضرورة والتناسب (المادة 19، الفقرة 3، العهد الدولي الخاص بالحقوق المدنية والسياسية). وغالبًا ما يُشار إلى هذه المتطلبات باسم "الاختبار الثلاثي". ويستخدم المجلس هذا الإطار لتفسير مسؤوليات Meta تجاه حقوق الإنسان بما يتماشى مع المبادئ التوجيهية للأمم المتحدة، سواء بالنسبة إلى منشورات محددة أو نهج Meta في حوكمة المحتوى. وكما أشار مقرر الأمم المتحدة الخاص المعني بحرية التعبير، فإنه على الرغم من أن الشركات ليس لديها نفس التزامات الحكومات، إلا أن تأثيرها من النوع الذي يتطلب منها تقييم نفس الاعتبارات المتعلقة بحق المستخدمين في التعبير (A/74/486، الفقرة 41).
تنص المادة 3 من اتفاقية حقوق الطفل الصادرة عن الأمم المتحدة على أن المصالح الفضلى للطفل يجب أن تكون اعتبارًا أساسيًا في جميع الإجراءات المتعلقة به. تصف اللجنة المعنية بحقوق الطفل (CRC) المصالح الفضلى للطفل كمبدأ مرن ينطبق على الأطفال من جميع الأعمار، يتكيف مع ظروفهم الخاصة وتطورهم المتغير (التعليق العام رقم 14، ص. 5-6). وتماشيًا مع ذلك، تؤكد مبادئ اليونيسف وإرشاداتها الخاصة بالتغطية الإعلامية للأطفال على وجوب احترام حقوق الأطفال وكرامتهم في جميع المواقف، وعلى أن مصالحهم الفضلى يجب أن تكون لها الأسبقية على أي اعتبار آخر، بما في ذلك جهود المناصرة وتعزيز حقوق الطفل.
وتلزم المادة 19 من اتفاقية حقوق الطفل التابعة للأمم المتحدة (UNCRC) الدول بحماية الأطفال من جميع أشكال العنف البدني "أثناء وجودهم في رعاية الوالدين أو الأوصياء القانونيين أو أي شخص آخر يتولى رعاية الطفل". وقد أوضحت لجنة حقوق الطفل أن جميع أشكال العنف ضد الأطفال غير مقبولة، مشيرة كذلك إلى أن "العقاب البدني مهين دائمًا" و "يتعارض مع الاتفاقية" (التعليق العام رقم 8، الفقرات رقم 7 و11 و12، والتعليق العام رقم 13، الفقرتان 17 و24). العقاب البدني ينتهك كرامة الطفل ويتجاوز حدود الانضباط المدرسي المقبولة (المادة 28.2، اتفاقية حقوق الطفل، التعليق العام رقم 1، الفقرة 8). يجب حماية الأطفال من العنف والتعرض للضرر في جميع البيئات، بما في ذلك البيئة الرقمية (التعليق العام رقم 25، الفقرة 82).
وتضمن المادة 16 من اتفاقية حقوق الطفل حق الأطفال في الخصوصية. وأبرزت اتفاقية حقوق الطفل كذلك أن "الخصوصية أمر حيوي لاستقلال الأطفال وكرامتهم وسلامتهم ولممارسة حقوقهم" وأنه "قد تنشأ التهديدات ...عندما يُفشي شخص غريب معلومات عن طفل ما" على الإنترنت (التعليق العام رقم 25، الفقرة 67).
يستند تحليل المجلس إلى كل من الحماية القوية لحرية التعبير وحقوق الطفل، ولا سيما حقه في الحماية من العنف وحقه في الخصوصية.
1. الشرعية (وضوح القواعد وسهولة الوصول إليها)
يقتضي مبدأ الشرعية أن تتم أي قيود تُفرض على حرية التعبير وفقًا لقاعدة راسخة، تتسم بالوضوح وسهولة وصول المستخدمين إليها (التعليق العام رقم 34، الفقرة 25). تحظر سياسة عُري الأطفال وإساءة معاملتهم، واستغلالهم جنسيًا "مقاطع الفيديو أو الصور التي تصوّر استغلالاً غير جنسي للأطفال سواء كان حقيقيًا أو غير حقيقي وبغض النظر عن القصد من وراء مشاركته". يرى المجلس أن القاعدة التي تحظر تصوير الاستغلال غير الجنسي للأطفال واضحة بالقدر الكافي فيما يتعلق بتطبيقها على هاتين الحالتين.
وعلى الرغم من أن المجلس يرحب بتقديم Meta مزيدًا من الوضوح بشأن عملية ومعايير "استثناء الأهمية الإخبارية" في "مركز الشفافية" التابع لها، استجابةً لتوصيات المجلس، فإنه يؤكد مجددًا على مخاوفه بشأن تطبيق هذا الاستثناء. فهذا الاستثناء يتسم بمحدودية القدرة على التنبؤ به وبصعوبة الوصول إليه، نظرًا لغياب مسارات واضحة لتحديد المحتوى الذي قد يستوفي شروط تطبيقه (راجع، ضمن حالات أخرى، اغتيال مرشح لمنصب عمدة في المكسيك وصور عُري جزئي لنساء من السكان الأصليين).
2.الهدف المشروع
ينبغي أيضًا أن تستند أي قيود مفروضة على حرية التعبير إلى واحد أو أكثر من الأهداف المشروعة الواردة في العهد الدولي الخاص بالحقوق المدنية والسياسية، والتي من بينها حماية حقوق الآخرين. ذكرت Meta أن قاعدتها التي تحظر تصوير الاستغلال غير الجنسي للأطفال "تخدم 'الهدف المشروع' المتمثل في حماية حقوق الآخرين، بما في ذلك الحق في الخصوصية وحماية كرامة [الأطفال] الذين تم تصويرهم في مقاطع الفيديو"، وذلك بما يتماشى مع المصالح الفضلى للطفل. يؤكد المجلس مجددًا، استنادًا إلى قرارات سابقة قيّمت هذا المعيار، أن السياسة تخدم الهدف المشروع المتمثل في حماية حقوق الأطفال في الصحة الجسدية والنفسية (المادة 19، اتفاقية حقوق الطفل) وحقهم في الخصوصية (المادة 17، العهد الدولي الخاص بالحقوق المدنية والسياسية؛ المادة 16، اتفاقية حقوق الطفل)، بما يتماشى مع احترام المصالح الفضلى للطفل (المادة 3، اتفاقية حقوق الطفل) (راجع صحفي سويدي يصف حوادث عنف جنسي ضد قُصَّر وفيلم وثائقي لمؤسسة إخبارية حول إساءة معاملة الأطفال في باكستان).
3.الضرورة والتناسب
بموجب المادة 19(3) من العهد الدولي الخاص بالحقوق المدنية والسياسية، فإن الضرورة والتناسب يتطلبان أن تكون القيود المفروضة على حرية التعبير "مناسبة لتحقيق وظيفة الحماية المنوطة بها، ويجب أن تكون أقل الوسائل تدخلاً مقارنة بغيرها من الوسائل التي يمكن أن تحقق النتيجة المنشودة؛ ويجب أن تكون متناسبة مع المصلحة التي ستحميها" (التعليق العام رقم 34، الفقرة 34).
تختلف أغلبية أعضاء المجلس مع قرارات Meta الأولية بإزالة المنشورين الفرنسي والهندي، إذ تجد أن القيود المفروضة على حرية التعبير لم تكن ضرورية أو متناسبة لحماية حقوق الطفل. وتتوافق حماية حرية التعبير في هاتين الحالتين مع حماية حقوق الطفل حيث إنها تعزز أهداف الوعي العام والمساءلة عن العنف ضد الأطفال في المدارس. كما ترى الأغلبية أن قرار Meta المعدّل بالسماح ببقاء المنشور الفرنسي على المنصة هو أكثر اتساقًا مع مسؤولياتها في حماية حرية التعبير. فالإبقاء على المحتوى مع عرض شاشة تحذيرية والسماح بظهوره فقط للمستخدمين الذين تزيد أعمارهم عن 18 عامًا يحقق بشكل أفضل اختباري الضرورة والتناسب، ويتيح قدرًا أكبر من حرية التعبير. وأخيرًا، ترى الأغلبية أنه كان ينبغي أيضًا تطبيق "استثناء الأهمية الإخبارية"، مع القيود الأكثر تناسبًا المتمثلة في الشاشة التحذيرية والقيود العمرية، على المنشور الهندي.
تتمتع حماية حقوق الإنسان لهذا النوع من التعبير بمستوى عالٍ من الأهمية. وقد تمت مشاركة كلا عنصري المحتوى من قِبل صفحات إما تمثل مؤسسات إعلامية أو تشارك أخبارًا محلية. وتمثل الهدف من المنشورين في الإبلاغ عن العقاب البدني الذي يمارسه المعلمون في البيئات المدرسية وتعزيز الوعي به. وهذه مسألة تحظى باهتمام ونقاش عام كبيرين، لا سيما في الهند وجنوب آسيا. وتضمن المنشوران شروحًا توضيحية تسلط الضوء على الجهود الرسمية المبذولة نحو المساءلة. وتعتبر الأغلبية أن مثل هذه التغطية تساهم في النقاش العام حول قضايا حقوق الطفل، وتساعد على كشف الانتهاكات التي قد تبقى خفية لولا ذلك.
وتتفق الأغلبية على أن تصوير الاستغلال غير الجنسي للأطفال قد يثير مخاوف تتعلق بالخصوصية والسلامة بالنسبة للأطفال. وفي هاتين الحالتين، تم تمويه وجوه الأطفال الضحايا. لم يتم تحديد هويتهم بالاسم أو الصورة، والتمويه يحد من إمكانية ما تسميه Meta "التحديد الوظيفي للهوية" من خلال القرائن السياقية. تُعرّف Meta حاليًا "التحديد الوظيفي للهوية" في هذه السياسة بأنه تحديد الهوية "من خلال وسائل أخرى بخلاف الاسم أو الصورة إذا كان المحتوى يتضمن معلومات يرجّح أن تؤدي إلى تحديد هوية الفرد". وفي حين أن المنشورين يحتويان على معلومات حول موقع المدرستين، ترى الأغلبية أن هذه المعلومات "لا يرجّح أن تؤدي إلى تحديد هوية" الأفراد المحددين. بالإضافة إلى ذلك، في الحالة الفرنسية، تلاحظ الأغلبية أن عامل موافقة الوالدين (إلى جانب الجهود المبذولة لإخفاء هوية الطفل) يدعم الاستنتاج بأن السماح ببقاء الفيديو على فيسبوك لا يتعارض مع المصالح الفضلى للطفل. إن المبررات المطالبة بالإزالة استنادًا إلى احتمالية إعادة صدمة الأطفال نفسيًا بسبب مقاطع فيديو كهذه تكون أضعف بكثير عندما يتم اتخاذ خطوات جادة لإخفاء هوية الأطفال. وهذا الأمر له أهمية خاصة عندما يهدف المحتوى إلى تعزيز الوعي العام وتعزيز المساءلة عن العنف في المدارس، وهو ما يعزز في نهاية المطاف الهدف الأوسع المتمثل في حماية الأطفال من التعرض للضرر. ومع ذلك، فإن تحليل الضرورة والتناسب سيكون مختلفًا تمامًا لو كان من الممكن تحديد هوية الأطفال بسهولة. فإمكانية تحديد الهوية هي اعتبار رئيسي هنا.
وتختلف أقلية من أعضاء المجلس مع هذا الرأي. نظرًا للضرر المحتمل على خصوصية الأطفال الذين تم تصويرهم وكرامتهم وسلامتهم، يرى هؤلاء الأعضاء أن الإزالة ستكون أفضل وسيلة لاحترام المصالح الفضلى للطفل، على النحو المبين في اتفاقية حقوق الطفل. ويرون أن الإزالة ضرورية ومتناسبة مع هذا الهدف بموجب المادة 19 (3). وتشير الأقلية، مع ملاحظة موقف اليونيسف، إلى أن تصوير الاستغلال غير الجنسي للأطفال على وسائل التواصل الاجتماعي يمكن أن يعيد صدمة الأطفال الضحايا نفسيًا، ويؤدي إلى الإذلال العلني والوصم والمضايقة والاستغلال (PC-31244). وتؤكد الأقلية أن هذه المخاطر تتفاقم بسبب الطبيعة الدائمة للمحتوى عبر الإنترنت، لا سيما بعد انتشاره على نطاق واسع، وإمكانية التحديد الوظيفي للهوية، على الرغم من التمويه. بالنسبة إلى الأقلية، فإن موافقة الوالدين لا تغير من هذا التقييم، حيث إن المواد المنشورة على الإنترنت قد تظل متاحة إلى أجل غير مسمى. وبحلول الوقت الذي يتمكن فيه هؤلاء الأطفال من التعبير عن آرائهم، سيكون قد فات الأوان لتخفيف الأثر.
كما أشارت الأقلية إلى أن القيود المفروضة على التعبير تقتصر على الصور، ويمكن متابعة جهود المساءلة والإصلاح من خلال أشكال أخرى من التعبير. وأكد الخبراء الذين استشارهم المجلس أن التقارير والمناصرة القائمة على السرد والالتماسات القانونية يمكن أن تحدث تغييرًا دون التركيز على الصور. وهذا يعكس وجهة نظر اليونيسف بأن جهود المساءلة يجب ألا تأتي على حساب حق الطفل في الكرامة والسلامة.
تتفق كل من الأغلبية والأقلية على أن Meta كانت على صواب في عدم تطبيق أي إنذارات في هذه الحالة. ويشير مركز الشفافية التابع لشركة Meta إلى أنها قد تطبق أو لا تطبق إنذارات على الحسابات التي تنشر محتوى تقوم بإزالته، وذلك استنادًا إلى عدة عوامل، بما في ذلك درجة الخطورة والسياق. ويوافق المجلس على أن تطبيق أي عقوبة تؤثر في قدرة المستخدمين على مشاركة محتوى إضافي أو استخدام المنصة من شأنه أن يؤثر بشكل غير متناسب في حريتهم في التعبير.
على مستوى السياسة، يرى المجلس أن حظر Meta نشر مقاطع الفيديو أو الصور التي تتناول الاستغلال غير الجنسي للأطفال، بغض النظر عن النية وحتى عند إخفاء الهوية، يؤدي إلى فرض قيود غير متناسبة على حرية التعبير. ويلاحظ المجلس أن سياسة Meta الحالية لا تفرق بين الأطفال الذين يمكن تحديد هويتهم وأولئك الذين لا يمكن تحديد هويتهم، وتركز فقط على ما إذا كان المحتوى يصور استغلالاً غير جنسي للأطفال. ومع ذلك، فإن إمكانية تحديد الهوية هي عامل حاسم. فإذا تم تخفيف هذا الخطر، تكون المخاوف المتعلقة بالخصوصية والكرامة محدودة بشكل أكبر.
توفر معايير حقوق الإنسان الدولية حماية قوية للتعبير عن القضايا التي تهم المصلحة العامة، وحينما يدعم هذا التعبير إعمال حقوق أخرى. ويشمل ذلك الجهود المبذولة للإبلاغ عن حوادث الاستغلال غير الجنسي للأطفال في البيئات التعليمية، لا سيما في الأماكن التي لا يزال فيها العنف ضد الأطفال في المدارس منتشرًا. ويكتسب هذا الأمر أهمية خاصة في سياق الجهود العالمية المتزايدة لحظر مثل هذه الممارسات. فمشاركة هذا النوع من المحتوى يمكن أن تكشف عن الاستغلال الممنهج، وتثير نقاشًا عامًا، وتؤدي إلى المساءلة أو الإصلاح المؤسسي، بما يتماشى مع المصالح الفضلى للطفل.
كما أن الصور غالبًا ما تثير ردود فعل أقوى من الأوصاف السردية، لأنها تقدم أدلة حية ومقنعة وتشجع على المساءلة. في بعض المناطق، مثل جنوب آسيا، أدى تداول صور الاستغلال غير الجنسي للأطفال إلى استجابات فورية، بما في ذلك عمليات إنقاذ أو اعتقالات أو إجراءات تأديبية.
ويشير المجلس أيضًا إلى أنه، وفقًا لتحليل أجراه خبراء بتكليف منه، في معظم الحالات التي يتم فيها مشاركة محتوى الاستغلال غير الجنسي للأطفال على وسائل التواصل الاجتماعي، يكون القصد هو تعزيز الوعي أو الإبلاغ عن الحوادث أو إدانة الإساءة أو دعم الصحافة أو المطالبة بالمساءلة. وقد تأكد هذا النمط في دراسة داخلية أجراها المجلس، حيث تمت مراجعة حالات أخرى تمت فيها مشاركة كلا المقطعين على منصات تواصل اجتماعي مختلفة ولا يزالان متاحين للعامة.
ولحماية حرية التعبير بشكل أفضل، مع الاستمرار في احترام المصالح الفضلى للطفل، يوصي المجلس بأن تُضمّن Meta استثناءً في سياستها بشأن عُري الأطفال وإساءة معاملتهم، واستغلالهم جنسيًا للسماح بالمحتوى الذي يصور استغلالاً غير جنسي بمعيارين. أولاً، يجب ألا يُطبق إلا عندما لا تكون هوية الطفل قابلة للتحديد بشكل مباشر بالاسم أو الصورة، ولا قابلة للتحديد وظيفيًا. ثانيًا، يجب على Meta تطبيق هذا الاستثناء عندما يتم نشر المحتوى لأغراض التغطية الإخبارية أو الإدانة أو تعزيز الوعي.
ويجب على المستخدمين توضيح نيتهم، ويجوز لشركة Meta الاستمرار في إزالة المحتوى الغامض أو غير الواضح. وهذا من شأنه أن يحد أكثر من خطر إلحاق الضرر بالأطفال. وتتطلب معايير المجتمع الأخرى من المستخدمين الإشارة بوضوح إلى نيتهم عند إنشاء أو مشاركة محتوى محظور لأغراض الإدانة أو الإبلاغ أو تعزيز الوعي (على سبيل المثال، بموجب سياسات المنظمات الخطرة والأفراد الخطرون، والعُري والنشاط الجنسي للبالغين، والمضايقة والإساءة، والسلوك الذي يحض على الكراهية).
ويلاحظ المجلس أن سياسة Meta بشأن عُري الأطفال وإساءة معاملتهم، واستغلالهم جنسيًا تتضمن حاليًا استثناءً لصور الاستغلال غير الجنسي عندما يرتكبه ضباط شرطة أو عسكريون. ولا يتضمن هذا البند في السياسة أي شرط يتعلق بمحدودية إمكانية تحديد الهوية. ويرى المجلس أن الاستغلال غير الجنسي الذي يرتكبه المعلمون يثير مخاوف مماثلة تتعلق بالمساءلة. ومع ذلك، يعتقد المجلس أن القيود المفروضة على إمكانية تحديد الهوية ضرورية لاحترام خصوصية الأطفال وسلامتهم، بما يتماشى مع المصالح الفضلى للطفل.
ويجب على Meta ألا تطبق أي إنذارات ضد المستخدمين الذين يشاركون صورًا للاستغلال غير الجنسي للأطفال بقصد تعزيز الوعي أو الإدانة أو التغطية الإخبارية، حتى لو كانت هوية الطفل قابلة للتحديد. ويهدف هذا إلى ضمان تناسب إجراءاتها التنفيذية التي تقيد حرية التعبير بشكل أفضل. ويدرك المجلس أن استثناء السياسة الذي أوصى به، لا سيما الحاجة إلى النظر في احتمالية التحديد الوظيفي للهوية، سيتم تطبيقه عند تصعيد الحالات. وفي حين أنه لا يزال ينبغي إزالة المحتوى الذي يظهر فيه أطفال يمكن تحديد هويتهم، يجب على Meta ألا تطبق عقوبات على الحسابات عندما تكون هناك مؤشرات واضحة على نية المستخدمين في الإبلاغ أو تعزيز الوعي أو الإدانة.
ويقر المجلس بآراء الخبراء والتعليقات العامة التي تفيد بأن تمويه الوجوه أو إخفاءها يمكن أن يساعد في تقليل الضرر ولكنه لا يزيله بالكامل. فالقيود التقنية، مثل قوة التمويه غير المتسقة ووجود قرائن سياقية (مثل الزي المدرسي، والمواقع المعروفة، والإشارات إلى العمر أو أي معرفات أخرى)، قد لا تزال تسمح بتحديد الهوية، مما يشكل مخاطر على كل من الطفل وأسرته. وتدعو معايير حقوق الإنسان كذلك إلى عدم الكشف عن هوية الأطفال الضحايا (اتفاقية حقوق الطفل، التعليق العام رقم 25، الفقرة 57).
ويظل تمويه وجه الطفل أو إخفاؤه إجراءً مفيدًا للحد من الضرر، حيث يقلل من احتمالية تحديد الهوية. وفي قرار فيلم وثائقي لمؤسسة إخبارية حول إساءة معاملة الأطفال في باكستان، شجع المجلس شركة Meta على تخفيف العبء على المستخدمين وتقليل المخاطر على الأطفال من خلال تزويد المستخدمين بتعليمات أكثر تحديدًا وأدوات داخل المنتج مثل تمويه الوجوه في مقاطع الفيديو. وعلى الرغم من أن ذلك ممكن تقنيًا، إلا أن Meta لا تقدم حاليًا مثل هذه الأدوات (راجع فيديو أسير قوات الدعم السريع السودانية) وأشارت إلى أن تطويرها سيتطلب موارد والنظر في العوامل القانونية والتشغيلية. ونظرًا لأهمية تجنب تحديد هوية الأطفال، يشجع المجلس شركة Meta مرة أخرى على تطوير أدوات تتيح للمستخدمين تمويه أجزاء من المحتوى الذي يرغبون في نشره بشكل أكثر فعّالية، لا سيما إذا كان من شأن التمويه أن يمنع انتهاك السياسة (راجع مشاركة معلومات محل الإقامة الخاصة، التوصية رقم 13).
ويتلقى المحتوى المسموح به بموجب استثناء ضباط الشرطة أو العسكريين شاشة تحذيرية بعنوان "تمييز كمحتوى مزعج" ويقتصر الوصول إليه على الأشخاص الذين تزيد أعمارهم عن 18 عامًا. وتتطلب هذه الإجراءات من المستخدمين النقر لعرض المحتوى، وتستثنيه من التوصية به لغير المتابعين كما ورد في قرارات سابقة (راجع مستشفى الشفاء، والرهائن الإسرائيليون، واغتيال مرشح لمنصب عمدة في المكسيك).
وينبغي اتخاذ نفس الإجراءات للمحتوى المشمول بهذا الاستثناء الجديد. وتماشيًا مع الهدف المشروع المتمثل في حماية خصوصية وكرامة الأطفال الذين تم تصويرهم، فإن الشاشات التحذيرية والقيود العمرية هي إجراءات أكثر تناسبًا من الإزالة عندما لا يكون الطفل قابلاً للتحديد. وفي حين خلصت الأغلبية إلى أن الإزالة ليست متناسبة في هاتين الحالتين نظرًا لأن التمويه يجعل تحديد هوية الأطفال المحددين أمرًا غير محتمل، فإنها تتفق مع الأقلية على أن بعض المخاطر لا تزال قائمة. وحتى لو تم تمويه وجه الطفل أو اتُخذت جهود لإخفاء وجوه الأطفال، فقد تظل هناك مخاطر محتملة على خصوصيتهم أو كرامتهم. ولأن هذا الخطر ضئيل، فإن فرض قيود أقل تدخلاً على حرية التعبير يُعد مبررًا. وقد سلطت اليونيسف الضوء على أهمية الحد من التعرض غير المقصود لمثل هذا المحتوى، وعلى أن الأطفال الذين يتم تصويرهم قد يواجهون المضايقة والوصم (PC-31244). وتساعد الشاشات التحذيرية والقيود العمرية في معالجة هذه المخاوف، حيث تحد من التعرض والوصول، لا سيما بين أقران الطفل.
6. قرار مجلس الإشراف
يؤيد مجلس الإشراف قرار Meta في الحالة الفرنسية بالإبقاء على المحتوى على المنصة بموجب استثناء الأهمية الإخبارية وعرض شاشة تحذيرية بعنوان "تمييز كمحتوى مزعج". ويلغي المجلس قرار Meta في الحالة الهندية، ويطالب باستعادة المحتوى إلى المنصة بموجب استثناء الأهمية الإخبارية والشاشة التحذيرية نفسها.
7. التوصيات
أ. سياسة المحتوى
1. وللسماح للمستخدمين بإدانة الاستغلال غير الجنسي للأطفال والإبلاغ عنه وتعزيز الوعي به، يجب على Meta تضمين استثناء في معيار مجتمعها بشأن عُري الأطفال وإساءة معاملتهم، واستغلالهم جنسيًا المتاح للعامة يسمح بنشر الصور ومقاطع الفيديو التي تتناول الاستغلال غير الجنسي للأطفال على يد البالغين، عند مشاركتها بهذا القصد. يجب السماح بالمحتوى مع عرض شاشة تحذيرية بعنوان "تمييز كمحتوى مزعج" وقصر إمكانية ظهوره على المستخدمين الذين تبلغ أعمارهم 18 عامًا فأكثر. في هذه الحالات، يجب ألا تكون هويات الأطفال قابلة للتحديد بشكل مباشر (بالاسم أو الصورة)، أو وظيفيًا (عندما يرجّح أن تؤدي القرائن السياقية إلى تحديد هوية الفرد). ويجب تطبيق هذا الاستثناء فقط في الحالات التي يتم تصعيدها.
سيعتبر المجلس هذه التوصية قد نُفذت عندما تحدّث Meta معيار المجتمع بشأن عُري الأطفال وإساءة معاملتهم، واستغلالهم جنسيًا المتاح للعامة بما يتوافق مع ما ورد أعلاه.
ب. الإنفاذ
2. لضمان إنفاذ متناسب ومتسق، يجب على Meta عدم تطبيق أي إنذارات على الحسابات التي يُزال منها محتوى يتعلق بالاستغلال غير الجنسي للأطفال عند تصعيد الحالات، وذلك عندما تكون هناك مؤشرات واضحة على نية المستخدم في الإدانة أو الإبلاغ أو تعزيز الوعي.
سيعتبر المجلس هذه التوصية قد نُفذت عندما تشارك Meta معايير التنفيذ الداخلية الخاصة بها، والتي تتضمن هذا التوجيه للمحتوى الذي تتم مراجعته عند تصعيد الحالات.
*ملاحظة إجرائية:
- يتم اتخاذ قرارات مجلس الإشراف من قِبَل لجان مكونة من خمسة أعضاء، وتتم الموافقة عليها بأغلبية أصوات المجلس بالكامل. ولا يلزم بالضرورة أن تُعبّر قرارات المجلس عن وجهات نظر جميع الأعضاء.
- بموجب اتفاقيته، يجوز لمجلس الإشراف مراجعة الطعون المقدمة من المستخدمين الذين قامت Meta بإزالة محتواهم، والطعون المقدمة من المستخدمين الذين أبلغوا عن محتوى قامت Meta بالإبقاء عليه، والقرارات التي أحالتها Meta إليه (المادة 2، القسم 1 من الاتفاقية). وللمجلس سلطة مُلزمة تخوله تأييد أو إلغاء القرارات التي تتخذها Meta بشأن المحتوى (المادة 3، القسم 5 من الاتفاقية؛ المادة 4 من اتفاقية المجلس). ويحق للمجلس إصدار توصيات غير ملزِمة تكون شركة Meta مُلزَمَة بالرد عليها (المادة 3، القسم 4 من الاتفاقية؛ المادة 4). وعندما تلتزم Meta بتنفيذ التوصيات، يراقب المجلس هذا التنفيذ.
- بالنسبة إلى القرار المتخذ بشأن هذه الحالة، أُجري بحث مستقل نيابةً عن المجلس. وقد تلقى المجلس مساعدة من شركة Duco Advisors، وهي شركة استشارات تركز على نقطة التقاء الجغرافيا السياسية والثقة والأمان والتكنولوجيا.
العودة إلى قرارات الحالة والآراء الاستشارية المتعلقة بالسياسة