Decisión de casos múltiples
О репортажах о жертвах насилия в Израиле
4 de abril de 2024
Пользователь обжаловал решение Meta удалить с Facebook две публикации, описывающие сексуальное насилие со стороны боевиков ХАМАС во время террористической атаки на Израиль 7 октября 2023 г. После того как Совет привлек внимание Meta к соответствующим запросам на обжалование, первоначальные решения были отменены, а публикации — восстановлены.
2 casos incluidos en el paquete
FB-YCJP0Q9D
Дело об опасных лицах или организациях на Facebook
FB-JCO2RJI1
Дело об опасных лицах или организациях на Facebook
Это обзорное решение. В обзорных решениях рассматриваются случаи, когда в Meta отменили первоначальное решение по той или иной единице контента после того, как Совет привлек к ней внимание компании. Кроме того, они включают информацию об ошибках, признанных Meta. Они утверждаются группой членов Совета, а не Советом в полном составе, комментарии общественности не запрашиваются, а решения не имеют прецедентного значения для Совета. В обзорных решениях непосредственно рассказывается об изменениях в решениях Meta: таким образом обеспечивается прозрачность таких исправлений. Кроме того, в них даются рекомендации, призванные повысить эффективность обеспечения соблюдения правил Meta.
Сводка по делу
Пользователь обжаловал решение Meta удалить с Facebook две публикации, описывающие сексуальное насилие со стороны боевиков ХАМАС во время террористической атаки на Израиль 7 октября 2023 г. После того как Совет привлек внимание Meta к соответствующим запросам на обжалование, первоначальные решения были отменены, а публикации — восстановлены.
Описание и краткая предыстория дела
В октябре 2023 года пользователь Facebook разместил две отдельные публикации, одну за другой, с одинаковым контентом с видео, в котором женщина рассказывает о насилии над израильскими женщинами, совершенном ХАМАС во время теракта 7 октября. В подписи содержалось "предупреждение о возможной негативной реакции". Кроме того, комментатор в видео предупреждал пользователей о тяжелом для восприятия контенте. Затем видео переходит к изображению двух разных женщин, захваченных боевиками ХАМАС: в одном отрывке показана жестоко израненная женщина, лежащая лицом вниз в грузовике, а в другом — раненая женщина, которую вытаскивают из багажника автомобиля. Эти изображения получили широкое изображение после теракта. Первой публикацией поделились около 4 тыс. раз, а второй — менее 50 раз.
Обе публикации были первоначально удалены Meta за нарушение Нормы сообщества в отношении опасных организаций и лиц. В рамках этой политики компания запрещает публикуемые сторонними лицами изображения момента совершения обозначенных в политике терактов на идентифицируемые на таких изображениях жертвы в любых обстоятельствах, даже при публикации с целью осуждения или привлечения внимания общественности к теракту. Кроме того, в рамках Нормы сообщества в отношении насилия и подстрекательства Meta удаляет "контент, описывающий пленение или похищение, если очевидно, что этот контент распространяется не жертвой или ее семьей как просьба о помощи, а также не с целью информирования, осуждения или привлечения внимания общественности".
С первых моментов атаки ХАМАС 7 октября в Meta начали особенно строго применять политику в отношении опасных организаций и лиц к видео, в которых показаны моменты отдельных нападений на видимые жертвы. В публикации пресс-центра от 13 октября в Meta объяснили свою позицию, заявив, что это было сделано "в целях обеспечения безопасности людей, захваченных ХАМАС". Таким образом, две единицы контента, рассматриваемые в этих двух делах, были удалены за нарушение политики Meta в отношении опасных организаций и лиц.
Уже после этого решения многие СМИ начали транслировать соответствующие кадры, и пользователи также начали публиковать аналогичный контент для привлечения внимания общественности и осуждения терактов. Как следствие, примерно 20 октября в Meta обновили правила, разрешив пользователям делиться этими видео только в контексте привлечения внимания общественности или осуждения преступлений и с добавлением экрана с предупреждением, информирующим пользователей о том, что контент может быть неприятным. Это изменение в политике было опубликовано Meta 5 декабря в обновлении исходной публикации пресс-центра от 13 октября (дополнительные сведения и предысторию см. в деле о заложниках, захваченных в Израиле).
Изначально в Meta удалили с Facebook обе единицы контента, рассматриваемые в этих двух делах. Пользователь отправил запрос на обжалование решений Meta в Совет. После того как Совет привлек внимание Meta к этим делам, компания решила, что публикации больше не нарушают политики, учитывая обновленное исключение, и восстановила их.
Полномочия Совета и область принятия решений
Независимый надзорный совет уполномочен пересматривать решения Meta после отправки запросов на обжалование лицами, чей контент был удален (раздел 1 статьи 2 Устава; раздел 1 статьи 3 Правил внутреннего распорядка).
Если Meta признает ошибку и отменяет решение, связанное с рассматриваемым делом, Совет может выбрать такое дело для составления обзорного решения (раздел 2.1.3 статьи 2 Правил внутреннего распорядка). Совет проверяет первоначальное решение, чтобы более тщательно изучить процедуры модерации контента, уменьшить количество ошибок и обеспечить справедливость в отношении пользователей Facebook и Instagram.
Значимость дела
Эти два дела подчеркивают трудности, с которыми сталкивается Meta при модерации контента в ситуациях быстро разворачивающихся конфликтов высокого риска. Как выяснил Совет в срочном решении по делу о заложниках, захваченных в Израиле, первоначальная версия политики Meta запрещала контент, изображающий заложников, для защиты достоинства таких заложников, которые могли бы стать предметом досужего любопытства. При этом Совету также стало известно, что в исключительных случаях, когда того требуют общественные интересы или жизненно важные интересы заложников, могут быть оправданы временные и ограниченные исключения. Учитывая контекст, восстановление подобного контента на платформе с добавлением экрана с предупреждением "контент помечен как шокирующий" соответствует политикам Meta в отношении контента, а также ценностям Meta и обязанностям Meta по защите прав человека. Это также согласуется с принципами международного гуманитарного права и практикой документирования предполагаемых нарушений для привлечения виновных к ответственности в будущем, а также повышения осведомленности общественности. Рассматривая это дело, Совет также отметил, что развертывание этого исключения для всех пользователей заняло у Meta слишком много времени и что быстрые изменения в подходе к модерации контента во время конфликта происходили в условиях недостаточной прозрачности.
Ранее Совет уже предоставлял рекомендации, актуальные для этого дела. Совет рекомендовал Meta объявлять об исключениях из Норм сообщества, указывая "их продолжительность и уведомляя об истечении их срока действия, чтобы предупреждать пользователей своих платформ об изменениях в политиках, допускающих определенные выражения" (см. дело о призыве к протестам в Иране, рекомендация № 5). В Meta частично выполнили эту рекомендацию и опубликовали подтверждение выполнения. Совет также ранее рекомендовал Meta сохранять свидетельства потенциальных военных преступлений, преступлений против человечности или грубых нарушений прав человека для привлечения виновных к ответственности в будущем (дело о тяжелом для восприятия видео о ситуации в Судане, рекомендация № 1, и дело о видео с участием армянских военнопленных, рекомендация № 1). В Meta согласились выполнить эту рекомендацию, но работа пока не завершена. Совет подчеркивает, что Meta необходимо выполнить эти рекомендации, чтобы гарантировать надлежащую модерацию контента, касающегося прав человека, на своих платформах.
Решение
Совет отменяет первоначальные решения Meta удалить две единицы контента. Совет признал, что в Meta исправили первоначальные ошибки после того, как Совет привлек внимание Meta к этим двум делам.
Volver a Decisiones de casos y opiniones consultivas sobre políticas