Overturned
О воспоминании журналиста о встрече в секторе Газа
April 4, 2024
Журналист обжаловал решение Meta удалить с Facebook публикацию, в которой рассказывается о его интервью с Абделем Азизом аль-Рантиси, одним из основателей ХАМАС. Это дело является примером распространенной проблемы, связанной с чрезмерно строгим применением политики Meta в отношении опасных организаций и лиц к нейтральным публикациям. После того как Совет привлек внимание Meta к обжалованию, в Meta отменили первоначальное решение и восстановили эту публикацию.
Это обзорное решение. В обзорных решениях рассматриваются случаи, когда в Meta отменили первоначальное решение по той или иной единице контента после того, как Совет привлек к ней внимание компании. Кроме того, они включают информацию об ошибках, признанных Meta. Они утверждаются группой членов Совета, а не Советом в полном составе, комментарии общественности не запрашиваются, а решения не имеют прецедентного значения для Совета. В обзорных решениях непосредственно рассказывается об изменениях в решениях Meta, что обеспечивает прозрачность таких исправлений. Кроме того, они включают рекомендации, призванные повысить эффективность обеспечения соблюдения правил Meta.
Сводка по делу
Журналист обжаловал решение Meta удалить с Facebook публикацию, в которой рассказывается о его интервью с Абделем Азизом аль-Рантиси, одним из основателей ХАМАС. Это дело является примером распространенной проблемы, связанной с чрезмерно строгим применением политики Meta в отношении опасных организаций и лиц к нейтральным публикациям. После того как Совет привлек внимание Meta к обжалованию, в Meta отменили первоначальное решение и восстановили эту публикацию.
Описание и краткая предыстория дела
Вскоре после террористических атак на Израиль 7 октября 2023 года журналист опубликовал на Facebook свои воспоминания об интервью с Абделем Азизом аль-Рантиси, одним из основателей ХАМАС, который входит в список опасных лиц и организаций 1 уровня соответствующей политики Meta. В публикации описываются путешествие журналиста в сектор Газа,его встреча с членами ХАМАС и местными жителями, а также поиски аль-Рантиси и интервью с ним. В публикации содержатся четыре фото, включая аль-Рантиси, журналиста и боевиков ХАМАС в масках.
В запросе на обжалование, направленном в Совет, пользователь пояснял, что намерением публикации было информирование общественности о его опыте пребывания в секторе Газа и интервью с одним из основателей ХАМАС.
В Meta удалили данную публикацию с Facebook согласно политике в отношении опасных организаций и лиц, в рамках которой удалению с платформы подлежит контент о лицах и организациях, считающихся опасными. Однако в данной политике также указано, что "пользователи могут делиться контентом, в котором обозначенные опасные организации и лица упоминаются в ходе дискуссий на социальные и политические темы. Сюда относится контент, предназначенный для информирования, нейтрального обсуждения или осуждения опасных организаций и лиц или их деятельности".
После того как Совет привлек внимание Meta к этому делу, представители компании пришли к выводу, что "целью контента было повышение осведомленности о ситуации", поэтому он не нарушал Норму сообщества в отношении опасных организаций и лиц. В Meta процитировали исключение о дискуссиях на социальные и политические темы в контексте "нейтрального и информативного описания деятельности или поведения опасных лиц и организаций". Более того, представители Meta заявили, что в этом случае "контекст дискуссий на социальные и политические темы явно упомянут в контенте, поэтому неоднозначность намерения пользователя отсутствует".
Полномочия Совета и область принятия решений
Независимый надзорный совет уполномочен пересматривать решение Meta после отправки запроса на обжалование пользователем, чей контент был удален (раздел 1 статьи 2 Устава; раздел 1 статьи 3 Правил внутреннего распорядка).
Если Meta признает ошибку и отменяет решение, связанное с рассматриваемым делом, Совет может выбрать такое дело для составления обзорного решения (раздел 2.1.3 статьи 2 Правил внутреннего распорядка). Совет проверяет первоначальное решение с целью более тщательно изучить процесс модерации контента, уменьшить количество ошибок и обеспечить справедливость в отношении пользователей Facebook и Instagram.
Значимость дела
Это дело служит примером чрезмерно строгого применения политики Meta в отношении опасных организаций и лиц, в частности, к освещению субъектов, которые компания считает опасными, в новостях. Эта одна из распространенных проблем, которая особенно часто наблюдалась во время конфликта ХАМАС и Израиля, в котором одна из сторон считается опасной организацией. Совет представил несколько рекомендаций касательно исключения для новостных материалов в рамках политики в отношении опасных организаций и лиц. Если ошибки при применении этого важного исключения будут продолжаться, это может существенно ограничить свободу слова пользователей, доступ широкой общественности к информации и помешать общественному обсуждению актуальных проблем.
В рамках одного из предыдущих решений Совет порекомендовал Meta "добавить в политику Meta в отношении опасных организаций и лиц критерии и наглядные примеры, чтобы сделать понятнее исключения из данной политики, в частности, связанные с нейтральными обсуждениями и новостными материалами" (решение по делу о распространяемой публикации "Аль-Джазира", рекомендация № 1). В Meta сообщили о выполнении этой рекомендации, опубликовав соответствующую информацию. В обновлении политики в отношении опасных организаций и лиц от 29 декабря 2023 г. объяснения были изменены, и теперь в Норме сообщества вместо термина "восхваление" используется термин "прославление".
Более того, Совет рекомендовал Meta провести "оценку точности применения специалистами по проверке контента исключения для репортажей в рамках политики в отношении опасных организаций и лиц с целью выявления систематических проблем, приводящих к ошибкам в обеспечении соблюдения правил в отношении контента" (дело об упоминании о движении "Талибан" в новостном материале, рекомендация № 5). В Meta заявили о выполнении данной рекомендации, но никаких подтверждений опубликовано не было.
Что касается автоматизированной модерации, Совет призвал Meta внедрить процедуру внутренней проверки для непрерывного анализа статистически репрезентативной выборки автоматизированных решений об удалении контента, чтобы отменять решения и делать выводы об ошибках при модерации (дело о симптомах рака молочной железы и изображении обнаженного тела, рекомендация № 5, которая, по заявлениям Meta, была выполнена).
Совет считает, что выполнение этих рекомендаций в полном объеме позволило бы сократить количество ошибок при применении правил в рамках политики Meta в отношении опасных организаций и лиц.
Решение
Совет отменяет решение Meta удалить контент. Совет признает, что в Meta исправили первоначальную ошибку, после того как Совет привлек внимание Meta к этому делу.