أسقط

О больнице Аш-Шифа

Совет отменил первоначальное решение Meta удалить контент из Instagram. Совет полагает, что восстановление этого контента на платформе с добавлением экрана с предупреждением "контент помечен как шокирующий" соответствует политикам Meta в отношении контента, а также ценностям Meta и ее обязанностям по защите прав человека.

نوع القرار

Expedited

السياسات والمواضيع

عنوان
سلامة، عنف، حرب وصراع
معيار المجتمع
محتوى عنيف وصادم

المناطق/البلدان

موقع
إسرائيل، الأراضي الفلسطينية

منصة

منصة
Instagram

В течение нескольких недель после публикации этого решения мы опубликуем его в переводе на иврит здесь. Перевод на арабский язык будет доступен во вкладке "Язык" в меню вверху этого экрана.

לקריאת החלטה זו בעברית יש ללחוץ כאן.

1. Сводка

Данное дело касается эмоционально тяжелого видео, в котором демонстрируются последствия удара по больнице Аш-Шифа в Газе или рядом с ней во время наземного наступления Израиля, с подписью, осуждающей данную атаку. Автоматические системы Meta удалили эту публикацию за нарушение Нормы сообщества в отношении сцен насилия и тяжелого для восприятия контента. После безуспешной попытки оспорить это решение в Meta пользователь отправил запрос на обжалование в Независимый надзорный совет. После того как Совет выбрал это дело для рассмотрения, в Meta отменили свое решение и восстановили контент, добавив к нему экран с предупреждением. Совет считает, что первоначальное решение удалить данный контент не соответствовало политикам Meta в отношении контента и обязанностям компании по защите прав человека. Совет одобрил решение восстановить данный контент с добавлением к нему экрана с предупреждением, однако не одобрил понижение рейтинга контента и запрет его отображения в рекомендациях. Это дело и дело "О заложниках, захваченных в Израиле" (2023-050-FB-UA) являются первыми делами, рассматриваемыми Советом в рамках процедуры ускоренного рассмотрения.

2. Контекст и ответ Meta

7 октября 2023 г. ХАМАС (организация 1 уровня в списке Нормы сообщества Meta в отношении опасных организаций и лиц) провела серию беспрецедентных террористических атак на Израиль из сектора Газа, в результате которых было убито около 1 200 человек, а около 240 человек попали в заложники (Министерство иностранных дел, правительство Израиля). В ответ на эти атаки Израиль немедленно начал военную кампанию в секторе Газа. В ходе военной операции Израиля в секторе Газа было убито более 18 тыс. человек (по состоянию на середину декабря 2023 г., по данным Управления ООН по координации гуманитарных вопросов, на основе данных, полученных от Министерства здравоохранения Газа) в рамках конфликта, в котором обе стороны обвиняются в нарушении международных законов. Как террористические атаки, так и последующее вторжение Израиля широко освещались в СМИ и стали предметом ожесточенных дебатов, расследований и споров по всему миру, которые зачастую происходили на платформах социальных сетей, включая Instagram и Facebook.

В Meta незамедлительно обозначили события 7 октября как террористическую атаку в политике в отношении опасных организаций и лиц. В рамках Норм сообщества это означает, что любой контент, "восхваляющий, явно поддерживающий или представляющий" теракты 7 октября или их инициаторов, будет удаляться с платформ Meta.

В ответ на резкий рост количества контента со сценами насилия и тяжелого для восприятия контента, публикуемого на платформах после террористических атак и начала военной операции, в Meta применили ряд временных мер, включая снижение порога уверенности для выявления и удаления контента с помощью автоматического классификатора сцен насилия и тяжелого для восприятия контента. Представители Meta сообщили Совету, что эти меры применялись к контенту из Израиля и Газы на всех языках. Из-за изменений в классификаторах увеличились объемы автоматически удаляемого контента, который нарушал политики Meta и для которого был задан более низкий коэффициент уверенности. Другими словами, для автоматизированных инструментов Meta был настроен более агрессивный режим удаления контента, который может нарушать политики. В Meta приняли такое решение, чтобы приоритизировать ценность "безопасность", что привело к удалению большего объема контента, чем было бы удалено при более высоком пороге уверенности, который действовал до 7 октября. Это снизило вероятность неудаления Meta неприемлемого контента, который в противном случае (а также в условиях ограниченности ресурсов для проведения проверки вручную) не был бы выявлен, однако при этом также выросла вероятность ошибочного удаления связанного с конфликтом контента, не нарушающего правила.

Если в ходе дополнительной проверки проверяющие решали, что видео нарушает политики в отношении сцен насилия и тяжелого для восприятия контента, а также опасных организаций и лиц, в Meta полагались на то, что банки контента службы сопоставления медиафайлов автоматически удалят совпадающие видео. Такой подход вызвал опасения по поводу чрезмерного усиления контроля, включая увеличение количества людей, столкнувшихся с ограничением или приостановкой действия своих аккаунтов вследствие многочисленных нарушений политик Meta в отношении контента (такие меры иногда называют "тюрьмой Facebook"). Чтобы смягчить это ужесточение, в Meta не стали назначать "штрафные меры", которые обычно сопровождают автоматическое удаление публикаций на основе информации из банков контента службы сопоставления медиафайлов (о чем было сообщено в публикации пресс-центра Meta).

Изменения порога уверенности классификаторов и политики предупреждений, внесенные Meta, ограничиваются конфликтом между Израилем и Газой и носят временный характер. По состоянию на 11 декабря 2023 года в Meta не вернулись к порогам уверенности, существовавшим до 7 октября.

3. Описание дела

Данное дело касается видео, опубликованного в Instagram на второй неделе ноября, в котором, судя по всему, демонстрируются последствия удара по больнице Аш-Шифа в городе Газа или неподалеку от нее во время наземного наступления Израиля в северной части сектора Газа. В этой публикации в Instagram показаны лежащие на земле мертвые либо раненные и плачущие люди, в том числе дети. Один ребенок, видимо, погиб, получив серьезную травму головы. В видео добавлена подпись на арабском и английском языках, в которой говорится, что данную больницу атаковали "usurping occupation" ("захватчики-оккупанты", отсылка к армии Израиля), и отмечены правозащитные и новостные организации.

Норма сообщества Meta в отношении сцен насилия и тяжелого для восприятия контента, применяемая к контенту на Facebook и в Instagram, запрещает публиковать "видео с живыми или мертвыми людьми в обстановке, не связанной с медицинскими учреждениями, если на таких видео запечатлены... видимые внутренние органы". На момент публикации данная политика разрешала публиковать "изображения, в которых показана насильственная смерть человека или людей в результате несчастного случая или убийства", при условии, что такой контент помещен за экран с предупреждением "контент помечен как шокирующий" и виден только лицам старше 18 лет. Данное правило было обновлено 29 ноября, после восстановления контента, фигурирующего в этом деле, чтобы уточнить, что правило применяется к "моменту смерти или ее последствиям", а также к изображениям "человека в ситуации, где существует угроза жизни".

Автоматические системы Meta удалили контент, фигурирующий в этом деле, за нарушение Нормы сообщества в отношении сцен насилия и тяжелого для восприятия контента. Обжалование пользователем данного решения было автоматически отклонено, поскольку классификаторы Meta показали "высокий уровень уверенности" в том, что данный контент нарушал правила. Затем пользователь отправил запрос на обжалование решения Meta в Совет.

После того как Совет выбрал это дело, в Meta заявили о невозможности достоверно определить, что на видео видны внутренние органы. Поэтому в Meta пришли к выводу, что удалять данный контент не следовало, хотя он и находился "на грани" нарушения. В Meta также пояснили, что даже если бы были видны внутренние органы, публикацию следовало оставить, добавив экран с предупреждением "контент помечен как шокирующий", поскольку она создана с целью привлечения внимания к ситуации. В компании подтвердили, что в соответствии с политикой в отношении сцен насилия и тяжелого для восприятия контента такой контент разрешается публиковать, если он используется для привлечения внимания "к таким серьезным проблемам, как нарушение прав человека, вооруженные конфликты или террористические акты".

Поэтому в Meta отменили свое первоначальное решение и восстановили этот контент, закрыв его экраном с предупреждением. На этом экране указано, что контент может шокировать пользователей. Взрослые пользователи могут увидеть этот контент, нажав его, но Meta удаляет такие публикации из лент пользователей Instagram младше 18 лет, а также убирает их из рекомендаций взрослым пользователям Instagram. В Meta также добавили отдельный экземпляр данного видео в банк контента службы сопоставления медиафайлов, вследствие чего другие видео, идентичные этому, будут автоматически закрыты экраном с предупреждением и видны только людям старше 18 лет.

4. Обоснование для ускоренного рассмотрения

Правилами внутреннего распорядка Независимого надзорного совета ускоренное рассмотрение предусмотрено в "исключительных ситуациях, в том числе когда контент может незамедлительно привести к нежелательным последствиям в реальном мире", и в Meta обязаны выполнить решения, принятые в ходе такого рассмотрения (Устав, статья 3, раздел 7.2; Правила внутреннего распорядка, статья 2, раздел 2.1.2). Ускоренный процесс рассмотрения не позволяет проводить обширные исследования, консультироваться с независимыми экспертами и собирать комментарии общественности, как при стандартном рассмотрении. Решение по делу принимается на основе информации, имеющейся у Совета на момент обсуждения, и выносится панелью из пяти членов без голосования в полном составе.

Независимый надзорный совет выбрал это дело и ещё одно — "О заложниках, захваченных в Израиле" (2023-050-FB-UA) — вследствие высокой важности свободы слова в конфликтных ситуациях, которая оказалась под угрозой в контексте конфликта между Израилем и ХАМАС. Оба дела являются репрезентативными в отношении типов обжалований, которые пользователи в данном регионе начали отправлять в Совет после терактов 7 октября и последующих военных действий Израиля. Оба дела соответствуют приоритету Независимого надзорного совета в отношении кризисных и конфликтных ситуаций. Решения Meta в обоих случаях соответствуют стандарту "незамедлительных нежелательных последствий в реальном мире", оправдывающих ускоренное рассмотрение. Соответственно, Совет и Meta согласились следовать процедурам Совета в отношении ускоренного рассмотрения.

В материалах, представленных Совету, представители Meta признают, что "по данному контенту сложно принять решение с учетом баланса ценностей", и приветствуют вклад Совета в решение этого вопроса.

5. Заявления пользователя

В обжаловании, направленном в Совет, автор публикации заявил, что не подстрекал к насилию, а поделился контентом, показывающим страдания палестинцев, в том числе детей. Он также добавил, что удаление было предвзятым по отношению к страданиям палестинцев. Данный пользователь был уведомлен о том, что Совет рассмотрел его обжалование.

6. Решение

Хотя у членов Совета есть разногласия по поводу военного ответа Израиля и его обоснованности, они единодушно согласны с тем, что в Meta должны уважать право на свободу слова и другие права человека всех пострадавших в ходе этих событий, а также их способность общаться в условиях кризиса.

Совет отменил первоначальное решение Meta удалить контент из Instagram. Совет полагает, что восстановление этого контента на платформе с добавлением экрана с предупреждением "контент помечен как шокирующий" соответствует политикам Meta в отношении контента, а также ценностям Meta и ее обязанностям по защите прав человека. Однако Совет также считает, что понижение Meta рейтинга восстановленного контента, выразившееся в исключении его из рекомендаций, не соответствует обязанности Meta уважать свободу слова.

6.1. Соблюдение политик Meta в отношении контента

Совет согласен с Meta в том, что трудно определить, показаны ли в рассматриваемом видео "[видимые] внутренние органы". Учитывая контекст данного дела, в котором защита доступа к информации и предоставление возможностей для привлечения внимания к последствиям конфликта представляют исключительную общественную ценность, контент, который "находится на грани" нарушения политики в отношении сцен насилия и тяжелого для восприятия контента, не следует удалять. Поскольку в публикации присутствует изображение насильственной смерти человека с кровавой травмой головы, в Meta в соответствии со своими политиками должны были закрыть ее экраном с предупреждением и сделать ее доступной только для лиц старше 18 лет.

Совет также согласен с последующим решением Meta о том, что даже если бы в этом видео были видны внутренние органы, в публикации также есть текст, осуждающий насилие или привлекающий к нему внимание, что также свидетельствует о необходимости оставить эту публикацию, добавив в нее экран с предупреждением "контент помечен как шокирующий" и закрыв доступ к ней для пользователей младше 18 лет. Данная Норма сообщества не предусматривает добавление экранов с предупреждением в связи с применимым положением из политики ("видео с живыми или мертвыми людьми в обстановке, связанной с медицинскими учреждениями, если на таких видео запечатлены [...] видимые внутренние органы"). В деле О тяжелом для восприятия видео о ситуации в Судане Совет пояснил, что в соответствии с инструкциями Meta проверяющие обязаны следовать букве политик, запрещающих публикацию. В обосновании говорится, что "в контексте обсуждения важных вопросов, например нарушений прав человека, вооруженных конфликтов или террористических актов, мы допускаем (с некоторыми ограничениями) публикацию тяжелого для восприятия контента с целью осуждения этих ситуаций или привлечения к ним внимания". Однако данное правило Нормы сообщества запрещает публиковать любые видео с изображением "видимых внутренних органов" в немедицинском контексте, не позволяя проверяющим добавить экран с предупреждением в случае применения исключения, связанного с обоснованием правила. По-видимому, автоматические системы Meta не настроены на добавление экранов с предупреждением в тяжелые для восприятия видео в контексте осуждения насилия или привлечения к нему внимания. Кроме того, неясно, смогут ли применимые классификаторы отправлять такой контент на дополнительную проверку вручную при наличии такого контекста.

6.2. Соблюдение обязательств Meta по защите прав человека

В соответствии с обязанностями Meta по защите прав человека при модерации контента со сценами насилия и тяжелым для восприятия контентом в Meta должны уважать право на свободу слова, включающее свободу искать, получать и распространять информацию (статья 19 пункт 2 Международного пакта о гражданских и политических правах (МПГПП). Как заявлял Совет в рамках дела О видео с участием армянских военнопленных, меры защиты свободы слова в рамках статьи 19 Международного пакта о гражданских и политических правах (МПГПП) остаются в силе во время вооруженных конфликтов, а также должны применяться и далее в контексте обязательств Meta по защите прав человека наряду со взаимно усиливающими и дополнительными положениями международного гуманитарного права, применяемыми в ходе таких конфликтов". Руководящие принципы ООН относительно предпринимательской деятельности в аспекте прав человека налагают повышенную ответственность на компании, работающие в условиях конфликта ("Бизнес, права человека и регионы, затронутые конфликтом: к ужесточению мер", A/75/212).

В предыдущих делах Совет подчеркивал, что социальные сети, такие как Facebook и Instagram, являются важным средством передачи в реальном времени информации о событиях, связанных с насилием, включая новостные репортажи (например, см. дело Об упоминании о движении "Талибан" в новостном материале). Они играют особенно важную роль в условиях вооруженных конфликтов, особенно в местах с ограниченным доступом журналистов. Кроме того, контент с изображением нападений с применением насилия и нарушений прав человека представляет большой общественный интерес (см. дело О тяжелом для восприятия видео о ситуации в Судане).

Если ограничения свободы слова установлены государством в соответствии с международным законодательством в сфере прав человека, они должны соответствовать требованиям в отношении правомерности, законной цели, а также необходимости и соразмерности (пункт 3 статьи 19 МПГПП). Эти требования часто называют "трехэтапной проверкой". Совет использует ее для интерпретации добровольно принятых Meta обязательств по защите прав человека, как при вынесении решений по контенту, рассматриваемому в конкретном деле, так и при оценке общего подхода Meta к управлению контентом. Таким образом Совет пытается учитывать разницу в том, как эти права применяются к частному поставщику платформ социальных сетей, и в том, как они применяются к государству. В докладе Специального докладчика ООН по вопросу права на свободу слова говорится: "у компаний нет обязательств государственного уровня, однако их влияние таково, что им необходимо рассматривать те же вопросы защиты права на свободу слова" (отчет A/74/486, пункт 41).

Принцип правомерности подразумевает, что любое ограничение свободы самовыражения должно быть доступным для понимания и достаточно четким, чтобы дать представление о допустимых и запрещенных действиях. Ранее Совет выражал обеспокоенность тем, что правила Нормы сообщества в отношении сцен насилия и тяжелого для восприятия контента не полностью соответствуют обоснованию политики, в котором изложены ее цели (см. дела О тяжелом для восприятия видео о ситуации в Судане и Видео о нападении на церковь в Нигерии). Совет в очередной раз подчеркивает важность рекомендаций 1 и 2 по делу "О тяжелом для восприятия видео о ситуации в Судане", призывающих Meta внести в Норму сообщества в отношении сцен насилия и тяжелого для восприятия контента поправки, разрешающие публикацию видео с изображением людей или мертвых тел с целью привлечения внимания к проблемам нарушения прав человека или фиксации фактов таких нарушений (в данном деле речь шла о видимом расчленении). В ответ на эти рекомендации в Meta провели процедуру разработки политики и намерены сообщить о достигнутых результатах в следующем ежеквартальном обновлении для Совета. По мнению Совета, эта рекомендация должна распространяться на правила в отношении видео, где демонстрируются видимые внутренние органы, и предусматривать добавление экрана с предупреждением в целях обеспечения соблюдения правил в ситуациях, когда применяется исключение, связанное с привлечением внимания к проблеме (включая основанные на фактах репортажи) и ее осуждением.

Согласно статье 19, п. 3 МПГПП, право на свободу слова может быть ограничено по определенному и ограниченному перечню причин. Ранее Совет признал, что политика в отношении сцен насилия и тяжелого для восприятия контента направлена на защиту прав других людей, включая неприкосновенность частной жизни изображенного человека (см. дела О тяжелом для восприятия видео о ситуации в Судане и Видео о нападении на церковь в Нигерии). Кроме того, данное дело показывает, что ограничение доступа к контенту для лиц младше 18 лет преследовало законную цель защиты права несовершеннолетних на здоровье (Конвенция о правах ребенка, статья 24).

Принцип необходимости и соразмерности предполагает, что любые ограничения свободы самовыражения "должны быть уместны для выполнения своей защитной функции; должны представлять собой наименее ограничительное средство из числа тех, с помощью которых может быть достигнут желаемый результат, и должны являться соразмерными защищаемому интересу" (Замечание общего порядка № 34, пункт 34).

Ранее Совет признал, что в отношении сцен насилия и тяжелого для восприятия контента экран с предупреждением "не создает чрезмерных сложностей для желающих увидеть контент, но при этом информирует других о его характере и позволяет им решить самостоятельно, стоит ли его смотреть" (см. дело О тяжелом для восприятия видео о ситуации в Судане). Экраны с предупреждением предотвращают нежелательный просмотр потенциально шокирующего контента. Права жертв также защищены политикой Meta по удалению видео и фото, на которых запечатлена насильственная смерть человека (или ее непосредственные последствия), если об этом просит член семьи. Контент, рассматриваемый в данном деле, отличается от контента, фигурирующего в деле О стихотворении на русском языке — фото лежащего на земле тела с большого расстояния, где не было видно лица жертвы и явных визуальных признаков насилия. В рамках данного дела наложение экрана с предупреждением не соответствовало инструкциям Meta для проверяющих и не являлось необходимым или соразмерным ограничением свободы слова. Контент, фигурирующий в этом деле, больше похож на контент из дела Видео о нападении на церковь в Нигерии, показывающий убитых и раненых людей с близкого расстояния, с очень четкими визуальными следами насилия.

В данном случае изображение раненых и мертвых детей делает видео особенно шокирующим. В подобных обстоятельствах предоставление пользователям выбора, смотреть ли им шокирующий контент, является необходимой и соразмерной мерой (см. также дело Видео с участием армянских военнопленных).

Совет считает, что исключение контента, привлекающего внимание к возможным нарушениям прав человека и законов войны, конфликтам или террористическим актам, из рекомендаций для взрослых, не является необходимым или соразмерным ограничением свободы слова, учитывая очень высокий общественный интерес к такому контенту. Экраны с предупреждением и удаление из рекомендаций выполняют разные функции и в некоторых случаях должны быть разделены, особенно в кризисных ситуациях. Рекомендации в Instagram генерируются автоматизированными системами, которые предлагают пользователям контент на основе их предполагаемых интересов. Удаление контента из систем рекомендаций означает уменьшение охвата, который этот контент мог бы получить в противном случае. Совет считает, что эта практика несоразмерно ущемляет свободу слова в той мере, в какой она применяется к контенту, который уже демонстрируется только взрослым пользователям и опубликован с целью привлечения внимания к событиям, представляющим общественный интерес (например, к развитию конфликта с актами насилия), их осуждения или репортажей о них.

Совет признает, что немедленное реагирование на кризис может потребовать принятия исключительных временных мер и что в некоторых ситуациях вполне законно отдавать приоритет соображениям безопасности, а также временно и соразмерно ужесточать ограничения свободы слова. Некоторые из них изложены, например, в обязательствах противодействовать распространению "контента, пропагандирующего терроризм и экстремизм", закрепленных в Крайстчерчском призыве. Однако Совет отмечает, что в Крайстчерчском призыве подчеркивается необходимость реагирования на такой контент способами, не нарушающими права и основные свободы человека. Совет считает, что соображения безопасности не оправдывают удаления тяжелого для восприятия контента, опубликованного с целью привлечь внимание к возможным военным преступлениям, преступлениям против человечности или грубым нарушениям прав человека либо с целью их осуждения. Такие ограничения могут даже препятствовать распространению информации, необходимой для обеспечения безопасности людей, находящихся в зоне этих конфликтов.

Такие меры, как отказ от предупреждений, действительно помогают смягчить потенциально несоразмерные негативные последствия ошибок при обеспечении соблюдения правил в отношении контента, связанных с принятием экстренных мер, таких как снижение порогов уверенности для удаления контента во время конфликтных ситуаций. Однако их недостаточно для защиты способности пользователей публиковать контент, который привлекает внимание к возможным нарушениям прав человека и гуманитарного права, а также другую важную информацию в конфликтных ситуациях.

Совет неоднократно подчеркивал необходимость разработки принципиальной и прозрачной системы модерации контента во время кризисов и в зонах конфликтов (см. дела О видео из полицейского участка на Гаити и Бюро региона Тыграй по связям с общественностью). Именно в периоды быстро развивающихся конфликтов крупные социальные сети должны выделять ресурсы, необходимые для того, чтобы не допустить нецелесообразного ограничения свободы слова. В такие моменты журналистские источники часто подвергаются физическим и иным нападениям, что придает особую важность новостным репортажам обычных граждан в социальных сетях.

Ранее Совет также отмечал, что в условиях войны или политической нестабильности может возрастать количество тяжелого для восприятия и содержащего сцены насилия контента, создаваемого пользователями, которым они делятся на платформе с целью привлечения внимания к нарушениям прав человека или их документирования (см. дело О тяжелом для восприятия видео о ситуации в Судане). В таких условиях, как конфликт между Израилем и Газой, когда на фоне обострения гуманитарного кризиса растет число убитых и раненых гражданских лиц, включая множество детей, особенно важно в виде исключения разрешать публикацию подобного контента. Принимая во внимание текущий процесс разработки политики Meta в отношении сцен насилия и тяжелого для восприятия контента, Совет рассчитывает на то, что в Meta готовы быстро принять временные меры, чтобы разрешить публиковать такой контент, закрывая его экраном с предупреждением, и не удалять его из рекомендаций.

Совет отмечает, что ситуация в Газе на момент публикации этого контента не ставила перед Meta такие же сложные задачи, что и при терактах 7 октября. В Газе возникли трудности с получением информации от людей на местах в условиях ограниченного доступа журналистов и проблем с подключением к Интернету. Более того, в отличие от первых последствий терактов 7 октября, ситуация в Газе, представленная в данном деле, не предполагала использования террористами социальных сетей для трансляции своих злодеяний. В контексте вооруженного конфликта, напротив, в Meta должны следить за тем, чтобы их действия не мешали людям публиковать контент, который привлекает внимание к страданиям гражданского населения и может использоваться с целью определить, имели ли место нарушения международного гуманитарного права и международно признанных прав человека. Вопрос о том, был ли этот контент опубликован с целью привлечения внимания к событиям на месте или их осуждения, должен быть отправной точкой для любого специалиста, проверяющего такой контент, а автоматизированные системы Meta должны быть разработаны таким образом, чтобы избежать ошибочного удаления контента, на который распространяются применимые исключения.

Это дело в очередной раз показывает, что в условиях кризиса автоматическая модерация без тщательного контроля со стороны специалистов может привести к ошибочному удалению контента, который может представлять значительный общественный интерес. Первоначальное решение удалить контент и решение отклонить обжалование пользователя принимались автоматически на основе оценки классификатора, без проверки вручную. Ситуация, в свою очередь, могла усугубляться кризисной реакцией Meta на снижение порога удаления контента в соответствии с политикой в отношении сцен насилия и тяжелого для восприятия контента после терактов 7 октября. Это означает, что Meta удаляет контент, даже если по оценке классификатора вероятность нарушения правил ниже, чем обычно.

Чтобы автоматизированные системы Meta использовались в соответствии с обязательствами Meta по защите прав человека, Совет напоминает Meta о рекомендации № 1 по делу О карикатуре на полицию Колумбии. В рамках данного дела Совет призвал Meta проследить за тем, чтобы контент, в отношении которого подается много обжалований, многие из которых оказываются успешными, повторно оценивался на предмет возможного удаления из банков контента службы сопоставления медиафайлов. В ответ на эту рекомендацию в Meta сформировали отдельную рабочую группу, занимающуюся повышением эффективности управления всеми банками контента службы сопоставления медиафайлов (последние новости Meta по этой теме см. здесь). Совет отмечает, что этой группе следует обратить особое внимание на эффективность этой службы в контексте вооруженных конфликтов. В рамках дела О симптомах рака молочной железы и изображении обнаженного тела (рекомендации № 3 и № 6) Совет рекомендовал Meta информировать пользователей о том, что к их контенту применяются автоматические технологии, обеспечивающие соблюдение правил в отношении контента, и разглашать количество автоматически принятых решений об удалении с разбивкой по Нормам сообщества, а также процентную долю таких решений, отмененных после проверки вручную. Это особенно важно в связи с тем, что, по имеющимся данным, пороги уверенности в том, что контент нарушает правила, были значительно снижены. Совет настоятельно призывает Meta продолжить работу с целью выполнения рекомендации № 6 и представить Совету доказательства выполнения рекомендации № 3.

Ограничения свободы слова не должны носить дискриминационный характер, в том числе по признаку национальной или этнической принадлежности, религии, убеждений либо политических взглядов (пункт 1 статьи 2 и статья 26 МПГПП). Обеспечение соблюдения Норм сообщества в отношении контента на почве дискриминации нарушает этот фундаментальный аспект свободы слова. В рамках дела О распространяемой публикации "Аль-Джазира" Совет выразил серьезную обеспокоенность тем, что ошибки в модерации контента Meta в Израиле и на оккупированных палестинских территориях могут быть распределены неравномерно, и призвал провести независимое расследование (решение по делу "О распространяемой публикации "Аль-Джазира"", рекомендация № 3). Оценка влияния на права человека, выполненная организацией Business for Social Responsibility (BSR) по заказу Meta в ответ на эту рекомендацию, выявила "различные случаи непреднамеренной предвзятости, когда политика и практика Meta, в сочетании с более широкой внешней динамикой, по-разному ущемляют права человека палестинских и арабоязычных пользователей". Совет призывает Meta выполнить обязательства, взятые в ответ на публикацию данного отчета BSR.

Наконец, в Meta обязаны сохранять доказательства потенциальных нарушений прав человека и международного гуманитарного права, как в числе прочего рекомендуется в докладе BSR (рекомендация 21), за что также выступают группы гражданского общества. Даже при удалении контента с платформ Meta крайне важно сохранять такие свидетельства для дальнейшей отчетности (см. дела О тяжелом для восприятия видео о ситуации в Судане и Видео с участием армянских военнопленных). Хотя в Meta объяснили, что в течение года хранят любой контент, нарушающий Нормы сообщества, Совет настоятельно рекомендует выявлять и сохранять контент, связанный с возможными военными преступлениями, преступлениями против человечности и грубыми нарушениями прав человека, на более длительные сроки и в более доступном месте для долгосрочной отчетности. Совет отмечает, что в Meta согласились выполнить рекомендацию № 1 по делу Видео с участием армянских военнопленных. Согласно этой рекомендации, Meta следует разработать процедуру сохранения и, при необходимости, отправки в компетентные органы информации для оказания помощи в расследованиях и судебных процессах по исправлению или преследованию злодеяний или серьезных нарушений прав человека. Представители Meta сообщили Совету, что находятся на завершающей стадии разработки "последовательного подхода к сохранению потенциальных доказательств злодеяний и серьезных нарушений международного законодательства в области прав человека" и рассчитывают в ближайшее время провести для Совета брифинг по этому подходу. Совет рассчитывает на то, что Meta полностью выполнит указанную выше рекомендацию.

*Процедурное примечание.

Решения Независимого надзорного совета, принятые в ходе ускоренного рассмотрения, подготавливаются панелью из пяти Участников и не подлежат утверждению большинством голосов. Решения Совета не обязательно отражают личные взгляды всех его членов.

العودة إلى قرارات الحالة والآراء الاستشارية المتعلقة بالسياسة