Anulado
Rehenes secuestrados de Israel
19 de diciembre de 2023
El Consejo anuló la decisión original de Meta de eliminar el contenido de Facebook. Este sostiene que restaurar el contenido en la plataforma, con la pantalla de advertencia que indique "marcar como perturbador", es coherente con las políticas de contenido, los valores y las responsabilidades en materia de derechos humanos de Meta.
En las semanas posteriores a la publicación de esta decisión, subiremos una traducción en hebreo aquí y habrá una traducción en árabe disponible en la pestaña "Idioma" del menú ubicado en la parte superior de esta pantalla.
לקריאת החלטה זו בעברית יש ללחוץ כאן.
1. Resumen
El caso comprende un video impactante en el que se muestra a una mujer, durante el ataque terrorista dirigido por Hamás contra Israel el 7 de octubre, rogando a sus secuestradores que no la mataran mientras la toman como rehén y se la llevan. El video estaba acompañado por un texto que instaba a las personas a verlo para comprender mejor el horror con el que Israel amaneció el 7 de octubre de 2023. Los sistemas automáticos de Meta eliminaron la publicación por infringir su norma comunitaria sobre personas y organizaciones peligrosas. El usuario apeló la decisión ante el Consejo asesor de contenido. Después de que el Consejo identificara el caso para revisión, Meta informó al Consejo que posteriormente había hecho una excepción a la disposición de la política bajo la cual se eliminó el contenido y lo restauró con una pantalla de advertencia. El Consejo anuló la decisión original de Meta y aprobó la decisión de restaurar el contenido con una pantalla de advertencia, pero no aprueba la degradación asociada de este que lo excluye de las recomendaciones. Este caso, junto con el del "Hospital Al-Shifa" (2023-049-IG-UA), son los dos primeros sobre los que el Consejo toma una decisión en función de sus procedimientos de revisión acelerada.
2. Contexto del caso y respuesta de Meta
El 7 de octubre de 2023, Hamás, una organización designada de nivel 1 conforme a la norma sobre personas y organizaciones peligrosas de Meta, lideró ataques terroristas sin precedentes en Israel desde Gaza en los que 1.200 personas murieron y aproximadamente 240 fueron tomadas como rehén (Ministerio de Relaciones Exteriores, Gobierno de Israel). Israel levantó de inmediato una campaña militar en Gaza en respuesta a los ataques. Debido a la acción militar de Israel, hasta mediados de diciembre de 2023, habían fallecido más de 18.000 personas en Gaza (Oficina para la Coordinación de Asuntos Humanitarios de la ONU, conforme a datos del Ministerio de Salud de Gaza), en un conflicto en el que se acusa a ambas partes de infringir la legislación internacional. Tanto los ataques terroristas como la posterior acción militar de Israel generaron intensos niveles de propaganda, debate, escrutinio y controversia en todo el mundo, mucho de lo cual ocurrió en plataformas de medios sociales, como Instagram y Facebook.
Meta designó de inmediato los acontecimientos acaecidos el 7 de octubre como un ataque terrorista en virtud de su política de personas y organizaciones peligrosas. Conforme a sus Normas comunitarias, esto significa que Meta eliminaría de sus plataformas todo contenido que "exaltara, respaldara sustancialmente o representara" los ataques del 7 de octubre o a sus perpetradores. También eliminaría cualquier contenido generado por los responsables de dichos ataques e imágenes de terceros que muestren el momento de dichos ataques en víctimas visibles.
En respuesta a un incremento repentino y excepcional de publicaciones con contenido violento y gráfico en sus plataformas tras los ataques terroristas y la respuesta militar, Meta impuso diversas medidas temporales, como reducir los umbrales de confianza de los sistemas de clasificación automática de sus políticas sobre lenguaje que incita al odio, violencia e incitación y bullying y acoso para identificar y eliminar contenido. Meta informó al Consejo que estas medidas se aplicaban al contenido procedente de Israel y Gaza en todos los idiomas. Los cambios a estos clasificadores aumentaron la eliminación automática de contenido en casos en los que había una puntuación de confianza más baja para el contenido que infringe las políticas de Meta. En otras palabras, Meta usó sus herramientas automatizadas de manera más agresiva para eliminar contenido que podría estar prohibido. Lo hizo de este modo para priorizar su valor de seguridad y eliminó más contenido del que hubiera quitado con el umbral de confianza más alto en vigencia antes del 7 de octubre. Si bien esto redujo la probabilidad de que Meta no lograra eliminar contenido infractor que, de otro modo, podría evadir la detección o en los que había capacidad de revisión manual limitada, también aumentó la probabilidad de que Meta eliminara por error contenido no infractor relacionado con el conflicto.
Cuando los equipos de escalamiento evaluaron los videos y determinaron que infringe las políticas de contenido violento y gráfico, violencia e incitación y personas y organizaciones peligrosas, Meta recurrió a bancos de Media Matching Service multimedia para eliminar videos con coincidencias automáticamente. Este enfoque generó inquietud por la sobreaplicación de políticas, como restringir o suspender cuentas por infringir varias veces las políticas de contenido de Meta (en ocasiones, denominadas "cárcel de Facebook"). Para mitigar esa preocupación, Meta no aplicó las "faltas" que se impondrían habitualmente al contenido eliminado en función de los bancos de Media Matching Service (como anunció Meta en su publicación de Newsroom).
Los cambios que Meta aplicó al umbral de confianza del clasificador y su política de faltas se limitan al conflicto entre Israel y Gaza, y son temporales. Al 11 de diciembre de 2023, Meta no había restaurado los umbrales de confianza a los niveles previos al 7 de octubre.
3. Descripción del caso
Este caso comprende un video de los ataques del 7 de octubre que muestra a una mujer rogándoles a los secuestradores que no la maten mientras se la llevan como rehén en una motocicleta. Se puede ver a la mujer sentada en la parte trasera del vehículo, estirando el brazo y suplicando por su vida. El video muestra luego a unos captores llevándose por la fuerza a un hombre, que parece ser otro rehén. Los rostros de los rehenes y de quienes los secuestran no están ocultos y son identificables. Las imágenes originales se compartieron ampliamente y de inmediato después de los ataques. El video publicado por el usuario en este caso, aproximadamente una semana después de los ataques, incluye texto dentro del video que afirma: "Israel is under attack" (Están atacando Israel) y el hashtag #FreeIsrael (#LiberenaIsrael). También menciona a uno de los rehenes. En el texto que acompaña al video, el usuario afirma que militantes de Hamás atacaron Israel e insta a las personas a ver el video para comprender mejor el horror con el que Israel despertó el 7 de octubre de 2023. Al momento de escribir este artículo, las dos personas secuestradas en el video aún seguían como rehenes.
Se agregó una copia de este video al banco de Media Matching Service. Meta inicialmente eliminó la publicación en este caso por infringir su política sobre personas y organizaciones peligrosas, que prohíbe imágenes de terceros que muestren el momento de los ataques terroristas contra víctimas visibles bajo cualquier circunstancia, incluso si se comparten para condenar o generar conciencia sobre el ataque. Meta no aplicó ninguna falta. El usuario entonces apeló la decisión de Meta ante el Consejo asesor de contenido.
Inmediatamente después de los ataques terroristas del 7 de octubre, Meta aplicó de manera estricta su política sobre videos que muestran el momento del ataque a víctimas visibles. Meta explicó que esto se debía a preocupaciones sobre la dignidad de los rehenes, así como al uso de dichos videos para celebrar o promover las acciones de Hamás. Meta agregó videos que muestran momentos del ataque del 7 de octubre, incluido el video que se muestra en este caso, a los bancos de Media Matching Service para que futuras instancias de contenido idéntico pudieran eliminarse automáticamente.
Meta comunicó al Consejo que aplicó la disposición de la política de personas y organizaciones peligrosas a dicho contenido y emitió una guía consolidada para los revisores. El 13 de octubre, la empresa explicó en su publicación en Newsroom que amplió temporalmente la política sobre violencia e incitación para eliminar contenido que identificara claramente a los rehenes cuando Meta tuviera conocimiento de ello, incluso si se hizo para condenar las acciones o generar conciencia sobre su situación. La empresa afirmó ante el Consejo que estas políticas se aplicaron por igual tanto en Facebook como en Instagram, aunque se reportó que se mostró contenido similar muchas veces en esta última plataforma, lo que indica que puede haber habido una aplicación menos efectiva de esta política allí.
La norma comunitaria sobre violencia e incitación generalmente permite contenido relacionado con secuestros y abducciones en un número limitado de contextos, incluso cuando el contenido se comparte con fines informativos, de condena o de conciencia, o como una petición de ayuda por parte de la familia. Sin embargo, según Meta, cuando designa un ataque terrorista conforme a su política sobre personas y organizaciones peligrosas, y esos ataques incluyen la toma como rehenes de víctimas visibles, las reglas de Meta sobre el contenido del momento del ataque sustituyen la norma comunitaria sobre violencia e incitación. En tales casos, no se aplican las concesiones dentro de esa política para compartir información, condenar o generar conciencia sobre videos del momento del secuestro y el contenido se elimina.
Sin embargo, a medida que se desarrollaron los acontecimientos después del 7 de octubre, Meta observó tendencias online que indicaban un cambio en los motivos por los que las personas compartían videos en los que aparecían rehenes identificables en el momento de su secuestro. Las familias de las víctimas compartían los videos para condenar y generar conciencia, y el gobierno israelí y los medios de comunicación también compartían las imágenes, incluso para contrarrestar los discursos emergentes que negaban la certeza de los acontecimientos del 7 de octubre o que negaban la gravedad de las atrocidades.
En respuesta a estos desarrollos, Meta implementó una excepción a su política sobre personas y organizaciones peligrosas y mantuvo su designación de los sucesos del 7 de octubre. Sujeto a restricciones operativas, se permitiría contenido sobre el momento del secuestro que muestre rehenes identificables con una pantalla de advertencia en el contexto de condena, concientización, informes de noticias o un pedido de liberación.
Meta comunicó al Consejo que la implementación de esta excepción se realizó en etapas y no llegó a todos los usuarios al mismo tiempo. Alrededor del 20 de octubre, la empresa comenzó a permitir contenido de toma de rehenes de los ataques del 7 de octubre. Inicialmente lo hizo solo a partir de cuentas incluidas en el programa de "revisión secundaria de respuesta temprana" (comúnmente conocido como "verificación cruzada"), dadas las preocupaciones sobre las limitaciones operativas, incluida la capacidad incierta de revisión manual. El programa de verificación cruzada garantiza una fase adicional de revisión manual del contenido publicado por entidades específicas cada vez que publican contenido que se identifica como potencialmente infractor y que exige la aplicación de políticas conforme a las políticas de contenido de Meta. El 16 de noviembre, Meta determinó que tenía capacidad para ampliar la concesión de contenido sobre toma de rehenes a todas las cuentas y lo hizo, pero solo para el contenido publicado después de esta fecha. Meta informó al Consejo y explicó en la noticia de Newsroom pública que la excepción que está haciendo actualmente se limita a videos que muestran el momento del secuestro de los rehenes en Israel del 7 de octubre.
Después de que el Consejo identificara este caso, Meta revirtió su decisión original y restauró el contenido con la pantalla de advertencia que indica "marcar como perturbador". De esta forma, se restringió la visibilidad del contenido a personas mayores de 18 años y se eliminó de las recomendaciones para otros usuarios de Facebook.
4. Justificación para realizar una revisión acelerada
En los estatutos del Consejo asesor de contenido, se contemplan revisiones aceleradas en "casos excepcionales, incluido cuando el contenido podría generar consecuencias graves en el mundo real", y las decisiones son vinculantes para Meta (acta constitutiva, artículo 3, sección 7.2; estatutos, artículo 2, sección 2.1.2). El proceso acelerado impide el nivel de investigación exhaustiva, consulta externa o comentarios públicos que se llevarían a cabo en casos revisados en el plazo habitual. La decisión del caso se tomó en función de la información disponible para el Consejo en el momento de la deliberación y participó en ella un panel de cinco miembros sin voto total del Consejo.
El Consejo asesor de contenido seleccionó este caso y otro caso, "Hospital Al-Shifa (2023-049-IG-UA), debido a la importancia de la libertad de expresión en situaciones de conflicto, que corre peligro en el contexto del conflicto entre Israel y Hamás. Ambos casos representan los tipos de apelaciones que los usuarios de la región presentan al Consejo desde los ataques del 7 de octubre y la posterior acción militar de Israel. Los dos casos recaen dentro de la prioridad ante situaciones de crisis y conflicto del Consejo asesor de contenido. En ambos casos la decisión de Meta justifica la revisión acelerada porque cumple con la norma de "consecuencias graves en el mundo real" y, en consonancia, el Consejo y Meta acordaron proceder conforme a los procedimientos acelerados del Consejo.
En los comentarios presentados al Consejo, Meta reconoció que "la decisión de cómo tratar este contenido es difícil e implica valores contrapuestos y concesiones", lo que favorece el aporte del Consejo en este asunto.
5. Respuestas del usuario
El autor de la publicación afirmó en su apelación al Consejo que el video capta hechos reales. Su objetivo es "detener el terror" al mostrar la brutalidad del ataque del 7 de octubre, en el que capturaron los rehenes. Al usuario se le notificó que el Consejo revisó su apelación.
6. Decisión
El Consejo anuló la decisión original de Meta de eliminar el contenido de Facebook. Este sostiene que restaurar el contenido en la plataforma, con la pantalla de advertencia que indique "marcar como perturbador", es coherente con las políticas de contenido, los valores y las responsabilidades en materia de derechos humanos de Meta. No obstante, el Consejo también concluye que la degradación del contenido restaurado por parte de Meta, es decir, que no se incluya como recomendación, no concuerda con las responsabilidades de la empresa de respetar la libertad de expresión.
6.1 Cumplimiento de las políticas de contenido de Meta
El Consejo considera que la decisión inicial de Meta de eliminar el contenido estaba en línea con su política sobre personas y organizaciones peligrosas en ese momento, que prohibía "imágenes de terceros que muestren el momento de los ataques [designados] a víctimas visibles". La restauración del contenido, con una pantalla de advertencia, también cumplía con la concesión temporal de Meta de permitir que dicho contenido se comparta con el fin de condenar, generar conciencia, informar noticias o pedir su liberación.
6.2 Cumplimiento de las responsabilidades de Meta en materia de derechos humanos
El Consejo está de acuerdo con la postura de la política inicial de Meta, del 7 de octubre, de eliminar "imágenes de terceros que muestren el momento de los ataques [designados] a víctimas visibles", de acuerdo con la política sobre personas y organizaciones peligrosas. Proteger la dignidad de los rehenes y garantizar que no queden expuestos a la curiosidad pública debería ser el enfoque predeterminado de Meta. Sin embargo, en circunstancias excepcionales, cuando un interés público imperioso o el interés vital de los rehenes lo requieran, pueden justificarse excepciones temporales y limitadas a esta prohibición. En las circunstancias específicas de este caso, tal como reconoció Meta al restaurar el contenido y agregarle una pantalla de advertencia después de que el Consejo lo había seleccionado, el contenido debería permitirse. El Consejo considera justificable la decisión de Meta de cambiar temporalmente su enfoque inicial (permitir dicho contenido con una pantalla de advertencia cuando se comparte con fines de condena, concientización, informe de noticias o pedido de liberación). Además, este cambio era justificable antes del 16 de noviembre, ya que quedó claro que la estricta aplicación por parte de Meta de la política sobre personas y organizaciones peligrosas estaba impidiendo la expresión destinada a promover y proteger los derechos e intereses de los rehenes y sus familias. Dadas las circunstancias que cambian rápidamente y los altos costos para la libertad de expresión y el acceso a la información que implica eliminar este tipo de contenido, Meta debería haber actuado más rápidamente para adaptar su política.
Como indicó el Consejo en el caso Video de prisioneros de guerra armenios, las protecciones de la libertad de expresión conforme al artículo 19 del ICCPR "se aplican también durante conflictos armados, y se las debe seguir usando como fundamento de las responsabilidades de Meta en materia de derechos humanos, junto con las reglas complementarias y que se refuerzan entre sí del derecho internacional humanitario vigentes durante tales conflictos". Los Principios Rectores sobre las Empresas y los Derechos Humanos de las Naciones Unidas imponen una mayor responsabilidad a las empresas que operan en un entorno de conflicto (informe "Empresas, derechos humanos y regiones afectadas por conflictos: hacia el aumento de las medidas", A/75/212).
Si un Estado impone restricciones sobre la libertad de expresión, estas deben cumplir los requisitos de legalidad, fin legítimo y necesidad y proporcionalidad (artículo 19, párrafo 3, del ICCPR). Se suele hacer referencia a estos requisitos como "prueba de tres partes". El Consejo usa este marco para interpretar los compromisos voluntarios de Meta con los derechos humanos, tanto respecto de la decisión sobre el contenido en particular en revisión como de lo que esto pone de manifiesto acerca del enfoque más amplio de la empresa en relación con la gestión del contenido. Al hacerlo, el Consejo intenta ser sensible a las diferencias de estos derechos si se aplican a una empresa de medios sociales privada o si se aplican a un Gobierno. Sin embargo, como indicó la Relatora Especial de la ONU sobre la libertad de expresión, si bien las empresas no tienen las obligaciones de los Gobiernos, "su impacto es tal que las obliga a evaluar el mismo tipo de cuestiones sobre la protección del derecho a la libertad de expresión de los usuarios" (informe A/74/486, párrafo 41).
El principio de legalidad exige que, cada vez que se aplique una restricción a la libertad de expresión, se debe ofrecer información de fácil acceso y suficientemente clara que sirva como guía sobre lo que se permite y lo que no. Tal como se aplica a este caso, la regla de Meta sobre personas y organizaciones peligrosas que prohíbe imágenes de terceros que muestren el momento de los ataques terroristas designados contra víctimas visibles, independientemente del contexto en el que se compartan, es clara. Además, Meta anunció públicamente el 13 de octubre, a través de una publicación de Newsroom, que eliminaría todos esos videos. Si bien Meta cambió posteriormente su enfoque (primero el 20 de octubre, al permitir dicho contenido con una pantalla de advertencia cuando lo compartan entidades que se benefician del programa ERSR con fines informativos o de concientización, y nuevamente el 16 de noviembre, al ampliar esa concesión para todos los usuarios), la empresa no anunció públicamente este cambio hasta el 5 de diciembre. Esto fue después de que el Consejo identificara este caso para su revisión, pero antes de que el Consejo anunciara públicamente que tomaría el caso el 7 de diciembre. A lo largo del conflicto, las reglas que aplicó Meta cambiaron varias veces, pero no quedaron del todo claras para los usuarios. Tampoco está claro conforme a qué política se impone la pantalla de advertencia, ya que ni las políticas sobre personas y organizaciones peligrosas ni las de violencia e incitación establecen el uso de pantallas de advertencia. El Consejo alienta a Meta a abordar estas preocupaciones de legalidad al aclarar públicamente la base y el alcance de su política actual con respecto al contenido relacionado con los rehenes capturados en Israel el 7 de octubre, y su relación con las políticas más generales en cuestión.
En virtud del artículo 19, párrafo 3, del ICCPR, la expresión puede restringirse por una lista definida y limitada de motivos. El Consejo determinó anteriormente que las políticas sobre personas y organizaciones peligrosas y violencia e incitación persiguen el fin legítimo de proteger los derechos de los demás (Consulta Consejo de comunicaciones de Tigray y Mención de los talibanes en los informes de noticias).
El principio de necesidad y proporcionalidad dispone que las restricciones que se apliquen a la libertad de expresión "deben ser adecuadas para desempeñar su función protectora; deben ser el instrumento menos perturbador de los que permitan conseguir el resultado deseado, y deben guardar proporción con el interés que debe protegerse" (observación general n.º 34, párrafo 34).
El Consejo considera que la decisión inicial de Meta de eliminar todo el contenido que muestre rehenes visibles fue necesaria y proporcionada para lograr los fines de proteger la seguridad y la dignidad de los rehenes y garantizar que las plataformas de Meta no se usen para promover la violencia del 7 de octubre o fomentar una mayor degradación y trato inhumano a los rehenes. El Consejo consideró el derecho internacional humanitario, el contexto digital durante la primera semana del conflicto y las medidas de mitigación que tomó Meta para limitar el impacto de su decisión de eliminar todo ese contenido.
El derecho internacional humanitario, tanto en conflictos armados internacionales como no internacionales, identifica la vulnerabilidad especial de los rehenes en un conflicto armado y brinda protección para abordar esos riesgos intensificados; la toma de rehenes está prohibida por los Convenios de Ginebra (artículo común 3, Convenios de Ginebra; artículo 27 y artículo 34, Convenio IV de Ginebra). Según el comentario del Comité Internacional de la Cruz Roja (ICRC), la definición de toma de rehenes detallada en la Convención Internacional contra la toma de rehenes como la captura o detención de una persona, acompañada de la amenaza de matarla, herirla o continuar deteniéndola con el fin de obligarla a que un tercero realice o se abstenga de realizar cualquier acto como condición explícita o implícita para su liberación, debería usarse para definir el término en los Convenios de Ginebra. El artículo común 3 también prohíbe "los atentados contra la dignidad personal, en particular los tratos humillantes y degradantes". El artículo 27 del Convenio IV de Ginebra resguarda a las personas protegidas, incluidos los rehenes, de tratos inhumanos y degradantes, como los insultos y la curiosidad pública. Compartir videos de rehenes puede ser parte de una estrategia para amenazar a un gobierno y al público, y puede promover la detención y degradación continua de los rehenes, lo que representa una violación constante del derecho internacional. En tales circunstancias, permitir la difusión de imágenes de violencia, malos tratos y vulnerabilidad constante puede promover más violencia y tratos degradantes.
Simultáneamente con el ataque del 7 de octubre comenzaron a circular en las plataformas de medios sociales videos de rehenes. Según los informes, durante la primera semana Hamás y la Yihad Islámica Palestina transmitieron videos, con serias preocupaciones de que pudieran seguir más transmisiones en vivo y videos de ejecuciones o torturas. En tales circunstancias, la decisión de Meta de prohibir todos esos videos en sus plataformas fue razonable y consistente con el derecho internacional humanitario, sus Normas comunitarias y su valor de seguridad. Los estándares de la industria, como los compromisos establecidos en el llamado a la acción en Christchurch, exigen que las empresas reaccionen de manera rápida y efectiva al contenido dañino compartido después de ataques extremistas violentos. Sin embargo, el caso de la llamada a la acción en Christchurch también pone de manifiesto la necesidad de responder a dicho contenido de un modo coherente con los derechos humanos y las libertades fundamentales.
Al mismo tiempo, Meta tomó medidas para limitar el posible impacto adverso de su decisión de eliminar todas esas imágenes al decidir no aplicar una falta a los usuarios a quienes se les eliminó el contenido conforme a esta política. Esto mitigó los efectos perjudiciales de la política estricta sobre los usuarios que podrían haber publicado el contenido con fines tales como condenar o generar conciencia e informar sobre los sucesos. El Consejo considera que puede ser razonable y útil para Meta contemplar graduar o dejar de lado las faltas para mitigar las consecuencias negativas de reglas categóricas estrictamente aplicadas a escala y, por lo tanto, hacer que una restricción de expresión sea más proporcional al fin que se persigue.
Los Convenios de Ginebra prohíben exponer a personas protegidas, incluidos rehenes, a la curiosidad pública, ya que constituye un trato humillante. Hay excepciones limitadas a esta prohibición, que el Consejo analizó en la decisión sobre el video de los prisioneros de guerra armenios, donde se exige que se logre un equilibrio razonable entre los beneficios de la divulgación pública de materiales que muestran prisioneros identificables ("dado el gran valor de tales materiales cuando se usan como evidencia para procesar crímenes de guerra, promover la rendición de cuentas y concientizar públicamente sobre los abusos) y la posible humillación e, incluso, daños físicos que podrían sufrir las personas que aparecen en los materiales compartidos". La divulgación excepcional requiere un interés público imperioso o que se atiendan los intereses vitales del rehén.
Por estos motivos, cualquier decisión de hacer una excepción temporal a las restricciones sobre el contenido que muestra rehenes o prisioneros de guerra identificables debe evaluarse en función de los hechos particulares relacionados con esos rehenes o prisioneros de guerra y sus derechos e intereses, y debe revisarse continuamente para garantizar que está estrictamente diseñada para servir esos derechos e intereses, y no se convierte en una excepción general a las reglas destinadas a proteger los derechos y la dignidad de las personas protegidas. Los hechos de este caso proporcionaron fuertes señales de que dicha divulgación era de interés vital de los rehenes. Durante la primera semana después del ataque del 7 de octubre, las familias de los rehenes también comenzaron a organizarse y compartir videos como parte de su campaña para pedir la liberación y presionar a varios gobiernos para que actuaran a favor de los rehenes. El video que se usó como parte de la publicación en este caso también formaba parte de una campaña de la familia de la mujer que se mostraba en el video. Además, aproximadamente desde el 16 de octubre, el gobierno israelí comenzó a mostrar compilaciones de videos a periodistas para demostrar la gravedad de los ataques del 7 de octubre. Hubo informes de que se difundieron discursos que negaban las atrocidades en las semanas posteriores al 7 de octubre. Ante esto, era razonable que Meta concluyera que la empresa no debe silenciar a las familias de los rehenes y entorpecer el trabajo de los medios de comunicación y otras entidades que investigan e informan sobre los hechos. Puede ser crucial para la futura seguridad de los rehenes que las familias y las autoridades vean a un rehén con vida y puedan identificar cómo se encuentra, e incluso identificar a los secuestradores. Esto es particularmente importante mientras Meta carezca de un mecanismo transparente y efectivo para preservar dicho contenido (ver discusión adicional a continuación). En resumen, dados los cambios en el entorno digital en las semanas posteriores a los acontecimientos del 7 de octubre, Meta tenía justificación para hacer una excepción temporal a sus políticas, limitada a los rehenes capturados en Israel el 7 de octubre.
El Consejo también concluye que Meta tardó demasiado en implementar la aplicación de esta excepción a todos los usuarios. Meta también tardó demasiado en anunciar este cambio temporal al público. El 20 de octubre, Meta comenzó a permitir este tipo de videos con una pantalla de advertencia cuando se compartían con fines informativos y de concientización, limitados a aquellas entidades en la lista de verificación cruzada de la ERSR. El 16 de noviembre, casi cuatro semanas después de que la concesión inicial y casi un mes y medio después del conflicto, Meta extendió el permiso a todos los usuarios. El 5 de diciembre, Meta finalmente anunció a través de un artículo en Newsroom que había realizado un cambio en su política que prohíbe videos que muestren a rehenes en el momento del ataque. Si bien el Consejo considera que el concepto de una implementación gradual de los cambios en la política es razonable en principio, concluye que la empresa debería haber reaccionado a las circunstancias cambiantes más rápidamente.
Meta cambió su enfoque inicial y admitió el contenido, pero siguió aplicando una pantalla de advertencia. Tal como el Consejo concluyó en casos anteriores, aplicar una pantalla de advertencia puede ser en determinadas circunstancias una medida proporcionada, aunque tenga un impacto negativo en el alcance del contenido, porque ofrece a los usuarios la posibilidad de compartir y elegir si quieren ver contenido perturbador (ver video de prisioneros de guerra armenios). Para el Consejo, excluir contenido que genera conciencia respecto de posibles abusos de los derechos humanos, conflictos o actos de terrorismo de las recomendaciones no es una restricción necesaria ni proporcionada de la libertad de expresión, teniendo en cuenta el altísimo interés público en dicho contenido. Colocar pantallas de advertencia y eliminar el contenido de las recomendaciones son dos medidas que sirven propósitos diferentes y, en algunas instancias, se deben disociar, en particular en situaciones de crisis. Eliminar contenido de los sistemas de recomendación implica reducir el alcance que este tendría de otro modo. Para el Consejo, esta práctica interfiere con la libertad de expresión de maneras desproporcionadas en tanto se aplique a contenido que ya está limitado a usuarios adultos y que se publica para generar conciencia, expresar repudio o reportar asuntos de interés público, como el desarrollo de un conflicto violento.
Al Consejo también le preocupa que el enfoque cambiante de Meta respecto de la moderación de contenido durante el conflicto esté acompañado de una continua falta de transparencia que socava la evaluación efectiva de sus políticas y prácticas, y que puede darle la apariencia exterior de arbitrariedad. Por ejemplo, Meta confirmó que la excepción que permite compartir imágenes que muestren a víctimas visibles de un ataque designado con fines informativos o de concientización es una medida temporal. Sin embargo, no está claro si esta medida es parte del Protocolo de la política de crisis de la empresa o si fue improvisada por los equipos de Meta a medida que se desarrollaban los acontecimientos. Meta desarrolló el protocolo de la política de crisis en respuesta a la recomendación n.° 18 que el Consejo le hizo en el caso "Suspensión de la cuenta del expresidente Trump". Según la empresa, su objetivo es proporcionar a Meta un marco para anticipar los riesgos de forma coherente en todas las crisis y poder responder a ellos. La falta de transparencia en el protocolo significa que ni el Consejo ni el público saben si la medida de la política utilizada en este caso (es decir, permitir contenido que infrinja la disposición de la regla pertinente de la política sobre personas y organizaciones peligrosas para generar conciencia y condena con una advertencia pantalla) se desarrolló y se evaluó antes de este conflicto, cuál es el alcance exacto de la medida política temporal (p. ej., si se aplica a videos que muestran rehenes detenidos, después del ataque del 7 de octubre), los criterios para su uso, las circunstancias en las que la medida ya no será necesaria y si Meta tiene la intención de reanudar la eliminación de todo ese contenido una vez que finalice la medida temporal. El Consejo vuelve a enfatizar la falta de notificación oportuna y efectiva de estas medidas de crisis ad hoc para los usuarios y el público. El Consejo sostuvo anteriormente que Meta debería anunciar las excepciones a sus Normas comunitarias, " su duración, así como dar aviso de su expiración, con el fin de notificar a las personas que usan sus plataformas los cambios en sus políticas que permitan ciertas expresiones" (ver Eslogan de protesta contra Irán, recomendación n.° 5, que Meta implementó parcialmente). La falta de transparencia también puede tener un efecto paralizador en los usuarios que pueden temer que se elimine su contenido y se penalice o restrinja su cuenta si cometen un error. Por último, dada la prohibición general básica de permitir la exhibición de rehenes y las circunstancias muy excepcionales bajo las cuales esto puede flexibilizarse, una notificación rápida y oportuna, y la transparencia respecto del alcance exacto y las limitaciones temporales de las excepciones ayudan a garantizar que sigan siendo lo más limitadas posible.
Además, la empresa comenzó a permitir que las entidades que se benefician de su programa de verificación cruzada compartan videos de rehenes con una pantalla de advertencia con fines informativos o de concientización antes de ampliar esta autorización a todos los usuarios. Dar un paso intermedio para adoptar una política temporal más permisiva parece razonable dado el contexto, lo que permitirá a la empresa probar los efectos del cambio en una escala más limitada antes de implementarlo de manera amplia. Sin embargo, hacerlo mediante el uso del programa de verificación cruzada también pone de manifiesto algunos de los problemas que el Consejo había identificado previamente en su opinión de asesoramiento normativo sobre el tema. Estos incluyen el trato desigual de los usuarios, la falta de criterios transparentes para las listas de verificación cruzada, la necesidad de garantizar una mayor representación de los usuarios cuyo contenido probablemente sea importante desde una perspectiva de derechos humanos, como periodistas y organizaciones de la sociedad civil, y en general falta de transparencia sobre cómo funciona la verificación cruzada. El uso de esta forma del programa de verificación cruzada también contradice cómo Meta describió y explicó el propósito del programa, como un sistema de prevención de errores y no como un programa que proporciona a ciertos usuarios privilegiados reglas más permisivas. Meta indicó que continúa trabajando para implementar la mayoría de las recomendaciones que el Consejo dio en su opinión de asesoramiento normativo, pero ni el Consejo ni el público tienen información suficiente para evaluar si la lista de verificación cruzada durante el conflicto se ajustó a las responsabilidades de Meta en materia de derechos humanos o si tuvo un impacto desigual, al privilegiar un mercado o un grupo de hablantes sobre otro.
Por último, Meta tiene la responsabilidad de preservar la evidencia de posibles violaciones de los derechos humanos e infracciones de la ley humanitaria internacional, conforme lo recomienda también el informe de BSR (recomendación n.º 21) y lo solicitan los grupos de sociedad civil. Incluso si se elimina contenido de las plataformas de Meta, es fundamental preservar dicha evidencia para poder asignar las responsabilidades pertinentes a quien corresponda en el futuro (consulta Video gráfico de Sudán y Video de prisioneros de guerra armenios). Si bien Meta explicó que conserva durante un año todo el contenido que infringe las Normas comunitarias, el Consejo insta a que el contenido que se relaciona especialmente con posibles crímenes de guerra, crímenes de lesa humanidad y violaciones graves de los derechos humanos se identifique y preserve de un modo más accesible y permanente para los fines de atribución de responsabilidades en el largo plazo. El Consejo indicó que Meta acordó implementar la recomendación n.º 1 en el caso Video de prisioneros de guerra armenios. En ella se hace hincapié en que Meta elabore un protocolo para preservar y, cuando sea necesario, compartir con las autoridades pertinentes información para colaborar en investigaciones y procesos legales con el fin de remediar o procesar crímenes atroces o violaciones graves de los derechos humanos. Meta informó al Consejo que se encuentra en las etapas finales de desarrollo de un "enfoque consistente para retener posible evidencia de delitos atroces y violaciones graves de la ley de derechos humanos internacional" y espera brindarle pronto al Consejo un informe detallado sobre su enfoque. El Consejo espera que Meta implemente la recomendación anterior en su totalidad.
* Nota de procedimiento:
Las decisiones aceleradas del Consejo asesor de contenido están a cargo de paneles conformados por cinco miembros y no están sujetas a la aprobación mayoritaria de todo Consejo. Las decisiones del Consejo no necesariamente representan las opiniones personales de todos los miembros.
Volver a Decisiones de casos y opiniones consultivas sobre políticas