Anulado

Hospital Al-Shifa

El Consejo anuló la decisión original de Meta de eliminar el contenido de Instagram. Este sostiene que restaurar el contenido en la plataforma, con la pantalla de advertencia que indique "marcar como perturbador", es coherente con las políticas de contenido, los valores y las responsabilidades en materia de derechos humanos de Meta.

Tipo de decisión

Expedited

Políticas y temas

Tema
Guerras y conflictos, Seguridad, Violencia
Estándar comunitario
Contenido violento y gráfico

Regiones/Países

Ubicación
Israel, Territorios Palestinos

Plataforma

Plataforma
Instagram

En las semanas posteriores a la publicación de esta decisión, subiremos una traducción en hebreo aquí y habrá una traducción en árabe disponible en la pestaña "Idioma" del menú ubicado en la parte superior de esta pantalla.

לקריאת החלטה זו בעברית יש ללחוץ כאן.

1. Resumen

Este caso implica un video sumamente emotivo de las consecuencias de un ataque en el hospital Al-Shifa o cerca de este en Gaza durante la ofensiva terrestre israelí, con una descripción en repudio al ataque. Los sistemas automatizados de Meta eliminaron la publicación por infringir la norma comunitaria sobre contenido violento y gráfico. Tras apelar sin éxito la decisión a Meta, el usuario presentó una apelación ante Consejo asesor de contenido. Luego de que el Consejo eligiera el caso para revisión, Meta revirtió su decisión y restauró el contenido con una pantalla de advertencia. El Consejo sostiene que la decisión original de eliminar el contenido no cumplía con las políticas de contenido de Meta o las responsabilidades de la empresa con los derechos humanos. El Consejo aprobó la decisión de restaurar el contenido con una pantalla de advertencia, pero no aprobó que se degrade, ya que eso lo excluye de las recomendaciones. Este caso, junto con "Rehenes secuestrados de Israel" (2023-050-FB-UA), son los dos primeros sobre los que el Consejo toma una decisión en función de sus procedimientos de revisión acelerada.

2. Contexto y respuesta de Meta

El 7 de octubre de 2023, Hamás, una organización designada de nivel 1 conforme a la norma sobre personas y organizaciones peligrosas de Meta, lideró ataques terroristas sin precedentes en Israel desde Gaza en los que aproximadamente 1.200 personas murieron y 240 fueron tomadas como rehén (Ministerio de Relaciones Exteriores, Gobierno de Israel). Israel levantó de inmediato una campaña militar en Gaza en respuesta a los ataques. Debido a la acción militar de Israel, hasta mediados de diciembre de 2023, habían fallecido más de 18.000 personas en Gaza (Oficina para la Coordinación de Asuntos Humanitarios de la ONU, conforme a datos del Ministerio de Salud de Gaza), en un conflicto en el que se acusa a ambas partes de infringir la legislación internacional. Tanto los ataques terroristas como la posterior acción militar de Israel generaron intensos niveles de propaganda, debate, escrutinio y controversia en todo el mundo, mucho de lo cual ocurrió en plataformas de medios sociales, como Instagram y Facebook.

Meta designó de inmediato los acontecimientos acaecidos el 7 de octubre como un ataque terrorista en virtud de su política de personas y organizaciones peligrosas. Conforme a sus Normas comunitarias, esto significa que Meta eliminaría de sus plataformas todo contenido que "exaltara, respaldara sustancialmente o representara" los ataques del 7 de octubre o a sus perpetradores.

En respuesta a un incremento repentino y excepcional de publicaciones con contenido violento y gráfico en sus plataformas tras los ataques terroristas y la respuesta militar, Meta impuso diversas medidas temporales, como una reducción de los umbrales de confianza de su sistema de clasificación automática de contenido violento y gráfico (clasificador) para identificar y eliminar contenido. Meta informó al Consejo que estas medidas se aplicaban al contenido procedente de Israel y Gaza en todos los idiomas. Los cambios a estos clasificadores aumentaron la eliminación automática de contenido en casos en que había una baja puntuación de confianza para contenido que infringe las políticas de Meta. En otras palabras, Meta usó sus herramientas automatizadas de manera más agresiva para eliminar contenido que podría infringir sus políticas. Lo hizo de este modo para priorizar su valor de seguridad y eliminó más contenido del que hubiera quitado con el umbral de confianza más alto en vigencia antes del 7 de octubre. Si bien esto redujo las probabilidades de que Meta pasara por alto contenido infractor que, de otro modo, podría evadir la detección o en el que había capacidad de revisión manual limitada, también aumentó las probabilidades de que Meta eliminara por error contenido no infractor relacionado con el conflicto.

Cuando los equipos de escalamiento evaluaron los videos y determinaron que infringen las políticas de contenido violento y gráfico, violencia e incitación y personas y organizaciones peligrosas, Meta recurrió a bancos de Media Matching Service para eliminar videos similares automáticamente. Este enfoque generó inquietud por la sobreaplicación de políticas, como restringir o suspender cuentas por infringir varias veces las políticas de contenido de Meta (en ocasiones, esto se denominada "cárcel de Meta"). Para mitigar esa preocupación, Meta no aplicó las "faltas" que se impondrían habitualmente a las publicaciones de contenido eliminadas que se realizan automáticamente en función de los bancos de Media Matching Service (como anunció Meta en su publicación de Newsroom).

Los cambios que Meta aplicó al umbral de confianza del clasificador y su política de faltas se limitan al conflicto entre Israel y Gaza, y son temporales. Al 11 de diciembre de 2023, Meta no había restaurado los umbrales de confianza a los niveles previos al 7 de octubre.

3. Descripción del caso

El contenido en este caso implica un video que se publicó en Instagram la segunda semana de noviembre, en el que se veía lo que parecía ser el momento posterior de un ataque en el hospital Al-Shifa o cerca de este en la ciudad de Gaza durante la ofensiva terrestre en el norte de la Franja de Gaza. La publicación de Instagram en este caso muestra personas, incluidos niños, tendidas en el suelo sin vida, heridas o llorando. Un niño parece estar muerto, con varias heridas en la cabeza. Un texto en árabe y en inglés que aparece debajo del video indica que el hospital fue atacado por la "ocupación usurpadora", una referencia a las fuerzas armadas israelíes, y etiqueta a organizaciones de derechos humanos y medios de comunicación.

La norma comunitaria sobre contenido violento y gráfico de Meta, que se aplica a contenido en Facebook e Instagram prohíbe los "videos de personas o cadáveres en contextos no médicos que muestren… órganos internos visibles". En el momento de la publicación, la política permitía "imágenes que muestran la muerte violenta de una persona o varias en un accidente o asesinato", siempre que dicho contenido tuviera una pantalla de advertencia que indicara "marcar como perturbador" y solo fuera visible para mayores de 18 años. Esta regla se actualizó el 29 de noviembre, luego de que el contenido en este caso se restaurara, para aclarar que la regla se aplica al "momento de la muerte o el momento posterior", así como a imágenes de "una persona que experimenta un suceso fatal".

Los sistemas automatizados de Meta eliminaron el contenido en este caso por infringir la norma comunitaria sobre contenido violento y gráfico. Se rechazó automáticamente la apelación que presentó el usuario contra esta decisión porque los clasificadores de Meta indicaron "un alto nivel de confianza" en que el contenido infringía las normas. El usuario entonces apeló la decisión de Meta ante el Consejo asesor de contenido.

Luego de que el Consejo seleccionara este caso, Meta afirmó que no podía determinar de manera concluyente que el video mostrara órganos internos visibles. Por lo tanto, Meta concluyó que no debería haber eliminado el contenido, aunque estaba al límite de considerarse "infractor". Meta explicó también que, aunque haya habido órganos internos visibles, la publicación se debería haber conservado con una pantalla de advertencia con la leyenda "marcar como contenido perturbador", ya que se compartió para generar conciencia. La empresa reiteró que, de conformidad con las bases de la política de contenido violento y gráfico, dicho contenido se permite si se comparte para generar conciencia "sobre temas importantes, como abusos contra los derechos humanos, conflictos armados o actos de terrorismo".

Por ello, Meta revirtió su decisión original y restauró el contenido con una pantalla de advertencia. La pantalla de advertencia les indica a los usuarios que el contenido puede ser perturbador. Los usuarios adultos pueden hacer clic para ver estas publicaciones. Sin embargo, Meta las elimina de los feeds de Instagram de los usuarios menores de 18 años y también de las recomendaciones que muestra a los usuarios de Instagram adultos. Asimismo, Meta agregó una instancia independiente del mismo video a un banco de Media Matching Service, de manera que otros videos idénticos a este se conservaran automáticamente con una pantalla de advertencia y fueran visibles solo para personas mayores de 18 años.

4. Justificación para realizar una revisión acelerada

En los estatutos del Consejo asesor de contenido, se contemplan revisiones aceleradas en "casos excepcionales, incluido cuando el contenido podría generar consecuencias graves en el mundo real", y las decisiones son vinculantes para Meta (acta constitutiva, artículo 3, sección 7.2; estatutos, artículo 2, sección 2.1.2). El proceso acelerado impide el nivel de investigación exhaustiva, consulta externa o comentarios públicos que se llevarían a cabo en casos revisados en el plazo habitual. La decisión del caso se tomó en función de la información disponible para el Consejo en el momento de la deliberación y participó en ella un panel de cinco miembros sin voto total del Consejo.

El Consejo asesor de contenido seleccionó este caso y otro caso, "Rehenes secuestrados de Israel" (2023-050-FB-UA), debido a la importancia de la libertad de expresión en situaciones de conflicto, que corre peligro en el contexto del conflicto entre Israel y Hamás. Ambos casos representan los tipos de apelaciones que los usuarios de la región presentan al Consejo desde los ataques del 7 de octubre y la posterior acción militar de Israel. Los dos casos recaen dentro de la prioridad ante situaciones de crisis y conflicto del Consejo asesor de contenido. En ambos casos la decisión de Meta justifica la revisión acelerada porque cumple con la norma de "consecuencias graves en el mundo real" y, en consonancia, el Consejo y Meta acordaron proceder conforme a los procedimientos acelerados del Consejo.

En los comentarios presentados al Consejo, Meta reconoció que "la decisión de cómo tratar este contenido es difícil e implica valores contrapuestos y concesiones", lo que favorece el aporte del Consejo en este asunto.

5. Respuestas del usuario

En su apelación, el autor de la publicación indicó al Consejo que no incitó a la violencia, sino que compartió contenido que mostraba el sufrimiento de los palestinos, incluidos niños. El usuario agregó que hubo sesgo en la eliminación y no se tuvo en cuenta el sufrimiento de los palestinos. Al usuario se le notificó que el Consejo revisó su apelación.

6. Decisión

Si bien hay desacuerdo entre los miembros del Consejo en cuanto a la respuesta militar de Israel y su justificación, todos concuerdan con unanimidad en la importancia de que Meta respete el derecho a la libertad de expresión y otros derechos humanos de aquellas personas a quienes afectan estos acontecimientos, así como su capacidad para comunicarse en esta crisis.

El Consejo anuló la decisión original de Meta de eliminar el contenido de Instagram. Este sostiene que restaurar el contenido en la plataforma, con la pantalla de advertencia que indique "marcar como perturbador", es coherente con las políticas de contenido, los valores y las responsabilidades en materia de derechos humanos de Meta. No obstante, el Consejo también concluye que la degradación del contenido restaurado por parte de Meta, es decir, que no se incluya como recomendación, no concuerda con las responsabilidades de la empresa de respetar la libertad de expresión.

6.1 Cumplimiento de las políticas de contenido de Meta

El Consejo está de acuerdo con Meta en que es difícil determinar si el video en este caso muestra "órganos internos visibles". Dado el contexto de este caso, en el que hay un interés público excepcionalmente alto en proteger el acceso a la información y proporcionar vías para generar conciencia sobre el impacto que tiene el conflicto, no debería eliminarse el contenido que se encuentra "en el límite" de infringir la política de contenido violento y gráfico. Como el contenido incluye imágenes que muestran la muerte violenta de una persona con una herida sangrante en la cabeza, Meta debería haber aplicado una pantalla de advertencia y ponerlo a disposición solo de personas mayores de 18 años en consonancia con sus políticas.

El Consejo también está de acuerdo con la determinación posterior de Meta, que consideró que, incluso aunque el video hubiera mostrado órganos internos visibles, el texto que acompaña a la publicación en repudio a la violencia o para generar conciencia sobre esta también implica que se debería haber conservado con una pantalla de advertencia con la leyenda "marcar como perturbador" sin mostrarse a usuarios menores de 18 años. La norma comunitaria no contempla las pantallas de advertencia en relación con la línea normativa aplicable ("videos de personas o cadáveres en contextos no médicos que muestren… órganos internos visibles"). En el caso Video gráfico de Sudán, el Consejo explicó que Meta insta a los revisores a seguir las instrucciones de sus políticas sobre lo que "no se debe publicar". En su fundamento, indica que "en el contexto de conversaciones sobre asuntos importantes, como abusos de los derechos humanos, conflictos armados o actos de terrorismo, permitimos contenido gráfico (con ciertas limitaciones) para que las personas puedan condenar estos hechos o generar conciencia al respecto". No obstante, la norma comunitaria prohíbe todos los videos que muestren "órganos internos visibles" en un contexto no médico, sin darles a los revisores la opción de agregar una pantalla de advertencia cuando se aplica la excepción a la base de la política. Los sistemas automatizados de Meta no parecen estar configurados para aplicar pantallas de advertencia a los videos que muestran contenido gráfico si el contexto es de repudio o para generar conciencia sobre la violencia. Tampoco queda claro si, cuando el contexto es tal, los clasificadores aplicables podrían enviar el contenido a revisores humanos para que lo sometan a otra evaluación.

6.2 Cumplimiento de las responsabilidades de Meta en materia de derechos humanos

De conformidad con sus responsabilidades con los derechos humanos, la moderación de contenido violento y gráfico de Meta debe respetar el derecho a la libertad de expresión, que incluye libertad para buscar, recibir e impartir información (artículo 19, párrafo 2, del Pacto Internacional de Derechos Civiles y Políticos [ICCPR]). Como indicó el Consejo en el caso Video de prisioneros de guerra armenios, las protecciones de la libertad de expresión conforme al artículo 19 del ICCPR "se aplican también durante conflictos armados, y se las debe seguir usando como fundamento de las responsabilidades de Meta en materia de derechos humanos, junto con las reglas complementarias y que se refuerzan entre sí del derecho internacional humanitario vigentes durante tales conflictos". Los Principios Rectores sobre las Empresas y los Derechos Humanos de las Naciones Unidas imponen una mayor responsabilidad a las empresas que operan en un entorno de conflicto (informe "Empresas, derechos humanos y regiones afectadas por conflictos: hacia el aumento de las medidas", A/75/212).

En casos anteriores, el Consejo hizo hincapié en que plataformas como Facebook e Instagram son un vehículo importante para transmitir información en tiempo real sobre acontecimientos violentos, incluidas noticias (consulta, por ejemplo, Mención de los talibanes en los informes de noticias). Estas desempeñan un papel de suma importancia en contextos de conflictos armados, en especial cuando el acceso es limitado para los periodistas. Asimismo, el contenido que muestra ataques violentos y abusos de los derechos humanos es de gran interés público (consulta Video gráfico de Sudán).

Si un Estado impone restricciones sobre la libertad de expresión, en virtud de leyes de derechos humanos internacionales, estas deben cumplir los requisitos de legalidad, fin legítimo y necesidad y proporcionalidad (artículo 19, párrafo 3, del ICCPR). Se suele hacer referencia a estos requisitos como "prueba de tres partes". El Consejo usa este marco para interpretar los compromisos voluntarios de Meta con los derechos humanos, tanto respecto de la decisión sobre el contenido en particular en revisión como de lo que esto pone de manifiesto acerca del enfoque más amplio de la empresa en relación con la gestión del contenido. Al hacerlo, el Consejo intenta ser sensible a las diferencias de estos derechos si se aplican a una empresa de medios sociales privada o si se aplican a un Gobierno. Sin embargo, como indicó la Relatora Especial de la ONU sobre la libertad de expresión, si bien "las empresas no tienen las obligaciones de los Gobiernos, su impacto es tal que las obliga a evaluar el mismo tipo de cuestiones sobre la protección del derecho a la libertad de expresión" (informe A/74/486, párrafo 41).

El principio de legalidad exige que, cada vez que se aplique una restricción a la libertad de expresión, se debe ofrecer información de fácil acceso y suficientemente clara que sirva como guía sobre lo que se permite y lo que no. El Consejo ya había expresado preocupación por el hecho de que las reglas de la norma comunitaria sobre contenido gráfico y violento no concuerdan por completo con la base de la política, que define los objetivos de esta (consulta Video gráfico de Sudán y Video tras el ataque en una iglesia de Nigeria). El Consejo reitera la importancia de las recomendaciones n.º 1 y n.º 2 en el caso "Video gráfico de Sudán", que instaban a Meta a modificar su norma comunitaria sobre contenido violento y gráfico a fin de permitir videos de personas o cadáveres si se comparten con el fin de generar conciencia o documentar abusos de los derechos humanos (en ese caso, se podía observar desmembramiento visible). Meta realizó un proceso de desarrollo normativo en respuesta a estas recomendaciones y tiene previsto informar el progreso en su próxima actualización trimestral al Consejo. En opinión del Consejo, esta recomendación debería aplicarse a las reglas impuestas a videos que muestran órganos internos visibles y se debería contemplar específicamente el uso de pantallas de advertencia como medida de cumplimiento cuando se aplica la excepción que permite generar conciencia (incluidos informes objetivos) y mostrar repudio.

En virtud del artículo 19, párrafo 3, del ICCPR, la expresión puede restringirse por una lista definida y limitada de motivos. El Consejo había determinado anteriormente que la política sobre contenido violento y gráfico busca legítimamente proteger los derechos de otras personas, incluida la privacidad de la persona que figura en dicho contenido (consulta Video gráfico de Sudán y Video tras el ataque en una iglesia de Nigeria). El presente caso demuestra, además, que restringir el acceso de menores de 18 años al contenido satisface el fin legítimo de proteger el derecho a la salud de menores (Convención sobre los Derechos del Niño, artículo 24).

El principio de necesidad y proporcionalidad dispone que las restricciones que se apliquen a la libertad de expresión "deben ser adecuadas para desempeñar su función protectora; deben ser el instrumento menos perturbador de los que permitan conseguir el resultado deseado, y deben guardar proporción con el interés que debe protegerse" (observación general n.º 34, párrafo 34).

Respecto del contenido violento y gráfico, el Consejo había señalado que la pantalla de advertencia "no representa una carga indebida para quienes quieren ver el contenido y sirve para informar a otros sobre la naturaleza de este y les permite decidir si verlo o no" (consulta Video gráfico de Sudán). Las pantallas de advertencia evitan que los usuarios vean sin querer contenido potencialmente perturbador. La política de Meta por la que se eliminan videos y fotos que muestran la muerte violenta de una persona (o el momento inmediatamente posterior) si la familia así lo solicita protege aún más los derechos de las víctimas. El contenido en este caso se puede distinguir del contenido en el caso Poema ruso, en el que se mostraba la imagen de un cadáver en el suelo desde la distancia, sin rostro visible ni indicios visuales de violencia. En ese caso, no se podía aplicar una pantalla de advertencia, ya que no era coherente con las pautas que Meta proporciona a los revisores ni era una restricción necesaria o proporcionada de la expresión. El contenido en este caso se asemeja más al del caso Video tras el ataque en una iglesia de Nigeria, en el que se veían personas muertas y heridas desde corta distancia, con claros indicios visuales de violencia.

En este caso, el video es especialmente perturbador porque en él salen niños heridos y sin vida. En tales circunstancias, ofrecer a los usuarios la opción de elegir si quieren ver contenido perturbador es una medida necesaria y proporcionada (consulta también Video de prisioneros de guerra armenios).

Para el Consejo, excluir contenido que genera conciencia respecto de posibles abusos de los derechos humanos e infracciones de las leyes de guerra, conflictos o actos de terrorismo de las recomendaciones que se realizan a adultos no es una restricción necesaria ni proporcionada de la libertad de expresión, teniendo en cuenta el altísimo interés público en dicho contenido. Colocar pantallas de advertencia y eliminar el contenido de las recomendaciones son dos medidas que sirven propósitos diferentes y, en algunas instancias, se deben disociar, en particular en situaciones de crisis. En Instagram, a las recomendaciones las generan sistemas automatizados que sugieren contenido a los usuarios en función de sus intereses previstos. Eliminar contenido de los sistemas de recomendación implica reducir el alcance que este tendría de otro modo. Para el Consejo, esta práctica interfiere con la libertad de expresión de maneras desproporcionadas en tanto se aplique a contenido que ya está limitado a usuarios adultos y que se publica para generar conciencia, expresar repudio o denunciar asuntos de interés público, como el desarrollo de un conflicto violento.

El Consejo reconoce que las respuestas inmediatas a una crisis pueden requerir medidas temporales excepcionales y que, en algunos contextos, es legítimo priorizar cuestiones de seguridad e imponer de forma temporal y proporcional restricciones más rigurosas a la libertad de expresión. Algunas de ellas se detallan, por ejemplo, en los compromisos para combatir el "contenido terrorista extremista y violento" asumidos en el caso Llamada a la acción en Christchurch. Sin embargo, el Consejo expresó que el caso de la llamada a la acción en Christchurch pone de manifiesto la necesidad de responder a dicho contenido de un modo coherente con los derechos humanos y las libertades fundamentales. El Consejo considera que las preocupaciones relativas a la seguridad no justifican optar por eliminar contenido gráfico cuyo propósito es repudiar posibles crímenes de guerra, crímenes de lesa humanidad o violaciones graves de los derechos humanos, o generar conciencia al respecto. Dichas restricciones incluso pueden obstruir la información necesaria para salvaguardar la seguridad de las personas que viven en dichos entornos de conflicto.

Ciertas medidas, como no imponer faltas, permiten mitigar los efectos adversos potencialmente desproporcionados que acarrean los errores en la aplicación de políticas cuando se toman medidas de emergencia como reducir los umbrales de confianza para eliminar contenido durante situaciones de conflicto. Sin embargo, no son suficientes para proteger la capacidad de los usuarios de compartir contenido que genere conciencia sobre posibles abusos de los derechos humanos y violaciones de la ley humanitaria, así como otra información crítica en estos casos.

El Consejo destacó en reiteradas ocasiones la necesidad de desarrollar un marco transparente y basado en principios para moderar contenido durante crisis y en zonas de conflicto (consulta Video de una estación de policía haitiana y Consejo de comunicaciones de Tigray). Es precisamente en momentos de conflicto de rápida evolución cuando las empresas de medios sociales deben dedicar los recursos necesarios para garantizar que no se socave la libertad de expresión innecesariamente. En dichos momentos, las fuentes periodísticas suelen ser blanco de ataques físicos y de otro tipo, lo que transforma a las noticias difundidas por el ciudadano común en un activo especialmente fundamental.

El Consejo también observó previamente que, en contextos de guerra o descontento político, los usuarios mostrarán y comparten más contenido gráfico y violento en la plataforma con el fin de generar conciencia sobre los abusos o para documentarlos (consulta Video gráfico de Sudán). En contextos como el conflicto entre Israel y Gaza, en el que hay una cantidad alarmante de muertos o heridos, entre ellos, un gran porcentaje de niños, este tipo de concesiones son de especial importancia en medio de una crisis humanitaria de creciente magnitud. Si bien el Consejo reconoce el proceso de desarrollo normativo que Meta tiene en curso respecto de su política de contenido violento y gráfico, este espera que Meta esté lista para implementar con rapidez medidas temporales que permitan este tipo de contenido con pantallas de advertencia y no lo elimine de las recomendaciones.

El Consejo manifiesta que la situación en Gaza en el momento en que se publicó el contenido no suponía los mismos desafíos para Meta que los ataques del 7 de octubre. En Gaza, hay dificultades para obtener información de las personas que están en el lugar de los hechos, mientras que los periodistas tienen acceso limitado al territorio y se interrumpió la conectividad a internet. Asimismo, a diferencia de las primeras secuelas de los ataques del 7 de octubre, en la situación en Gaza en este caso no hay terroristas usando los medios sociales para transmitir las atrocidades que cometen. Por el contrario, en el contexto de un conflicto armado, Meta debe asegurarse de no tomar medidas por las cuales les resulte más difícil a las personas compartir contenido que aporta información y genera conciencia sobre daños contra civiles, y que podría ser relevante para determinar si hubo violaciones de la ley humanitaria internacional o la ley de derechos humanos internacional. Todo revisor que evalúe contenido de esta naturaleza debería preguntarse como punto de partida si el contenido se compartió para generar conciencia o repudiar los acontecimientos ocurridos, y los sistemas automatizados de Meta deberían diseñarse para evitar que se elimine contenido de forma incorrecta que se beneficiaría de excepciones pertinentes.

Este caso demuestra aún más que una supervisión manual insuficiente de la moderación automática en el contexto de respuesta ante una crisis puede conducir a la eliminación accidental de un discurso que podría tener mucho interés público. Tanto la decisión inicial de eliminar este contenido como el rechazo de la apelación del usuario se tomaron automáticamente en función de la puntuación de un clasificador, sin revisión manual alguna. Es posible que esto, a su vez, se haya visto exacerbado por la respuesta de Meta ante la crisis, que fue reducir el umbral de eliminación de contenido de conformidad con la política sobre contenido violento y gráfico tras los ataques del 7 de octubre. Esto significa que, incluso si el clasificador le otorga a la posibilidad de infracción una puntuación relativamente menor de la que sería necesaria, Meta elimina dicho contenido.

Para que Meta implemente sus sistemas automatizados de un modo coherente con sus compromisos con los derechos humanos, el Consejo le recuerda la recomendación n.º 1 en el caso Caricatura sobre la policía colombiana. En ese caso, el Consejo recurrió a Meta para asegurarse de que el contenido con altas tasas de apelaciones y altas tasas de apelaciones favorables se reevalúe a fin de determinar si se debe eliminar de los bancos de Media Matching Service. En respuesta a esta recomendación, Meta estableció un grupo de trabajo designado comprometido con realizar mejoras a la gobernanza en los bancos de Media Matching Service (consulta la actualización más reciente de Meta sobre el tema aquí). El Consejo expresa que es importante para este grupo prestar particular atención al uso de Media Matching Service en el contexto de conflictos armados. En el caso Síntomas de cáncer de mama y desnudos (recomendaciones n.º 3 y n.º 6), el Consejo recomendó que Meta informe a los usuarios cuando se utilice la automatización para tomar medidas normativas contra su contenido, y divulgue datos sobre la cantidad de decisiones de eliminación automáticas por norma comunitaria y la proporción de dichas decisiones que se revirtieron posteriormente tras la revisión manual. Esto es de particular importancia cuando los umbrales de confianza para contenido que podría infringir las normas son presuntamente mucho menores. El Consejo insta a Meta a avanzar más en cuanto a la implementación de la recomendación n.º 6 y a compartir con el Consejo evidencia que indique que implementó la recomendación n.º 3.

Las restricciones en la libertad de expresión no deben tener carácter discriminatorio, incluido en relación con la nacionalidad, el origen étnico, la religión, las creencias o las opiniones políticas o de otro tipo (Artículo 2, párrafo 1; y Artículo 26 del ICCPR). La aplicación discriminatoria de las Normas comunitarias socava este aspecto fundamental de la libertad de expresión. En el caso Publicación compartida de Al Jazeera, al Consejo le preocupaba en gran medida que los errores en la moderación de contenido de Meta en Israel y los territorios palestinos ocupados se distribuyan de manera dispar, e instó a que se lleve a cabo una investigación independiente (decisión del caso "Publicación compartida de Al Jazeera", recomendación n.º 3). La evaluación del impacto en los derechos humanos de Business for Social Responsibility (BSR), que Meta encargó que se lleve a cabo en respuesta a esa recomendación, identificó "varias instancias de sesgo no intencional en las que la política y la práctica de Meta, en combinación con dinámicas externas más amplias, sí conllevan diferentes impactos en los derechos humanos de usuarios que hablan árabe y árabe palestino". El Consejo insta a Meta a cumplir con los compromisos asumidos en respuesta al informe de BSR.

Por último, Meta tiene la responsabilidad de preservar la evidencia de posibles violaciones de los derechos humanos e infracciones de la ley humanitaria internacional, conforme lo recomienda también el informe de BSR (recomendación n.º 21) y lo solicitan los grupos de sociedad civil. Incluso si se elimina contenido de las plataformas de Meta, es fundamental preservar dicha evidencia para poder asignar las responsabilidades pertinentes a quien corresponda en el futuro (consulta Video gráfico de Sudán y Video de prisioneros de guerra armenios). Si bien Meta explicó que conserva durante un año todo el contenido que infringe las Normas comunitarias, el Consejo insta a que el contenido que se relaciona especialmente con posibles crímenes de guerra, crímenes de lesa humanidad y violaciones graves de los derechos humanos se identifique y preserve de un modo más accesible y permanente para los fines de atribución de responsabilidades a largo plazo. El Consejo indicó que Meta acordó implementar la recomendación n.º 1 en el caso Video de prisioneros de guerra armenios. En ella se hace hincapié en que Meta elabore un protocolo para preservar y, cuando sea necesario, compartir con las autoridades pertinentes información para colaborar en investigaciones y procesos legales con el fin de remediar o procesar crímenes atroces o violaciones graves de los derechos humanos. Meta informó al Consejo que se encuentra en las etapas finales de desarrollo de un "enfoque consistente para retener posible evidencia de delitos atroces y violaciones graves de la ley de derechos humanos internacional" y espera brindarle pronto al Consejo un informe detallado sobre su enfoque. El Consejo espera que Meta implemente la recomendación anterior en su totalidad.

*Nota procedimental:

Las decisiones aceleradas del Consejo asesor de contenido están a cargo de paneles conformados por cinco miembros y no están sujetas a la aprobación mayoritaria de todo el Consejo. Las decisiones del Consejo no necesariamente representan las opiniones personales de todos los miembros.

Volver a Decisiones de casos y opiniones consultivas sobre políticas