Confirmado

Publicación sobre armas vinculada con el conflicto en Sudán

El Consejo asesor de contenido ratificó la decisión de Meta de eliminar una publicación compartida durante el conflicto armado en Sudán que contenía el gráfico de un cartucho de arma, acompañado por una descripción que brindaba instrucciones para crear y arrojar un cóctel Molotov.

Tipo de decisión

Estándar:

Políticas y temas

Tema
Guerras y conflictos, Violencia
Estándar comunitario
Violencia e incitación

Regiones/Países

Ubicación
Sudán

Plataforma

Plataforma
Facebook

Resumen

El Consejo asesor de contenido ratificó la decisión de Meta de eliminar una publicación que contenía el gráfico de un cartucho de arma, acompañado por una descripción que brindaba instrucciones para fabricar y arrojar un cóctel Molotov. Para el Consejo, la publicación infringía la norma comunitaria sobre violencia e incitación de Facebook y suponía un riesgo inminente de daño que podría exacerbar la violencia que hay actualmente en Sudán. Este caso trajo aparejadas preocupaciones más generales sobre las responsabilidades de Meta con los derechos humanos en cuanto al contenido que incluye instrucciones sobre armas que se comparte durante conflictos armados. Para cumplir con tales responsabilidades, Meta debe garantizar que las excepciones a sus reglas sobre violencia e incitación sean más claras. Asimismo, Meta debe desarrollar herramientas para corregir sus propios errores cuando se envía a los usuarios una notificación incorrecta sobre qué norma comunitaria infringieron con su contenido.

Información sobre el caso

En junio de 2023, un usuario de Facebook publicó la ilustración de un cartucho con sus componentes identificados en árabe. La descripción de la publicación brinda instrucciones para crear un cóctel Molotov usando dichos componentes y aconseja usar un casco al arrojar el dispositivo incendiario. Concluye con un grito de victoria para la población sudanesa y las Fuerzas Armadas de Sudán (FAS).

Dos meses antes de que se publicara el contenido, se desató una lucha en Sudán entre las FAS y las Fuerzas de Apoyo Rápido (FAR), un grupo paramilitar que Meta designó como peligroso en agosto de 2023. El conflicto armado en Sudán sigue vigente y se diseminó por todo el país, y ambos grupos usan armas explosivas en áreas con mucha densidad de población civil.

Los sistemas automatizados de Meta detectaron el contenido y determinaron que infringía la norma comunitaria sobre violencia e incitación de Facebook. Meta eliminó la publicación y aplicó una falta estándar al perfil del usuario. El usuario apeló de inmediato. Tras esto, uno de los revisores de Meta determinó que la publicación infringía la política de bienes y servicios restringidos. Entonces, el usuario apeló al Consejo, luego de lo cual Meta determinó que el contenido debía eliminarse, pero conforme a su decisión original basada en la norma comunitaria sobre violencia e incitación.

Conclusiones principales

El Consejo determinó que la publicación infringía la política de violencia e incitación de dos maneras. En primer lugar, el efecto combinado de la imagen y la descripción infringía la regla que prohíbe "instrucciones sobre cómo fabricar o usar armas en las que se establece explícitamente el objetivo de herir gravemente o matar personas". Independientemente de la intención de la persona que creó la publicación, la guía paso a paso para construir un cóctel Molotov y el consejo de "usar un casco" indica que el contenido incita a las personas a ejecutar las instrucciones. En segundo lugar, recurrir a la violencia en apoyo de las FAS durante el conflicto armado en curso no se relaciona con una finalidad no violenta. La política de violencia e incitación prohíbe instrucciones para crear armas, a menos que "quede claro por el contexto que el contenido no tiene una finalidad violenta".

La regla que prohíbe instrucciones sobre cómo fabricar y usar armas sí incluye una excepción para el contenido que se comparte para fines de "autodefensa recreativa, entrenamiento a cargo de las fuerzas armadas de un país, videojuegos comerciales o cobertura de noticias". Las partes interesadas a las que consultó el Consejo, así como las noticias, afirmaron que Meta permite que se publiquen dichas instrucciones en un contexto de autodefensa durante determinados conflictos armados. Meta lo niega rotundamente. El Consejo no está en una posición para determinar la veracidad de estas afirmaciones contradictorias.

Sin embargo, es fundamental que las reglas de Meta en cuanto a temas tan importantes sean claras y se apliquen de forma coherente y rigurosa. Dado que tanto la población civil como las personas implicadas en la lucha durante un conflicto usan las plataformas de Meta para compartir información sobre el uso de armas o contenido violento relacionado con autodefensa, Meta debe aclarar qué significan realmente las excepciones de "autodefensa recreativa" y "entrenamiento a cargo de las fuerzas armadas". El Consejo no está de acuerdo con Meta en que estos términos en el texto público de la norma comunitaria sobre violencia e incitación tienen "un significado simple". Para que esto quede más claro, Meta debe explicar mejor qué partes se pueden beneficiar de la "autodefensa recreativa" y en qué contextos se aplica esta excepción. Asimismo, el texto público de la política que prohíbe las instrucciones para fabricar o usar armas o explosivos no indica expresamente que los contextos de autodefensa no se tienen en cuenta durante conflictos armados.

Este caso también pone de manifiesto otra excepción poco clara de la norma comunitaria sobre violencia e incitación, que permite amenazas dirigidas a terroristas y otras partes violentas. Esto no es lo suficientemente claro porque Meta no explica si esta disposición se aplica a todas las organizaciones y personas que designa en virtud de su política de personas y organizaciones peligrosas. Cabe destacar la importancia de ello para este caso porque las FAR se designaron durante un período relevante en 2023. Sin embargo, es imposible para los usuarios saber si esta publicación se podría eliminar o no, dado que la lista de personas y organizaciones designadas no está disponible públicamente. El Consejo ya manifestó inquietudes respecto de dicha falta de claridad en nuestra decisión del caso Video de una estación de policía haitiana.

Al Consejo le preocupa también que el sistema de notificaciones de Meta no permite a la empresa rectificar sus propios errores cuando no comunica correctamente qué norma comunitaria se infringió. Es fundamental poder indicarles correctamente a los usuarios qué infracción cometieron, ya que así se garantiza la equidad. Una notificación incorrecta socava la capacidad de los usuarios de apelar y obtener resarcimiento. En este caso, se le informó al usuario infractor que la publicación se había eliminado porque contenía lenguaje que incita al odio, aunque se la había eliminado por infringir la norma comunitaria sobre violencia e incitación. Por lo tanto, el Consejo le recomienda a Meta explorar vías factibles desde el punto de vista técnico por las cuales pueda corregir las notificaciones que envía a los usuarios.

La decisión del Consejo asesor de contenido

El Consejo asesor de contenido ratificó la decisión de Meta de eliminar la publicación.

El Consejo le recomendó a Meta:

  • Modificar la política de violencia e incitación para que incluya la definición de "autodefensa recreativa" y "entrenamiento a cargo de las fuerzas armadas" como excepciones a las reglas que prohíben a los usuarios brindar instrucciones para fabricar o usar armas, y aclare que no admite excepción alguna relacionada con autodefensa cuando estas instrucciones se proporcionan en el contexto de un conflicto armado.
  • Desarrollar herramientas que le permita rectificar sus propios errores al enviar mensajes a los usuarios para notificarles sobre la norma comunitaria que infringieron, de modo que estos puedan entender bien qué políticas incumplieron con su contenido.

* Los resúmenes de casos ofrecen información general sobre los casos y no sientan precedentes.

Decisión del caso completa

1. Resumen de la decisión

El Consejo asesor de contenido ratificó la decisión de Meta de eliminar una publicación que incluía el cartucho de un arma con notas en árabe que identificaban sus diferentes componentes. La publicación iba acompañada por una descripción en árabe con instrucciones para vaciar un cartucho y fabricar con sus componentes un cóctel Molotov. La publicación también indica a las personas que usen casco al arrojar dicho dispositivo incendiario para evitar heridas. La descripción concluye con el grito "Victoria para la población sudanesa/victoria para las Fuerzas Armadas de Sudán/Un paso adelante para mi país". Un clasificador de lenguaje hostil detectó el contenido y determinó que infringía la norma comunitaria sobre violencia e incitación de Facebook.

Para el Consejo, la publicación sí infringía la norma comunitaria sobre violencia e incitación, que prohíbe brindar instrucciones para fabricar o usar armas si se establece explícitamente el objetivo de herir gravemente o matar personas. El Consejo concluye también en que la publicación infringe otra disposición normativa en virtud de la norma comunitaria sobre violencia e incitación, que prohíbe instrucciones sobre cómo fabricar o usar explosivos, a menos que quede claro por el contexto que el contenido no tiene una finalidad violenta. Para el Consejo, el contenido supone un riesgo inminente de daño que podría exacerbar la violencia actual en Sudán.

Este caso trae aparejadas preocupaciones más generales en cuanto al contenido que incluye instrucciones sobre armas que se puede compartir durante conflictos armados y las responsabilidades de Meta con los derechos humanos en este contexto. Para implementar dichas responsabilidades, Meta debe garantizar que sus reglas sean más coherentes. Para ello, debe definir con claridad las excepciones a las disposiciones normativas respecto de la fabricación o el uso de armas o explosivos en virtud de la norma comunitaria sobre violencia e incitación. Asimismo, Meta debe desarrollar herramientas que le permitan corregir errores al informar a los usuarios qué norma comunitaria infringieron.

2. Descripción y contexto del caso

En junio de 2023, un usuario de Facebook publicó la ilustración de un cartucho con sus componentes identificados en árabe. La descripción de la publicación, también en árabe, brindaba instrucciones para vaciar el cartucho y fabricar con sus componentes un cóctel Molotov, una bomba incendiaria, habitualmente en una botella, muy fácil de hacer. La descripción también aconseja que quien arroje el dispositivo use un casco para protegerse y concluye con el grito "Victoria para la población sudanesa", "Victoria para las Fuerzas Armadas de Sudán" y "Un paso adelante para mi país". Los expertos en lingüística a los que consultó el Consejo afirmaron que estas frases, por sí solas, no incitan a la población a la violencia. El contenido se había visualizado pocas veces antes de que Meta lo eliminara sin someterlo a revisión manual, siete minutos después de que se publicara. En el momento de la publicación en junio de 2023, las Fuerzas Armadas de Sudán (FAS) y las Fuerzas de Apoyo Rápido (FAR), un grupo paramilitar, participaban desde mediados de abril en un conflicto armado, que sigue vigente hoy en día. Las FAR se designaron como una organización peligrosa en virtud de la política de personas y organizaciones peligrosas de Meta el 11 de agosto de 2023, meses después de que el conflicto escalara.

Un clasificador de lenguaje hostil, un algoritmo que usa Meta para identificar posibles infracciones de las normas comunitarias sobre lenguaje que incita al odio, violencia e incitación y bullying y acoso, detectó el contenido y determinó que infringía la norma comunitaria sobre violencia e incitación. Meta eliminó el contenido y aplicó una falta estándar en el perfil del creador del contenido, que no le permitía interactuar con grupos, crear salas de Messenger o unirse a estas por tres días. El usuario apeló la decisión de Meta de inmediato. Tras esto, un revisor de Meta determinó que la publicación infringía la política de bienes y servicios restringidos. El usuario entonces apeló al Consejo. Luego de que el Consejo remitiera el caso a Meta, la empresa determinó que su decisión original de eliminar el contenido en virtud de la norma comunitaria sobre violencia e incitación era correcta, pero que la publicación no infringía la política de bienes y servicios restringidos.

El Consejo consideró el siguiente contexto en cuanto a la decisión que tomó en este caso.

En abril de 2023, estallaron los enfrentamientos entre las FAS y las FAR en la capital de Sudán. El usuario que publicó el contenido en este caso parece respaldar a las FAS. Si bien el epicentro de la lucha era inicialmente Khartoum, la capital de Sudán, el conflicto se esparció por todo el país, incluidos Darfur y Kordofan. Ambos grupos usaron armas explosivas, incluidos bombas aéreas, artillería y proyectiles de mortero, así como cohetes y misiles, en áreas con mucha densidad de población. Según las Naciones Unidas, hasta enero de 2024, más de 7 millones de personas fueron desplazadas desde mediados de abril y más de 1,2 millones debieron abandonar Sudán. Presuntamente murieron 9.000 personas. Algunos de los ataques contra civiles tenían motivaciones étnicas. En octubre de 2023, la Relatora Especial de la ONU sobre la trata de personas expresó preocupación respecto del aumento del riesgo de que las fuerzas y los grupos armados recluten y usen niños como soldados. Como el conflicto sigue en pie en diversas partes del país, los expertos hicieron hincapié en la creciente participación de otros grupos armados.

Conforme a los expertos con los que consultó el Consejo respecto del conflicto en Sudán, tanto las FAS como las FAR recurren a los medios sociales para "diseminar información y propaganda" sobre sus respectivas agendas. Si bien la penetración de internet sigue siendo baja en Sudán, las organizacionesde noticias y los gruposde sociedadcivil reportaron que ambas organizaciones usan los medios sociales en un intento por controlar la narrativa en torno al conflicto. Por ejemplo, ambas partes publicaron proclamaciones de victoria en áreas en las que la lucha continúa, lo que pone en riesgo a aquellos civiles que regresan a esas zonas por confiar en información inexacta.

3. Autoridad y alcance del Consejo asesor de contenido

El Consejo tiene la facultad para revisar la decisión de Meta tras una apelación de la persona cuyo contenido se eliminó (artículo 2, sección 1, del acta constitutiva; artículo 3, sección 1, de los estatutos).

El Consejo puede mantener o revertir la decisión de Meta (artículo 3, sección 5, del acta constitutiva), y la decisión que tome será vinculante para la empresa (artículo 4 del acta constitutiva). Meta también debe evaluar la viabilidad de aplicar su decisión con respecto a contenido idéntico cuyo contexto sea similar (artículo 4 del acta constitutiva). Las decisiones del Consejo pueden incluir recomendaciones no vinculantes a las que Meta debe responder (artículo 3, sección 4, y artículo 4 del acta constitutiva). Cuando Meta se compromete a tomar medidas respecto de las recomendaciones, el Consejo supervisa su implementación.

4. Fuentes de autoridad y pautas

El análisis del Consejo en este caso se basó en las siguientes normas y precedentes:

I. Decisiones del Consejo asesor de contenido

Entre las decisiones previas del Consejo asesor de contenido más relevantes, se encuentran las siguientes:

II. Políticas de contenido de Meta

La norma comunitaria sobre violencia e incitación de Meta "busca evitar violencia en el mundo real que pueda relacionarse con contenido en nuestras plataformas". Meta afirma que elimina "el lenguaje que incita o da lugar a actos graves de violencia" y que "constituya una amenaza a la seguridad personal". Meta distingue entre declaraciones informales, que la política permite, y aquellas que suponen un "riesgo real de daños físicos o amenazas directas a la seguridad pública".

La norma comunitaria sobre violencia e incitación prohíbe las "amenazas de violencia que podrían conducir a la muerte (u otras formas de violencia de gravedad alta)". Asimismo, indica que Meta permite amenazas cuando "se dirigen contra ciertos actores violentos, como grupos terroristas". Meta actualizó la política el 6 de diciembre de 2023 para indicar que no prohíbe las amenazas cuando se comparten para generar conciencia, en consonancia con la recomendación del Consejo en el caso Poema ruso. En intercambios con el Consejo, Meta aclaró que permite "la incitación a la violencia, amenazas condicionales o expresiones de deseo de violencia de gravedad alta o moderada si se dirigen contra una persona u organización peligrosa. Sin embargo, las expresiones de intención siempre infringen la política".

La norma comunitaria sobre violencia e incitación también incluye dos reglas relacionadas con instrucciones para fabricar o usar armas.

La primera regla prohíbe contenido que brinda "instrucciones sobre cómo fabricar o usar armas en las que se establece explícitamente el objetivo de herir gravemente o matar personas" o "imágenes que muestran o simulan el resultado final". Dicho contenido se permite si se comparte en un contexto de "autodefensa recreativa, entrenamiento a cargo de las fuerzas armadas de un país, videojuegos comerciales o cobertura de noticias (publicado por la página o con el logotipo de noticias)".

La segunda regla prohíbe el contenido que brinda instrucciones sobre cómo fabricar o usar explosivos, "a menos que quede claro por el contexto que el contenido no tiene una finalidad violenta", por ejemplo, "si se trata de videojuegos comerciales, de material claramente educativo o científico, o si los explosivos son fuegos artificiales o están destinados a la pesca".

El análisis del Consejo se basó en el compromiso de Meta con la "expresión", que la empresa describe como "primordial", y en el valor de "seguridad".

III. Responsabilidades de Meta con los derechos humanos

16. Los Principios Rectores sobre las Empresas y los Derechos Humanos de la ONU (UNGP), respaldados por el Consejo de Derechos Humanos de la ONU en 2011, establecen un marco voluntario que encuadra las responsabilidades de las empresas privadas en cuanto a estos derechos. En 2021, Meta anunció su Política corporativa de derechos humanos, en la que reafirmó su compromiso con el respeto de los derechos humanos de conformidad con los UNGP. Conforme a los UNGP, los derechos humanos imponen mayores responsabilidades a las empresas que operan en un entorno de conflicto (informe "Empresas, derechos humanos y regiones afectadas por conflictos: hacia el aumento de las medidas", A/75/212).

El análisis del Consejo sobre las responsabilidades de Meta en cuanto a los derechos humanos en este caso se basó en las siguientes normas internacionales:

5. Respuestas del usuario

En su apelación ante el Consejo, el autor del contenido indicó que Meta entendió erróneamente la publicación y que solo compartía hechos.

6. Respuestas de Meta

Meta sostiene que la publicación infringía dos disposiciones de la norma comunitaria sobre violencia e incitación. En primer lugar, infringía la disposición de la política que prohíbe el contenido que brinda instrucciones para fabricar o usar armas si hay evidencia clara de que el objetivo es herir gravemente o matar personas. Meta afirmó que la publicación era infractora porque su "descripción sugiere que la finalidad es que el cóctel Molotov se arroje contra un blanco...". Además, las instrucciones se comparten "en un contexto de conflicto armado y presuntamente en respaldo de las FAS". Meta determinó que la publicación no recaía en ninguna de las excepciones en virtud de la disposición normativa, por ejemplo, "autodefensa recreativa", "entrenamiento a cargo de las fuerzas armadas" o "cobertura de noticias". Cuando el Consejo preguntó sobre el significado de "autodefensa recreativa" y "entrenamiento a cargo de las fuerzas armadas", Meta indicó no tener una definición de estos términos "más allá del simple significado de estas palabras".

El contenido también infringía la disposición normativa que prohíbe las instrucciones sobre cómo fabricar o usar explosivos si no queda claro por el contexto que el contenido no tiene una finalidad violenta. Meta considera los cócteles Molotov como explosivos según el significado que se les atribuye en la política. Asimismo, Meta determinó que el contenido "se compartió con la intención de atizar el conflicto violento".

Según pautas internas sobre cómo aplicar la política de violencia e incitación vigentes cuando se publicó el contenido, Meta permite contenido que infringe la política "si se comparte para generar conciencia o en un contexto de repudio". Tras las actualizaciones a las Normas comunitarias de dominio público realizadas el 6 de diciembre de 2023, la política ahora refleja esta pauta: "[Meta] no prohíbe las amenazas cuando se comparten en contextos en los que se las condena o se las da a conocer". No obstante, Meta expresa que la descripción "deja en claro que la intención no es dar a conocer la situación de violencia, sino fomentarla". Cuando se le preguntó a Meta si había dejado algún país o conflicto exentos de la aplicación de las disposiciones incluidas en la política de violencia e incitación que prohíben las instrucciones para fabricar o usar armas o explosivos, Meta le indicó al Consejo que no había impuesto excepciones ni concesiones específicas de un país, "independientemente de los conflictos activos".

En función de la norma comunitaria sobre violencia e incitación actualizada de Meta, Meta no prohíbe las amenazas que se dirigen contra "ciertos actores violentos, como grupos terroristas". Esto significa que Meta admite en sus plataformas algunas amenazas cuyo blanco son personas u organizaciones peligrosas designadas, como las FAR. Sin embargo, Meta explicó que esta excepción no se aplica a las dos disposiciones de la norma comunitaria sobre violencia e incitación respecto de las instrucciones para fabricar o usar armas o explosivos. En otras palabras, se prohíbe el contenido que explica cómo fabricar o usar armas, incluso si va dirigido contra personas u organizaciones peligrosas designadas.

Meta no estableció un centro de operaciones de integridad del producto, que se utiliza para responder a amenazas en tiempo real, a fin de abordar el estallido de violencia de abril de 2023 en Sudán. Según Meta, pudo "gestionar los riesgos de contenido identificados por medio de los procesos actuales". La empresa sigue esforzándose para responder al conflicto actual y se basa en la labor descrita anteriormente en el casoVideo gráfico de Sudán del Consejo. En respuesta al golpe militar en Sudán en octubre de 2021, Meta creó un "equipo interfuncional de respuesta ante crisis para supervisar la situación y comunicar los riesgos y las tendencias emergentes", que sigue vigente. Asimismo, Meta tomó, entre otras, las siguientes medidas para abordar posibles riesgos de contenido en relación con el conflicto de Sudán en 2023: eliminó páginas y cuentas que representan a las FAR teniendo en cuenta la designación del grupo como organización peligrosa por parte de Meta; investigó posibles cuentas falsas que podrían confundir el discurso público en torno al conflicto; y designó a Sudán como ubicación temporalmente de alto riesgo (para obtener una descripción de la designación de ubicación temporalmente de alto riesgo y su relación con la norma comunitaria sobre violencia e incitación, consulta la decisión del caso Discurso del general brasileño, sección 8.1). Meta informó al Consejo que está trabajando para establecer una iniciativa de coordinación ante situaciones de crisis a más largo plazo "para ofrecer una supervisión especializada de las operaciones durante el ciclo de vida de crisis emergentes e inminentes", que deriva de la recomendación del Consejo en el caso Consejo de comunicaciones de Tigray.

Al 30 de mayo de 2023, Sudán alcanzó la designación de crisis interna más alta de Meta. Desde entonces, Meta mantiene un alto nivel de gestión de riesgos y supervisa la situación para detectar riesgos de contenido como parte de esa labor. El protocolo de la política de crisis es el marco que Meta adoptó para desarrollar respuestas temporales específicas a una política ante crisis emergentes. Hay tres categorías de crisis conforme a este protocolo, en las que la categoría 1 es la menos grave y la categoría 3, la más grave. La designación de crisis de categoría 3 en Sudán tuvo lugar cuando la crisis creciente reunió otros criterios, como la existencia de un "conflicto interno mayor" y la "intervención del ejército".

El Consejo le hizo a Meta 16 preguntas por escrito. Preguntas relacionadas con el clasificador de lenguaje hostil de Meta; cómo Meta entiende el concepto de autodefensa en relación con la norma comunitaria sobre violencia e incitación; medidas que se tomaron en respuesta al conflicto en Sudán; y el cumplimiento de las disposiciones en relación con armas de la norma comunitaria sobre violencia e incitación durante conflictos armados. Meta respondió todas las preguntas.

7. Comentarios del público

El Consejo asesor de contenido recibió 10 comentarios del público relacionados con este caso. Tres de ellos procedían de los Estados Unidos y Canadá; dos, de Asia-Pacífico y Oceanía; dos, de Europa; uno, de Latinoamérica y el Caribe; uno, de Oriente Medio y África del Norte, y uno, de África subsahariana. Este total incluye comentarios del público que estuvieron duplicados; se enviaron sin consentimiento para publicarse; o se enviaron con consentimiento para publicarse, pero no cumplían con las condiciones del Consejo para su publicación. Los comentarios del público pueden enviarse al Consejo con o sin consentimiento de publicación, y con o sin atribución. Los comentarios enviados se referían a los siguientes temas: dinámicas del conflicto en Sudán; responsabilidades de Meta con los derechos humanos en situaciones de conflicto armado, en particular en la preservación de contenido online para asignar responsabilidades respecto de los derechos humanos; y el impacto del diseño del clasificador de Meta en la moderación de contenido relacionado con conflictos.

Si quieres leer los comentarios del público que se enviaron en relación con este caso, haz clic aquí.

8. Análisis del Consejo asesor de contenido

El Consejo seleccionó este caso para evaluar las políticas de Meta sobre contenido relacionado con armas y las prácticas de aplicación de políticas de la empresa en el contexto de conflictos armados. Este caso se incluye en la prioridad estratégica de "Situaciones de conflicto y crisis" del Consejo.

8.1 Cumplimiento de las políticas de contenido de Meta

I. Reglas de contenido

El Consejo determinó que la publicación infringe la política de violencia e incitación de Meta. El efecto combinado de la imagen y la descripción en la publicación cumple con los requisitos de "establecer explícitamente el objetivo" de la disposición que prohíbe "instrucciones sobre cómo fabricar o usar armas en las que se establece explícitamente el objetivo de herir gravemente o matar personas". Meta considera los cócteles Molotov como armas prohibidas en función de la política de violencia e incitación. La publicación brinda una guía paso a paso para fabricar y usar un cóctel Molotov. Tanto la guía paso a paso como el consejo de "usar casco" para proteger a quien arroje el dispositivo incendiario dan a entender que hay intención de herir gravemente o matar personas, e implican que la publicación incita a las personas a materializar lo que indican las instrucciones. Conforme a la opinión de los expertos a quienes consultó el Consejo, los gritos de victoria al final de la descripción claramente expresan apoyo a uno de los bandos del conflicto armado.

El contenido, además, infringe la disposición de la política de violencia e incitación que prohíbe el contenido que brinda "instrucciones sobre cómo fabricar o usar explosivos, a menos que quede claro por el contexto que el contenido no tiene una finalidad violenta". Recurrir a la violencia en apoyo de las FAS es una medida no relacionada con una finalidad no violenta; dichas finalidades, según se detallan en la política, se limitan a "videojuegos comerciales, material claramente educativo o científico, o si los explosivos son fuegos artificiales o están destinados a la pesca". El Consejo manifiesta que, según Meta, esta prohibición se aplica aunque Meta haya o no designado a la entidad mencionada en el contenido como persona u organización peligrosa en virtud de la norma comunitaria sobre personas y organizaciones peligrosas. Meta le explicó al Consejo que esto se debe a que "parte del daño de compartir estas instrucciones reside en que otras personas pueden usarlas para dañar a otros". Para el Consejo, esta regla se aplicó de conformidad con las políticas de contenido de Meta en lo que respecta a la eliminación del contenido en este caso.

II. Aplicación de políticas

Si bien el clasificador de lenguaje hostil identificó de forma correcta que el contenido infringía la norma comunitaria sobre violencia e incitación, se le informó erróneamente al usuario que la publicación se eliminó por incluir lenguaje que incita al odio. Según Meta, esto se debió a un error en los sistemas de la empresa. Meta le informó al Consejo que no puede enviar nuevos mensajes al mismo hilo del buzón de ayuda cuando nota que se cometió un error. Al Consejo le preocupa también que el sistema de notificaciones de usuarios de Meta no permita a la empresa rectificar sus propios errores si no comunica correctamente al usuario qué norma comunitaria infringió. Debido a esto, el usuario no sabrá con exactitud el motivo real por el cual se eliminó su contenido. Como el Consejo ya manifestó anteriormente en varios casos (p. ej., Armenios en Azerbaiyán, Bebida de ayahuasca, Cita nazi), Meta debería informar a los usuarios con transparencia sobre las políticas de contenido que infringieron.

8.2 Cumplimiento de las responsabilidades de Meta en materia de derechos humanos

El Consejo considera que la decisión inicial de Meta de eliminar la publicación fue coherente con las responsabilidades en materia de derechos humanos de la empresa.

Libertad de expresión (artículo 19 del ICCPR)

El artículo 19 del ICCPR prevé una amplia protección de la expresión, en especial, la expresión política. Este derecho incluye la "libertad de buscar, recibir y difundir información e ideas de toda índole". Estas protecciones se aplican también durante conflictos armados, y se las debe seguir usando como fundamento de las responsabilidades de Meta con los derechos humanos, junto con las reglas complementarias y que se refuerzan entre sí del derecho internacional humanitario vigentes durante tales conflictos ( observación general n.º 31 del Comité de Derechos Humanos [2004], párrafo 11; observación sobre el principio 12 de los UNGP; consulta también el informe de la Relatora Especial de la ONU sobre la desinformación y la libertad de opinión y de expresión durante conflictos armados, A/77/288, párrafos 33-35 [2022]; y el informe de la OHCHR sobre la protección jurídica internacional de los derechos humanos durante los conflictos armados [2011], página 59 de la versión en inglés).

La Relatora Especial de la ONU sobre la libertad de expresión indicó que "durante un conflicto armado, la vulnerabilidad de las personas es máxima, y ellas tienen la mayor necesidad de información precisa y confiable para garantizar su propia seguridad y bienestar. No obstante, es precisamente en esas situaciones cuando su libertad de opinión y de expresión, que incluye la libertad de buscar, recibir e impartir información e ideas de todo tipo, está más restringida por las circunstancias de la guerra y las acciones de las partes del conflicto y otros actores para manipular y limitar la información con fines políticos, militares y estratégicos" (informe A/77/288, párrafo 1). El Consejo reconoce la importancia de garantizar que las personas puedan compartir información sobre conflictos con libertad, en especial cuando los medios sociales son la fuente ulterior de información, y, al mismo tiempo, asegurar que el contenido que es probable que exacerbe la violencia en la vida real no se viralice.

Si un Estado impone restricciones sobre la libertad de expresión, estas deben cumplir los requisitos de legalidad, fin legítimo y necesidad y proporcionalidad (artículo 19, párrafo 3, del ICCPR). Se suele hacer referencia a estos requisitos como "prueba de tres partes". El Consejo usa este marco para interpretar los compromisos voluntarios de Meta con los derechos humanos, tanto respecto de la decisión sobre el contenido en particular en revisión como de lo que esto pone de manifiesto acerca del enfoque más amplio de la empresa en relación con la gestión del contenido. Como ocurrió en casos anteriores (p. ej., Armenios en Azerbaiyán, Video de prisioneros de guerra armenios), el Consejo coincide con la Relatora Especial de la ONU sobre libertad de expresión en que, si bien las empresas no tienen las obligaciones de los Gobiernos, su impacto es tal que las obliga a evaluar el mismo tipo de cuestiones sobre la protección del derecho a la libertad de expresión de sus usuarios ( A/74/486, párrafo 41). Al hacerlo, el Consejo intenta entender cómo se diferencian las responsabilidades de una empresa de medios sociales privada de las de un gobierno que implementa sus propias obligaciones en materia de derechos humanos.

I. Legalidad (claridad y accesibilidad de las reglas)

El principio de legalidad requiere que cualquier regla que limite la expresión sea clara y accesible, tanto para quienes las hacen cumplir como para quienes se ven afectados por ellas (observación general n.º 34, párrafo 25). Los usuarios deben poder predecir las consecuencias de publicar contenido en Facebook e Instagram. La Relatora Especial de la ONU sobre libertad de expresión destacó la necesidad de "claridad y especificidad" en las políticas de moderación de contenido ( A/HRC/38/35, párrafo 46).

El Consejo considera que la regla general que prohíbe las instrucciones sobre cómo fabricar o usar armas o explosivos en ciertas circunstancias es lo suficientemente clara y cumple con los requisitos de legalidad. No obstante, el Consejo también manifiesta que Meta podría aclarar mejor las excepciones a la política explicando conceptos como "autodefensa recreativa" y "entrenamiento a cargo de las fuerzas armadas de un país" en el texto público de la norma comunitaria sobre violencia e incitación. El Consejo no está de acuerdo con la afirmación de Meta que sostiene que estos términos tienen un "significado simple".

Respecto del término "autodefensa recreativa", el Consejo considera que Meta debe aclarar quiénes se pueden beneficiar de este y en qué contexto se aplican las excepciones. Asimismo, el texto público de la norma comunitaria sobre violencia e incitación no indica expresamente que el término no contempla el contexto de autodefensa en situaciones de conflictos armados. En cuanto al término "entrenamiento a cargo de las fuerzas armadas de un país", Meta no aclara si se limita a ejércitos de Estados reconocidos ni cómo la empresa trata a los ejércitos de gobiernos de facto.

Las partes interesadas a las que consultó el Consejo, así como los informes públicos afirmaron que Meta permite que se publiquen instrucciones de este tipo en un contexto de autodefensa durante determinados conflictos armados. En respuesta a las preguntas del Consejo, Meta negó que estos informes fueran legítimos. El Consejo no está en una posición para determinar la veracidad de estas afirmaciones contradictorias. En cualquier caso, es fundamental que las reglas de Meta respecto de temas de tal importancia se apliquen de forma coherente y rigurosa. Dado que las plataformas de Meta se usan para intercambiar información durante conflictos armados cuando tanto combatientes como civiles pueden compartir información sobre el uso de armas o contenido violento relacionado con autodefensa, Meta debe aclarar qué significan realmente las excepciones de "autodefensa recreativa" y "entrenamiento a cargo de las fuerzas armadas" en la norma comunitaria sobre violencia e incitación.

Asimismo, el Consejo considera que la excepción de la política de Meta a la norma comunitaria sobre violencia e incitación, que permite amenazas cuando "se dirigen contra ciertos actores violentos, como grupos terroristas", no es lo suficientemente clara, por lo que no cumple con el requisito de legalidad. No aclara si esta disposición normativa se aplica a todas las personas y organizaciones peligrosas designadas de conformidad con la norma comunitaria sobre personas y organizaciones peligrosas. Asimismo, la lista de personas y organizaciones peligrosas incluida en la política de personas y organizaciones peligrosas no es de dominio público. Esto exacerba la falta de claridad para los usuarios cuyas publicaciones se eliminarán o se conservarán según si la entidad a la que se hace referencia en ellas se incluye o no en la lista oculta de organizaciones peligrosas de Meta. El Consejo reitera las inquietudes suscitadas en la decisión del caso Video de una estación de policía haitiana en cuanto a la excepción a la política.

II. Fin legítimo

Toda restricción que se aplique a la libertad de expresión (artículo 19 del ICCPR) debe tener un fin legítimo. Por medio de la política sobre violencia e incitación, se procura "prevenir daños en la vida real" eliminando el contenido que representa un "riesgo real de daños físicos o amenazas directas a la seguridad pública". Como el Consejo concluyó previamente en la decisión del caso Presuntos delitos en Raya Kobo, esta política atiende el fin legítimo de proteger los derechos de otras personas, como el derecho a la vida (artículo 6 del ICCPR).

III. Necesidad y proporcionalidad

Los principios de necesidad y proporcionalidad disponen que las restricciones que se apliquen a la libertad de expresión "deben ser adecuadas para desempeñar su función protectora; deben ser el instrumento menos perturbador de los que permitan conseguir el resultado deseado, y deben guardar proporción con el interés que debe protegerse" (observación general n.º 34, párrafo 34). El Consejo también consideró los factores del Plan de Acción de Rabat respecto de qué constituye incitación a la violencia (Plan de Acción de Rabat, OHCHR, A/HRC/22/17/Anexo 4, 2013), sin perder de vista las diferencias entre las obligaciones legales de los Estados y las responsabilidades de las empresas con los derechos humanos. Si bien la publicación en este caso no respalda el odio sobre la base de nacionalidad, raza o religión, el Plan de Acción de Rabat ofrece un marco útil para evaluar si el contenido incita o no a otras personas a la violencia.

En este caso, el Consejo considera que la eliminación del contenido de Facebook por parte de Meta cumple con los requisitos de necesidad y proporcionalidad. El Consejo usó la prueba de seis partes del Plan de Acción de Rabat para fundamentar su análisis, y los resultados respaldaron la eliminación de esta publicación, como se explica debajo.

Independientemente de la intención que haya tenido el creador del contenido cuando hizo la publicación, la guía paso a paso para fabricar y usar un cóctel Molotov supuso un riesgo genuino de daño inminente en una situación cuya seguridad ya era volátil. El arma incendiaria a la que se hace referencia en la publicación está prohibida conforme a la Convención sobre Ciertas Armas Convencionales por ser tanto excesivamente perjudicial como indiscriminada como medio de ataque. El impacto de una explosión no solo supone grandes riesgos de ocasionar heridas a la población civil, sino que puede conducir a que los combatientes experimenten "sufrimientos innecesarios" o "heridas superfluas", hecho que el derecho internacional humanitario consuetudinario prohíbe. Motivar a civiles que no tienen entrenamiento militar a que fabriquen y usen armas incendiarias incrementa mucho más estos riesgos.

El riesgo genuino de daño inminente existe, pese a que el usuario es un particular sin influencia alguna, con una cantidad limitada de amigos y seguidores. El Consejo expresa que el clasificador de lenguaje hostil de Meta logró detectar y eliminar el contenido minutos después de que se publicara.

El Consejo también manifiesta que el contenido se publicó en el contexto de un conflicto armado vigente. En el momento en que se publicó, dos meses desde de que irrumpiera el conflicto armado, los informes y los análisisde expertos demostraron que tanto las FAS como las FAR habían cometido abusos generalizados contra los derechos humanos. Conforme a las Naciones Unidas, los grupos de derechos humanos, los expertos a quienes consultó el Consejo y los comentarios del público enviados, incluidos los de Genocide Watch (PC-19006, PC-19001), ambas partes del conflicto armado participaron en diversos abusos de leyes humanitarias y de derechos humanos internacionales, lo que condujo a que millones de personas fueran desplazadas, arrestadas de manera arbitraria, abusadas sexualmente o asesinadas. El conflicto sigue vigente y no muestra indicios de llegar a su fin, pese al repudio del Consejo de Seguridad de la ONU, grupos de sociedad civil y organizaciones de derechos humanos. En este contexto, el Consejo determinó que el contenido en este caso incitó a la violencia y supuso un riesgo inminente para los civiles implicados de manera directa en los enfrentamientos al tratar sobre un arma ilegal y particularmente nociva que exacerbaba el conflicto.

Meta no admite contenido como la publicación sometida a revisión en el contexto de autodefensa al aplicar la política de violencia e incitación. Para el Consejo, este enfoque es prudente e insta a Meta a aplicarlo de manera coherente. Conforme a los UNGP, las responsabilidades de Meta con los derechos humanos incluyen respetar "las normas del derecho humanitario internacional en un conflicto armado" (comentario al principio n.º 12, UNGP). El derecho humanitario internacional brinda normas a las partes que participan en conflictos armados para maximizar la protección de la población civil (p. ej., Protocolo II adicional de los Convenios de Ginebra que protege a los civiles durante conflictos armados; artículo 2, Protocolo III de la Convención sobre Ciertas Armas Convencionales que prohíbe el uso de armas incendiarias). El Consejo cree que estas normas también pueden resultar útiles para que las empresas de medios sociales alcancen ese objetivo cuando se usan sus plataformas en entornos de conflictos armados. En consonancia con estas normas, Meta debe apuntar a una política que brinde la mayor protección a la población civil y su propiedad en entornos de conflicto. Si esto se aplica a la política de violencia e incitación, significa prohibir las amenazas creíbles, independientemente de quién sea el blanco.

Acceso a mecanismos de reparación

Al Consejo le preocupa la incapacidad técnica de Meta para corregir errores en las notificaciones que envía a los usuarios para informarles qué regla infringieron con su contenido. La capacidad de informar a los usuarios correctamente cuando cometen una infracción es un componente fundamental de la aplicación de las Normas comunitarias de Meta, y garantiza la equidad y el debido proceso en favor de los usuarios. Cuando una notificación enviada a un usuario se identifica por error, disminuye la capacidad de esa persona de apelar y solicitar resarcimiento en las plataformas de Meta. El Consejo le recomienda a Meta explorar vías factibles desde el punto de vista técnico por las cuales pueda corregir las notificaciones que envía a los usuarios.

9. Decisión del Consejo asesor de contenido

El Consejo asesor de contenido ratificó la decisión de Meta de eliminar el contenido.

10. Recomendaciones

Política de contenido

1. Para informar mejor a los usuarios respecto de qué contenido está prohibido en sus plataformas, Meta debe modificar la política de violencia e incitación para que incluya la definición de "autodefensa recreativa" y "entrenamiento a cargo de las fuerzas armadas" como excepciones a las normas que prohíben a los usuarios brindar instrucción para fabricar o usar armas, y aclare que no admite excepción alguna relacionada con autodefensa respecto de este tipo de instrucciones en el contexto de un conflicto armado.

El Consejo considerará implementada esta recomendación cuando se haya actualizado la norma comunitaria sobre violencia e incitación para reflejar estos cambios.

Aplicación de políticas

2. Para que los usuarios entiendan qué políticas se aplicaron a su contenido, Meta debe desarrollar herramientas para rectificar errores en los mensajes que les envía para notificarles qué norma comunitaria infringieron.

El Consejo considerará implementada esta recomendación cuando los sistemas de notificación y revisión relacionados se actualicen en consonancia.

* Nota de procedimiento:

La preparación de las decisiones del Consejo asesor de contenido está a cargo de paneles conformados por cinco miembros, quienes deben aprobarlas por mayoría. Las decisiones del Consejo no necesariamente representan las opiniones personales de todos los miembros.

En cuanto a la decisión del caso, se encargó una investigación independiente en nombre del Consejo. Al Consejo lo asistió un instituto de investigación independiente con sede en la Universidad de Gotemburgo, que se apoya en un equipo conformado por más de 50 científicos sociales de seis continentes, así como 3.200 expertos de diferentes países del mundo. El Consejo también recibió asistencia de Duco Advisors, una empresa asesora dedicada a la intersección de geopolítica, confianza, seguridad y tecnología. Memetica, una organización que participa en investigaciones de código abierto sobre tendencias en los medios sociales, también proporcionó análisis. Lionbridge Technologies, LLC, con especialistas en más de 350 idiomas que trabajan en 5.000 ciudades diferentes, se encargó de las competencias en materia lingüística.

Volver a Decisiones de casos y opiniones consultivas sobre políticas