Anulado
Informe sobre un ataque violento en Sri Lanka
2 de octubre de 2025
Un usuario apeló la decisión de Meta de eliminar una publicación de Facebook que incluía un enlace a un artículo informativo sobre una persona armada que abrió fuego en una iglesia en Sri Lanka.
Las decisiones resumidas analizan casos en los que Meta revirtió su decisión original sobre un contenido después de que el Consejo lo remitiera a la empresa e incluyen información sobre los errores que Meta reconoció. Estas decisiones son aprobadas por un panel de miembros del Consejo, no por todo el Consejo, no implican comentarios del público ni tienen valor de precedencia para el Consejo. Las decisiones resumidas traen aparejados cambios directos en las decisiones de Meta, ya que aportan transparencia respecto de estas correcciones, a la vez que permiten identificar en qué aspectos Meta podría mejorar la aplicación de sus políticas.
Resumen
Un usuario apeló la decisión de Meta de eliminar una publicación de Facebook que incluía un enlace a un artículo informativo sobre una persona armada que abrió fuego en una iglesia en Sri Lanka. Después de que el Consejo le remitiera la apelación a Meta, la empresa revirtió su decisión original y restauró la publicación.
Información sobre el caso
En abril de 2025, un usuario de Facebook publicó un enlace a un artículo informativo en inglés sobre un tiroteo en una iglesia en Sri Lanka. El artículo se compartió en un grupo que se autodenomina especializado en "noticias y debates" sobre conflictos y consolidación de la paz. El enlace generó automáticamente un titular y una descripción emergentes, donde se detallaba que el país se encuentra en alerta alta seis años después de los ataques con bombas en los que murieron cientos de personas un domingo de Pascuas. También mostraba la imagen de los momentos posteriores a los ataques en abril de 2019 en la iglesia de San Sebastián, ubicada en la ciudad de Negombo.
Meta inicialmente eliminó el contenido en virtud de su norma comunitaria sobre contenido violento y gráfico. Más tarde, la empresa aclaró que la política relevante a la eliminación del contenido en este caso es la norma comunitaria sobre violencia e incitación. En virtud de esta política, la empresa elimina las "amenazas de violencia dirigida contra otras personas", que se definen como "frases o imágenes que representan una intención, aspiración o llamada a cometer actos de violencia contra otras personas". No obstante, Meta permite las amenazas "cuando se comparten para generar conciencia o a modo de repudio".
En su apelación ante el Consejo, el usuario manifestó que el grupo en el que se publicó el artículo tiene como fin que las personas aprendan sobre la escalada y desescalada de conflictos en todo el mundo para consolidar la paz y lograr la resolución.
Después de que el Consejo remitiera este caso a Meta, la empresa determinó que el contenido no debería haberse eliminado. Meta destacó que la política de violencia e incitación permite el contenido que se comparte para generar conciencia sobre una amenaza de violencia contra otras personas. En este caso, la empresa consideró que la publicación buscaba generar conciencia dado que el contenido era un enlace a un artículo informativo sobre un hombre armado que abrió fuego en un lugar de oración en Sri Lanka. Asimismo, Meta explicó que el enlace a la noticia se compartió en una página de Facebook un día después de que ocurriera el hecho, lo que sugiere que la intención era informar a otros sobre lo que había acontecido. Seguidamente, la empresa restauró el contenido en Facebook.
Autoridad y alcance del Consejo
El Consejo tiene la facultad para revisar la decisión de Meta tras la apelación de un usuario cuyo contenido se eliminó (artículo 2, sección 1, del acta constitutiva; artículo 3, sección 1, de los estatutos).
Cuando Meta reconoce que cometió un error y revierte su decisión en un caso en consideración para la revisión del Consejo, el Consejo puede seleccionar ese caso para una decisión resumida (artículo 2, sección 2.1.3, de los estatutos). El Consejo revisa la decisión original para entender mejor los procesos de moderación de contenido empleados, reducir los errores y ser más justo con los usuarios de Facebook, Instagram y Threads.
Importancia del caso
Este caso destaca la sobreaplicación de la norma comunitaria sobre violencia e incitación de Meta. Los sistemas de moderación de contenido de la empresa no lograron reconocer el contexto de concientización, lo que afectó de manera directa la capacidad del usuario que hizo la publicación de compartir información sobre los ataques contra sitios de culto en Sri Lanka. El Consejo señala que la descripción del grupo donde se publicó el artículo destaca que es un foro de noticias y debates sobre la resolución pacífica de conflictos. La falla de los sistemas también perjudicó la capacidad de otros usuarios de acceder a esta información.
El Consejo ya había emitido recomendaciones relevantes con el fin de aumentar la precisión de la aplicación de políticas, el seguimiento y la transparencia en lo que respecta a las excepciones de la política de violencia e incitación de Meta. En primer lugar, el Consejo recomendó que Meta "le proporcione los datos que usa para evaluar la precisión con la que aplica sus políticas" a fin de "basar en ellos futuras evaluaciones y recomendaciones respecto de la política de violencia e incitación" ( Publicaciones sobre el aborto en los Estados Unidos, recomendación n.º 1). La implementación de esta recomendación se encuentra actualmente en curso. En su informe del segundo semestre de 2024, Meta afirmó que "estamos en proceso de recopilar un resumen de datos de aplicación de las Normas comunitarias para compartirlos en confidencialidad con el Consejo. Este documento detallará los puntos de datos que calibran la precisión de nuestra aplicación de las diversas políticas, incluida la de violencia e incitación".
El Consejo también recomendó que Meta "agregue al texto público de su norma comunitaria sobre violencia e incitación que, según la interpretación de la empresa, la política permite contenido que incluya declaraciones con 'referencias neutrales a un resultado potencial de una acción o una advertencia', y contenido que 'condene las amenazas violentas o concientice sobre estas'" (caso Poema ruso, recomendación n.º 1). La implementación parcial de esta recomendación se demostró mediante información publicada. Meta actualizó su política de violencia e incitación (consulta el informe del cuarto trimestre de 2023 de Meta), que ahora indica que "no prohibimos las amenazas si se comparten para generar conciencia o a modo de repudio, cuando no son de mucha gravedad, si se realizan en el contexto de los deportes de contacto o ciertas amenazas contra agentes violentos, como grupos terroristas". Sin embargo, Meta señaló en su informe del tercer trimestre de 2023 que la empresa decidió no agregar texto específico respecto de "referencias neutras al posible resultado de una acción o advertencia, donde la persona que realiza la publicación no esgrime una amenaza violenta", ya que esto "generalmente se encuentra contemplado en las bases de la política, así como en la definición y el marco de una amenaza".
Asimismo, el Consejo recomendó que "para que los usuarios sepan con precisión en qué casos se pueden conceder excepciones de las políticas, Meta debe crear una nueva sección dentro de cada norma comunitaria que detalle qué excepciones y permisos se aplican. Cuando Meta se basa en determinados fundamentos para no permitir ciertas excepciones que se aplican a otras políticas (como la concesión de interés periodístico o para generar conciencia), Meta debe incluir dicho fundamento en esta sección de la norma comunitaria" ( Documental periodístico sobre abuso infantil en Pakistán, recomendación n.º 1). La implementación de esta recomendación se encuentra actualmente en curso. En su respuesta inicial al Consejo en 2024, Meta afirmó que la empresa "consideraría actualizar [sus] Normas comunitarias para aportar mayor claridad respecto de las concesiones relevantes que se pueden aplicar a secciones concretas de las políticas y los fundamentos en los que se basa para decidir cuándo aplicarlas o no". Meta explicó también que, "debido al alcance amplio y complejo" de la recomendación, la implementación demoraría.
La reiterada sobreaplicación de la política de violencia e incitación de Meta socava la capacidad de los usuarios de compartir noticias e información sobre ataques violentos. El Consejo considera que la implementación total de la recomendación n.º 1 del caso Publicaciones sobre el aborto en los Estados Unidos mejoraría aún más la capacidad de Meta de identificar y abordar deficiencias relacionadas con la precisión en la aplicación de políticas y, por ende, reduciría la cantidad de errores en este sentido. Asimismo, la implementación total de las recomendaciones sobre transparencia en cuanto a las excepciones de la política de violencia e incitación evitaría, y revertiría, eliminaciones erróneas, ya que tanto los usuarios como los revisores de contenido contarían con más información sobre las excepciones de dicha política.
Decisión
El Consejo anuló la decisión original de Meta de eliminar el contenido. El Consejo confirma que Meta corrigió su error inicial después de haberle remitido el caso.
Volver a Decisiones de casos y opiniones consultivas sobre políticas