Anulado
Amenaza de violencia contra los rohinyás
4 de junio de 2024
Un usuario apeló la decisión de Meta de conservar un comentario en una publicación de Facebook en el que se afirmaba que los rohinyás causan disturbios y son "estafadores". En el comentario, también se exigía la implementación de medidas de control contra este grupo étnico.
Las decisiones resumidas examinan casos en los que Meta revirtió su decisión original sobre un contenido después de que el Consejo lo remitiera a la empresa e incluyen información sobre los errores que Meta reconoció. Estas decisiones son aprobadas por un panel de miembros del Consejo, no por todo el Consejo, no implican comentarios del público ni tienen valor de precedencia para el Consejo. Las decisiones resumidas traen aparejados cambios directos en las decisiones de Meta, ya que aportan transparencia respecto de estas correcciones, mientras que permiten identificar en qué aspectos Meta podría mejorar la aplicación de sus políticas.
Resumen
Un usuario apeló la decisión de Meta de conservar un comentario en una publicación de Facebook en el que se afirmaba que los rohinyás causan disturbios y son "estafadores". En el comentario, también se exigía la implementación de medidas de control contra este grupo étnico, así como su "eliminación total". Este caso destaca un problema recurrente en la subaplicación de la política de violencia e incitación de la empresa, específicamente en relación con amenazas contra grupos vulnerables. Después de que el Consejo le remitiera la apelación a Meta, la empresa revirtió su decisión original y eliminó la publicación.
Información sobre el caso
En enero de 2024, un usuario de Facebook comentó una publicación sobre los rohinyás en Birmania. El comentario incluía texto por encima de una imagen de un cerdo defecando. En el texto, el usuario escribió que "este grupo" (en referencia a los rohinyás) son "estafadores" que "siguen causando diversos problemas sociales". Asimismo, se argumentaba que el Gobierno de Birmania tomó la medida correcta al "poner un freno" a los rohinyás y se exigía su "eliminación total de la faz de la Tierra" en beneficio de "la seguridad y el bienestar de la nación".
En su declaración al Consejo, el usuario que apeló escribió que vive en Birmania y expresó frustración ante la falta de acción por parte de Meta contra comentarios que exigen el genocidio, como en este caso. Explicó que había sido testigo de primera mano de cómo la incapacidad de Meta de moderar efectivamente el lenguaje que incita al odio contra los rohinyás generó violencia en la vida real, y de qué forma los rohinyás están languideciendo en campos de refugiados.
Conforme a la política de violencia e incitación de Meta, la empresa prohíbe las "amenazas de violencia que podrían llevar a la muerte (u otras formas de violencia de gravedad alta)". Luego de que el usuario enviara una apelación a Meta, la empresa inicialmente conservó el contenido en la plataforma.
Después de que el Consejo remitiera este caso a Meta, la empresa determinó que el comentario "fomenta la violencia letal mediante la 'eliminación' de los rohinyás de la faz de la Tierra" y, por lo tanto, infringe la norma comunitaria sobre violencia e incitación. Luego, la empresa eliminó el contenido de la plataforma.
Autoridad y alcance del Consejo
El Consejo tiene la autoridad para revisar la decisión de Meta tras la apelación del usuario que reportó el contenido que posteriormente se conservó en la plataforma (artículo 2, sección 1, del acta constitutiva; artículo 3, sección 1, de los estatutos).
Cuando Meta reconoce que cometió un error y revierte su decisión en un caso en consideración para la revisión del Consejo, el Consejo puede seleccionar ese caso para una decisión resumida (artículo 2, sección 2.1.3, de los estatutos). El Consejo revisa la decisión original para entender mejor los procesos de moderación de contenido empleados, reducir los errores y ser más justo con los usuarios de Facebook, Instagram y Threads.
Significancia del caso
Este caso destaca problemas en la repetida subaplicación de políticas por parte de Meta en relación con la retórica violenta e incendiaria contra los rohinyás. Se trata de un problema conocido y recurrente: en 2018, Meta encargó una evaluación de derechos humanos independiente para determinar el grado en que la empresa desempeñó un papel al exacerbar campañas de información errónea y prejuicio contra los rohinyás. La incapacidad de Meta de moderar contenido que apoya el genocidio y promueve la depuración étnica de la población rohinyá marginalizada quedó documentada por otros grupos de sociedad civil, como Amnesty International, en un informe en el que se detalla el papel que desempeñó Meta en las atrocidades cometidas contra la comunidad.
En una decisión anterior, el Consejo recomendó que "Meta debe reformular el valor de 'seguridad' para reflejar que el lenguaje que incita al odio en internet puede suponer un riesgo para la seguridad física de las personas y el derecho a la vida, además de los riesgos de intimidación, exclusión y silenciamiento" (Presuntos delitos en Raya Kobo, recomendación n.º 1). Meta terminó de implementar esta recomendación parcialmente.
El Consejo instó a Meta a mejorar sus procesos de detección y aplicación de políticas en relación con texto que incita a la violencia contra los rohinyás.
Decisión
El Consejo anuló la decisión original de Meta de conservar el contenido. El Consejo confirma que Meta corrigió su error inicial después de haberle remitido el caso.
Volver a Decisiones de casos y opiniones consultivas sobre políticas