Anulado
Comentario sobre las elecciones a la alcaldía de Karachi
18 de diciembre de 2023
Un usuario de Facebook apeló la decisión de Meta de eliminar su comentario en el que mostraba los resultados de las elecciones a la alcaldía de Karachi de 2023 e incluía el nombre de Tehreek-e-Labbaik Pakistan (TLP), un partido designado conforme a la política sobre personas y organizaciones peligrosas de Meta.
Esta es una decisión resumida. Las decisiones resumidas examinan casos en los que Meta revirtió su decisión original sobre un contenido después de que el Consejo le remitiera el caso a la empresa. Estas decisiones incluyen información sobre los errores reconocidos por Meta e informan al púbico sobre el impacto del trabajo del Consejo. Un panel de miembros del Consejo las aprueba, pero no todo el Consejo. No abarcan el proceso de comentarios del público ni tienen un valor de precedente para el Consejo. Las decisiones resumidas aportan transparencia a las correcciones de Meta y destacan áreas en las que la empresa podría mejorar la aplicación de políticas.
Resumen del caso
Un usuario de Facebook apeló la decisión de Meta de eliminar su comentario en el que mostraba los resultados de las elecciones a la alcaldía de Karachi de 2023 e incluía el nombre de Tehreek-e-Labbaik Pakistan (TLP), un partido político islamista de extrema derecha designado conforme a la política sobre personas y organizaciones peligrosas de Meta. Este caso pone de manifiesto la sobreaplicación de esta política y su impacto en la capacidad de los usuarios de compartir comentarios e informes de noticias políticos. Después de que el Consejo le remitiera la apelación a Meta, la empresa revirtió su decisión original y restauró el comentario.
Descripción y contexto del caso
En junio de 2023, un usuario de Facebook comentó una publicación de una foto en la que se veía al político de Karachi Hafiz Naeem ur Rehman junto al ex primer ministro pakistaní Imran Khan y el secretario general del partido político Jamaat-e-Islami Liaqat Baloch. El comentario es una imagen de un gráfico tomada de un programa de televisión, que muestra el número de bancas ganadas por los diferentes partidos en las elecciones a la alcaldía de Karachi. Uno de los partidos incluidos en la lista es Tehreek-e-Labbaik Pakistan (TLP), un partido político islamista de extrema derecha en Pakistán. Las elecciones a la alcaldía de Karachi de 2023 fueron una contienda reñida y, tras conocerse los resultados, uno de los partidos perdedores alegó que los votos se arreglaron injustamente, lo que generó protestas violentas entre los partidarios de los distintos partidos.
Meta originalmente eliminó el comentario de Facebook citando su política sobre personas y organizaciones peligrosas, de acuerdo con la cual la empresa elimina contenido que "exalta", "apoya de manera sustancial" o "representa" personas u organizaciones que la empresa designa como peligrosas. Sin embargo, en la política se reconoce que "los usuarios pueden compartir contenido que incluya referencias a personas y organizaciones peligrosas designadas" en el contexto del discurso social y político. Esto incluye "reportarlas, condenarlas o hablar sobre ellas o sus actividades en un tono neutral".
En la apelación al Consejo, el usuario se identificó como periodista y afirmó que el comentario era sobre los resultados de las elecciones a la alcaldía de Karachi. El usuario aclaró que la intención del comentario era informar al público al respecto y debatir sobre el proceso democrático.
Después de que el Consejo remitiera este caso a Meta, la empresa determinó que el contenido no infringía sus políticas. La política de Meta permite el debate en tono neutral sobre una entidad designada en el contexto del discurso social y político, en este caso, informar sobre los resultados de las elecciones.
Autoridad y alcance del Consejo
El Consejo tiene la facultad para revisar la decisión de Meta tras una apelación de la persona cuyo contenido se eliminó (artículo 2, sección 1, del acta constitutiva; artículo 3, sección 1, de los estatutos).
Cuando Meta reconoce que cometió un error y revierte su decisión en un caso en consideración para la revisión del Consejo, el Consejo puede seleccionar ese caso para una decisión resumida (artículo 2, sección 2.1.3, de los estatutos). El Consejo revisa la decisión original para entender mejor los procesos de moderación de contenido, reducir los errores y ser más justo con los usuarios de Facebook e Instagram.
Importancia del caso
Este caso pone de manifiesto la sobreaplicación de la política sobre personas y organizaciones peligrosas de Meta. Los casos del Consejo sugieren que los errores de este tipo ocurren con demasiada frecuencia e impiden que los usuarios, especialmente los periodistas, transmitan información fáctica sobre organizaciones designadas como peligrosas. La reducción de estos errores debería ser una prioridad fundamental para la empresa.
El Consejo emitió varias recomendaciones en relación con la política sobre personas y organizaciones peligrosas de Meta. Entre ellas, se incluye la recomendación de "evaluar los procesos de moderación automática en lo que respecta a la aplicación de la política sobre personas y organizaciones peligrosas", que Meta se negó a implementar (decisión del caso Aislamiento de Öcalan, recomendación n.º 2). El Consejo también recomendó que Meta debería "evaluar la precisión de los revisores al aplicar la concesión para informes periodísticos correspondiente a la política sobre personas y organizaciones peligrosas a fin de identificar problemas sistémicos que causen errores en la aplicación" (decisión del caso Mención de los talibanes en los informes de noticias, recomendación n.º 5). Meta está implementando una actualización de su política sobre personas y organizaciones peligrosas, que incluirá detalles sobre cómo la empresa aborda los informes de noticias, así como los debates neutrales y condenatorios. Además, el Consejo recomendó que Meta debería "proporcionar una lista pública de las personas y organizaciones designadas como 'peligrosas' conforme a la norma comunitaria sobre personas y organizaciones peligrosas", que Meta se negó a implementar tras evaluar su viabilidad (decisión del caso Cita nazi , recomendación n.º 3).
Decisión
El Consejo anuló la decisión original de Meta de eliminar el contenido. El Consejo confirma que Meta corrigió su error inicial después de haberle remitido el caso.
Volver a Decisiones de casos y opiniones consultivas sobre políticas