Decisión de casos múltiples
Artículo periodístico sobre los Proud Boys
27 de febrero de 2024
El Consejo revisó dos publicaciones de Facebook, que Meta eliminó, vinculadas a una noticia sobre la sentencia criminal de miembros de Proud Boys. Después de que el Consejo le remitiera estas dos apelaciones a Meta, la empresa revirtió sus decisiones originales y restauró ambas publicaciones.
2 casos incluidos en el paquete
FB-2JHTL3QD
Caso sobre personas y organizaciones peligrosas en Facebook
FB-ZHVJLX60
Caso sobre personas y organizaciones peligrosas en Facebook
Esta es una decisión resumida. Las decisiones resumidas examinan casos en los que Meta revirtió su decisión original sobre un contenido después de que el Consejo le remitiera el caso a la empresa. Estas decisiones incluyen información sobre los erroresreconocidos por Meta e informan al púbico sobre el impacto del trabajo del Consejo. Un panel de miembros del Consejo las aprueba, pero no todo el Consejo. No tienen en cuenta los comentarios del público ni tienen un valor de precedente para el Consejo. Las decisiones resumidas aportan transparencia a las correcciones de Meta y destacan áreas en las que la empresa podría mejorar la aplicación de políticas.
Resumen del caso
El Consejo revisó dos publicaciones de Facebook, que Meta eliminó, vinculadas a una noticia sobre la sentencia criminal de miembros de Proud Boys. Después de que el Consejo le remitiera estas dos apelaciones a Meta, la empresa revirtió sus decisiones originales y restauró ambas publicaciones.
Descripción y contexto del caso
En septiembre de 2023, dos usuarios de Facebook publicaron un enlace a un artículo periodístico sobre la condena y sentencia de un miembro de los Proud Boys que participó en un ataque en el Capitolio de los Estados Unidos el 6 de enero de 2021. Como parte del artículo, se incluye la foto de un grupo de hombres con una camiseta que dice "Proud boys" y el logotipo del grupo. Ningún usuario agregó un comentario ni una descripción al compartir el enlace.
Proud Boys es una organización de ultraderecha fundada en 2016 que rápidamente se hizo conocida por su violencia y extremismo y, entre otras cosas, por su importante rol en el ataque al Capitolio de los Estados Unidos el 6 de enero de 2021, que acabó con el procesamiento de varios miembros del grupo.
Meta originalmente eliminó la publicación de Facebook citando su política de personas y organizaciones peligrosas, de acuerdo con la cual la empresa prohíbe la representación de personas y organizaciones que Meta designa como peligrosas, así como referencias poco claras a estas, y cierto lenguaje sobre ellas. Sin embargo, en la política se reconoce que "los usuarios pueden compartir contenido que incluya referencias a personas y organizaciones peligrosas designadas con el fin de reportarlas, condenarlas o hablar sobre ellas o sus actividades en un tono neutral".
En su apelación al Consejo, ambos usuarios argumentaron que su contenido no infringía las Normas comunitarias de Meta. El usuario en el primer caso afirmó que el artículo periodístico se volvió a publicar para dar a conocer la condena del líder de los Proud Boys y señaló que, si en vez de un bot, un revisor humano hubiera analizado el contenido, este habría determinado que no infringe las Normas comunitarias de Meta. En el segundo caso, el usuario manifestó que la publicación tenía como fin informar a las personas que se había hecho justicia con respecto a un acto de terrorismo. También hizo hincapié en la importancia de la moderación manual en dichas instancias, ya que los sistemas automatizados de Meta tomaron una decisión incorrecta, probablemente por influencia de los términos que se emplean en el artículo, y no por un análisis del contexto.
Después de que el Consejo remitiera estos dos casos a Meta, la empresa determinó que las publicaciones no infringían sus políticas. Si bien las publicaciones hacen referencia a los Proud Boys, una organización designada, simplemente hablan sobre el grupo. Meta concluyó que tomó la decisión inicial incorrecta de eliminar el contenido, ya que las publicaciones recaen dentro de la excepción que permite a los usuarios hacer referencia a personas y organizaciones peligrosas para "reportarlas, condenarlas o hablar sobre ellas o sus actividades en un tono neutral". Meta restauró ambos contenidos en la plataforma.
Autoridad y alcance del Consejo
El Consejo tiene la facultad para revisar la decisión de Meta tras la apelación de un usuario cuyo contenido se eliminó (artículo 2, sección 1, del acta constitutiva; artículo 3, sección 1, de los estatutos).
Cuando Meta reconoce que cometió un error y revierte su decisión en un caso en consideración para la revisión del Consejo, el Consejo puede seleccionar ese caso para una decisión resumida (artículo 2, sección 2.1.3, de los estatutos). El Consejo revisa la decisión original para entender mejor los procesos de moderación de contenido empleados, reducir los errores y ser más justo con los usuarios de Facebook e Instagram.
Importancia del caso
Estos casos ilustran los desafíos vinculados con la aplicación de excepciones para artículos periodísticos, conforme se indica en la norma comunitaria sobre personas y organizaciones peligrosas de Meta. Este tipo de error repercute de forma directa en la capacidad de los usuarios de compartir enlaces externos de canales de noticias cuando se relacionan con un grupo o una organización designados en las plataformas de Meta, incluso si son neutros y tienen valor público.
Anteriormente, el Consejo emitió varias recomendaciones en relación con la política de personas y organizaciones peligrosas de Meta y los artículos periodísticos. Estas incluyen la recomendación de "agregar criterios y ejemplos ilustrativos a la política de Meta de personas y organizaciones peligrosas para mejorar la comprensión de las excepciones, específicamente, en torno a los debates y los informes de noticias neutrales", que Meta implementó según lo demostró mediante información publicada ( Publicación compartida de Al Jazeera, recomendación n.º 1). El Consejo instó a Meta a "evaluar la precisión de los revisores al aplicar la concesión para informes periodísticos correspondiente a la política de personas y organizaciones peligrosas a fin de identificar problemas sistémicos que causen errores en la aplicación de políticas" (Mención de los talibanes en los informes de noticias, recomendación n.º 5). Asimismo, el Consejo recomendó que Meta "realice una revisión del sistema de clasificación HIPO (sistema de invalidación de falsos positivos de alto impacto) para examinar si puede priorizar de manera más efectiva posibles errores en la aplicación de concesiones a la política de personas y organizaciones peligrosas, incluido contenido de noticias, en el que parece haber una alta probabilidad de eliminar falsos positivos que afectan la libertad de expresión" (Mención de los talibanes en los informes de noticias, recomendación n.º 6). Meta informó que implementó las dos últimas recomendaciones sin publicar más información y, por ende, dicha implementación no se puede verificar.
Al Consejo le sigue preocupando que, pese a que Meta indicó haber implementado todas estas recomendaciones, estos dos casos ponen de relieve la necesidad de contar con medidas más efectivas de acuerdo con las recomendaciones del Consejo.
El Consejo destaca que la adopción total de estas recomendaciones, junto con la información publicada que demuestre su exitosa aplicación, podrían reducir la cantidad de eliminaciones incorrectas de noticias conforme a la política de personas y organizaciones peligrosas de Meta.
Decisión
El Consejo anuló las decisiones originales de Meta de eliminar estos dos contenidos. El Consejo confirmó que Meta corrigió sus errores iniciales después de haberle remitido estos casos.
Volver a Decisiones de casos y opiniones consultivas sobre políticas