Anulado
Miembros de la Corte Suprema con capuchas blancas
18 de diciembre de 2023
Un usuario apeló la decisión de Meta de eliminar una publicación de Facebook que contenía una imagen editada de la Corte Suprema de los EE. UU. en la que se veía a seis de los nueve miembros con batas del Ku Klux Klan.
Esta es una decisión resumida. Las decisiones resumidas examinan casos en los que Meta revirtió su decisión original sobre un contenido después de que el Consejo le remitiera el caso a la empresa. Estas decisiones incluyen información sobre los errores reconocidos por Meta e informan al púbico sobre el impacto del trabajo del Consejo. Un panel de miembros del Consejo las aprueba, pero no todo el Consejo. No abarcan el proceso de comentarios del público ni tienen un valor de precedente para el Consejo. Las decisiones resumidas aportan transparencia a las correcciones de Meta y destacan áreas en las que la empresa podría mejorar la aplicación de políticas.
Resumen del caso
Un usuario apeló la decisión de Meta de eliminar una publicación de Facebook que contenía una imagen editada de la Corte Suprema de los EE. UU. en la que se veía a seis de los nueve miembros con batas del Ku Klux Klan. Después de que el Consejo le remitiera la apelación a Meta, la empresa revirtió su decisión original y restauró la publicación.
Descripción y contexto del caso
En julio de 2023, un usuario publicó una imagen editada en Facebook que mostraba a seis jueces de la Corte Suprema de los EE. UU. como miembros del Ku Klux Klan, mientras que los otros tres jueces, que se consideran más liberales, aparecían con su aspecto habitual. La publicación no incluía texto y se visualizó menos de 200 veces.
La publicación se eliminó por infringir la política sobre personas y organizaciones peligrosas de Meta. Esta política prohíbe el contenido que exalta, apoya de manera sustancial o representa organizaciones o personas que Meta considera peligrosas.
En su apelación al Consejo, el usuario enfatizó que la publicación tenía como fin expresar una crítica política, en lugar de apoyo al Ku Klux Klan. El usuario afirmó que el contenido destacaba su propia opinión sobre "las actitudes perjudiciales, ofensivas y destructivas hacia las mujeres, los derechos de las mujeres a elegir hacerse abortos, las comunidades de personas homosexuales, lesbianas, transgénero y queer, y el bienestar de otros grupos vulnerables" de los seis jueces.
Después de que el Consejo remitiera este caso a Meta, la empresa determinó que el contenido no infringía la política sobre personas y organizaciones peligrosas de Meta y que su eliminación había sido incorrecta. Seguidamente, la empresa restauró el contenido en Facebook.
Autoridad y alcance del Consejo
El Consejo tiene la facultad para revisar la decisión de Meta tras una apelación de la persona cuyo contenido se eliminó (artículo 2, sección 1, del acta constitutiva; artículo 3, sección 1, de los estatutos).
Cuando Meta reconoce que cometió un error y revierte su decisión en un caso en consideración para la revisión del Consejo, el Consejo puede seleccionar ese caso para una decisión resumida (artículo 2, sección 2.1.3, de los estatutos). El Consejo revisa la decisión original para entender mejor los procesos de moderación de contenido, reducir los errores y ser más justo con los usuarios de Facebook e Instagram.
Importancia del caso
El caso pone de manifiesto un error de Meta en la aplicación de la política sobre personas y organizaciones peligrosas, específicamente en relación con el contenido compartido como crítica política. Si se siguen cometiendo errores similares, se podría limitar de forma significativa la libertad de expresión de los usuarios, por lo que la reducción de dichos errores debería ser una prioridad fundamental para la empresa.
La norma comunitaria sobre personas y organizaciones peligrosas es la fuente de muchas eliminaciones erróneas y se abordó en varias decisiones anteriores del Consejo. En una decisión anterior, el Consejo indicó que Meta debería "explicar en las Normas comunitarias cómo los usuarios pueden dejar clara la intención de su publicación ante Facebook". Con ese mismo fin, el Consejo también recomendó que la empresa dé a conocer de forma pública su lista de personas y organizaciones designadas, y que, "además, Facebook debería proporcionar ejemplos ilustrativos para demostrar la diferencia entre contenido permitido y prohibido, incluso en relación con la aplicación de la regla que aclara lo que 'apoyo' no incluye" (decisión del caso Aislamiento de Öcalan, recomendación n.º 6). Meta se comprometió a implementar de forma parcial esta recomendación. Además, el Consejo instó a Meta a "incluir información más integral respecto de las tasas de errores en la aplicación de las reglas sobre 'exaltación' y 'apoyo' de personas y organizaciones peligrosas" (decisión del caso Aislamiento de Öcalan, recomendación n.º 12). Meta se negó a implementar esta recomendación tras realizar una evaluación de viabilidad.
El Consejo enfatizó que la implementación completa de estas recomendaciones podría reducir el número de errores de aplicación de normas conforme a la política sobre personas y organizaciones peligrosas de Meta.
Decisión
El Consejo anuló la decisión original de Meta de eliminar el contenido. El Consejo confirmó que Meta corrigió su error inicial después de haberle remitido el caso.
Volver a Decisiones de casos y opiniones consultivas sobre políticas