Anulado

Sátira de Elon Musk

Un usuario apeló la decisión de Meta de eliminar una publicación de Instagram con un hilo ficticio de "X" que mostraba de forma satírica a Elon Musk reaccionando a una publicación que contenía contenido ofensivo. El caso expone las falencias de Meta a la hora de identificar con precisión contenido satírico en sus plataformas.

Tipo de decisión

Resumen

Políticas y temas

Tema
Humor, Libertad de expresión
Estándar comunitario
Personas y organizaciones peligrosas

Regiones/Países

Ubicación
Estados Unidos

Plataforma

Plataforma
Instagram

Esta es una decisión resumida. Las decisiones resumidas examinan casos en los que Meta revirtió su decisión original sobre un contenido después de que el Consejo le remitiera el caso a la empresa. Estas decisiones incluyen información sobre los errores reconocidos por Meta e informan al púbico sobre el impacto del trabajo del Consejo. Un panel de miembros del Consejo las aprueba, pero no todo el Consejo. No tienen en cuenta los comentarios del público ni tienen un valor de precedente para el Consejo. Las decisiones resumidas aportan transparencia a las correcciones de Meta y destacan áreas en las que la empresa podría mejorar la aplicación de políticas.

Resumen del caso

Un usuario apeló la decisión de Meta de eliminar una publicación de Instagram con un hilo ficticio de "X" (antes Twitter) que mostraba de forma satírica a Elon Musk reaccionando a una publicación que contenía contenido ofensivo. Después de que el Consejo le remitiera la apelación a Meta, la empresa revirtió su decisión original y restauró la publicación.

Descripción y contexto del caso

En julio de 2023, un usuario publicó una imagen en Instagram con un hilo ficticio de X que no tenía el formato de X. En el hilo, un usuario ficticio había publicado varias afirmaciones provocativas, como: "El KKK nunca les hizo nada malo a las personas negras", "Hitler no odiaba a los judíos" y "Las personas LGBT son todas pedófilas". En el hilo, se mostraba la respuesta de Elon Musk a la publicación del usuario con la frase "Investigando esto...". Esta publicación de Instagram tuvo menos de 500 visualizaciones.

La publicación se eliminó por infringir la política de personas y organizaciones peligrosas de Meta, que prohíbe la representación de grupos y personas que la empresa considera que se vinculan a daños significativos en la vida real, así como cierto discurso sobre ellos. Meta designó tanto al Ku Klux Klan (KKK) como a Hitler entidades peligrosas conforme a esta política. En determinados casos, Meta permitirá "contenido que puede infringir las Normas comunitarias cuando se determine que es satírico. El contenido solo se permitirá si los elementos infractores se utilizan como sátira o se atribuyen a algo o a alguien diferentes a fin de expresar una burla o crítica".

En su apelación al Consejo, el usuario enfatizó que la finalidad de la publicación no era apoyar al KKK ni a Hitler, sino "expresarse y criticar a uno de los hombres más influyentes del planeta por interactuar con extremistas en su plataforma".

Después de que el Consejo remitiera este caso a Meta, la empresa determinó que el contenido no infringía la política de personas y organizaciones peligrosas y que su eliminación había sido incorrecta. Seguidamente, la empresa restauró el contenido en Instagram.

Autoridad y alcance del Consejo

El Consejo tiene la facultad para revisar la decisión de Meta tras la apelación de un usuario cuyo contenido se eliminó (artículo 2, sección 1, del acta constitutiva; artículo 3, sección 1, de los estatutos).

Cuando Meta reconoce que cometió un error y revierte su decisión en un caso en consideración para la revisión del Consejo, el Consejo puede seleccionar ese caso para una decisión resumida (artículo 2, sección 2.1.3, de los estatutos). El Consejo revisa la decisión original para entender mejor los procesos de moderación de contenido empleados, reducir los errores y ser más justo con los usuarios de Facebook e Instagram.

Importancia del caso

Este caso expone las falencias de Meta a la hora de identificar con precisión contenido satírico en sus plataformas. El Consejo había emitido previamente recomendaciones sobre la aplicación de políticas de Meta contra contenido satírico. El Consejo instó a Meta a "asegurarse de implementar procedimientos adecuados para evaluar el contenido satírico y el contexto relevante correctamente. Esto incluye proporcionar a los moderadores de contenido: (i) acceso a equipos de operaciones locales de Facebook para recopilar información general y cultural relevante, y (ii) tiempo suficiente para consultar con estos equipos y realizar la evaluación. Facebook debería garantizar que sus políticas para los moderadores de contenido sirvan como incentivo para realizar otras investigaciones o escalamientos en los casos en que el moderador no está seguro de que un meme constituya o no una sátira" (decisión del caso El meme de los dos botones, recomendación n.° 3). Meta informó que implementó esta recomendación sin publicar más información; por ende, dicha implementación no se puede verificar.

Además, este caso muestra los desafíos de Meta al interpretar la intención del usuario. Previamente, el Consejo había instado a Meta a comunicarles a los usuarios cómo podían aclarar la intención detrás de su publicación, particularmente en relación con la política de personas y organizaciones peligrosas. Meta implementó parcialmente la recomendación del Consejo de "explicar en las Normas comunitarias cómo los usuarios pueden dejar en claro a Facebook la intención detrás de sus publicaciones... Facebook debería proporcionar ejemplos ilustrativos para demostrar la diferencia entre contenido permitido y prohibido, incluso en relación con la aplicación de la regla que aclara lo que 'apoyo' no incluye" (decisión del caso Aislamiento de Öcalan, recomendación n.º 6).

El Consejo destaca que la adopción total de estas recomendaciones, junto con la información publicada por Meta que demuestre su exitosa implementación, podrían reducir la cantidad de errores en la aplicación de políticas por contenido satírico en las plataformas de Meta.

Decisión

El Consejo anuló la decisión original de Meta de eliminar el contenido. El Consejo confirmó que Meta corrigió su error inicial después de haberle remitido el caso.

Volver a Decisiones de casos y opiniones consultivas sobre políticas