Anulado
Publicación en homenaje a las relaciones lésbicas
28 de abril de 2026
Una usuaria apeló la decisión de Meta de eliminar una imagen que formaba parte de una secuencia en la que se homenajeaban las relaciones lésbicas.
Las decisiones resumidas analizan casos en los que Meta revirtió su decisión original sobre un contenido después de que el Consejo lo remitiera a la empresa e incluyen información sobre los errores que Meta reconoció. Estas decisiones son aprobadas por un panel de miembros del Consejo, no por todo el Consejo, no implican comentarios del público ni tienen valor de precedencia para el Consejo. Las decisiones resumidas traen aparejados cambios directos en las decisiones de Meta, ya que aportan transparencia respecto de estas correcciones, a la vez que permiten identificar en qué aspectos Meta podría mejorar la aplicación de sus políticas.
Resumen
Una usuaria apeló la decisión de Meta de eliminar una imagen que formaba parte de una secuencia en la que se homenajeaban las relaciones lésbicas. Dos de las otras imágenes de la secuencia incluían un insulto designado por Meta que se emplea en referencia a las lesbianas de Brasil. Después de que el Consejo le remitiera la apelación a Meta, la empresa revirtió su decisión original y restauró el contenido.
Información sobre el caso
En septiembre de 2025, una usuaria publicó una secuencia en Instagram en portugués brasileño en homenaje a las historias de amor lésbicas de mujeres de generaciones anteriores, a quienes llama "abuelas". El contenido del caso es una de las imágenes de la secuencia, cuyo texto explica que las relaciones románticas a largo plazo entre mujeres de generaciones anteriores, o "abuelas", se suelen describir como "amistades muy estrechas", incluso cuando hay décadas de convivencia. En las nueve imágenes de la secuencia, la usuaria explica que las "abuelas" se vieron obligadas a ocultar su relación, como muchas lesbianas de su generación, debido a la presión social y a los riesgos de estigmatización e institucionalización forzada. La publicación critica la práctica habitual de caracterizar erróneamente a las generaciones más antiguas de lesbianas como "solteronas" y describir su relación como "viejas amistades" o "relaciones muy estrechas", y hace hincapié en que dichas narrativas las invisibiliza y las borra de la historia. Dos de las imágenes de la secuencia incluyen el término "sapatão", un insulto que se usa en referencia a las lesbianas en Brasil. Meta inicialmente eliminó el contenido del caso en virtud de la política de conducta que incita al odio.
En su apelación al Consejo, la usuaria explicó que las lesbianas como ella usan el insulto "para reivindicarlo, quitarle su connotación negativa y darle un nuevo significado". La usuario agregó que "es una publicación sobre la comunidad, el orgullo y el respeto".
En virtud de la norma comunitaria sobre conducta que incita al odio, la empresa elimina "el contenido que describe o ataca negativamente a las personas con insultos". Los insultos se definen como "palabras que generan inherentemente un clima de exclusión e intimidación en contra de las personas sobre la base de una característica protegida, a menudo porque estas palabras están vinculadas a discriminación, opresión y violencia históricas". No obstante, las bases de la política explican que se permiten insultos cuando "se usan de forma autorreferencial o motivadora" y "la intención de quien lo emite es clara".
Luego de que el Consejo remitiera este caso a Meta, la empresa determinó que el contenido del caso no infringía la política de conducta que incita al odio y que su decisión original de eliminarlo había sido incorrecta porque "no incluye texto que califique como insulto", sino que otras imágenes de la secuencia incluían un insulto designado por Meta. La empresa explicó también que el contexto más general representado en la secuencia "sugiere que el término se presenta de un modo explícitamente positivo". Seguidamente, la empresa restauró el contenido en Instagram.
Autoridad y alcance del Consejo
El Consejo tiene la facultad para revisar la decisión de Meta tras la apelación de un usuario cuyo contenido se eliminó (artículo 2, sección 1, del acta constitutiva; artículo 3, sección 1, de los estatutos).
Cuando Meta reconoce que cometió un error y revierte su decisión en un caso en consideración para la revisión del Consejo, el Consejo puede seleccionar ese caso para una decisión resumida (artículo 2, sección 2.1.3, de los estatutos). El Consejo revisa la decisión original para entender mejor los procesos de moderación de contenido empleados, reducir los errores y ser más justo con los usuarios de Facebook, Instagram y Threads.
Importancia del caso
El caso destaca los errores reiterados que comete Meta en dos ámbitos: la aplicación de excepciones de su política de conducta que incita al odio cuando se usan insultos a modo autorreferencial o motivador, y la moderación de contenido que incluye secuencias.
Como señaló el Consejo en la decisión del caso Reapropiación de términos árabes: "El exceso de moderación del lenguaje de las personas de grupos minoritarios perseguidos constituye una amenaza grave generalizada a su libertad de expresión". Se observó el mismo error en la aplicación de políticas en las decisiones de los casos Término reapropiado en actuación dragy Herencia del Orgullo.
El Consejo emitió recomendaciones cuyo objetivo es reducir los errores en la aplicación de la política de conducta que incita al odio de Meta. Por ejemplo, el Consejo recomendó a Meta "hacer [públicos] los resultados de las auditorías internas que realiza para evaluar la precisión de la revisión manual y el rendimiento de los sistemas automatizados en la aplicación de la política de lenguaje que incita al odio [ahora conducta que incita al odio] [...] de un modo que permita que estas evaluaciones se comparten entre idiomas y regiones" (Acusaciones de criminalidad basadas en la nacionalidad, recomendación n.º 2). En su respuesta inicial al Consejo, Meta informó que la empresa implementará esta recomendación de forma parcial. Meta declaró que, si bien la empresa "continuará compartiendo datos sobre la cantidad de contenido relacionado con lenguaje que incita al odio abordado por [sus] mecanismos de aplicación de políticas en el Informe de cumplimiento de las Normas comunitarias (CSER)", los datos sobre la precisión de su aplicación de políticas a escala internacional se compartirán de forma confidencial con el Consejo. La empresa luego revisó su respuesta y afirmó que, "como parte de [sus] iniciativas para cambiar la manera en que aplica [sus] políticas a fin de reducir errores, confía más en los reportes de los usuarios, en lugar de realizar una detección proactiva de muchos tipos de infracciones, incluida la conducta que incita al odio (antes lenguaje que incita al odio). [La empresa] realizará [su] evaluación más adelante para permitir que los equipos implementen por completo estos cambios y brindará más información sobre la aplicación de [sus] políticas" (informe del primer semestre de 2025 de Meta [Apéndice] sobre el Consejo asesor de contenido). Esta recomendación se emitió en septiembre de 2024. La implementación aún está en curso, pero todavía no se compartieron datos con el Consejo.
El presente caso también ilustra los desafíos permanentes que enfrenta Meta en cuanto a moderar contenido incluido en secuencias. El contenido del caso se eliminó pese a no incluir un insulto; el término se mostraba en otras imágenes de la secuencia. En la decisión del caso Poema sobre protestas políticas en Argentina, el Consejo advirtió que el moderador no logró entender el contexto porque el sistema de revisión no mostró toda la secuencia. Por ende, reitera su recomendación anterior, que indica lo siguiente: "Meta debe desarrollar un proceso integrado que garantice que, cuando se presente o se actualice de forma significativa un determinado tipo de contenido [como una secuencia], las herramientas y los procedimientos de la empresa permitan moderarlo de un modo que se ajuste a las responsabilidades de la empresa en materia de derechos humanos" ( Poema sobre protestas políticas en Argentina, recomendación n.º 2). En su respuesta inicial al Consejo, Meta señaló que sus "procesos de revisión de riesgos garantizan la evaluación efectiva, el cumplimiento y la mejora continua en todos [sus] productos, con una transparencia demostrada a través de informes periódicos y compromisos mantenidos con los derechos humanos y una mayor transparencia". La empresa, sin embargo, no le proporcionó al Consejo visibilidad respecto de los detalles de este proceso. Por lo tanto, Meta describió la implementación como una tarea que ya realiza, pero no publicó información que la demuestre.
El Consejo considera que la implementación completa de la recomendación n.º 2 de la decisión del caso "Acusaciones de criminalidad basadas en la nacionalidad" mencionada anteriormente fortalecería aún más la capacidad de la empresa para reducir la sobreaplicación de políticas respecto de la expresión de grupos vulnerables. Asimismo, la implementación de la recomendación n.º 2 de la decisión del caso "Poema sobre protestas políticas en Argentina" mejoraría la capacidad de Meta de anticiparse y mitigar los riesgos asociados con los nuevos tipos de contenido.
Decisión
El Consejo anuló la decisión original de Meta de eliminar el contenido. El Consejo confirmó que Meta corrigió su error inicial después de haberle remitido el caso.
Volver a Decisiones de casos y opiniones consultivas sobre políticas