El Consejo asesor de contenido anuló la decisión original de Meta en el caso de la publicación en polaco dirigida a las personas transgénero

El Consejo asesor de contenido anuló la decisión original de Meta de conservar una publicación de Facebook en la cual un usuario agredía a personas transgénero y las incitaba a que se suicidaran. El Consejo considera que la publicación infringía tanto la norma comunitaria sobre lenguaje que incita al odio como la norma comunitaria sobre suicidio y autolesiones. Sin embargo, el problema fundamental en este caso no yace en las políticas, sino en su aplicación. Al ver que Meta aplicó sus políticas de forma incorrecta reiteradamente, a pesar de las múltiples señales sobre el contenido dañino de la publicación, el Consejo concluyó que la empresa no está a la altura de los ideales que expresa en cuanto a la seguridad de la comunidad LGBTQIA+. El Consejo instó a Meta a cerrar las brechas de la aplicación de políticas, lo que incluye mejorar las pautas internas para los revisores.

Información sobre el caso

En abril de 2023, un usuario de Facebook en Polonia publicó una imagen de una cortina a rayas con los colores azul, rosa y blanco de la bandera transgénero junto a texto en polaco que decía: "Nueva tecnología... cortinas que se cuelgan solas" y, arriba, "limpieza de primavera

Entre abril y mayo de 2023, 11 usuarios distintos la reportaron un total de 12 veces. Los sistemas automatizados de Meta priorizaron solo dos de los 12 reportes para que tuvieran una revisión manual; el resto se cerró. Los dos reportes que se enviaron a revisión manual por una posible infracción de la norma sobre suicidio y autolesiones de Facebook se declararon no infractores. Ninguno de los reportes basados en lenguaje que incita al odio se envió a revisión manual.

Tres usuarios apelaron la decisión de Meta de conservar la publicación de Facebook; en una de las apelaciones un revisor mantuvo la decisión original en función de la norma comunitaria sobre suicidio y autolesiones. Las demás apelaciones, realizadas conforme a la norma comunitaria sobre lenguaje que incita al odio, no se enviaron a revisión manual. Finalmente, uno de los usuarios que reportó el contenido originalmente apeló la decisión ante el Consejo. Como resultado de que el Consejo seleccionara este caso, Meta determinó que la publicación infringía sus políticas sobre lenguaje que incita al odio y suicidio y autolesiones, y la eliminó de Facebook. Además, la empresa inhabilitó la cuenta del usuario que publicó el contenido debido a varias infracciones anteriores.

Conclusiones principales

El Consejo considera que el contenido infringía la política sobre lenguaje que incita al odio de Meta porque incluía "lenguaje que incita a la violencia" al incitar a un grupo con características protegidas a que se suicide. La publicación, que incitaba al suicidio entre las personas transgénero, generó una atmósfera de intimidación y exclusión, y podría haber contribuido al daño físico. Teniendo en cuenta la naturaleza del texto y de la imagen, la publicación también intensificaba la crisis de salud mental que experimenta la comunidad transgénero. Un informe reciente de la Alianza de Gays y Lesbianas contra la difamación (GLAAD) muestra "el verdadero impacto psicológico traumático de estar expuesto incansablemente a insultos y conductas dañinas" online. El Consejo encuentra un mayor respaldo para su conclusión en el contexto más general de daños online y en la vida real que la comunidad LGBTQIA+ está sufriendo en Polonia, lo que incluye ataques y discursos políticos de parte de figuras gubernamentales y públicas influyentes.

Al Consejo le preocupa que los revisores de Meta no hayan detectado las pistas contextuales. Las referencias de la publicación al riesgo elevado de suicidio ("cortinas que se cuelgan solas") y al apoyo a la muerte del grupo ("limpieza de primavera") fueron claras infracciones de la norma comunitaria sobre lenguaje que incita al odio, mientras que la autoidentificación del creador del contenido como transfóbico, por sí misma, sumaría otra infracción. El Consejo insta a Meta a mejorar la precisión de la aplicación de la política sobre lenguaje que incita al odio en relación con las personas LGBTQIA+, en especial cuando las publicaciones incluyen imágenes y texto que requieren contexto para interpretar. En este caso, las referencias semicodificadas al suicidio junto con la representación visual de un grupo protegido (la bandera transgénero) adoptaron la forma de "creatividad maliciosa". Esto hace referencia a personas malintencionadas que desarrollan medios novedosos para dirigirse a la comunidad LGBTQIA+ por medio de publicaciones y memes que defienden como "humorísticos o satíricos", pero que en realidad representan odio o acoso.

Además, al Consejo le preocupa la declaración de Meta donde indicó que los revisores no eliminaron el contenido porque cumplieron estrictamente sus pautas internas. Esto indicaría que las pautas internas de Meta captan de forma inadecuada el modo en que el texto y las imágenes pueden interactuar para representar a un grupo definido por la identidad de género de sus miembros.

Si bien la publicación también infringía claramente la norma comunitaria sobre suicidio y autolesiones de Facebook, el Consejo considera que esta política debería prohibir con mayor claridad el contenido que promueva el suicidio dirigido a un grupo identificable de personas, a diferencia de solo a una persona de ese grupo.

En este caso, los sistemas automatizados de priorización de revisión de Meta afectaron de forma significativa la aplicación de la política, incluso cómo la empresa aborda muchos reportes sobre el mismo contenido. Meta supervisa y elimina estos reportes "para garantizar consistencia en las decisiones de los revisores y la aplicación de políticas". Entre otros motivos para el cierre automático de reportes, la empresa indicó la baja puntuación de gravedad y viralidad del contenido (la cantidad de visualizaciones que tuvo el contenido), lo que significó que no se priorizó para la revisión manual. En este caso, el Consejo cree que la presentación del usuario podría haber sido considerada como una señal relevante a la hora de determinar las puntuaciones de gravedad.

También cree que Meta debería invertir más en el desarrollo de clasificadores que identifiquen contenido potencialmente infractor contra la comunidad LGBTQIA+ y que mejoren la capacitación de los revisores sobre daños relacionados con la identidad de género.

Decisión del Consejo asesor de contenido

El Consejo asesor de contenido anuló la decisión original de Meta de conservar el contenido.

El Consejo recomendó que Meta llevara a cabo estas acciones:

  • Aclarar en su página de suicidio y autolesiones que la política prohíbe contenido que promueve o fomenta el suicidio dirigido a un grupo identificable de personas.
  • Modificar las pautas internas que brinda a los revisores a gran escala para garantizar que las representaciones visuales en las que aparezcan banderas como símbolo de identidad de género que no contienen una figura humana se consideren representaciones de un grupo definido por la identidad de género de sus miembros.

Más información

Para leer la decisión completa del caso, haz clic aquí.

Para leer una sinopsis de los comentarios del público sobre el caso, haz clic aquí.

Volver a Noticias