Anulado

Publicación en polaco contra las personas trans

El Consejo asesor de contenido anuló la decisión original de Meta de conservar una publicación de Facebook en la cual un usuario agredía a personas transgénero con lenguaje violento y las incitaba a que se suicidaran.

Tipo de decisión

Estándar:

Políticas y temas

Tema
Igualdad de sexo y género, LGBT

Regiones/Países

Ubicación
Polonia

Plataforma

Plataforma
Facebook

Para leer esta decisión en polaco, haz clic aquí.

Kliknij tutaj, aby przeczytać postanowienie w języku polskim.

Resumen

El Consejo asesor de contenido anuló la decisión original de Meta de conservar una publicación de Facebook en la cual un usuario agredía a personas transgénero con lenguaje violento y las incitaba a que se suicidaran. El Consejo considera que la publicación infringió tanto la norma comunitaria sobre lenguaje que incita al odio como la norma comunitaria sobre suicidio y autolesiones. Sin embargo, el problema fundamental en este caso no radica en las políticas, sino en su aplicación. Dado que, de forma reiterada, Meta no tomó las medidas correctas para hacer cumplir sus políticas, a pesar de las múltiples señales sobre el contenido dañino de la publicación, el Consejo concluye que la empresa no está a la altura de los ideales que expresa en cuanto a la seguridad de la comunidad LGBTQIA+. El Consejo insta a Meta a cerrar las brechas en términos de cumplimiento de normas, lo que incluye mejorar las pautas internas para los revisores.

Información sobre el caso

En abril de 2023, un usuario de Facebook en Polonia publicó una imagen de una cortina a rayas con los colores azul, rosa y blanco de la bandera transgénero junto a un texto en polaco que decía: "Nueva tecnología... cortinas que se cuelgan solas" y, arriba, "limpieza de primavera <3". En su presentación, el usuario se describe como transfóbico. La publicación tuvo menos de 50 reacciones.

Entre abril y mayo de 2023, 11 usuarios distintos la reportaron un total de 12 veces. Los sistemas automatizados de Meta priorizaron solo dos de los 12 reportes para que se sometieran a revisión manual. El resto se cerró. En el caso de los dos reportes que se enviaron a revisión manual por una posible infracción de la norma sobre suicidio y autolesiones de Facebook, se consideró que no infringían la norma. Ninguno de los reportes sobre lenguaje que incita al odio se sometió a revisión manual.

Tres usuarios apelaron la decisión de Meta de conservar la publicación de Facebook. En una de las apelaciones, un revisor mantuvo la decisión original en función de la norma comunitaria sobre suicidio y autolesiones. Las demás apelaciones, realizadas conforme a la norma comunitaria sobre lenguaje que incita al odio, no se enviaron a revisión manual. Finalmente, uno de los usuarios que reportó el contenido originalmente apeló la decisión ante el Consejo. Luego de que el Consejo seleccionara este caso, Meta determinó que la publicación infringía sus políticas sobre lenguaje que incita al odio y suicidio y autolesiones, y la eliminó de Facebook. Además, la empresa inhabilitó la cuenta del usuario que publicó el contenido debido a varias infracciones anteriores.

Principales conclusiones

El Consejo considera que el contenido infringía la política sobre lenguaje que incita al odio de Meta porque incluye "lenguaje violento", que adopta la forma de una instigación al suicidio dirigida a un grupo con características protegidas. La publicación, que incita al suicidio entre las personas transgénero, generó una atmósfera de intimidación y exclusión, y podría haber contribuido al daño físico. Teniendo en cuenta la naturaleza del texto y de la imagen, la publicación también intensificó la crisis de salud mental que experimenta la comunidad transgénero. Un informe reciente de la Alianza de Gays y Lesbianas contra la Difamación (GLAAD) señala "el terrible impacto psicológico traumático de estar expuesto sin respiro a insultos y conductas dañinas" online. El Consejo encuentra un mayor respaldo para su conclusión en el contexto más general de daños online y en la vida real que la comunidad LGBTQIA+ está sufriendo en Polonia, lo que incluye ataques y discursos políticos de parte de figuras gubernamentales y públicas influyentes.

Al Consejo le preocupa que los revisores de Meta no hayan detectado las pistas contextuales. Las referencias de la publicación al riesgo elevado de suicidio ("cortinas que se cuelgan solas") y al apoyo a la muerte del grupo ("limpieza de primavera") fueron claras infracciones de la norma comunitaria sobre lenguaje que incita al odio, mientras que la autoidentificación del creador del contenido como transfóbico, por sí misma, constituiría otra infracción. El Consejo insta a Meta a mejorar la precisión de la aplicación de la política sobre lenguaje que incita al odio en relación con las personas LGBTQIA+, en especial cuando las publicaciones incluyen imágenes y texto que requieren contexto para interpretarse. En este caso, las referencias algo veladas al suicidio junto con la representación visual de un grupo protegido (la bandera transgénero) adoptaron la forma de "creatividad maliciosa". Esto hace referencia a personas malintencionadas que desarrollan medios novedosos para atacar a la comunidad LGBTQIA+ por medio de publicaciones y memes que defienden como "humorísticos o satíricos", pero que en realidad representan instancias de odio o acoso.

Además, al Consejo le preocupa la declaración de Meta que indica que el hecho de que los revisores no hayan eliminado el contenido está alineado con la aplicación estricta de sus pautas internas. Esto indicaría que las pautas internas de Meta no contemplan correctamente la forma en que el texto y las imágenes pueden interactuar para representar a un grupo definido por la identidad de género de sus miembros.

Si bien la publicación también infringía claramente la norma comunitaria sobre suicidio y autolesiones de Facebook, el Consejo considera que esta política debería prohibir con mayor claridad el contenido que promueva el suicidio dirigido a un grupo identificable de personas (y no solo a una persona de ese grupo).

En este caso, los sistemas automatizados de priorización de revisión de Meta afectaron de forma significativa la aplicación de la política, lo que incluye la forma en que la empresa aborda los casos con varios reportes sobre el mismo contenido. Meta supervisa y deduplica (es decir, elimina) estos reportes para "garantizar coherencia entre las decisiones de los revisores y en la aplicación de políticas". Entre otros motivos mencionados para explicar el cierre automático de reportes, la empresa indicó la baja puntuación de gravedad y viralidad del contenido (la cantidad de visualizaciones que tuvo el contenido), lo que significó que no se priorizó para la revisión manual. En este caso, el Consejo cree que la presentación del usuario podría haber sido considerada como una señal relevante a la hora de determinar las puntuaciones de gravedad.

También cree que Meta debería invertir más en el desarrollo de clasificadores que identifiquen contenido potencialmente infractor contra la comunidad LGBTQIA+ y mejorar la capacitación de los revisores sobre daños relacionados con la identidad de género.

Decisión del Consejo asesor de contenido

El Consejo asesor de contenido anula la decisión original de Meta de conservar el contenido.

El Consejo recomienda que Meta haga lo siguiente:

  • Aclarar en su página sobre suicidio y autolesiones que la política prohíbe el contenido que promueve o fomenta el suicidio dirigido a un grupo identificable de personas.
  • Modificar las pautas internas que brinda a los revisores a gran escala para garantizar que las representaciones visuales en las que aparezcan banderas como símbolo de identidad de género que no contienen una figura humana se consideren representaciones de un grupo definido por la identidad de género de sus miembros.

* Los resúmenes de casos ofrecen información general sobre los casos y no sientan precedentes.

Decisión del caso completa

1. Resumen de la decisión

El Consejo asesor de contenido anula la decisión original de Meta de conservar contenido en polaco en Facebook donde un usuario agredía a personas transgénero y las incitaba a que se suicidaran. Después de que el Consejo identificara el caso para revisión, Meta concluyó que su decisión original de permitir que la publicación permaneciera en la plataforma fue un error, eliminó el contenido y aplicó sanciones. El Consejo considera que la publicación infringió tanto la norma comunitaria sobre lenguaje que incita al odio como la norma comunitaria sobre suicidio y autolesiones. El Consejo aprovecha esta oportunidad para instar a Meta a mejorar sus políticas y las pautas que brinda a sus revisores a fin de proteger mejor a las personas transgénero en sus plataformas. Específicamente, al evaluar si una publicación representa una instancia de lenguaje que incita al odio, Meta debería garantizar que las representaciones visuales en las que aparezcan banderas como símbolo de identidad de género que no contienen una figura humana se consideren representaciones de un grupo definido por la identidad de género de sus miembros. Meta también debería aclarar que alentar a todo un grupo a que se suicide es una conducta tan infractora como alentar a una persona sola a que se suicide. Sin embargo, el Consejo considera que el problema fundamental en este caso no radica en las políticas, sino en su aplicación. Incluso de acuerdo con su redacción de ese momento, las políticas claramente prohibían esta publicación, que tenía múltiples indicaciones de lenguaje que incita al odio dirigido a un grupo de personas por su identidad de género. Dado que Meta, en reiteradas oportunidades, no tomó las medidas correctas para hacer cumplir sus políticas, a pesar de los múltiples reportes de usuarios, el Consejo concluye que Meta no está a la altura de los ideales que expresa en cuanto a la seguridad de la comunidad LGBTQIA+. El Consejo insta a Meta a cerrar estas brechas en términos de cumplimiento de normas.

2. Descripción y contexto del caso

En abril de 2023, un usuario de Facebook en Polonia publicó una imagen de una cortina a rayas con los colores azul, rosado y blanco de la bandera transgénero. En la imagen, el texto en polaco decía: "Nueva tecnología. Cortinas que se cuelgan solas". Arriba de esa línea, otro texto en polaco decía: "limpieza de primavera <3". Además, una descripción en polaco en la presentación del usuario decía: "Soy transfóbico". La publicación recibió menos de 50 reacciones de otros usuarios; la mayoría de las cuales la respaldaban. El emoji de reacción usado con más frecuencia fue "Me divierte".

Entre abril y mayo de 2023, 11 usuarios distintos reportaron el contenido un total de 12 veces. De esos reportes, los sistemas automatizados de Meta no priorizaron 10 reportes para su revisión manual por distintos motivos, que incluyen una "baja puntuación de gravedad y viralidad". Por lo general, Meta prioriza el contenido para someterlo a revisión manual en función de su gravedad, viralidad y probabilidad de que infrinja las políticas de contenido. Solo dos de los reportes, correspondientes a la norma comunitaria de Facebook sobre suicidio y autolesiones, redundaron en que el contenido se enviara a revisión manual. Ninguno de los reportes realizados en virtud de la política sobre lenguaje que incita al odio se envió a revisión manual. De acuerdo con Meta, los revisores tienen tanto la capacidad como las herramientas para "evaluar el contenido y tomar medidas" por fuera de su cola de políticas designada (es decir, lenguaje que incita al odio o suicidio y autolesiones). Sin embargo, ambos revisores concluyeron que el contenido no infringía las normas y optaron por no elevarlo a otras instancias.

Tres usuarios apelaron la decisión de Meta de conservar el contenido en Facebook. En el caso de una de las apelaciones, el revisor ratificó la decisión original de Meta de que el contenido no infringía la política sobre suicidio y autolesiones. Las otras dos apelaciones, hechas en virtud de la política de Facebook sobre lenguaje que incita al odio, no se enviaron a revisión manual. Esto se debe a que Meta "supervisa y deduplica" múltiples reportes sobre el mismo contenido para garantizar la coherencia entre las decisiones de los revisores y en la aplicación de políticas.

Uno de los usuarios que reportó el contenido originalmente apeló la decisión ante el Consejo. Como consecuencia de que el Consejo seleccionara este caso, Meta determinó que el contenido infringía sus políticas sobre lenguaje que incita al odio y suicidio y autolesiones, y eliminó la publicación. Además, en el contexto de la revisión del caso, Meta determinó que la cuenta del creador del contenido ya tenía varias infracciones de las Normas comunitarias y alcanzaba el límite para que se inhabilitara. Meta inhabilitó la cuenta en agosto de 2023.

El Consejo destacó el siguiente contexto en cuanto a la decisión que tomó en este caso:

Suele denunciarse que Polonia tiene altos niveles de hostilidad hacia la comunidad LGBTQIA+. [Nota: El Consejo usa "LGBTQIA+" (Lesbianas, Gays, Bisexuales, Transexuales, Queer, Intersexuales y Asexuales) al referirse a grupos en función de su orientación sexual, identidad de género o expresión de género. Sin embargo, el Consejo preservará los acrónimos o usos empleados por otros al citarlos.] El Comisario de Derechos Humanos del Consejo de Europa ya había llamado la atención sobre la "estigmatización de las personas LGBTI" como un "problema de larga data en Polonia". El informe Rainbow Europe de la Asociación Internacional de Lesbianas, Gays, Bisexuales, Transexuales e Intersex (ILGA) clasifica a los países sobre la base de leyes y políticas que impactan directamente en los derechos humanos de las personas LGBTI. El informe clasifica a Polonia como el Estado miembro de la Unión Europea con peor desempeño, y ocupa el puesto 42 entre los 49 países europeos evaluados. Distintos gobiernos locales y nacionales, así como figuras públicas importantes, intensificaron sus ataques a la comunidad LGBTQIA+ por medio de discursos y medidas legislativas de carácter discriminatorio.

Desde 2018, ILGA-Europa realiza un seguimiento de lo que la organización denomina "lenguaje que incita al odio político de alto perfil contra las personas LGBTI de parte de líderes políticos polacos", incluidas las afirmaciones de que "todo el movimiento LGBT" es una "amenaza" para Polonia. En el mismo año, el alcalde de Lublin, Polonia, intentó prohibir la marcha por la igualdad de la ciudad, aunque el Tribunal de Apelación anuló la prohibición justo antes de que ocurriera. En 2019, el alcalde de Varsovia introdujo la carta de apoyo a la comunidad LGBT+ de Varsovia para "mejorar la situación de las personas LGBT" en la ciudad. Ley y Justicia (PiS), el partido gobernante de Polonia, y los líderes religiosos criticaron la carta. El presidente y el gobierno central de Polonia también señalaron a la comunidad transgénero como blancos de ataques. Por ejemplo, el presidente del partido gobernante PiS se refirió a las personas transgénero como "anormales". El Ministro de Justicia de Polonia también le pidió a la Corte Suprema de Polonia que considere que "además de sus padres, las personas trans también deberían demandar a sus niños y cónyuges (para obtener el permiso para la transición) cuando quieren acceder al Reconocimiento Legal de Género (LGR)".

Polonia también promulgó leyes contra la comunidad LGBTQIA+. En palabras de Human Rights Watch, las ciudades comenzaron a reclamar "la exclusión de las personas LGBT de la sociedad polaca" mediante la implementación de, entre otras medidas, "zonas libres de LGBT" en 2019. Human Rights Watch informó que estas zonas son lugares "donde las autoridades locales adoptaron 'cartas de familia' discriminatorias en las que se comprometen a 'proteger a los niños de la corrupción moral' o declarándose libres de 'ideología LGBT'". Más de 100 ciudades crearon zonas de ese tipo. ILGA-Europa informa que, debido a la presión local, internacional y de la UE, algunas de estas municipalidades anularon las "cartas de derechos de familia o las resoluciones negativas para la comunidad LGBT". El 28 de junio de 2022, el Tribunal Supremo de lo Contencioso-Administrativo de Polonia ordenó a cuatro municipalidades que anularan sus resoluciones contra la comunidad LGBTQI+. Sin embargo, como sugiere la clasificación de Polonia del informe Rainbow Europe, el clima en el país es notablemente hostil para las personas LGBTQIA+.

Una encuesta de 2019 de personas LGBTI en la UE, realizada por la Agencia de los Derechos Fundamentales de la Unión Europea, comparó las experiencias de agresión y acoso que las personas LGBTI sufren en Polonia con las que sufren en otras partes de la Unión Europea. De acuerdo con la encuesta, el 51% de las personas LGBTI en Polonia evitan con frecuencia o siempre ciertos lugares por miedo a sufrir agresiones. En el resto de la Unión Europea, esa proporción es del 33%. La encuesta también muestra que una de cada cinco personas transgénero fue atacada física o sexualmente en los cinco años previos a la encuesta: más del doble que otros grupos LGBTI.

El Consejo encargó a expertos externos que analizaran las respuestas de los medios sociales a declaraciones despectivas realizadas por funcionarios del Gobierno polaco. Esos expertos observaron "un aumento preocupante del lenguaje que incita al odio online contra comunidades minoritarias en Polonia, incluidas las comunidades LGBTQIA+, desde 2015". En su análisis de contenido contra el colectivo LGBTQIA+ en Polonia en Facebook, estos expertos notaron que los aumentos ocurrieron durante "fallos judiciales relacionados con la legislación contra la comunidad LGBTQIA+". Esto incluye el fallo del Tribunal Supremo de lo Contencioso-Administrativo comentado previamente y resoluciones relacionadas con objeciones jurídicas a la adopción de varias declaraciones dirigidas contra la comunidad LGBT presentadas ante los tribunales administrativos locales por el defensor del pueblo polaco para el Comisario de Derechos Humanos, que se suceden desde 2019.

El Consejo consultó a especialistas lingüísticos acerca del significado de las dos frases en polaco de la publicación. Con respecto a la frase "cortinas que se cuelgan solas", los expertos observaron que, en el contexto de una "bandera trans colgada en la ventana", la frase fue un "juego de palabras" que yuxtaponía las ideas de "colgar cortinas" y "quitarse la vida colgándose". Los expertos concluyeron que la frase fue "un insulto transfóbico encubierto". En relación con la frase "limpieza de primavera", los expertos dijeron que "normalmente se refiere a una limpieza profunda que se realiza cuando llega la primavera", pero que, en ciertos contextos, "también significa 'tirar toda la basura' y 'deshacerse de todos los objetos (o personas) que no queremos'". Varios comentarios públicos, incluso el de Human Rights Campaign Foundation (PC-16029), argumentaron que la referencia de la publicación a "limpieza de primavera" fue una forma de "exaltar la exclusión y el aislamiento de las personas trans de la sociedad polaca (con su muerte)".

Los problemas de los daños online y en la vida real que están en juego en este caso no afectan únicamente a la comunidad LGBTQIA+ de Polonia, sino también a los miembros de esa comunidad del resto del mundo. De acuerdo con la Organización Mundial de la Salud, el suicidio es la cuarta causa de muerte entre personas de 15 a 29 años en todo el mundo. La OMS afirma que "las tasas de suicidio también son altas entre grupos vulnerables que sufren discriminación, como los refugiados y los inmigrantes; las personas indígenas; y las personas lesbianas, gays, bisexuales, transexuales e intersexuales (LGBTI)". Otros estudios de investigación concluyeron que existe una "asociación positiva" entre la cibervictimización y los pensamientos y comportamientos autodestructivos.

El riesgo de suicidio es una preocupación particular para la comunidad transgénero y no binaria. La encuesta nacional 2023 de The Trevor Project sobre la salud mental LGBTQ mostró que la mitad de la juventud transgénero y no binaria en los Estados Unidos contempló quitarse la vida en 2022. El mismo estudio estima que el 14% de las personas jóvenes LGBTQ intentaron suicidarse el año pasado, lo que incluye a casi una de cada cinco personas jóvenes transgénero y no binarias. Según la Encuesta sobre las Conductas de Riesgo en los Jóvenes de los CDC, el 10% de los estudiantes del secundario en los Estados Unidos intentaron suicidarse en 2021. Variosestudios de todo el mundo mostraron que las personas transgénero o no binarias tienen un riesgo mayor de tener pensamientos suicidas o de intentar suicidarse que las personas cisgénero.

En un comentario público al Consejo, la Alianza de Gays y Lesbianas contra la difamación (GLAAD) (PC-16027) enfatizó las conclusiones de su encuesta anual, el índice de seguridad en los medios sociales, sobre la seguridad del usuario LGBTQ en cinco de las principales plataformas de medios sociales. De acuerdo con el informe 2023, Facebook obtuvo una puntuación del 61% en función de los 12 indicadores específicos de la comunidad LGBTQ. Esta puntuación representó un aumento de 15 puntos desde 2022, y Facebook se ubicó en el segundo lugar después de Instagram, por encima de las otras tres principales plataformas. Sin embargo, GLAAD indicó que "la seguridad y la calidad de la protección de los usuarios LGBTQ siguen siendo insatisfactorias". El informe determinó que hay "daños resultantes muy reales a las personas LGBTQ online, incluido un efecto escalofriante sobre la libertad de expresión de estas personas basado en el miedo a sufrir agresiones, y el verdadero impacto psicológico traumático que representa que estén expuestas sin respiro a insultos y conductas dañinas".

3. Autoridad y alcance del Consejo asesor de contenido

El Consejo tiene la autoridad para revisar la decisión de Meta tras la apelación de la persona que previamente reportó el contenido que se conservó en la plataforma (artículo 2, sección 1, del acta constitutiva; artículo 3, sección 1, de los estatutos).

El Consejo puede mantener o revertir la decisión de Meta (artículo 3, sección 5, del acta constitutiva), y la decisión que tome será vinculante para la empresa (artículo 4 del acta constitutiva). Meta también debe evaluar la viabilidad de aplicar su decisión con respecto a contenido idéntico cuyo contexto sea similar (artículo 4 del acta constitutiva). Las decisiones del Consejo pueden incluir recomendaciones no vinculantes a las que Meta debe responder (artículo 3, sección 4, y artículo 4 del acta constitutiva). Cuando Meta se compromete a tomar medidas respecto de las recomendaciones, el Consejo supervisa su implementación.

Cuando selecciona casos como este, en los que Meta posteriormente reconoce que cometió una equivocación, el Consejo revisa la decisión original para entender mejor el proceso de moderación de contenido y hacer recomendaciones a fin de reducir errores y tratar a los usuarios de Facebook e Instagram de manera más justa.

4. Fuentes de autoridad y pautas

El análisis del Consejo en este caso se basó en las siguientes normas y precedentes:

I. Decisiones del Consejo asesor de contenido

Entre las decisiones previas del Consejo asesor de contenido más relevantes, se encuentran las siguientes:

II. Políticas de contenido de Meta

En las bases de la política sobre lenguaje que incita al odio, se define dicho lenguaje "como un ataque directo a las personas, y no a los conceptos ni a las instituciones, en función de lo que denominamos 'características protegidas'", lo que incluye el sexo y la identidad de género. Meta define un "ataque" como "lenguaje violento o deshumanizante; estereotipos dañinos; declaraciones de inferioridad; expresiones de desprecio, repulsión o rechazo; insultos; o incitaciones de exclusión o segregación". En las bases de la política, Meta también afirma: "Creemos que las personas se expresan y se conectan entre sí con mayor libertad cuando no se sienten atacadas por quiénes son. Por eso, no permitimos el lenguaje que incita al odio en Facebook, ya que crea un entorno intimidatorio y excluyente que, en algunos casos, puede promover la violencia en la vida real".

La norma comunitaria sobre lenguaje que incita al odio de Meta separa los ataques en "niveles". Los ataques de nivel 1 incluyen contenido dirigido a una persona o un grupo de personas sobre la base de sus características protegidas con "lenguaje que incite a la violencia o que la apoye, tanto de forma escrita como visual". Meta terminó por determinar que la publicación en este caso infringía esta parte de la política. El 6 de diciembre de 2023, Meta actualizó las Normas comunitarias para reflejar que la prohibición sobre la incitación a la violencia contra grupos con características protegidas se trasladó a la política sobre violencia e incitación.

Los ataques de nivel 2 incluyen contenido dirigido a una persona o un grupo de personas sobre la base de sus características protegidas con "expresiones de desprecio (de forma escrita o visual)". En la norma comunitaria sobre lenguaje que incita al odio, Meta define las expresiones de desprecio como "expresiones de reconocimiento de intolerancia respecto de características protegidas" y "expresiones que indican que una característica protegida no debería existir".

La norma comunitaria sobre suicidio y autolesiones prohíbe "cualquier contenido que fomente el suicidio o la autolesión, incluido el contenido ficticio, como memes o ilustraciones". Asimismo, Meta elimina todo "contenido que promueva, fomente u organice, o proporcione instrucciones en relación con suicidio y autolesiones".

El análisis del Consejo se basó en el compromiso que Meta asumió con la expresión, a la cual la empresa describe como "fundamental", y sus valores de seguridad y dignidad.

III. Responsabilidades de Meta con los derechos humanos

Los Principios Rectores sobre las Empresas y los Derechos Humanos de la ONU (UNGP), respaldados por el Consejo de Derechos Humanos de la ONU en 2011, definen un marco voluntario que encuadra las responsabilidades de las empresas privadas en cuanto a esos derechos. En 2021, Meta anunció su Política corporativa de derechos humanos, en la que reafirmó su compromiso con el respeto de los derechos humanos de conformidad con los UNGP. El análisis del Consejo sobre las responsabilidades de Meta en cuanto a los derechos humanos en este caso se basó en las siguientes normas internacionales:

  • Derecho a la libertad de opinión y expresión: artículo 19 del Pacto Internacional de Derechos Civiles y Políticos ( ICCPR); observación general n.º 34 del Comité de Derechos Humanos (2011); informes de la Relatora Especial de la ONU (UNSR) sobre la libertad de opinión y expresión: A/HRC/38/35 (2018), A/74/486 (2019); y Plan de Acción de Rabat, informe de la Alta Comisionada de la ONU para los Derechos Humanos: A/HRC/22/17/Add.4 (2013).
  • Derecho a la vida: artículo 6 del ICCPR.
  • Derecho al disfrute del más alto nivel posible de salud física y mental: artículo 12 del Pacto Internacional de Derechos Económicos, Sociales y Culturales (ICESCR).
  • Derecho a la igualdad y a la no discriminación: artículo 2, párrafo 1, y artículo 26 del ICCPR.

5. Respuestas del usuario

En su apelación al Consejo, el usuario que reportó el contenido mencionó que la persona que publicó la imagen ya había acosado a personas transgénero online y había creado una nueva cuenta tras recibir una suspensión de Facebook. También dijo que celebrar la elevada tasa de suicidio en la comunidad transgénero "no se debería permitir".

6. Respuestas de Meta

Meta terminó por eliminar la publicación en función del nivel 1 de su norma comunitaria sobre lenguaje que incita al odio porque el contenido infringía la parte de la política que prohíbe contenido dirigido a una persona o un grupo de personas sobre la base de sus características protegidas con "lenguaje que incite a la violencia o que la apoye, tanto de forma escrita como visual". En sus pautas internas sobre cómo aplicar esta política, Meta afirma que el contenido se debería eliminar si constituye una "incitación a la violencia en forma de incitaciones o declaraciones de intención de causar muertes, enfermedades o daños, o declaraciones aspiracionales o condicionales sobre estos, o bien declaraciones que los fomenten o apoyen (de forma escrita o visual)".

En esas pautas internas, la empresa también describe lo que considera una representación visual de grupos con características protegidas en una imagen o un video. Meta no permitió que el Consejo publicara información más detallada sobre esta pauta. En cambio, la empresa afirmó que, "en virtud de la política sobre lenguaje que incita al odio, Meta puede tener en cuenta elementos visuales en el contenido al determinar si este se dirige a una persona o a un grupo de personas en función de sus características protegidas".

Meta indicó que el hecho de que los revisores consideraran reiteradamente que el contenido no infringía la norma comunitaria sobre lenguaje que incita al odio está alineado con "la aplicación estricta de las pautas internas". Y agregó: "Aunque las cortinas se parecen a la bandera del orgullo trans, interpretaríamos un ataque a una bandera, por sí sola, como un ataque a un concepto o institución (lo cual no infringe nuestras políticas), y no a una persona o grupos de personas". Sin embargo, Meta posteriormente determinó que la "referencia al acto de colgarse indica que esta publicación ataca a un grupo de personas". Esta evaluación se basó en la determinación de que la frase "cortinas que se cuelgan solas" hace referencia implícitamente a la tasa de suicidio en la comunidad transgénero porque las cortinas simulan la bandera del orgullo trans, y las cortinas que cuelgan en la foto (además del texto superpuesto) son una metáfora de las personas que se cuelgan para suicidarse". Meta también señaló que "los conceptos o las instituciones no se pueden 'colgar solos', al menos no literalmente". Por este motivo, Meta determinó que el usuario se estaba refiriendo a "las personas transgénero, no solo al concepto". Por lo tanto, según Meta, "el contenido infringe la política sobre lenguaje que incita al odio porque busca que se interprete como una declaración a favor de la muerte por suicidio de un grupo con características protegidas".

Luego de una actualización de la política sobre lenguaje que incita al odio, en la que la parte de la política que prohíbe el lenguaje que incita a la violencia contra grupos con características protegidas se movió a la política sobre violencia e incitación, Meta le confirmó al Consejo que el contenido seguía representando una infracción.

Meta también reportó que la frase de la presentación de la cuenta del usuario que decía "Soy transfóbico" infringía el nivel 2 de la política sobre lenguaje que incita al odio como expresión de "reconocimiento de intolerancia respecto de características protegidas". Según Meta, esta frase fue considerada infractora como parte de la revisión de Meta tanto del caso como de la cuenta del usuario luego de que el Consejo seleccionara el caso. Meta afirmó que esta frase ayudó a determinar la intención del usuario en el contenido del caso.

En respuesta a la pregunta del Consejo sobre si el contenido infringe la política sobre suicidio y autolesiones, Meta confirmó que "el contenido infringe la política sobre suicidio y autolesiones al fomentar el suicidio, lo cual coincide con nuestra determinación de que el contenido constituye una afirmación a favor de la muerte por suicidio de un grupo con características protegidas". Meta también informó que la política sobre suicidio y autolesiones "no diferencia entre el contenido que promueve o fomenta el suicidio dirigido a una persona específica y aquel dirigido a un grupo de personas".

El Consejo le hizo a Meta 13 preguntas por escrito. Las preguntas se referían al enfoque de moderación de contenido de Meta ante los problemas con las personas transgénero y LGBTQIA+; la relación entre las normas comunitarias sobre lenguaje que incita al odio y suicidio y autolesiones; cómo los moderadores evalúan el "humor" y la "sátira" al revisar contenido por posibles casos de lenguaje que incita al odio; el rol de las puntuaciones de "viralidad" y "gravedad" a la hora de priorizar contenido para la revisión manual; y cómo las prácticas de moderación de contenido de Meta abordan la priorización de contenido para la revisión manual que tiene varios reportes de usuarios. Meta respondió las 13 preguntas.

7. Comentarios públicos

El Consejo asesor de contenido recibió 35 comentarios públicos relevantes para este caso: 25 de los Estados Unidos y Canadá, 7 de Europa y 3 de Asia-Pacífico y Oceanía. Este total incluye comentarios públicos duplicados o que, si bien se enviaron con consentimiento de publicación, no cumplían las condiciones del Consejo para su publicación. Dicha exclusión se puede basar en la naturaleza abusiva del comentario, preocupaciones sobre la privacidad del usuario u otros motivos legales. Los comentarios públicos pueden enviarse al Consejo con o sin consentimiento de publicación y con o sin consentimiento de atribución.

Estos comentarios cubrían los siguientes temas: situación de los derechos humanos en Polonia, en especial en el caso de las personas transgénero; la seguridad de las personas LGBTQIA+ en las plataformas de medios sociales; la relación entre los daños online y en la vida real en Polonia; la relación entre humor, sátira, memes y odio u acoso contra las personas transgénero en las plataformas de medios sociales; y los desafíos de moderar contenido que requiere contexto para interpretarse.

Si quieres leer los comentarios del público que se enviaron en relación con este caso, haz clic aquí.

8. Análisis del Consejo asesor de contenido

El Consejo examinó si este contenido debía eliminarse a la luz de las políticas de contenido, las responsabilidades en materia de derechos humanos y los valores de Meta. Asimismo, el Consejo evaluó las implicaciones de este caso para el enfoque más general de Meta en cuanto a la gobernanza de contenido.

El Consejo seleccionó este caso para evaluar la precisión con la que Meta aplica la política sobre lenguaje que incita al odio, así como para entender mejor cómo Meta aborda el contenido que involucra tanto lenguaje que incita al odio como promoción del suicidio o autolesiones.

8.1 Cumplimiento de las políticas de contenido de Meta

I. Reglas de contenido

Lenguaje que incita al odio

El Consejo determinó que el contenido de este caso infringe la norma comunitaria sobre lenguaje que incita al odio. La publicación incluía "lenguaje que incita a la violencia o que la apoya" (nivel 1) en forma de incitación a que un grupo con características protegidas se suicide, lo cual claramente infringe la política sobre lenguaje que incita al odio.

El Consejo coincide con la conclusión a la que llegó Meta posteriormente de que la referencia a colgarse en la publicación es un ataque a un grupo de personas y no a un concepto porque "los conceptos y las instituciones no pueden 'colgarse solos'". El Consejo también respalda su conclusión en el contexto más amplio en torno a daños online y en la vida real que la comunidad LGBTQIA+, especialmente las personas transgénero, sufren en Polonia. Una publicación que usa lenguaje que incita a la violencia para promover y apoyar el suicidio de las personas transgénero genera una atmósfera de intimidación y exclusión, y podría contribuir a daños físicos. Este contexto en el que se empleó el lenguaje de la publicación dejaba claro que se usó con la intención de deshumanizar al objetivo. Teniendo en cuenta la naturaleza del texto y de la imagen, la publicación también intensifica la constante crisis de salud mental que experimenta actualmente la comunidad transgénero. De acuerdo con varios estudios, las personas transgénero o no binarias corren un mayor riesgo de tener pensamientos suicidas o intentos de suicidio que las personas cisgénero. Además, se demostró que la experiencia de ataques y victimización online tiene una correlación positiva con los pensamientos suicidas. En este contexto, el Consejo determinó que la presencia de la bandera transgénero, junto con la referencia al riesgo elevado de suicidio dentro de la comunidad transgénero ("cortinas que se cuelgan solas") es un claro indicio de que las personas transgénero son el objetivo de la publicación. El Consejo considera que la frase "limpieza de primavera", seguida del emoji de corazón "<3", también constituye un apoyo a la muerte del grupo. Asimismo, también infringe la prohibición de la norma comunitaria sobre lenguaje que incita al odio de nivel 2 sobre "expresiones que indican que una característica protegida no debería existir".

Con respecto a esta norma comunitaria, el Consejo cree que la política y las pautas internas para su aplicación podrían ser más sensibles a la "creatividad maliciosa" en tendencias de contenido que atacan a grupos con un historial de marginalización. Wilson Center acuñó esta frase con investigaciones sobre abuso por cuestiones de género y sexuales, y GLAAD también enfatizó su relevancia en su comentario (PC-16027). La "creatividad maliciosa" hace referencia al "uso de lenguaje codificado; memes visuales y con texto basados en el contexto e iterativos; y otras tácticas para evitar la detección en las plataformas de medios sociales". Al aplicar el concepto a la publicación en este caso, GLAAD dijo que la "creatividad maliciosa" implica a "personas malintencionadas que desarrollan medios novedosos para atacar a la comunidad LGBTQ" y a grupos vulnerables de forma más general por medio de publicaciones y memes que defienden como "humorísticos o satíricos", pero que "en realidad son de odio o acoso contra el colectivo LGBTQ". En especial, la "creatividad maliciosa" tomó la forma de una publicación que usa dos referencias algo veladas al suicidio ("cortinas que se cuelgan solas" y "limpieza de primavera") junto con una representación visual de un grupo protegido (la bandera transgénero) para fomentar la muerte por suicidio. En la decisión del caso Armenios en Azerbaiyán, el Consejo observó la importancia del contexto al determinar que el término en consideración en ese caso se usó para atacar a un grupo en función de una característica protegida. Si bien el contexto de guerra prevalecía en ese caso, las amenazas que enfrentan las personas transgénero en Polonia muestran que las situaciones pueden ser nefastas para una comunidad, incluso sin guerra. Como se indicó anteriormente, una de cada cinco personas transgénero en Polonia reportó haber sufrido un ataque físico o sexual en los cinco años previos a 2019: una proporción que duplica con creces el número de personas de otros grupos LGBTI que denunciaron ataques de ese tipo.

Al Consejo le preocupa que los revisores iniciales de Meta no detectaran estas pistas contextuales dentro del contenido y, como resultado, concluyeran que no era infractor. Si bien el Consejo recomienda algunas revisiones de las pautas sobre la aplicación de la norma comunitaria sobre lenguaje que incita al odio, destaca que la publicación infringía las políticas incluso tal como estaban escritas en ese momento. Ambas afirmaciones realizadas en la publicación apoyan el suicidio de las personas transgénero. La señal adicional en la presentación del usuario respalda esa conclusión. La autoidentificación del usuario como transfóbico, por sí misma, constituiría una infracción de nivel 2 de la prohibición de la norma sobre lenguaje que incita al odio en relación al "reconocimiento de intolerancia respecto de características protegidas". Meta debe mejorar la precisión de la aplicación de su política sobre lenguaje que incita al odio contra la comunidad LGBTQIA+, ya sea por medio de la automatización o la revisión manual, en especial cuando las publicaciones incluyen imágenes y texto que requieren contexto para interpretarse. Según observó GLAAD (PC-16027), Meta "no logra aplicar sus políticas, de forma reiterada, cuando revisa reportes de contenido que incluye 'creatividad maliciosa'".

Al Consejo le preocupa también la declaración de Meta que indica que el hecho de que los revisores no hayan eliminado el contenido está "alineado con la aplicación estricta de las pautas internas". Esto indica que las pautas internas de Meta no contemplan correctamente el modo en que el texto y las imágenes pueden interactuar en una publicación en los medios sociales para representar a un grupo definido por la identidad de género de sus miembros. El Consejo considera que las pautas podrían no ser suficientes para que los revisores de contenido a gran escala puedan aplicar correctamente las políticas en contenido que se dirige a grupos con características protegidas que son representados visualmente, pero que no se nombran ni se representan en figuras humanas. Meta no permitió que el Consejo publicara más detalles que habrían permitido llevar a cabo un debate más sólido sobre cómo se podría mejorar la aplicación de políticas con este tipo de contenido. Sin embargo, el Consejo cree que Meta debería modificar sus pautas para garantizar que las representaciones visuales de identidad de género se comprendan de forma adecuada al evaluar la presencia de ataques en el contenido. El Consejo destaca que, al sugerir esto, no busca disminuir la protección de Meta de objeciones a conceptos, instituciones, ideas, prácticas o creencias. En cambio, quiere que Meta aclare que no es necesario que las publicaciones representen figuras humanas para que constituyan un ataque a las personas.

Suicidio y autolesiones

El Consejo considera que el contenido de este caso también infringe la norma comunitaria sobre suicidio y autolesiones. Esta política prohíbe "contenido que promueva, fomente u organice, o proporcione instrucciones en relación con suicidio y autolesiones". De acuerdo con las pautas internas que Meta proporciona a los revisores, "promoción" se define como "hablar de forma positiva sobre algo". El Consejo está de acuerdo con la conclusión a la que llegó Meta posteriormente de que el contenido constituye una declaración a favor del suicidio de un grupo con características protegidas y, por lo tanto, fomenta el suicidio.

El Consejo también considera que la norma comunitaria sobre suicidio y autolesiones debería prohibir de forma más explícita el contenido que promueva o fomente el suicidio dirigido a un grupo identificable de personas (y no solo a una persona de ese grupo). Meta le indicó al Consejo que la política no diferencia entre esas dos formas de contenido. Dados los desafíos que los revisores enfrentaron al identificar una afirmación que fomentaba el suicidio de un grupo en este caso, el Consejo insta a Meta a aclarar que la política prohíbe contenido que promueve o fomenta el suicidio dirigido a un grupo identificable de personas. Meta debería aclarar este punto en su política sobre suicidio y autolesiones, así como también en las pautas internas pertinentes para los revisores.

II. Aplicación de políticas

El Consejo considera que los sistemas automatizados de priorización de revisión de Meta afectaron de forma significativa las acciones de aplicación de políticas en este caso. De los 12 reportes de usuarios que recibió la publicación, 10 fueron cerrados automáticamente por los sistemas automatizados de Meta. De las tres apelaciones de usuarios presentadas contra las decisiones de Meta, dos fueron cerradas automáticamente por los sistemas automatizados de Meta. Al Consejo le preocupa que el historial del caso que le compartieron contiene muchos indicios de una infracción y, por ende, sugiere que las políticas de Meta no se están aplicando de forma adecuada.

El Consejo observa que muchos reportes de usuarios fueron cerrados como resultado de las prácticas de moderación de contenido que Meta usa para abordar múltiples reportes sobre el mismo contenido. El primer reporte por lenguaje que incita al odio no se priorizó para la revisión manual debido a que tenía una "baja puntuación de gravedad y viralidad". Los reportes posteriores por lenguaje que incita al odio no se priorizaron para la revisión manual porque, cuando se reciben muchos reportes sobre el mismo contenido, Meta "elimina los reportes duplicados para garantizar coherencia entre las decisiones de los revisores y en la aplicación de políticas". El Consejo reconoce que la eliminación de duplicados es una práctica razonable para la moderación de contenido a gran escala. Sin embargo, el Consejo observa que la práctica pone más presión sobre la determinación inicial tomada en un reporte, ya que esa determinación define el destino de todos los reportes agrupados con él.

El Consejo cree que sería importante que Meta priorice mejorar la precisión de los sistemas automatizados que aplican las políticas de contenido y priorizan el contenido para revisión, en particular al analizar contenido que podría afectar a las personas LGBTQIA+. Dichas mejoras en la capacidad de los sistemas automatizados para reconocer el tipo de lenguaje codificado y las imágenes basadas en contexto considerados en este caso, sin dudas, también mejorarían la aplicación de políticas en contenido que se dirige a otros grupos con características protegidas. El Consejo cree que la presentación del usuario, por ejemplo, en la que reconocía que era transfóbico, se podría haber tomado como una señal relevante a la hora de determinar las puntuaciones de gravedad a fin de decidir si se debía priorizar el contenido para revisión o aplicar una política. Esta señal podría complementar los análisis de redes sociales y comportamientos actuales que Meta podría usar para identificar contenido potencialmente infractor.

Además, el Consejo enfatiza que sería importante que Meta garantice que los sistemas automatizados estén bien calibrados y que los revisores de contenido estén capacitados para evaluar con eficacia las publicaciones relacionadas con la comunidad LGBTQIA+ a gran escala. Al Consejo le preocupa el enfoque actual de Meta, bajo el cual los revisores a cargo de evaluar las apelaciones suelen tener el mismo nivel de experiencia que aquellos que evalúan el contenido por primera vez. También cree que Meta debería invertir más en el desarrollo y la capacitación de clasificadores que identifiquen contenido potencialmente infractor contra la comunidad LGBTQIA+ y prioricen ese contenido para la revisión manual. El lenguaje que incita al odio, en especial el contenido de mayor gravedad que se encuadra en el nivel 1 de la política de Meta, siempre se debería priorizar para revisión. El Consejo también sugiere reforzar estas mejoras en el proceso con: i) una mayor capacitación sobre daños en relación con la identidad de género para los revisores; ii) un grupo de trabajo sobre experiencias de las personas transgénero y no binarias en las plataformas de Meta; y iii) la creación de un grupo especializado de expertos en la materia para revisar contenido relacionado con problemas que afectan a la comunidad LGBTQIA+. Si bien los hechos de este caso se relacionan específicamente con los daños que sufren las personas transgénero en Facebook, el Consejo también alienta a Meta a analizar cómo mejorar la aplicación de políticas en relación con el contenido de odio que afecta a otros grupos con características protegidas.

Si bien el Consejo solo emite dos recomendaciones formales a continuación, destaca que esto se debe a que los desafíos resaltados en este caso tienen menos relación con las políticas tal como están escritas que con su aplicación. El Consejo menciona al menos cinco indicios de contenido dañino en este caso: (1) las referencias de la publicación a "cortinas que se cuelgan solas"; (2) la referencia de la publicación a "limpieza de primavera <3"; (3) la autodescripción del usuario como "transfóbico" en el contexto de un país con altos niveles de hostilidad reportados contra la comunidad LGBTQIA+; (4) el número de reportes y apelaciones de usuarios sobre el contenido; y (5) el número de reportes y apelaciones relativos a la viralidad del contenido. Al Consejo le preocupa que Meta no haya detectado estas señales y cree que sus políticas no se están aplicando como corresponde. El Consejo cree con firmeza que Meta debería pensar de forma rigurosa y creativa cómo cerrar la brecha entre sus ideales de proteger a las personas LGBTQIA+ en sus plataformas y su aplicación de esos ideales.

8.2 Cumplimiento de las responsabilidades de Meta en materia de derechos humanos

Libertad de expresión (artículo 19 del ICCPR)

El artículo 19, párrafo 2, del Pacto Internacional de Derechos Civiles y Políticos (ICCPR) estipula que "toda persona tiene derecho a la libertad de expresión; este derecho comprende la libertad de buscar, recibir y difundir informaciones e ideas de toda índole, sin consideración de fronteras, ya sea oralmente, por escrito o en forma impresa o artística, o por cualquier otro procedimiento". El comentario general n.° 34 (2011) también especifica que la expresión protegida incluye la expresión que puede considerarse "profundamente ofensiva" (párrafo 11).

Si un Estado impone restricciones sobre la libertad de expresión, estas deben cumplir los requisitos de legalidad, fin legítimo y necesidad y proporcionalidad (artículo 19, párrafo 3, del ICCPR). Estos requisitos suelen denominarse "prueba de tres partes". El Consejo usa este marco para interpretar los compromisos voluntarios de Meta con los derechos humanos, tanto respecto de la decisión sobre contenido en particular que se encuentre en revisión como de lo que esto pone de manifiesto acerca del enfoque más amplio de la empresa en relación con la gestión del contenido. Como indicó la Relatora Especial de la ONU sobre libertad de expresión, "las empresas no tienen las obligaciones de los gobiernos, pero sus efectos son de un tipo que les obliga a evaluar el mismo tipo de cuestiones sobre la protección del derecho de sus usuarios a la libertad de expresión" (A/74/486, párrafo 41).

I. Legalidad (claridad y accesibilidad de las reglas)

El principio de legalidad conforme al derecho internacional de derechos humanos requiere que cualquier regla que limite la expresión sea clara y de acceso público (observación general n.º 34, párrafo 25). Las reglas que restringen la expresión "no pueden conferir una discrecionalidad absoluta para restringir la libertad de expresión a los encargados de su implementación" y "proporcionan suficientes pautas para aquellos que están a cargo de su implementación, de manera que puedan definir qué tipos de expresión pueden restringirse de forma correcta y cuáles no" (ibidem). En referencia a las reglas que regulan el discurso online, la Relatora Especial de la ONU sobre la libertad de expresión dijo que deben ser claras y específicas (A/HRC/38/35, párrafo 46). Las personas que usan las plataformas de Meta deben ser capaces de acceder a las reglas y entenderlas, y los revisores de contenido deben tener pautas claras para su aplicación.

El Consejo considera que las prohibiciones de Meta relacionadas con el "lenguaje que incite a la violencia o que la apoye" tanto de forma escrita como visual contra grupos con características protegidas, con las expresiones que indiquen que una característica protegida no debería existir y con las expresiones que promuevan o fomenten el suicidio y autolesiones son suficientemente claras.

Sin embargo, el Consejo observa que Meta podría mejorar la precisión de la aplicación de políticas en relación con las políticas involucradas en este caso proporcionando pautas más claras para los revisores, como se indica en la sección 8.1 anterior. Meta debería aclarar que las representaciones visuales de identidad de género, como una bandera, no necesitan mostrar figuras humanas para constituir un ataque en virtud de la política sobre lenguaje que incita al odio. También debería aclarar que incitar a que un grupo (y no una sola persona) cometa suicidio infringe la política sobre suicidio y autolesiones.

II. Fin legítimo

Cualquier restricción sobre la libertad de expresión debe procurar alguno de los fines legítimos mencionados en el ICCPR, entre ellos, los "derechos de los demás". En varias decisiones, el Consejo determinó que la política sobre lenguaje que incita al odio de Meta, cuyo objetivo es proteger a las personas del daño que ocasiona el lenguaje que incita al odio, tiene un fin legítimo amparado por las leyes de derechos humanos internacionales (consulta, por ejemplo, la decisión del caso Dibujo animado de Knin). Además, el Consejo considera que, en este caso, las secciones de la política sobre suicidio y autolesiones relativas al contenido que fomenta el suicidio o la autolesión satisfacen los fines legítimos de proteger el derecho de las personas a disfrutar del más alto nivel posible de salud física y mental (ICESCR 12) y el derecho a la vida (artículo 5, ICCPR). En casos como este, donde se incita a un grupo con características protegidas a que cometa suicidio, la política sobre suicidio y autolesiones también protege los derechos de las personas a la igualdad y la no discriminación (artículo 2, párrafo 1, ICCPR).

III. Necesidad y proporcionalidad

El principio de necesidad y proporcionalidad dispone que las restricciones que se apliquen a la libertad de expresión "deben ser adecuadas para desempeñar su función protectora; deben ser el instrumento menos perturbador de los que permitan conseguir el resultado deseado, y deben guardar proporción con el interés que debe protegerse" (observación general n.º 34, párrafo 34).

Al evaluar los riesgos que presenta el contenido violento, el Consejo normalmente se guía por la prueba de seis factores descrita en el Plan de Acción de Rabat, que trata la apología del odio nacional, racial o religioso que constituye una incitación a la hostilidad, la discriminación o la violencia. Sobre la base de una evaluación de los factores relevantes, en especial el contenido y la forma de expresión, la intención del hablante y el contexto que se describen más detalladamente a continuación, el Consejo determinó que eliminar el contenido cumple las responsabilidades de Meta en materia de derechos humanos, ya que este supone un daño inminente y probable. Eliminar el contenido es una limitación necesaria y proporcionada sobre la expresión para poder proteger el derecho a la vida, así como el derecho a disfrutar del más alto nivel posible de salud física y mental de la comunidad LGBTQIA+ en general y, en particular, de las personas transgénero en Polonia.

Aunque el Consejo observó previamente lo importante que es la reapropriación de términos despectivos dirigidos a las personas LGBTQIA+ en la lucha contra la desinformación (consulta la decisión del caso Reapropiación de términos árabes), este caso es distinto. La publicación tampoco contiene lenguaje político ni de interés periodístico (consulta la decisión del caso Manifestaciones en Colombia). En este caso, la publicación muestra la imagen de la bandera transgénero colgada como una cortina, con una descripción que dice que las cortinas se cuelgan solas. De acuerdo con los expertos consultados por el Consejo, el uso de cortinas, tanto de forma visual como de texto, no parece ser lenguaje codificado recurrente dirigido a la comunidad transgénero. No obstante, como se indicó antes, el fenómeno de la "creatividad maliciosa", o el uso de lenguaje novedoso y estrategias de representación para expresar odio y acoso, caracteriza tendencias de contenido que se dirigen a las personas transgénero. El Consejo considera que el contenido en este caso encaja perfecto en esa tendencia. Si bien la publicación contenía imágenes que algunas personas consideraron "graciosas" (lo cual se percibe por las reacciones con el emoji "Me divierte"), esta se puede interpretar de todos modos como una afirmación violenta y provocadora contra la comunidad transgénero. El humor y la sátira se pueden usar, por supuesto, para correr los límites de la crítica legítima, pero no se pueden usar para camuflar el lenguaje que incita al odio. La publicación solo hace referencia al tema de las elevadas tasas de suicidio en la comunidad transgénero para celebrar este hecho.

Al considerar la intención del creador del contenido, el Consejo observa que su presentación indica abiertamente que es "transfóbico". Si bien Meta no consideró sino más tarde lo que implicaba esa afirmación para el contenido del caso en sí, el Consejo considera que es muy importante para determinar la intención del usuario. Incluso hubiera sido un motivo independiente para eliminar el contenido como una infracción de nivel 2 de la política sobre lenguaje que incita al odio. La publicación también indicaba que el hecho de que las personas transgénero se colgaran para suicidarse era una "limpieza de primavera", con un emoji de corazón junto a la descripción. Frente a esta afirmación de apoyo al suicidio de un grupo, el Consejo considera que hubo intención de incentivar la discriminación y la violencia en función del contenido de la publicación, la imagen usada y el texto y la descripción que los acompañan. El contenido en este caso no solo incentiva a las personas transgénero a cometer una acción violenta contra ellas mismas, sino que también incita a otros a discriminar a las personas transgénero y tratarlas con hostilidad. Esto queda confirmado al ver que el emoji de reacción que se usó con mayor frecuencia al interactuar con el contenido fue "Me divierte".

Finalmente, el Consejo observa los importantes riesgos en la vida real que la comunidad LGBTQIA+ polaca enfrenta al sufrir cada vez más ataques mediante acciones legislativas y administrativas, así como discursos políticos de figuras gubernamentales centrales y voces públicas influyentes. De acuerdo con ILGA-Europa, desde 2020, Polonia ha sido clasificado de manera sostenida como el miembro de la UE con peor desempeño en relación con los derechos de la comunidad LGBTQIA+. También es importante observar que Polonia no tiene protecciones para la comunidad LGBTQIA+ en sus leyes sobre lenguaje que incita al odio y crímenes de odio, un problema que, según reclamaron ILGA-Europa y Amnesty International, entre otros, Polonia debe abordar. Además, el aumento de los discursos contra la colectividad LGBTQIA+ en polaco en Facebook, marcado por expertos externos y numerosos comentarios del público, no sucede de forma aislada. Muchas organizaciones e instituciones expresaron preocupación ante la prevalencia del lenguaje contra la comunidad LGBTQIA+ en los medios sociales. El Experto Independiente sobre la orientación sexual e identidad de género de las Naciones Unidas (IE SOGI) Victor Madrigal-Borloz dijo que los niveles de violencia y discriminación contra las personas de género diverso y transgénero " ofenden la conciencia humana". Las investigaciones y los informes de GLAAD muestran que existen "daños resultantes muy reales a las personas LGBTQ online, lo que incluye... el terrible trauma psicológico de estar expuesto sin respiro a insultos y conductas dañinas". Contenido como el de la publicación en este caso, especialmente cuando se considera a gran escala, puede contribuir a un entorno en el cual el daño ya generalizado de morir por suicidio dentro de la comunidad transgénero se ve exacerbado. Además, el contenido que normaliza el lenguaje violento contra las personas transgénero, como esta publicación, corre el riesgo de contribuir tanto a la crisis de salud mental en curso que afecta a la comunidad transgénero como a un aumento de la violencia contra la comunidad en la vida real.

9. Decisión del Consejo asesor de contenido

El Consejo asesor de contenido anula la decisión original de Meta de conservar el contenido.

10. Recomendaciones

Política de contenido

1. La política de suicidio y autolesiones de Meta debe aclarar en su página que prohíbe contenido que promueve o fomenta el suicidio dirigido a un grupo identificable de personas.

El Consejo considerará que se implementó esta recomendación cuando el texto público de la norma comunitaria sobre suicidio y autolesiones refleje el cambio propuesto.

Aplicación de políticas

2. Las pautas internas de Meta para los revisores a gran escala se deberían modificar para garantizar que las representaciones visuales en las que aparezcan banderas como símbolo de identidad de género que no contienen una figura humana se consideren representaciones de un grupo definido por la identidad de género de sus miembros. Esta modificación brindaría instrucciones más claras para la aplicación de políticas con este tipo de contenido a gran escala cuando contiene un ataque violento.

El Consejo considerará que se implementó esta recomendación cuando Meta le muestre los cambios en sus pautas internas.

*Nota de procedimiento:

Las decisiones del Consejo asesor de contenido son preparadas por paneles conformados por cinco miembros, y el Consejo debe aprobarlas por mayoría. Las decisiones del Consejo no necesariamente representan las opiniones personales de todos los miembros.

En cuanto a la decisión del caso, se encargó una investigación independiente en nombre del Consejo. El Consejo recurrió a la colaboración de un instituto de investigación independiente con sede en la Universidad de Gotemburgo, que se apoya en un equipo conformado por más de 50 científicos sociales de seis continentes, así como 3.200 expertos de diferentes países del mundo. Memetica, una organización que participa en investigaciones de código abierto sobre tendencias en los medios sociales, también proporcionó análisis. Lionbridge Technologies, LLC, con especialistas en más de 350 idiomas que trabajan en 5.000 ciudades diferentes, se encargó de las competencias en materia lingüística.

Volver a Decisiones de casos y opiniones consultivas sobre políticas