पलट जाना
Publicación en polaco contra las personas trans
16 जनवरी 2024
El Consejo asesor de contenido ha anulado la decisión original de Meta de conservar una publicación de Facebook en la cual un usuario atacaba verbalmente a las personas transgénero y las exhortaba a suicidarse.
Esta decisión se puede consultar en polaco aquí.
Kliknij tutaj, aby przeczytać postanowienie w języku polskim.
Resumen
El Consejo asesor de contenido ha anulado la decisión original de Meta de conservar una publicación de Facebook en la cual un usuario atacaba verbalmente a las personas transgénero y las exhortaba a suicidarse. El Consejo considera que la publicación infringía tanto la política sobre lenguaje que incita al odio como la política sobre suicidio y autolesión de las Normas comunitarias. Sin embargo, el problema fundamental en este caso no reside en las políticas, sino en su aplicación. Puesto que Meta ha sido incapaz de aplicar las medidas adecuadas repetidamente (a pesar de las múltiples señales que indicaban que el contenido de la publicación era perjudicial), el Consejo concluye que la empresa no está cumpliendo los ideales que ha articulado en cuanto a la seguridad de la comunidad LGBTQIA+. El Consejo insta a Meta a eliminar los vacíos existentes en la aplicación de políticas, lo que incluye mejorar las pautas internas con las que cuentan los revisores.
Información sobre el caso
En abril de 2023, un usuario de Facebook en Polonia publicó una imagen de una cortina a rayas con los colores azul, rosa y blanco de la bandera transgénero y el texto en polaco “Nueva tecnología […] Cortinas que se cuelgan solas” y, sobre ella, “limpieza de primavera <3”. En su biografía, el propio usuario se describía como tránsfobo. La publicación tuvo menos de 50 reacciones.
Entre abril y mayo de 2023, 11 usuarios distintos denunciaron la publicación un total de 12 veces. Los sistemas automatizados de Meta priorizaron solo 2 de las 12 denuncias para que se sometieran a revisión manual; el resto se cerró. Las dos denuncias que se enviaron a revisión manual por una posible infracción de la política sobre suicidio y autolesión de Facebook se consideraron no infractoras. Ninguna de las denuncias basadas en la política sobre lenguaje que incita al odio se enviaron a revisión manual.
Tres usuarios apelaron la decisión de Meta de conservar la publicación de Facebook. En una de las apelaciones, un revisor mantuvo la decisión original basándose en la política sobre suicidio y autolesión de las Normas comunitarias. De nuevo, las demás apelaciones, enviadas conforme a la política sobre lenguaje que incita al odio de las Normas comunitarias, no se enviaron a revisión manual. Finalmente, uno de los usuarios que había denunciado el contenido en un primer momento envió una apelación al Consejo. Como resultado de que el Consejo seleccionara este caso, Meta determinó que la publicación infringía su política sobre lenguaje que incita al odio y su política sobre suicidio y autolesión, y la suprimió de Facebook. Además, la empresa inhabilitó la cuenta del usuario que había publicado el contenido debido a varias infracciones anteriores.
Conclusiones principales
El Consejo considera que el contenido infringía la política sobre lenguaje que incita al odio de Meta porque incluye “incitación a la violencia”, puesto que hace un llamamiento a que un grupo con una característica protegida se suicide. La publicación, que hace apología del suicido entre las personas transgénero, creó una atmósfera de intimidación y exclusión, y podría haber provocado daños físicos. Teniendo en cuenta la naturaleza del texto y de la imagen, la publicación también intensificaba la crisis de salud mental que sufre la comunidad transgénero. Un informe reciente de la Alianza de gays y lesbianas contra la difamación (GLAAD, por sus siglas en inglés) menciona “el enorme impacto psicológico traumático de sufrir la exposición continua a insultos y conductas de odio” en internet. La conclusión del Consejo queda respaldada por el contexto general de daños dentro y fuera de internet que la comunidad LGBTQIA+ está sufriendo en Polonia, incluidos ataques y discursos políticos por parte de figuras gubernamentales y personajes públicos influyentes.
Al Consejo le preocupa que los revisores de Meta no hayan detectado los indicios contextuales. La referencia de la publicación al elevado riesgo de suicidio (“cortinas que se cuelgan solas”) y el posicionamiento a favor de la muerte del grupo (“limpieza de primavera”) eran claras infracciones de la política sobre lenguaje que incita al odio de las Normas comunitarias, mientras que la autoidentificación del creador del contenido como tránsfobo sería por sí misma otra infracción. El Consejo insta a Meta a mejorar la precisión de la aplicación de la política sobre lenguaje que incita al odio en relación con las personas LGBTQIA+, en especial cuando las publicaciones incluyen imágenes y texto que requieren contexto para interpretarse. En este caso, las referencias relativamente codificadas al suicidio, junto con la representación visual de un grupo protegido (la bandera transgénero), constituían “creatividad maliciosa”. Este término hace referencia a actores malintencionados que desarrollan medios nuevos para atacar a la comunidad LGBTQIA+ por medio de publicaciones y memes que, argumentan, son “humorísticos o satíricos”, pero que realmente representan odio o acoso.
Además, al Consejo le preocupa la declaración de Meta en la que indica que los revisores no suprimieron el contenido debido a una aplicación estricta de sus normas internas. Esto apuntaría a que las pautas internas de Meta recogen de forma inadecuada el modo en que el texto y las imágenes pueden interactuar para representar a un grupo definido por la identidad de género de sus miembros.
Si bien la publicación también infringía claramente la política sobre suicidio y autolesión de las Normas comunitarias de Facebook, el Consejo considera que esta política debería prohibir con mayor claridad el contenido que promueva el suicidio entre un grupo identificable de personas, en lugar de solo hacia una persona de ese grupo.
En este caso, los sistemas automatizados de priorización de revisión de Meta afectaron de forma significativa a la aplicación de la política, entre otros aspectos, al modo en que la empresa aborda las situaciones en las que recibe varias denuncias sobre una misma pieza de contenido. Meta monitoriza estos casos y deduplica (suprime) las denuncias para “garantizar la coherencia de las decisiones de los revisores y de la aplicación de las políticas”. Otros motivos alegados por la empresa para el cierre automático de denuncias fueron las puntuaciones bajas del contenido en cuanto a severidad y viralidad (la cantidad de visualizaciones que ha obtenido el contenido), lo que implica que este no se priorizó para la revisión manual. En este caso, el Consejo cree que la biografía del usuario podría haberse considerado como una señal pertinente a la hora de determinar las puntuaciones de gravedad.
También cree que Meta debería invertir más en el desarrollo de clasificadores que identifiquen el contenido potencialmente infractor contra la comunidad LGBTQIA+ y que debería mejorar la formación de los revisores con respecto a los daños relacionados con la identidad de género.
Decisión del Consejo asesor de contenido
El Consejo asesor de contenido revoca la decisión original de Meta de conservar el contenido.
El Consejo recomienda que Meta tome las siguientes medidas:
- Aclarar en la página de la política sobre suicidio y autolesión que esta política prohíbe el contenido que promueve o fomenta el suicido entre un grupo identificable de personas.
- Modificar las pautas internas que proporciona a los revisores encargados de las revisiones a gran escala para asegurarse de que las representaciones visuales que usen banderas como símbolo de identidad de género y no contengan una figura humana se interpreten como representaciones de un grupo definido por la identidad de género de sus miembros.
* Los resúmenes de casos ofrecen información general sobre estos y no sientan precedente alguno.
Decisión completa del caso
1. Resumen de la decisión
El Consejo asesor de contenido ha anulado la decisión original de Meta de conservar una publicación de Facebook con contenido en polaco en la cual un usuario atacaba verbalmente a las personas transgénero y las exhortaba a suicidarse. Después de que el Consejo identificara el caso para su revisión, Meta concluyó que su decisión original de permitir que la publicación permaneciera en la plataforma fue un error, suprimió el contenido y aplicó sanciones. El Consejo considera que la publicación infringía tanto la política sobre lenguaje que incita al odio como la política sobre suicidio y autolesión de las Normas comunitarias. El Consejo aprovecha esta oportunidad para instar a Meta a mejorar sus políticas y las pautas para sus revisores a fin de proteger mejor a las personas transgénero en sus plataformas. En concreto, al evaluar si una publicación contiene lenguaje que incita al odio, Meta debería modificar las normas internas que proporciona a los revisores encargados de las revisiones a gran escala para asegurarse de que las representaciones visuales que usen banderas como símbolo de identidad de género y no contengan una figura humana se interpreten como representaciones de un grupo definido por la identidad de género de sus miembros. Meta también debería aclarar que alentar a todo un grupo a que se suicide es tan infractor como incitar a una única persona a hacerlo. No obstante, el Consejo considera que el problema fundamental en este caso no yace en las políticas, sino en su aplicación. Incluso tal como están redactadas en la actualidad, las políticas claramente prohíben esta publicación, ya que esta contenía múltiples indicadores de lenguaje que incita al odio contra un grupo de personas por motivo de su identidad de género. Puesto que Meta ha sido incapaz de aplicar las medidas adecuadas repetidamente en este caso (a pesar de las múltiples denuncias de usuarios), el Consejo concluye que la empresa no está cumpliendo los ideales que ha articulado en cuanto a la seguridad de la comunidad LGBTQIA+. El Consejo insta a Meta a eliminar los vacíos existentes en la aplicación de políticas.
2. Descripción y contexto del caso
En abril de 2023, un usuario de Facebook de Polonia publicó una imagen de una cortina a rayas con los colores azul, rosa y blanco de la bandera transgénero. En la imagen, el texto en polaco decía: “Nueva tecnología. Cortinas que se cuelgan solas”. Sobre esa línea, otro texto en polaco decía: “limpieza de primavera <3”. Además, en la biografía el usuario se describía en polaco como tránsfobo. La publicación recibió menos de 50 reacciones de otros usuarios, la mayoría de ellas, a favor del contenido. El emoticono de reacción usado con más frecuencia fue Me divierte.
Entre abril y mayo de 2023, 11 usuarios distintos denunciaron el contenido un total de 12 veces. Los sistemas automatizados de Meta no priorizaron 10 de esas denuncias para su revisión manual por varias razones, entre ellas “puntuaciones de gravedad y viralidad bajas”. Por lo general, Meta prioriza el contenido para someterlo a revisión manual en función de su gravedad, viralidad y probabilidad de infringir las políticas de contenido. Solo dos de las denuncias, que guardaban relación con la política sobre suicidio y autolesión de las Normas comunitarias de Facebook, dieron lugar al envío del contenido para su revisión manual. Ninguna de las denuncias basadas en la política sobre lenguaje que incita al odio se enviaron para una revisión manual. Según Meta, los revisores tienen tanto la capacidad como las herramientas para “evaluar contenido y tomar medidas” más allá de la lista de su política designada (es decir, lenguaje que incita al odio o suicidio y autolesión). Sin embargo, ambos revisores evaluaron el contenido y determinaron que la publicación no infringía las normas, por lo que no escalaron las denuncias.
Tres usuarios apelaron la decisión de Meta de mantener el contenido en Facebook. Una de las apelaciones dio lugar a una revisión manual que mantuvo la decisión original de Meta de que el contenido no infringía la política sobre suicidio y autolesión. Las otras dos apelaciones, relacionadas con la política de Facebook sobre lenguaje que incita al odio, no se enviaron a revisión manual. Esto se debe a que Meta monitoriza los casos en que existen varias denuncias de una misma pieza de contenido y las deduplica para garantizar la coherencia de las decisiones de los revisores y de la aplicación de las políticas.
Uno de los usuarios que había denunciado el contenido en un primer momento envió una apelación al Consejo. Como resultado de que el Consejo seleccionara este caso, Meta determinó que el contenido sí infringía tanto su política sobre lenguaje que incita al odio como su política sobre suicidio y autolesión y suprimió la publicación. Además, al revisar el caso, Meta detectó que la cuenta del creador del contenido ya había infringido las Normas comunitarias en suficientes ocasiones como para que se inhabilitase. Meta inhabilitó la cuenta en agosto de 2023.
El Consejo ha tenido en cuenta los siguientes aspectos contextuales a la hora de tomar una decisión respecto al caso:
Solemos recibir denuncias de Polonia dado los altos niveles de hostilidad hacia la comunidad LGBTQIA+. Nota: El Consejo usa “LGBTQIA+” (Lesbianas, Gays, Bisexuales, Transexuales, Queer, Intersexuales y Asexuales) para referirse a grupos basados en la orientación sexual, la identidad de género o la expresión de género de sus miembros. Sin embargo, el Consejo conservará los acrónimos o usos empleados por otras personas al citarlos. La Comisaria de Derechos Humanos del Consejo de Europa ya había llamado la atención sobre el hecho de que “la estigmatización de las personas LGBTI es un problema presente en Polonia desde hace mucho”. El informe Rainbow Europe, de la Asociación Internacional de Lesbianas, Gays, Bisexuales y Transgéneros (ILGA, por sus siglas en inglés) clasifica los países en función de las leyes y políticas de estos que afectan directamente a los derechos humanos de las personas LGBTI. El informe sitúa a Polonia en el puesto 42 de los 49 países europeos evaluados, lo que lo convierte en el Estado miembro de la Unión Europea con peor resultado. Tanto gobiernos locales y nacionales como personajes públicos destacados han atacado cada vez más a la comunidad LGBTQIA+ por medio de discursos discriminatorios y medidas legislativas.
En 2018, ILGA-Europa empezó a hacer un seguimiento de lo que la organización denomina “lenguaje político de alto perfil que incita al odio contra las personas LGBTI por parte de líderes políticos polacos”, incluidas las afirmaciones de que “todo el movimiento LGBT” es una “amenaza” para Polonia. Ese mismo año, el alcalde de Lublin (Polonia), intentó prohibir la marcha por la igualdad de la ciudad, aunque el Tribunal de Apelación anuló la prohibición justo antes de la fecha programada para la marcha. En 2019, el alcalde de Varsovia presentó una declaración de apoyo a la comunidad LGBT+ “para mejorar la situación de las personas LGBT” en la ciudad. El partido gobernante Ley y Justicia de Polonia (PiS) y los líderes religiosos criticaron este documento. El presidente y el Gobierno central de Polonia también han señalado a la comunidad transgénero como blanco. Por ejemplo, el presidente del PiS, el partido en el poder, se ha referido a las personas transgénero como “anormales”. El Ministro de Justicia de Polonia también ha pedido a la Corte Suprema del país que sopese que “además de a sus padres, las personas trans también deberían demandar a sus hijos y cónyuges (para obtener el permiso para la transición) cuando quieran acceder al reconocimiento jurídico de género”.
Polonia también ha promulgado la legislación anti-LGBTQIA+. En palabras del Observatorio de Derechos Humanos, las ciudades comenzaron a exigir “la exclusión de las personas LGBT de la sociedad polaca” al implementar, entre otras medidas, “zonas libres de personas LGBT” en 2019. El Observatorio de Derechos Humanos ha informado de que estas zonas son lugares “donde las autoridades locales han adoptado ‘cartas de derechos de la familia’ discriminatorias que supuestamente ‘protegen a los niños de la corrupción moral’ o que se han declarado libres de ‘ideología LGBT’”. Más de 100 ciudades han creado zonas de este tipo. ILGA-Europa informa de que, debido a la presión local, de la UE e internacional, algunos de estos municipios han anulado “las resoluciones anti-LGBT o las Cartas de derechos de la familia”. El 28 de junio de 2022, el Tribunal Supremo de lo Contencioso-Administrativo de Polonia ordenó a cuatro municipios que anularan sus resoluciones anti-LGBTQI+. Sin embargo, como sugiere el puesto de Polonia en el informe de Rainbow Europe, el clima en el país es notablemente hostil para la comunidad LGBTQIA+.
Una encuesta de 2019 realizada a personas LGBTI en la UE por la Agencia de los Derechos Fundamentales de la Unión Europea, comparó las experiencias de agresión y acoso de las personas LGBTI en Polonia con las de otras partes de la Unión Europea. Según la encuesta, el 51 % de las personas LGBTI en Polonia evitan con frecuencia o siempre determinados lugares por miedo a sufrir agresiones, en comparación con el 33 % del resto de la Unión Europea. La encuesta también halló que una de cada cinco personas transgénero sufrió ataques físicos o sexuales en los cinco años previos a la encuesta, más del doble que otros grupos LGBTI.
El Consejo encargó a expertos externos que analizaran respuestas en las redes sociales a declaraciones despectivas que realizaron funcionarios del Gobierno polaco. Esos expertos observaron “un aumento preocupante del lenguaje que incita al odio online contra comunidades minoritarias en Polonia, incluidas las comunidades LGBTQIA+, desde 2015”. En su análisis de contenido en polaco contra la comunidad LGBTQIA+ en Facebook, estos expertos notaron que se produjeron picos durante los “fallos judiciales relacionados con la legislación anti-LGBTQIA+”, como el fallo del Tribunal Supremo de lo Contencioso-Administrativo al que se ha hecho referencia anteriormente o las resoluciones relacionadas con los recursos legales contra la adopción de varias resoluciones anti-LGBT que, desde 2019, los defensores del pueblo polaco para la Comisaria de Derechos Humanos han presentado ante los tribunales administrativos locales.
El Consejo también preguntó a los expertos lingüísticos acerca del significado de las dos frases en polaco de la publicación. Con respecto a la frase “cortinas que se cuelgan solas”, los expertos observaron que, en el contexto de una bandera trans colgada en un ventana, la frase constituía un juego de palabras entre “colgar cortinas” y “suicidarse colgándose”. Los expertos concluyeron que la frase era un “insulto tránsfobo encubierto”. En cuanto a la frase “limpieza de primavera”, los expertos señalan que, normalmente, se refiere a una limpieza en profundidad que se hace cuando llega esta época del año, pero que, en determinados contextos, “también hace referencia a ‘tirar toda la basura’ y ‘deshacerse de todas las cosas (o personas) que no se quieren’”. En varios comentarios públicos, como el de Human Rights Campaign Foundation (PC-16029), se sostiene que la referencia de la publicación a “limpieza de primavera” es una forma de “apología de la exclusión y el aislamiento de las personas trans de la sociedad polaca (mediante su muerte)”.
La problemática relativa a los daños dentro y fuera de internet presente en este caso no solo afecta a la comunidad LGBTQIA+ en Polonia, sino a la de todo el mundo. Según la Organización Mundial de la Salud, el suicidio es la cuarta causa de defunción entre personas de 15 a 29 años en todo el mundo. La OMS afirma que las “tasas de suicidio también son elevadas entre los grupos vulnerables y discriminados, como los refugiados y migrantes, los pueblos indígenas, y las personas lesbianas, homosexuales, bisexuales, transexuales e intersexuales”. Otros estudios de investigación han demostrado que existe una “asociación positiva” entre sufrir ataques y victimización online y tener pensamientos suicidas.
El riesgo de suicidio es una preocupación especialmente relevante entre la comunidad transgénero y no binaria. En la encuesta nacional de 2023 sobre la salud mental de la comunidad LGBTQ de The Trevor Project se observó que la mitad de la juventud transgénero y no binaria en Estados Unidos había pensado en quitarse la vida en 2022. En ese mismo estudio se estima que el 14 % de las personas jóvenes LGBTQ intentaron suicidarse el año anterior, entre ellas, casi una de cada cinco personas jóvenes transgénero y no binarias. Según la encuesta sobre comportamientos de riesgo entre los jóvenes (Youth Risk Behavior Survey) de CDC, el 10 % de los estudiantes de secundaria en Estados Unidos intentaron suicidarse en 2021. En numerososestudios de distintas partes del mundo se ha llegado a la conclusión de que las personas transgénero o no binarias tienen mayor riesgo de sufrir pensamientos suicidas e intentos de suicidio que las personas cisgénero.
En un comentario público (PC-16027) al Consejo, la GLAAD resaltó los hallazgos de su encuesta anual, el índice de seguridad en las redes sociales (Social Media Safety Index), en el que se evalúa la seguridad de los usuarios LGBTQ en cinco de las principales plataformas de redes sociales. De acuerdo con el informe de 2023, Facebook obtuvo una puntuación del 61 % según los 12 indicadores específicos de la comunidad LGBTQ. Esta puntuación supone un aumento de 15 puntos en comparación con 2022 y coloca a Facebook en segundo puesto, después de Instagram, y por delante de las otras tres grandes plataformas. Sin embargo, la GLAAD señala que “la seguridad y la calidad de la protección de los usuarios LGBTQ siguen siendo poco satisfactorias”. En el informe se determina que existen “daños resultantes claramente palpables para las personas LGBTQ en internet, incluido un efecto disuasorio para ejercer su libertad de expresión debido al miedo de sufrir agresiones, además del enorme impacto psicológico y traumático de sufrir la exposición continua a insultos y conductas de odio”.
3. Competencia y ámbito de actuación del Consejo asesor de contenido
El Consejo tiene competencia para revisar la decisión de Meta tras la apelación de la persona que previamente había denunciado el contenido que se mantuvo publicado (artículo 2, apartado 1 del acta constitutiva; artículo 3, apartado 1 de los estatutos).
El Consejo puede ratificar o revocar la decisión de Meta (artículo 3, apartado 5 del acta constitutiva), y la decisión que tome será vinculante para la empresa (artículo 4 del acta constitutiva). Meta también debe evaluar la viabilidad de aplicar su decisión respecto a contenido idéntico cuyo contexto sea similar (artículo 4 del acta constitutiva). Las decisiones del Consejo pueden incluir recomendaciones no vinculantes a las que Meta debe responder (artículo 3, apartado 4, y artículo 4 del acta constitutiva). En los casos en los que Meta se compromete a tomar medidas basadas en esas recomendaciones, el Consejo supervisa su implementación.
Cuando el Consejo selecciona casos como este, en los que Meta posteriormente reconoce que se equivocó, revisa la decisión original para entender mejor el proceso de moderación de contenido y para hacer recomendaciones que contribuyan a reducir los fallos y a hacer que el sistema sea más justo para los usuarios de Facebook e Instagram.
4. Precedentes y pautas
El análisis del Consejo en este caso se basó en las normas y precedentes siguientes:
I. Decisiones del Consejo asesor de contenido
A continuación se indican algunas de las decisiones anteriores del Consejo asesor de contenido que resultan pertinentes en este caso:
- Reapropiación de términos árabes
- Caricaturas de Knin
- Manifestaciones en Colombia
- Armenios en Azerbaiyán
II. Políticas de contenido de Meta
En las bases de la política sobre lenguaje que incita al odio, se define dicho lenguaje como “un ataque directo contra las personas (no contra conceptos o instituciones) por razón de […] características protegidas”, como el sexo y la identidad de género. Meta define como ataques “el discurso violento o deshumanizador; los estereotipos nocivos; el trato de inferioridad; las expresiones de desprecio, asco o rechazo; los insultos y los llamamientos a la exclusión o la segregación”. En las bases de la política, Meta también afirma lo siguiente: “Creemos que las personas se expresan y conectan entre sí con mayor libertad cuando no se sienten atacadas por ser quienes son. Por ello, no permitimos el lenguaje que incita al odio en Facebook, ya que crea un entorno de intimidación y exclusión y, en algunos casos, puede fomentar la violencia fuera de internet”.
La política sobre lenguaje que incita al odio de las Normas comunitarias de Meta clasifica los ataques en “niveles”. Los ataques de nivel 1 incluyen el contenido en el que se ataca a una persona o un grupo de personas debido a sus características protegidas con “incitación a la violencia o apoyo a la misma tanto de forma escrita como visual”. En última instancia, Meta determinó que la publicación en este caso infringía esa parte de la política. El 6 de diciembre de 2023, Meta actualizó las Normas comunitarias para reflejar que la prohibición de la incitación a la violencia contra grupos con características protegidas se había trasladado a la política sobre violencia e incitación.
Los ataques de nivel 2 incluyen el contenido en el que se ataca a una persona o un grupo de personas debido a sus características protegidas con “expresiones de desprecio (de forma escrita o visual)”. En la política sobre lenguaje que incita al odio de las Normas comunitarias, Meta define expresiones de desprecio como “admisión de la propia intolerancia respecto de características protegidas” y “expresiones de que una característica protegida no debería existir”.
La política sobre suicidio y autolesión de las Normas comunitarias prohíbe “el contenido que fomenta el suicidio o las autolesiones, incluido el contenido ficticio (como memes o ilustraciones)”. Asimismo, Meta suprime el “contenido en el que se promocione, fomente, coordine o proporcionen instrucciones para […] suicidio y autolesiones”.
El análisis del Consejo se basó en el compromiso de Meta con la libertad de expresión, que la empresa califica como “de suma importancia”, y con los valores de seguridad y dignidad.
III. Responsabilidades de Meta en materia de derechos humanos
Los Principios rectores sobre las empresas y los derechos humanos (UNGP, por sus siglas en inglés) de la ONU, respaldados por el Consejo de Derechos Humanos de la ONU en 2011, establecen un marco voluntario de responsabilidades de las empresas privadas en relación con estos derechos. En 2021, Meta anunció su Política corporativa de derechos humanos, con la que reafirmó su compromiso con el respeto de los derechos humanos de conformidad con los UNGP. El análisis del Consejo sobre las responsabilidades de Meta en materia de derechos humanos en este caso se basó en las siguientes normas internacionales:
- Derecho a la libertad de opinión y expresión: artículo 19 del Pacto Internacional de Derechos Civiles y Políticos (PIDCP); Observación general n.º 34 del Comité de Derechos Humanos (2011); informes del relator especial de las Naciones Unidas sobre la promoción y protección del derecho a la libertad de opinión y de expresión: A/HRC/38/35 (2018), A/74/486 (2019); y el Plan de Acción de Rabat, informe de la Alto Comisionado de las Naciones Unidas para los Derechos Humanos: A/HRC/22/17/Add.4 (2013).
- Derecho a la vida: artículo 6 del PIDCP.
- Derecho al disfrute del más alto nivel posible de salud física y mental: artículo 12 del Pacto Internacional de Derechos Económicos, Sociales y Culturales (PIDESC).
- Derecho a la igualdad y la no discriminación: artículo 2, párrafo 1 y artículo 26 del PIDCP.
5. Manifestaciones del usuario
En su apelación al Consejo, el usuario que denunció el contenido señaló que la persona que había publicado la imagen había acosado anteriormente a personas transgénero online. Además, había creado una cuenta nueva a raíz de su suspensión de Facebook. También comentó que “no debería estar permitido” que alguien aplauda la elevada tasa de suicidio entre los miembros de la comunidad transgénero.
6. Manifestaciones de Meta
En última instancia, Meta suprimió la publicación de conformidad con el nivel 1 de la política sobre lenguaje que incita al odio de sus Normas comunitarias porque el contenido infringía la parte de la política que prohíbe el contenido que ataca a una persona o un grupo de personas por razón de sus características protegidas mediante “incitación a la violencia o apoyo a la misma tanto de forma escrita como visual”. En sus normas internas sobre cómo aplicar esta política, Meta afirma que el contenido debería suprimirse si se trata de “incitación a la violencia en relación a la muerte, enfermedades o daños en forma de llamamientos a la acción o declaraciones de intención, declaraciones aspiracionales o condicionales, o declaraciones en defensa o apoyo (de forma escrita o visual)”.
En esas normas internas, la empresa también describe qué considera una representación visual de grupos con características protegidas en una imagen o un vídeo. Meta no ha permitido que el Consejo publicara información más detallada sobre esta pauta. En cambio, afirmó que: “en virtud de la política sobre lenguaje que incita al odio, Meta puede tener en cuenta elementos visuales presentes en el contenido al evaluar si el contenido ataca a una persona o a un grupo de personas en función de sus características protegidas”.
Meta señaló que las múltiples evaluaciones del contenido como no infractor de la política sobre lenguaje que incita al odio por parte de los revisores es coherente con “una aplicación estricta de nuestras normas internas”. Y añadió: “Si bien las cortinas se parecen a la bandera del orgullo trans, el ataque a una bandera, sin nada más, lo interpretaríamos como un ataque a un concepto o una institución, lo cual no infringe nuestras políticas, en lugar de un ataque contra una persona o grupos de personas”. Sin embargo, Meta posteriormente determinó que la “referencia a colgarse indica que esta publicación está atacando a un grupo de personas”. Esta evaluación se basó en la determinación de que la frase “‘cortinas que se cuelgan solas’ hace referencia implícitamente a la tasa de suicidio en la comunidad transgénero porque las cortinas simulan la bandera del orgullo trans, y las cortinas que cuelgan en la foto (además del texto superpuesto) es una metáfora de las personas que se cuelgan para suicidarse”. Meta también señaló que “los conceptos o las instituciones no pueden ‘colgarse’, al menos no literalmente”. Por este motivo, Meta determinó que el usuario se estaba refiriendo a “las personas transgénero, no solo al concepto”. Por lo tanto, según Meta, “este contenido infringe la política sobre lenguaje que incita al odio porque su intención es que se interprete como una declaración a favor de que un grupo con características protegidas se suicide”.
Tras una actualización de la política sobre lenguaje que incita al odio, en la que se trasladó la parte de esta política que prohíbe el lenguaje que incita al odio contra grupos con características protegidas a la política sobre violencia e incitación, Meta dijo al Consejo que el contenido seguía siendo infractor.
Meta también indicó que la frase de la presentación de la cuenta del usuario “soy tránsfobo” infringía el nivel 2 de la política sobre lenguaje que incita al odio, ya que constituye una “admisión de la propia intolerancia con respecto a las características protegidas”. Según Meta, esta frase fue considerada infractora como parte de la revisión de Meta tanto del caso como de la cuenta del usuario después de que el Consejo seleccionara el caso. Meta indicó que esta frase ayudó a confirmar la intención del usuario en el contenido del caso.
En respuesta a la pregunta del Consejo sobre si el contenido infringe la política sobre suicidio y autolesión, Meta confirmó que “el contenido infringe la política sobre suicidio y autolesión porque fomenta el suicido, lo que es coherente con nuestra conclusión de que el contenido constituye una declaración a favor de la muerte mediante el suicidio de un grupo con características protegidas”. Meta también informó que la política sobre suicidio y autolesión “no hace diferencias entre si el contenido que promueve o fomenta el suicidio va dirigido a una persona específica o a un grupo de personas”.
El Consejo planteó 13 preguntas a Meta por escrito. Las preguntas estaban relacionadas con el enfoque de moderación de contenido de Meta con respecto a los problemas de las personas transgénero y LGBTQIA+; la relación entre la política sobre lenguaje que incita al odio y la política sobre suicidio y autolesión de las Normas comunitarias; de qué modo los moderadores evalúan el “humor” y la “sátira” al revisar el contenido por posibles infracciones de lenguaje que incita al odio; el papel de las puntuaciones de “viralidad” y “gravedad” a la hora de priorizar contenido para una revisión manual; y de qué manera las prácticas de moderación de contenido de Meta gestionan la priorización del contenido que varios usuarios han denunciado para someterlo a una revisión manual. Meta respondió las 13 preguntas.
7. Comentarios públicos
El Consejo asesor de contenido recibió 35 comentarios públicos pertinentes para este caso: 25 de Estados Unidos y Canadá, 7 de Europa y 3 de Asia-Pacífico y Oceanía. La cifra total incluye comentarios públicos que estaban duplicados o que se enviaron con consentimiento para publicarse, pero no cumplían las condiciones del Consejo para su publicación. Dicha exclusión puede deberse a la naturaleza abusiva del comentario, preocupaciones sobre la privacidad del usuario u otros motivos legales. Los comentarios públicos pueden enviarse al Consejo con o sin consentimiento para publicarse, y con o sin consentimiento para mencionar el nombre del autor.
Estos comentarios trataban los siguientes temas: situación de los derechos humanos en Polonia, en especial con respecto a las personas transgénero; la seguridad de las personas LGBTQIA+ en las plataformas de redes sociales; la relación entre los daños dentro y fuera de internet en Polonia; la relación entre humor, sátira, memes y el odio o el acoso contra las personas transgénero en las plataformas de redes sociales; y los desafíos de moderar contenido que requiere contexto para interpretarse.
Los comentarios públicos recibidos en relación con este caso se pueden consultar aquí.
8. Análisis del Consejo asesor de contenido
El Consejo analizó si este contenido debía suprimirse teniendo en cuenta las políticas de contenido, las responsabilidades en materia de derechos humanos y los valores de Meta. Asimismo, el Consejo evaluó las implicaciones de este caso en el enfoque general de Meta en cuanto a la gobernanza en estrategia de contenidos.
El Consejo seleccionó este caso para evaluar la precisión con la que Meta aplica su política sobre lenguaje que incita al odio, así como para comprender mejor cómo aborda la empresa el contenido relacionado tanto con lenguaje que incita al odio como con la promoción del suicidio o la autolesión.
8.1 Cumplimiento de las políticas de contenido de Meta
I. Reglas de contenido
Lenguaje que incita al odio
El Consejo ha determinado que el contenido de este caso infringe la política sobre lenguaje que incita al odio de las Normas comunitarias. La publicación incluía “incitación a la violencia o apoyo a la misma tanto de forma escrita como visual” (nivel 1), puesto que hacía un llamamiento a que un grupo con características protegidas se suicide, lo que infringe claramente la política sobre lenguaje que incita al odio.
El Consejo concuerda con la conclusión final de Meta de que la referencia a colgarse en la publicación es un ataque a un grupo de personas en lugar de a un concepto porque “los conceptos y las instituciones no pueden ‘colgarse solos’”. Esta conclusión también queda respaldada por el contexto general en torno a los daños dentro y fuera de internet que la comunidad LGBTQIA+, especialmente las personas transgénero, sufre en Polonia. Una publicación con incitación a la violencia que hace apología del suicidio de las personas transgénero y lo defiende genera una atmósfera de intimidación y exclusión, y podría contribuir a daños físicos. El contexto en el que se empleó el lenguaje de la publicación dejaba claro que se usó con la intención de deshumanizar a su objetivo. Teniendo en cuenta la naturaleza del texto y de la imagen, la publicación también intensifica la crisis de salud mental que sufre actualmente la comunidad transgénero. Según varios estudios, las personas transgénero o no binarias tienen un mayor riesgo de sufrir pensamientos suicidas e intentos de suicidio que las personas cisgénero. Además, se ha demostrado que existe una asociación positiva entre sufrir ataques y victimización online y tener pensamientos suicidas. En este contexto, el Consejo considera que la presencia de la bandera transgénero, junto con la referencia al riesgo elevado de suicidio dentro de la comunidad transgénero (“cortinas que se cuelgan solas”) es un claro indicio de que las personas transgénero son el objetivo de la publicación. El Consejo considera que la frase “limpieza de primavera”, seguida del emoticono de corazón (<3), también constituye apoyo a la muerte del grupo. Asimismo, también infringe la prohibición de la política sobre lenguaje que incita al odio (nivel 2) en lo relativo a “expresiones de que una característica protegida no debería existir”.
Con respecto a esta política de las Normas comunitarias, el Consejo cree que la política y las normas internas para su aplicación podrían ser más sensibles a la “creatividad maliciosa” en tendencias de contenido que se dirigen históricamente a grupos marginalizados. El Wilson Center acuñó este término a raíz de estudios sobre abuso por cuestiones de género y sexo, y la GLAAD también ha enfatizado la pertinencia del término en su comentario público (PC-16027). La “creatividad maliciosa” hace referencia al “uso de lenguaje codificado; memes iterativos visuales y textuales basados en el contexto; y otras tácticas para evitar la detección en las plataformas de redes sociales”. Al aplicar este concepto a la publicación de este caso, la GLAAD indicó que la “creatividad maliciosa” tiene que ver con actores malintencionados que desarrollan medios nuevos para atacar a la comunidad LGBTQ, y a grupos vulnerables en general, por medio de publicaciones y memes que, argumentan, son “humorísticos o satíricos”, pero que en realidad son odio o acoso anti-LGBTQ. En especial, la “creatividad maliciosa” en este caso consiste en una publicación con dos referencias semicodificadas al suicidio (“cortinas que se cuelgan solas” y “limpieza de primavera”) junto con una representación visual de un grupo protegido (la bandera transgénero) para fomentar el suicidio. En la decisión del caso Armenios en Azerbaiyán, el Consejo señaló la importancia del contexto para determinar que el término en consideración en ese caso se había usado para atacar a un grupo por motivo de una característica protegida. Si bien el contexto de la guerra prevalecía en ese caso, las amenazas a las que se enfrentan las personas transgénero en Polonia ponen de manifiesto que, incluso sin existir una guerra, una comunidad puede sufrir situaciones terribles. Como se ha indicado anteriormente, una de cada cinco personas transgénero en Polonia afirma haber sufrido un ataque físico o sexual en los cinco años previos a 2019, más del doble que las personas de otros grupos LGBTI que han afirmado haber sufrido este tipo de ataques.
Al Consejo le preocupa que los revisores iniciales de Meta no detectaran estos indicios contextuales en el contenido y que, como consecuencia, concluyeran que el contenido no era infractor. Si bien el Consejo recomienda algunos cambios en las pautas internas para la aplicación de la política sobre lenguaje que incita al odio, subraya que la publicación infringía las políticas tal cual estaban escritas en el momento. Los dos afirmaciones incluidas en la publicación apoyan el suicidio de las personas transgénero. La señal adicional en la presentación del usuario respalda esta conclusión. La autoidentificación del usuario como tránsfobo constituiría en sí misma una infracción de la disposición del nivel 2 de la política sobre lenguaje que incita al odio que prohíbe la “admisión de la propia intolerancia respecto de características protegidas”. Meta debe mejorar la precisión de la aplicación de su política sobre lenguaje que incita al odio contra la comunidad LGBTQIA+, ya sea por medio de la automatización o la revisión manual, en especial cuando las publicaciones incluyen imágenes y texto que requieren contexto para ser interpretados. Según las observaciones de la GLAAD (PC-16027), Meta “es sistemáticamente incapaz de aplicar sus políticas cuando revisa denuncias de contenido que incluye ‘creatividad maliciosa’”.
Al Consejo también le preocupa la declaración de Meta en la que indica que la decisión de los revisores de no suprimir el contenido “es coherente con una aplicación estricta de nuestras normas internas”. Esta afirmación apuntaría a que las pautas internas para los revisores recogen de forma inadecuada el modo en que el texto y las imágenes pueden interactuar en una publicación en las redes sociales para representar a un grupo definido por la identidad de género de sus miembros. El Consejo considera que las pautas podrían no ser suficientes para que los revisores encargados del contenido a gran escala sean capaces de llegar a la conclusión correcta al revisar contenido en el que se ataca a grupos con características protegidas mediante representaciones visuales, pero sin que se les nombre y sin que aparezcan figuras humanas. Meta no ha permitido que el Consejo publique otros detalles que habrían permitido mantener un debate más profundo sobre cómo se podría mejorar la aplicación de políticas en este tipo de contenido. Sin embargo, el Consejo cree que Meta debería modificar sus pautas internas para garantizar que las representaciones visuales de identidad de género se comprendan de forma adecuada al evaluar contenido de ataque. El Consejo señala que esta sugerencia no busca disminuir la protección que Meta establece al cuestionamiento de conceptos, instituciones, ideas, prácticas o creencias. Su objetivo es que Meta aclare que no es necesario que las publicaciones incluyan representaciones de figuras humanas para que constituyan un ataque contra personas.
Suicidio y autolesión
El Consejo considera que el contenido de este caso también infringe la política sobre suicidio y autolesión de las Normas comunitarias. Esta política prohíbe el “contenido en el que se promocione, fomente, coordine o proporcionen instrucciones para […] suicidio y autolesiones”. Según las normas internas que Meta proporciona a los revisores, “promoción” se define como “hablar de forma positiva sobre algo”. El Consejo está de acuerdo con la conclusión final de Meta de que el contenido constituye una declaración a favor de la muerte mediante el suicidio de un grupo con características protegidas y, por lo tanto, fomenta el suicidio.
El Consejo también considera que la política sobre suicidio y autolesión de las Normas comunitarias debería prohibir más explícitamente el contenido que promueva o fomente el suicidio entre un grupo identificable de personas, en lugar de solo hacia una persona de ese grupo. Meta informó al Consejo de que la política no diferencia entre estas dos formas de contenido. Sin embargo, dada la dificultad que tuvieron los revisores en este caso para identificar una afirmación que fomentaba el suicidio entre un grupo, el Consejo insta a Meta a aclarar que la política prohíbe el contenido que promueve o fomenta el suicidio entre un grupo identificable de personas. Meta debería aclarar este punto en su política sobre suicidio y autolesión, así como en las normas internas que proporciona a los revisores.
II. Aplicación de medidas
El Consejo considera que, en este caso, los sistemas automatizados de priorización de revisión de Meta afectaron de forma significativa a las medidas de aplicación de las políticas. De las 12 denuncias de usuarios que recibió la publicación, los sistemas automatizados de Meta cerraron 10 de manera automática. De las tres apelaciones de usuarios presentadas contra las decisiones de Meta, los sistemas automatizados de Meta cerraron dos automáticamente. Al Consejo le preocupa que el historial del caso que se le proporcionó contuviese numerosos indicadores de una infracción, lo que da a entender que las políticas de Meta no se están aplicando de forma adecuada.
El Consejo destaca que muchas denuncias de usuarios se cerraron como resultado de las prácticas de moderación de contenido que Meta utiliza cuando existen varias denuncias para una misma pieza de contenido. La primera denuncia por lenguaje que incita al odio no se priorizó para someterla a una revisión manual debido a una “puntuación baja de gravedad y de viralidad”. Las demás denuncias por lenguaje que incita al odio no se priorizaron para la revisión manual porque, cuando se reciben varias denuncias sobre el mismo contenido, Meta “deduplica esas denuncias para garantizar la coherencia de las decisiones de los revisores y de la aplicación de las políticas”. El Consejo reconoce que la deduplicación es una práctica razonable para la moderación de contenido a gran escala. Sin embargo, el Consejo señala que esta práctica añade más presión a la conclusión inicial sobre una denuncia, ya que también determinará la conclusión sobre las demás denuncias que se hayan agrupado con ella.
El Consejo cree que sería importante para Meta dar prioridad a mejorar la precisión de los sistemas automatizados que aplican las políticas de contenido y que priorizan el contenido para su revisión, en particular, cuando se trata de contenido que podría afectar a las personas LGBTQIA+. Estas mejoras en la capacidad de los sistemas automatizados para reconocer el tipo de lenguaje codificado e imágenes basadas en contexto que se analizan en este caso sin duda también mejorarían la aplicación de las políticas en contenido que ataca a otros grupos con características protegidas. El Consejo cree que, por ejemplo, la presentación de la cuenta del usuario, en la que este reconocía que era tránsfobo, podría haberse considerado como una señal pertinente al determinar las puntuaciones de gravedad para decidir si se debía priorizar el contenido para su revisión o tomar medidas contra este. Esta señal podría complementar análisis existentes sobre comportamientos y redes sociales que Meta podría usar para identificar contenido potencialmente infractor.
Además, el Consejo enfatiza que sería importante para Meta asegurarse de que los sistemas automatizados estén bien calibrados y de que los revisores de contenido estén capacitados para evaluar a gran escala y de manera eficaz las publicaciones relacionadas con la comunidad LGBTQIA+. Al Consejo le preocupa el sistema actual de Meta, en el que los revisores a cargo de evaluar las apelaciones a menudo parecen tener el mismo nivel de experiencia que aquellos que evalúan el contenido en primera instancia. El Consejo también cree que Meta debería invertir más en el desarrollo y el aprendizaje de clasificadores que identifiquen el contenido potencialmente infractor contra la comunidad LGBTQIA+ y priorizar ese contenido para someterlo a revisión manual. El lenguaje que incita al odio, en especial el contenido de mayor gravedad que cumple lo dispuesto en el nivel 1 de la política de Meta, siempre se debería priorizar para su revisión. El Consejo también sugiere reforzar estas mejoras en el proceso con: i) mayor formación para los revisores respecto a los daños relacionados con la identidad de género; ii) un grupo de trabajo sobre experiencias de las personas transgénero y no binarias en las plataformas de Meta; y iii) la creación de un grupo especializado formado por expertos en la materia para revisar el contenido relacionado con los problemas que afectan a la comunidad LGBTQIA+. Si bien los hechos de este caso están relacionados específicamente con los daños que sufren las personas transgénero en Facebook, el Consejo también anima a Meta a analizar cómo mejorar la aplicación de políticas en contenido de odio que afecta a otros grupos con características protegidas.
Si bien el Consejo solo emite dos recomendaciones formales a continuación, destaca que esto se debe a que los retos expuestos en este caso tienen más que ver con la aplicación de las políticas que con su redacción actual. El Consejo ha detectado al menos cinco indicios de contenido perjudicial en este caso: (1) las referencias de la publicación a “cortinas que se cuelgan solas”; (2) la referencia de la publicación a “limpieza de primavera <3”; (3) la autodescripción del usuario como tránsfobo en un país con altos niveles constatados de hostilidad contra la comunidad LGBTQIA+; (4) el número de denuncias y apelaciones de usuarios sobre el contenido; y (5) el número de denuncias y apelaciones relativos a la viralidad del contenido. Al Consejo le preocupa que Meta no haya detectado estas señales y cree que esto da a entender que las políticas se están subaplicando. El Consejo cree con firmeza que Meta debería estudiar de forma rigurosa y creativa cómo hacer que sus ideales de proteger a las personas LGBTQIA+ en sus plataformas se den la mano con la aplicación de esos ideales.
8.2. Cumplimiento de las responsabilidades de Meta en materia de derechos humanos
Libertad de expresión (artículo 19 del PIDCP)
En el artículo 19, párrafo 2, del PIDCP se manifiesta que “todos tienen derecho a la libertad de expresión; este derecho incluye la libertad de buscar, recibir e impartir información e ideas de todo tipo, independientemente de las fronteras, ya sea de manera oral, escrita o impresa, en forma de expresión artística, o por otros medios”. La Observación general n.°34 (2011) también especifica que la expresión protegida incluye la expresión que pueda considerarse “profundamente ofensiva” (párrafo 11).
Si un Estado impone restricciones sobre la libertad de expresión, estas deben cumplir los requisitos de legalidad, fin legítimo y necesidad y proporcionalidad (artículo 19, párrafo 3 del PIDCP). Estos requisitos reciben habitualmente el nombre de “prueba de tres partes”. El Consejo usa este marco para interpretar los compromisos voluntarios de Meta en materia de derechos humanos, tanto respecto de la decisión sobre el contenido concreto sometido a revisión como de lo que esto pone de manifiesto acerca del enfoque global de la empresa en relación con la gobernanza en estrategia de contenidos. Tal como afirma el relator especial de la ONU sobre la promoción y protección del derecho a la libertad de opinión y de expresión: “las empresas no tienen las obligaciones de los Gobiernos, pero su repercusión es de un tipo que las obliga a evaluar el mismo tipo de cuestiones sobre la protección del derecho de sus usuarios a la libertad de expresión” (A/74/486, párrafo 41).
I. Legalidad (claridad y accesibilidad de las reglas)
El principio de legalidad conforme a la legislación internacional de derechos humanos requiere que cualquier regla que limite la expresión sea clara y de acceso público (Observación general n.º 34, párrafo 25). Las reglas que restrinjan la expresión “no pueden conferir a los encargados de su aplicación una discrecionalidad sin trabas para restringir la libertad de expresión” y “deben proporcionar suficientes pautas a los encargados de su ejecución para que puedan distinguir cuáles expresiones pueden restringirse correctamente y cuáles no” (ibidem). En referencia a las reglas que rigen el discurso online, el relator especial de la ONU sobre la promoción y protección del derecho a la libertad de opinión y de expresión ha indicado que deben ser claras y específicas (A/HRC/38/35, párrafo 46). Las personas que usan las plataformas de Meta deben ser capaces de acceder a las reglas y entenderlas, y los revisores de contenido deben tener pautas claras para su aplicación.
El Consejo considera que las prohibiciones de Meta relativas a la “incitación a la violencia o apoyo a la misma” tanto de forma escrita como visual contra grupos con características protegidas, las expresiones de que una característica protegida no debería existir y el discurso que promueva o fomente el suicidio y la autolesión son lo suficientemente claras.
Sin embargo, el Consejo señala que Meta podría mejorar la precisión con la que aplica las políticas que atañen a este caso proporcionando pautas más claras a los revisores, como se indica en el apartado 8.1 anterior. Meta debería aclarar que no es necesario que las representaciones visuales de identidad de género (como podría ser una bandera) incluyan figuras humanas para constituir un ataque en virtud de la política sobre lenguaje que incita al odio. También debería aclarar que incitar a que un grupo (en lugar de una persona concreta) cometa suicidio infringe la política sobre suicidio y autolesión.
II. Fin legítimo
Cualquier restricción a la libertad de expresión debe tener como objetivo el cumplimiento de alguno de los fines legítimos indicados en el PIDCP, donde también se contemplan los “derechos de terceros”. En varias de sus decisiones, el Consejo ha determinado que la política sobre lenguaje que incita al odio de Meta, cuyo objetivo es proteger a las personas del daño que ocasiona el lenguaje que incita al odio, tiene un fin legítimo reconocido por los estándares internacionales en materia de derechos humanos (véase, por ejemplo, el caso “Caricaturas de Knin”). Además, el Consejo considera que, en este caso, las secciones de la política sobre suicidio y autolesión relativas al contenido que fomenta el suicido o la autolesión satisfacen los fines legítimos de proteger el derecho de las personas a disfrutar del más alto nivel posible de salud física y mental (artículo 12 del PIDESC) y el derecho a la vida (artículo 5 del PIDCP). En casos como este, donde se incita a un grupo con características protegidas a que cometa suicidio, la política sobre suicidio y autolesión también protege los derechos de las personas a la igualdad y la no discriminación (artículo 2, párrafo 1 del PIDCP).
III. Necesidad y proporcionalidad
El principio de necesidad y proporcionalidad dispone que las restricciones que se apliquen a la libertad de expresión “deben ser adecuadas para desempeñar su función protectora; deben ser el instrumento menos perturbador de los que permitan conseguir el resultado deseado, y deben guardar proporción con el interés que debe protegerse” (Observación general n.º 34, párrafo 34).
Cuando se trata de analizar los riesgos que presenta el contenido violento u ofensivo, el Consejo normalmente se guía por la prueba de seis factores descrita en el Plan de Acción de Rabat, que trata la apología del odio nacional, racial o religioso que constituye una incitación a la hostilidad, la discriminación o la violencia. Al evaluar los factores pertinentes, en especial, el contenido y la forma de expresión, la intención del hablante y el contexto, que se describen más detalladamente a continuación, el Consejo considera que suprimir el contenido cumple con las responsabilidades de Meta en materia de derechos humanos, ya que este supone un daño inminente y probable. Suprimir el contenido es una limitación necesaria y proporcionada sobre la expresión para poder proteger el derecho a la vida, así como el derecho a disfrutar del más alto nivel posible de salud física y mental de la comunidad LGBTQIA+ en general y, en particular, de las personas transgénero en Polonia.
Aunque el Consejo ha destacado en ocasiones anteriores la importancia que tiene para las personas LGBTQIA+ la reapropiación de términos despectivos en la lucha contra la desinformación (véase la decisión Reapropiación de términos árabes), este no es el caso. La publicación tampoco contiene discurso político ni de interés periodístico (véase la decisión del caso Manifestaciones en Colombia). En este caso, la publicación muestra una imagen con la bandera transgénero colgada como una cortina, con una descripción que dice que las cortinas se cuelgan solas. De acuerdo con los expertos consultados por el Consejo, el uso de cortinas, tanto de forma visual como textual, no parece ser lenguaje codificado habitual dirigido a la comunidad transgénero. No obstante, como se ha indicado anteriormente, el fenómeno de la “creatividad maliciosa” (es decir, el uso de lenguaje y estrategias de representación novedosos para expresar odio y acoso) se ha convertido en algo característico de las tendencias de contenido que ataca a las personas transgénero. El Consejo considera que el contenido en este caso encaja perfectamente en esa tendencia. Si bien la publicación contenía imágenes que algunas personas consideraron “graciosas” (como ponen de manifiesto las reacciones Me divierte), se trata claramente de una afirmación violenta y provocativa contra la comunidad transgénero. Si bien el humor y la sátira se pueden usar para jugar con los límites de las críticas legítimas, no pueden utilizarse para camuflar el lenguaje que incita al odio. La publicación solo hace referencia a las elevadas tasas de suicidio en la comunidad transgénero para celebrar el dato.
Al considerar la intención del creador del contenido, el Consejo destaca que en la presentación de su cuenta se describe abiertamente como tránsfobo. Si bien Meta solo tuvo en cuenta las implicaciones de esta afirmación para analizar el contenido del caso posteriormente, el Consejo considera que es particularmente pertinente para determinar la intención del usuario. También constituiría motivo suficiente por sí mismo para suprimir el contenido como una infracción de nivel 2 de la política sobre lenguaje que incita al odio. La publicación también describía el suicidio de personas transgénero como una “limpieza de primavera”, acompañado de un emoticono de corazón. Ante esta declaración de apoyo al suicidio de un grupo, el Consejo considera que, teniendo en cuenta el contenido de la publicación, la imagen usada y el texto y la descripción, sí hubo intención de fomentar la discriminación y la violencia. El contenido en este caso no solo fomenta que las personas transgénero cometan una acción violenta contra ellas mismas, sino que también incita a otros a discriminar a las personas transgénero y a actuar con hostilidad contra ellas. Esta interpretación queda confirmada por el hecho de que el emoticono de reacción Me divierte fue el más utilizado por los usuarios que interactuaron con el contenido.
Por último, el Consejo señala los riesgos significativos fuera de internet a los que se enfrenta la comunidad LGBTQIA+ polaca, que sufre cada vez más ataques por medio de medidas legislativas y administrativas, así como mediante discursos políticos de importantes figuras gubernamentales y personajes públicos influyentes. Según ILGA-Europa, Polonia es, desde 2020, el país miembro de la UE con peor resultado en materia de derechos LGBTQIA+ en su clasificación. También es importante señalar que Polonia no cuenta con protecciones para la comunidad LGBTQIA+ en su legislación sobre lenguaje que incita al odio y sobre crímenes de odio, un problema que ILGA-Europa y Amnistía Internacional, entre otros, le han instado a solucionar. Además, el aumento de los discursos anti-LGBTQIA+ en polaco en Facebook, marcados por expertos externos y numerosos comentarios públicos, no sucede de forma aislada. Muchas organizaciones e instituciones han expresado preocupación ante la prevalencia de lenguaje anti-LGBTQIA+ en las redes sociales. El experto independiente sobre la protección contra la violencia y la discriminación por motivos de orientación sexual o identidad de género, Víctor Madrigal-Borloz, ha afirmado que las personas de género diverso y transgénero están sometidas a niveles de violencia y discriminación que “ofenden la conciencia humana”. Los estudios e informes de la GLAAD muestran que existen “daños resultantes claramente palpables para las personas LGBTQ en internet, incluido […] el enorme impacto psicológico y traumático de sufrir la exposición continua a insultos y conductas de odio”. Contenido como el de la publicación de este caso, especialmente cuando se analiza a gran escala, puede exacerbar el daño ya generalizado de suicidio dentro de la comunidad transgénero. Además, existe el riesgo de que el contenido que normaliza el discurso violento contra las personas transgénero, como en el caso de esta publicación, agrave la crisis de salud mental que afecta actualmente a la comunidad transgénero y aumente la violencia contra la comunidad fuera de internet.
9. Decisión del Consejo asesor de contenido
El Consejo asesor de contenido revoca la decisión original de Meta de mantener publicado el contenido.
10. Recomendaciones
Política de contenido
1. En la página de la política sobre suicidio y autolesión de Meta debería aclararse que la política prohíbe el contenido que promueve o fomenta el suicido entre un grupo identificable de personas.
El Consejo considerará que se ha implementado esta recomendación cuando el texto público de la política sobre lenguaje que incita al odio de las Normas comunitarias refleje el cambio propuesto.
Aplicación
2. Meta debería modificar las pautas internas que proporciona a los revisores encargados de las revisiones a gran escala para asegurarse de que las representaciones visuales que usen banderas como símbolo de identidad de género y no contengan una figura humana se interpreten como representaciones de un grupo definido por la identidad de género de sus miembros. Esta modificación proporcionaría instrucciones más claras para aplicar medidas contra este tipo de contenido a gran escala cuando contiene un ataque violento.
El Consejo considerará que se ha implementado esta recomendación cuando Meta le muestre los cambios en sus pautas internas.
* Nota procedimental:
Las decisiones del Consejo asesor de contenido se preparan a través de comités constituidos por cinco miembros y deben recibir la aprobación de la mayoría de dicha institución. Las decisiones del Consejo no necesariamente representan las opiniones personales de todos los miembros.
Para alcanzar la decisión de este caso, se encargó una investigación independiente a nombre del Consejo. El Consejo recibió asistencia de un centro de investigación independiente en la Universidad de Gotemburgo que recurrió a un equipo de más de 50 sociólogos en seis continentes y más de 3200 especialistas de países de todo el mundo. Memetica, una organización dedicada a la elaboración de estudios de open source sobre tendencias en las redes sociales, también ha proporcionado análisis. La empresa Lionbridge Technologies, LLC, con especialistas en más de 350 idiomas que trabajan en 5000 ciudades diferentes, ha aportado las competencias en materia lingüística.