Anulado

Término reapropiado en actuación drag

Un usuario apeló la decisión de Meta de eliminar una publicación de Instagram que mostraba una actuación drag e incluía una palabra que Meta designa como insulto, pero que se usaba en un contexto reivindicativo, positivo y autorreferencial.

Tipo de decisión

Resumen

Políticas y temas

Tema
Comunidades marginadas, Igualdad de sexo y género, LGBT
Estándar comunitario
Lenguaje que incita al odio

Regiones/Países

Ubicación
Estados Unidos

Plataforma

Plataforma
Instagram

Las decisiones resumidas analizan casos en los que Meta revirtió su decisión original sobre un contenido después de que el Consejo lo remitiera a la empresa e incluyen información sobre los errores que Meta reconoció. Estas decisiones son aprobadas por un panel de miembros del Consejo, no por todo el Consejo, no implican comentarios del público ni tienen valor de precedencia para el Consejo. Las decisiones resumidas traen aparejados cambios directos en las decisiones de Meta, ya que aportan transparencia respecto de estas correcciones, a la vez que permiten identificar en qué aspectos Meta podría mejorar la aplicación de sus políticas.

Resumen

Un usuario apeló la decisión de Meta de eliminar una publicación de Instagram que mostraba una actuación drag e incluía una palabra que Meta designa como insulto, pero que se usaba en un contexto reivindicativo, positivo y autorreferencial. Después de que el Consejo le remitiera la apelación a Meta, la empresa revirtió su decisión original y restauró la publicación.

Información sobre el caso

En mayo de 2024, un usuario publicó en Instagram un video de sí mismo en el que usaba un atuendo rojo brillante y se lo veía realizando un espectáculo drag. El texto debajo del video mencionaba a otros usuarios de Instagram y les agradecía su apoyo y participación. La publicación también incluía una nota de agradecimiento a otro usuario por haberse hecho cargo de la producción de sonido del espectáculo. En la publicación, el usuario se refiere a sí mismo como un "faggy martyr" (mártir maricón).

El usuario que publicó el video apeló al Consejo la decisión de Meta de eliminar esta publicación y explicó que es un artista queer, trans y drag y que habla sobre sí mismo en el texto del video. Enfatizó que incluyó la palabra "faggy" (una versión diminutiva del insulto "fag" ["marica" o "maricón"], que de ahora en más mencionaremos como "f***y" y "f-slur") en la descripción de su publicación porque es un "término coloquial reapropiado que la comunidad queer usa todo el tiempo". El usuario también resaltó que considera este término como un autodescriptor alegre del que siente orgullo. Al concluir su apelación al Consejo, el usuario subrayó la importancia de conservar la publicación, ya que le permite conseguir más reservas de sus actuaciones.

Conforme a la norma comunitaria sobre conducta que incita al odio de Meta, Meta elimina los insultos, que "se definen como palabras que generan inherentemente un clima de exclusión e intimidación en contra de las personas sobre la base de una característica protegida" en la mayoría de los contextos "porque estas palabras están vinculadas a discriminación, opresión y violencia históricas". Si bien el 7 de enero de 2025 Meta anunció cambios en el texto de la política de lenguaje que incita al odio (ahora política de conducta que incita al odio) y su aplicación, el término "f-slur" continúa en la lista de Meta.

La empresa permite insultos cuando son autorreferenciales y se utilizan en un contexto expresamente positivo. Estas excepciones siguen vigentes tras la actualización de la política que realizó Meta el 7 de enero. En este caso, el usuario publicó un video en el que se lo veía realizando una actuación que él mismo elogiaba y en cuyo texto se refería a sí mismo como "f***y". Si bien "f***y" es un insulto, en este contexto se usó "de forma autorreferencial o empoderadora".

Luego de que el Consejo remitiera este caso a Meta, la empresa determinó que el contenido no infringía la política de conducta que incita al odio y que su decisión original de eliminarlo había sido incorrecta porque, en la publicación, el término "f***y" se usaba en un contento tanto autorreferencial como explícitamente positivo. Seguidamente, la empresa restauró el contenido en Instagram.

Autoridad y alcance del Consejo

El Consejo tiene la facultad para revisar la decisión de Meta tras la apelación de un usuario cuyo contenido se eliminó (artículo 2, sección 1, del acta constitutiva; artículo 3, sección 1, de los estatutos).

Cuando Meta reconoce que cometió un error y revierte su decisión en un caso en consideración para la revisión del Consejo, el Consejo puede seleccionar ese caso para una decisión resumida (artículo 2, sección 2.1.3, de los estatutos). El Consejo revisa la decisión original para entender mejor los procesos de moderación de contenido empleados, reducir los errores y ser más justo con los usuarios de Facebook, Instagram y Threads.

Significancia del caso

Este caso demuestra problemas continuos con la capacidad de Meta de aplicar excepciones a su política de conducta que incita al odio (antes lenguaje que incita al odio) por el uso de insultos en textos autorreferenciales o empoderadores. Esta decisión resumida pone de manifiesto el impacto de dichas eliminaciones erróneas en la visibilidad y los medios de subsistencia de los artistas drag, como indica el usuario que apeló la decisión de Meta. El potencial de errores desproporcionados en la moderación de términos reapropiados por parte de las comunidades queer y el consecuente impacto de las eliminaciones erróneas es un problema serio que observaron los investigadores durante varios años.

En el caso Reapropiación de términos árabes, el Consejo determinó que Meta también había sobreaplicado sus políticas de lenguaje que incita al odio en relación con el uso autorreferencial de insultos, lo que afectó a los usuarios de la comunidad LGBTQIA+ que hablan árabe. En ese caso, tres moderadores determinaron erróneamente que el contenido infringía la política de lenguaje que incita al odio (tal como era entonces), lo que suscitó preocupación por el hecho de que se les brinden a los revisores pautas de aplicación de políticas insuficientes. Además, el Consejo destacó que espera que Meta "muestre una especial sensibilidad ante la posibilidad de eliminar de forma indebida" este tipo de contenido, "dada la importancia de la reapropiación de términos despectivos por parte de las personas LGBTQIA+ para contrarrestar la discriminación".

El Consejo emitió recomendaciones destinadas a reducir la cantidad de errores en la aplicación de políticas que Meta comete al aplicar las excepciones de sus Normas comunitarias. Por ejemplo, el Consejo recomendó a Meta "llevar a cabo evaluaciones de precisión centradas en las concesiones de la política de lenguaje que incita al odio que abarquen la expresión artística y la expresión acerca de violaciones de los derechos humanos (p. ej., condena de un acto, concientización, uso autorreferencial o uso para empoderar)" (caso Cinturón de abalorios, recomendación n.º 3). La empresa realizó una evaluación de precisión y proporcionó al Consejo métricas de precisión de la aplicación de políticas en relación con la política de lenguaje que incita al odio (ahora conducta que incita al odio). El Consejo categoriza esta recomendación como implementada, según se demostró mediante información publicada. Es posible que haya errores de aplicación de políticas en el proceso de moderación de contenido a gran escala. Sin embargo, el Consejo anima a Meta a seguir mejorando su capacidad de detectar con precisión contenido en el cual una sobreaplicación o una aplicación insuficiente de políticas supone un riesgo elevado para grupos vulnerables.

El 7 de enero, Meta anunció que se comprometía a reducir errores en la aplicación de sus políticas, en particular para proteger la expresión. Por medio de sus decisiones resumidas, el Consejo hace hincapié en los errores de aplicación de políticas que cometió la empresa y, en función de sus decisiones y recomendaciones anteriores, con frecuencia indica aquellas áreas en las que Meta puede seguir mejorando.

Decisión

El Consejo anuló la decisión original de Meta de eliminar el contenido. El Consejo confirmó que Meta corrigió su error inicial después de haberle remitido el caso.

Volver a Decisiones de casos y opiniones consultivas sobre políticas