Anulado

Respuesta ante un caso de antisemitismo

Un usuario apeló la decisión de Meta de eliminar una publicación de Instagram de un video en el que se condenaban comentarios del artista musical Ye (el rapero estadounidense que antes se conocía como Kanye West) que elogiaban a Hitler y negaban el Holocausto. Después de que el Consejo le remitiera la apelación a Meta, la empresa revirtió su decisión original y restauró la publicación.

Tipo de decisión

Resumen

Políticas y temas

Tema
Libertad de expresión
Estándar comunitario
Personas y organizaciones peligrosas

Regiones/Países

Ubicación
Estados Unidos, Turquía

Plataforma

Plataforma
Instagram

Esta es una decisión resumida. Las decisiones resumidas examinan casos en los que Meta revirtió su decisión original sobre un contenido después de que el Consejo le remitiera el caso a la empresa. Estas decisiones incluyen información sobre los errores reconocidos de Meta. Un panel de miembros del Consejo las aprueba, pero no todo el Consejo. No tienen en cuenta los comentarios del público ni tienen un valor de precedente para el Consejo. Las decisiones resumidas aportan transparencia a las correcciones de Meta y destacan áreas en las que la empresa podría mejorar la aplicación de políticas.

Resumen del caso

Un usuario apeló la decisión de Meta de eliminar una publicación de Instagram de un video en el que se condenaban comentarios del artista musical Ye (el rapero estadounidense que antes se conocía como Kanye West) que elogiaban a Hitler y negaban el Holocausto. Después de que el Consejo le remitiera la apelación a Meta, la empresa revirtió su decisión original y restauró la publicación.

Descripción y contexto del caso

En enero de 2023, un usuario de Instagram de Turquía publicó un video que incluía un fragmento de una entrevista en inglés en la que Ye decía que él "likes" (a él le gusta) Adolph Hitler y que Hitler "didn't kill 6 million Jews" (no mató a seis millones de judíos). Luego, el video mostraba a una persona que aparentemente era un reportero de televisión que expresaba indignación respecto de las declaraciones de Ye y relataba cómo sus familiares fueron asesinados en el Holocausto. El video estaba subtitulado en turco y tenía un texto que podía traducirse como "Reportero de televisión le responde a Kanye West".

Originalmente, Meta eliminó la publicación de Instagram sobre la base de sus políticas sobre personas y organizaciones peligrosas y lenguaje que incita al odio. En virtud de la política sobre personas y organizaciones peligrosas de Meta, la empresa elimina los elogios a personas designadas, incluido Adolf Hitler. Sin embargo, en la política se reconoce que "los usuarios pueden compartir contenido que incluya referencias a personas y organizaciones peligrosas designadas con el fin de reportarlas, condenarlas o hablar sobre ellas o sus actividades en un tono neutral". En virtud de su política sobre lenguaje que incita al odio, la empresa elimina las negaciones del Holocausto como una forma de estereotipo dañino "vinculado históricamente con intimidación, exclusión o violencia sobre la base de una característica protegida". En la política sobre lenguaje que incita al odio, también se reconoce que "las personas suelen compartir contenido que incluye insultos o lenguaje que incita al odio emitido por otra persona con la intención de condenarlo o sensibilizar a los demás".

En su apelación al Consejo, el usuario argumentó que el video no apoyaba a Adolf Hitler y que hubo un error de interpretación.

Después de que el Consejo remitiera este caso a Meta, la empresa determinó que el contenido no infringía sus políticas. A pesar de que el video incluía elogios a Adolf Hitler y negación del Holocausto, la segunda parte de este claramente condenaba estas declaraciones y lo enmarcó en un contexto permitido. Por consiguiente, la empresa concluyó que había eliminado el contenido erróneamente en un primer momento y lo restauró en la plataforma.

Autoridad y alcance del Consejo

El Consejo tiene la facultad para revisar la decisión de Meta tras la apelación de un usuario cuyo contenido se eliminó (artículo 2, sección 1, del acta constitutiva; artículo 3, sección 1, de los estatutos).

Cuando Meta reconoce que cometió un error y revierte su decisión en un caso en consideración para la revisión del Consejo, el Consejo puede seleccionar ese caso para una decisión resumida (artículo 2, sección 2.1.3, de los estatutos). El Consejo revisa la decisión original para entender mejor el proceso de moderación de contenido, para reducir los errores y para reforzar el trato justo hacia las personas que usan Facebook e Instagram.

Importancia del caso

El caso expone un ejemplo de error en la aplicación de las excepciones incluidas en las políticas sobre personas y organizaciones peligrosas y lenguaje que incita al odio de Meta. Tales errores pueden reprimir discursos que tienen como finalidad responder a lenguaje que incita al odio, incluida la negación del Holocausto, o condenar declaraciones de elogio hacia personas peligrosas, como Hitler. La protección de los contradiscursos es esencial para fomentar la libertad de expresión y es una herramienta para luchar contra el contenido dañino, como la información errónea y el lenguaje que incita al odio. Previamente, el Consejo recomendó lo siguiente: Meta debería evaluar la precisión de los revisores al aplicar la concesión para informes periodísticos correspondiente a la política sobre personas y organizaciones peligrosas, a fin de identificar problemas sistémicos que causen errores en la aplicación (Mención de los talibanes en los informes de noticias, recomendación n.º 5); Meta debería evaluar los procesos de moderación automática para la aplicación de la política sobre personas y organizaciones peligrosas (Aislamiento de Öcalan, recomendación n.º 2); y Meta debería llevar a cabo evaluaciones de precisión centradas en las concesiones de la política sobre lenguaje que incita al odio que amparan las formas de expresión artística como actos de condena, concientización, uso autorreferencial, uso inspirador (Cinturón de abalorios, recomendación n.º 3). Meta informó avances en la recomendación n.º 5 de Mención de los talibanes en los informes de noticias, rechazó la implementación de la recomendación n.º 2 de Aislamiento de Öcalan y demostró la implementación de la recomendación n.º 3 de Cinturón de abalorios.

El Consejo reiteró que la implementación total de estas recomendaciones puede disminuir las tasas de errores en la aplicación de las concesiones correspondientes a las políticas sobre lenguaje que incita al odio y personas y organizaciones peligrosas. A su vez, esto mejorará la protección de los contradiscursos y realzará la libertad de expresión en general.

Decisión

El Consejo anuló la decisión original de Meta de eliminar el contenido. El Consejo confirma que Meta corrigió su error inicial después de haberle remitido el caso.

Volver a Decisiones de casos y opiniones consultivas sobre políticas