Decisión de casos múltiples

Cita de Goebbels

En esta decisión resumida, el Consejo considera cuatro publicaciones juntas. Cuatro usuarios distintos apelaron las decisiones de Meta de eliminar publicaciones que contienen una cita atribuida a Joseph Goebbels.

4 casos incluidos en el paquete

Anulado

FB-EZ2SSLB1

Caso sobre personas y organizaciones peligrosas en Facebook

Plataforma
Facebook
Tema
Libertad de expresión,Información errónea
Estándar:
Personas y organizaciones peligrosas
Ubicación
Canadá,Reino Unido,Estados Unidos
Date
Publicado el 18 de diciembre de 2023
Anulado

FB-GI0MEB85

Caso sobre personas y organizaciones peligrosas en Facebook

Plataforma
Facebook
Tema
Libertad de expresión,Información errónea
Estándar:
Personas y organizaciones peligrosas
Ubicación
Alemania,Estados Unidos
Date
Publicado el 18 de diciembre de 2023
Anulado

FB-2X73FNY9

Caso sobre personas y organizaciones peligrosas en Facebook

Plataforma
Facebook
Tema
Libertad de expresión,Información errónea
Estándar:
Personas y organizaciones peligrosas
Ubicación
Australia
Date
Publicado el 18 de diciembre de 2023
Anulado

FB-PFP42GAJ

Caso sobre personas y organizaciones peligrosas en Facebook

Plataforma
Facebook
Tema
Libertad de expresión,Información errónea
Estándar:
Personas y organizaciones peligrosas
Ubicación
Estados Unidos
Date
Publicado el 18 de diciembre de 2023

Esta es una decisión resumida. Las decisiones resumidas examinan casos en los que Meta revirtió su decisión original sobre un contenido después de que el Consejo le remitiera el caso a la empresa. Estas decisiones incluyen información sobre los errores reconocidos por Meta e informan al púbico sobre el impacto del trabajo del Consejo. Un panel de miembros del Consejo las aprueba, pero no todo el Consejo. No abarcan el proceso de comentarios del público ni tienen un valor de precedente para el Consejo. Las decisiones resumidas aportan transparencia a las correcciones de Meta y destacan áreas en las que la empresa podría mejorar la aplicación de políticas.

Resumen del caso

En esta decisión resumida, el Consejo considera cuatro publicaciones juntas. Cuatro usuarios distintos apelaron las decisiones de Meta de eliminar publicaciones que contienen una cita atribuida a Joseph Goebbels, el jefe de propaganda nazi. Cada publicación compartió la cita con el fin de criticar la difusión de información falsa en la actualidad. Después de que el Consejo le remitiera las apelaciones a Meta, la empresa revirtió sus decisiones originales y restauró todas las publicaciones.

Descripción y contexto del caso

Las cuatro publicaciones contienen una variación de la misma cita atribuida a Joseph Goebbels, que dice: "A lie told once remains a lie, but a lie told a thousand times becomes the truth" (Una mentira dicha una vez sigue siendo una mentira, pero una mentira dicha mil veces se convierte en una verdad). Cada usuario acompañó la cita con un texto, que mostraba las opiniones de los usuarios sobre los paralelismos históricos percibidos entre la Alemania nazi y el discurso político actual, así como las amenazas a la libertad de expresión que plantea la normalización de la información falsa.

Meta originalmente eliminó las cuatro publicaciones de Facebook citando su política sobre personas y organizaciones peligrosas, de acuerdo con la cual la empresa elimina contenido que "exalta", "apoya de manera sustancial" o "representa" personas u organizaciones que la empresa designa como peligrosas, incluido el Partido Nazi. La política permite contenido que debate sobre una organización o una persona peligrosa de una manera neutral o que condena sus acciones.

Los cuatro usuarios apelaron la eliminación de su contenido ante el Consejo. En sus apelaciones, cada uno de ellos afirmó que incluyeron la cita no para respaldar a Joseph Goebbels o al Partido Nazi, sino para criticar el efecto negativo de la información falsa en sus sistemas políticos. También destacaron la relevancia de las lecciones históricas para abordar los peligros de la propaganda.

Después de que el Consejo remitiera estos casos a Meta, la empresa determinó que el contenido no infringía la política sobre personas y organizaciones peligrosas de Meta, y admitió que la eliminación de las cuatro publicaciones fue incorrecta. Seguidamente, la empresa restauró el contenido en Facebook. Meta afirmó que el contenido no incluía ningún respaldo al Partido Nazi, sino que incluye descripciones de "la campaña del régimen nazi para normalizar las falsedades con el fin de resaltar la importancia de la ética y los estándares epistémicos de la libertad de expresión".

Autoridad y alcance del Consejo

El Consejo tiene la facultad para revisar las decisiones de Meta tras una apelación de la persona cuyo contenido se eliminó (artículo 2, sección 1, del acta constitutiva; artículo 3, sección 1, de los estatutos).

Cuando Meta reconoce que cometió un error y revierte su decisión en un caso en consideración para la revisión del Consejo, el Consejo puede seleccionar ese caso para una decisión resumida (artículo 2, sección 2.1.3, de los estatutos). El Consejo revisa la decisión original para entender mejor los procesos de moderación de contenido, reducir los errores y ser más justo con los usuarios de Facebook e Instagram.

Importancia del caso

Estos casos resaltan la incapacidad de Meta de distinguir entre referencias de apoyo a las organizaciones que designa como peligrosas, lo cual está prohibido, y las referencias neutrales o condenatorias que la empresa permite. El Consejo emitió previamente varias recomendaciones en relación con la política sobre personas y organizaciones peligrosas de Meta. Los errores continuos en la aplicación de las excepciones de esta norma comunitaria parecen limitar significativamente la importante libertad de expresión de los usuarios, lo que convierte a este tema en un área crucial para futuras mejoras por parte de la empresa.

En una decisión anterior, el Consejo recomendó que "Meta debería evaluar la precisión de los revisores al aplicar la concesión para informes periodísticos correspondiente a la política sobre personas y organizaciones peligrosas a fin de identificar problemas sistémicos que causen errores en la aplicación" (decisión del caso Mención de los talibanes en los informes de noticias, recomendación n.º 5). El Consejo instó además a Meta a "realizar una revisión del sistema de invalidación de falsos positivos con una alta repercusión (HIPO) para examinar si puede priorizar de manera más efectiva errores potenciales en la aplicación de las concesiones para la política sobre personas y organizaciones peligrosas" (decisión del caso Mención de los talibanes en los informes de noticias, recomendación n.º 6). Este sistema de clasificación prioriza las decisiones de contenido para una revisión adicional, que Meta usa para identificar casos en los que actuó incorrectamente, por ejemplo, al eliminar contenido por error. Meta aún está evaluando la viabilidad de la recomendación. Asimismo, el Consejo le solicitó a Meta que "mejore la capacidad asignada al sistema HIPO en los diversos idiomas para garantizar que una mayor cantidad de decisiones de contenido que pueden deberse a errores de aplicación de políticas se sometan a revisión manual" (decisión del caso Mención de los talibanes en los informes de noticias, recomendación n.º 7). Meta informó que la empresa ya toma medidas relacionadas con esta recomendación, pero sin publicar información ni demostrarlo.

Asimismo, el Consejo recomendó a Meta "explicar y brindar ejemplos de la aplicación de términos clave usados en la política sobre personas y organizaciones peligrosas, incluidos los significados de 'elogio', 'apoyo' y 'representaciones'. También sugirió que aquellas explicaciones públicas "deben alinearse con las definiciones utilizadas en las Normas de implementación internas de Facebook" (decisión del caso Cita nazi, recomendación n.° 2). Meta implementó esta recomendación.

Tal como lo ilustran estos casos, usar una analogía con una figura notoriamente peligrosa con el propósito de criticar a una persona o práctica actual es una forma común y completamente legítima de discurso político. Estos cuatro casos demuestran la necesidad de medidas más efectivas alineadas con las recomendaciones del Consejo.

Decisión

El Consejo anuló la decisión original de Meta de eliminar los contenidos. El Consejo confirmó que Meta corrigió sus errores iniciales después de haberle remitido estos casos.

Volver a Decisiones de casos y opiniones consultivas sobre políticas