El Consejo asesor de contenido anuló la decisión original de Meta en el caso de la negación del Holocausto

El Consejo asesor de contenido anuló la decisión original de Meta de conservar una publicación de Instagram que contenía afirmaciones falsas y distorsionadas sobre el Holocausto. El Consejo considera que el contenido infringía la norma comunitaria sobre lenguaje que incita al odio de Meta, que prohíbe la negación del Holocausto. Esta prohibición es coherente con las responsabilidades de Meta en materia de derechos humanos. Al Consejo le preocupa que Meta no haya eliminado este contenido y tiene dudas sobre la eficacia de la aplicación de políticas por parte de la empresa. El Consejo le recomienda a Meta que tome medidas para asegurarse de que esté midiendo sistemáticamente la precisión de su aplicación de políticas sobre el contenido de negación del Holocausto, en un nivel más detallado.

Información sobre el caso

El 8 de septiembre de 2020, un usuario de Instagram publicó un meme de Calamardo (un personaje de dibujos animados de la serie de televisión Bob Esponja). Este incluye una burbuja de diálogo titulada "Datos curiosos sobre el Holocausto", que contiene afirmaciones falsas y distorsionadas sobre el Holocausto. Las afirmaciones, en inglés, cuestionan el número de víctimas del Holocausto, sugiriendo que no es posible que seis millones de judíos pudieran haber sido asesinados basándose en supuestas cifras de población que el usuario cita para antes y después de la Segunda Guerra Mundial. La publicación también cuestiona la existencia de crematorios en Auschwitz al afirmar que las chimeneas se construyeron después de la guerra, y que los líderes mundiales de la época no reconocieron el Holocausto en sus memorias.

El 12 de octubre de 2020, varias semanas después de que se publicara el contenido, Meta revisó su norma comunitaria sobre lenguaje que incita al odio para prohibir explícitamente la negación o distorsión del Holocausto.

Desde que el contenido se publicó en septiembre de 2020, los usuarios lo reportaron seis veces por infringir la política de Meta sobre lenguaje que incita al odio. Cuatro de estos reportes fueron revisados por los sistemas automatizados de Meta, los cuales determinaron que el contenido no era infractor o cerraron automáticamente los reportes debido a las políticas de automatización por el COVID-19 de la empresa. Estas políticas, introducidas al inicio de la pandemia en 2020, cerraron automáticamente determinados trabajos de revisión para reducir el volumen de reportes que se enviaban a revisores humanos, al tiempo que se mantenían abiertos los reportes potencialmente de "alto riesgo".

Dos de los seis reportes de usuarios dieron lugar a que los revisores determinaran que el contenido no era infractor. Un usuario que reportó la publicación en mayo de 2023, después de que Meta anunciara que ya no permitiría la negación del Holocausto, apeló la decisión de la empresa de conservar el contenido. Sin embargo, este reporte también se cerró automáticamente debido a las políticas de automatización por el COVID-19 de Meta, que seguían vigentes en mayo de 2023. Por lo tanto, presentó una apelación ante el Consejo asesor de contenido.

Conclusiones principales

El Consejo considera que este contenido infringe la norma comunitaria de Meta sobre lenguaje que incita al odio, que prohíbe la negación del Holocausto en Facebook e Instagram. Los expertos consultados por el Consejo confirmaron que todas las afirmaciones de la publicación sobre el Holocausto eran manifiestamente falsas o tergiversaban hechos históricos. El Consejo considera que la política de Meta que prohíbe la negación del Holocausto es coherente con sus responsabilidades en materia de derechos humanos. Además, al Consejo le preocupa que Meta no eliminara este contenido incluso después de que la empresa cambiara sus políticas para prohibir explícitamente la negación del Holocausto, a pesar de las revisiones humanas y automatizadas.

Como parte de esta decisión, el Consejo encargó una evaluación del contenido de negación del Holocausto en las plataformas de Meta, que reveló el uso del formato del meme de Calamardo para difundir varios tipos de narrativas antisemitas. Si bien la evaluación mostró una marcada disminución desde octubre de 2020 en el contenido que utiliza términos como "Holohoax" (Holoengaño), mostró que hay lagunas en la eliminación de contenido de negación del Holocausto por parte de Meta. La evaluación demostró que, en las plataformas de Meta, aún puede encontrarse contenido que niega el Holocausto, posiblemente porque algunos usuarios intentan eludir la aplicación de políticas de formas alternativas, como sustituyendo las vocales de las palabras por símbolos o creando narrativas implícitas sobre la negación del Holocausto utilizando memes y caricaturas.

Es importante entender la negación del Holocausto como un elemento del antisemitismo, que es discriminatorio en sus consecuencias.

El Consejo tiene dudas sobre la eficacia y la precisión de los sistemas de moderación de Meta a la hora de eliminar de sus plataformas el contenido que niega el Holocausto. Los revisores humanos de Meta no tienen la oportunidad de etiquetar los datos de aplicación de políticas de forma detallada (es decir, el contenido infractor se etiqueta como "lenguaje que incita al odio" en lugar de "negación del Holocausto"). Basándose en la información obtenida a partir de las preguntas planteadas a Meta en este caso y en casos anteriores, el Consejo entiende que estos desafíos son técnicamente superables, aunque requieran muchos recursos. Meta debería desarrollar sistemas para etiquetar los datos de aplicación de políticas en un nivel más detallado, especialmente a la vista de las consecuencias en el mundo real de la negación del Holocausto. Esto mejoraría potencialmente su precisión para moderar el contenido que niega el Holocausto al proporcionar mejores materiales de capacitación para clasificadores y revisores humanos. A medida que Meta recurre cada vez más a la inteligencia artificial para moderar contenido, al Consejo le interesa cómo puede moldearse el desarrollo de tales sistemas para dar prioridad a una aplicación más precisa de la norma sobre lenguaje que incita al odio en un nivel de política detallado.

Al Consejo también le preocupa que, en mayo de 2023, Meta siguiera aplicando sus políticas de automatización por el COVID-19. En respuesta a las preguntas del Consejo, Meta reveló que cerró automáticamente la apelación del usuario contra su decisión de conservar este contenido en Instagram en mayo de 2023, más de tres años después de que comenzara la pandemia y poco después de que tanto la Organización Mundial de la Salud como Estados Unidos declararan que el COVID-19 ya no era una "emergencia de salud pública de importancia internacional". Era urgente que Meta priorizara la eliminación del lenguaje que incita al odio y es preocupante que las medidas introducidas como contingencia ante una pandemia pudieran perdurar mucho tiempo después de que las circunstancias las justificaran razonablemente.

Decisión del Consejo asesor de contenido

El Consejo asesor de contenido anuló la decisión original de Meta de conservar el contenido.

El Consejo recomienda que Meta lleve a cabo estas acciones:

  • Adoptar medidas técnicas para garantizar que se mida de forma suficiente y sistemática la precisión de su aplicación de políticas sobre contenido de negación del Holocausto, para incluir la recopilación de detalles más específicos.
  • Confirmar públicamente si puso fin por completo a todas las políticas de automatización por el COVID-19 aplicadas durante la pandemia.

Más información

Para leer la decisión completa del caso, haz clic aquí.

Para leer una sinopsis de los comentarios del público sobre el caso, haz clic aquí.

Volver a Noticias