Anulado

Montaje de video con memes ofensivos

Un usuario apeló la decisión de Meta de conservar una publicación de Facebook en la cual un montaje de video, con música alemana, contenía una serie de memes antisemitas, racistas, homofóbicos y transfóbicos. Este caso expone los errores de Meta en la aplicación de la política de lenguaje que incita al odio.

Tipo de decisión

Resumen

Políticas y temas

Tema
Igualdad de sexo y género, Raza y etnia, Religión
Estándar comunitario
Lenguaje que incita al odio

Regiones/Países

Ubicación
Estados Unidos

Plataforma

Plataforma
Facebook

Esta es una decisión resumida. Las decisiones resumidas examinan casos en los que Meta revirtió su decisión original sobre un contenido después de que el Consejo le remitiera el caso a la empresa. Estas decisiones incluyen información sobre los errores reconocidos por Meta e informan al púbico sobre el impacto del trabajo del Consejo. Un panel de miembros del Consejo las aprueba, pero no todo el Consejo. No tienen en cuenta los comentarios del público ni tienen un valor de precedente para el Consejo. Las decisiones resumidas aportan transparencia a las correcciones de Meta y destacan áreas en las que la empresa podría mejorar la aplicación de políticas.

Resumen del caso

Un usuario apeló la decisión de Meta de conservar una publicación de Facebook en la cual un montaje de video, con música alemana, contenía una serie de memes antisemitas, racistas, homofóbicos y transfóbicos. Este caso expone los errores de Meta en la aplicación de la política de lenguaje que incita al odio. Después de que el Consejo le remitiera la apelación a Meta, la empresa revirtió su decisión original y eliminó la publicación.

Descripción y contexto del caso

En agosto de 2023, un usuario de Facebook publicó un clip de video de tres minutos que contenía una serie de memes antisemitas, racistas, homofóbicos y transfóbicos. Los memes, entre otras cosas, afirmaban el control judío de las instituciones de medios de comunicación, elogiaban al ejército nazi, expresaban desprecio hacia las relaciones interraciales, comparaban a las personas negras con gorilas, mostraban insultos contra las comunidades negras y LGBTQIA+, y fomentaban la violencia contra estas comunidades. El texto que acompañaba la publicación, en inglés, afirmaba que la publicación generaría la suspensión de la página de Facebook del usuario, pero que "valdría la pena". La publicación se visualizó aproximadamente 4.000 veces y se reportó menos de 50 veces.

Este contenido infringe varias disposiciones de la política de lenguaje que incita al odio de Meta, que prohíbe el contenido que hace referencia a "estereotipos dañinos vinculados históricamente con intimidación", como "declaraciones que afirman que las personas judías controlan instituciones financieras, políticas o de medios de comunicación". Asimismo, la política prohíbe las imágenes deshumanizantes, como contenido que compara "personas negras y simios o criaturas similares a simios". Además, la política prohíbe el uso de insultos racistas. Los memes en este contenido infringían las disposiciones mencionadas al afirmar el control judío de los medios de comunicación (un meme mostraba una kipá, que es una gorra judía, con la palabra "facebook" escrita en ella), comparar a las personas negras con gorilas, y usar insultos racistas mostrando la palabra con N en una espada empuñada por un personaje de dibujos animados. El texto que acompañaba la publicación, en inglés, afirmaba que la publicación generaría la suspensión de la página de Facebook del usuario, pero que "valdría la pena". El texto también pedía a aquellos que interactuaran con el contenido que "muestren un desprecio total hacia estos degenerados" y que descarguen el video.

Meta inicialmente conservó el contenido en Facebook. Después de que el Consejo remitiera este caso a Meta, la empresa determinó que el contenido sí infringía su norma sobre lenguaje que incita al odio y lo eliminó.

Autoridad y alcance del Consejo

El Consejo tiene la autoridad para revisar la decisión de Meta tras la apelación del usuario que reportó el contenido que posteriormente se conservó en la plataforma (artículo 2, sección 1, del acta constitutiva; artículo 3, sección 1, de los estatutos).

Cuando Meta reconoce que cometió un error y revierte su decisión en un caso en consideración para la revisión del Consejo, el Consejo puede seleccionar ese caso para una decisión resumida (artículo 2, sección 2.1.3, de los estatutos). El Consejo revisa la decisión original para entender mejor los procesos de moderación de contenido empleados, reducir los errores y ser más justo con los usuarios de Facebook e Instagram.

Importancia del caso

Este caso expone los errores de Meta en la aplicación de la política de lenguaje que incita al odio. El Consejo había examinado previamente la política de lenguaje que incita al odio de Meta en situaciones donde el contenido del usuario contenía insultos, como el caso Insultos de Sudáfrica en el cual el Consejo determinó que el uso de un insulto racial era degradante y excluyente, y en situaciones donde el contenido se refería a un grupo de personas como infrahumanas, como el caso Dibujos animados de Knin.

El contenido en este caso incluía varias instancias de contenido infractor, desde el uso de insultos contra las personas negras hasta la acusación de que las personas judías controlan los medios de comunicación. Si bien el texto indicaba que el usuario era muy consciente de que su contenido podría infringir las normas y eliminarse por lenguaje que incita al odio, el contenido no se eliminó hasta que el Consejo identificó el caso para su revisión en función de la apelación de otro usuario. El Consejo también publicó decisiones resumidas que muestran que Meta sigue teniendo dificultad al aplicar la política de lenguaje que incita al odio, como se observa en los casos El planeta de los simios y Caricatura de conspiración de los medios con respecto al lenguaje contra las personas negras y judías, respectivamente.

Previamente, el Consejo había observado en el caso Publicación en polaco contra las personas trans que las fallas de Meta de tomar las medidas correctas, pese a las múltiples señales sobre el contenido dañino de una publicación, hicieron que el Consejo concluyera que la empresa no está a la altura de los ideales que expresa sobre la seguridad de las comunidades LGBTQIA+ y otras comunidades marginales. El Consejo insta a Meta a cerrar las brechas de aplicación de políticas con la norma comunitaria sobre lenguaje que incita al odio.

Decisión

El Consejo anuló la decisión original de Meta de conservar el contenido. El Consejo confirma que Meta corrigió su error inicial después de haberle remitido el caso.

Volver a Decisiones de casos y opiniones consultivas sobre políticas