Decisão de múltiplos casos
Estereotipos negativos sobre los afroamericanos
18 de Abril de 2024
El Consejo ha revisado tres publicaciones de Facebook que incluían material racista y que Meta mantuvo publicadas. Cuando el Consejo llamó la atención de Meta sobre estas apelaciones, la empresa revocó sus decisiones originales y suprimió las publicaciones.
3 casos incluídos neste pacote
FB-LHBURU6Z
Caso sobre lenguaje que incita al odio en Facebook
FB-1HX5SN1H
Caso sobre lenguaje que incita al odio en Facebook
FB-ZD01WKKW
Caso sobre lenguaje que incita al odio en Facebook
Esta es una decisión resumida. En las decisiones resumidas se examinan casos en los que Meta ha revertido su decisión original respecto a un contenido después de que el Consejo llamara la atención de la empresa sobre el caso e incluyen información sobre los errores que Meta ha reconocido. Estas decisiones son aprobadas por un panel de miembros del Consejo, no por todo el Consejo; no admiten comentarios públicos, y no sientan precedente para el Consejo. Las decisiones resumidas dan lugar a cambios directos en las decisiones de Meta y aportan transparencia respecto de estas correcciones, al tiempo que permiten detectar en qué aspectos la empresa podría mejorar su sistema de aplicación de políticas.
Resumen
El Consejo ha revisado tres publicaciones de Facebook que incluían material racista y que Meta mantuvo publicadas. Cada una de las publicaciones incluía una caricatura o una imagen manipulada de personas afroamericanas que resaltaba estereotipos ofensivos, como haberse criado en hogares sin padre, recurrir a la beneficencia y saquear tiendas. Estos casos resaltan los errores de Meta al aplicar sus políticas sobre lenguaje que incita al odio y bullying y acoso. Cuando el Consejo llamó la atención de Meta sobre estas apelaciones, la empresa revocó sus decisiones originales y suprimió las publicaciones.
Información de los casos
A finales de 2023, el Consejo recibió tres apelaciones independientes acerca de tres imágenes diferentes publicadas en Facebook. Todas ellas incluían material negativo sobre los afroamericanos.
En la primera publicación, que se visualizó unas 500 000 veces, un usuario compartió una imagen generada por ordenador de una tienda en llamas con caricaturas de personas negras. Estas vestían sudaderas con capucha, cargaban con artículos de la tienda y se iban corriendo. En la imagen, el nombre de la tienda, Target, se había cambiado por “Loot” (“saqueo”). En el texto que la acompañaba, el usuario describía la imagen como la próxima película de Pixar.
En la segunda publicación podía verse una imagen generada por computadora que también imitaba un póster de película. En ella, una mujer negra con unos rasgos físicos exagerados empujaba un carrito de la compra lleno de Cheetos. El título de la película era “EBT”, que es como se denomina a un sistema que ofrece asistencia social en Estados Unidos. En la parte superior del póster, en lugar de los nombres de los actores, podían leerse los nombres Trayvon Martin y George Floyd, dos afroamericanos víctimas de violencia. Martin murió asesinado por un justiciero armado en 2012 y Floyd, por un agente de policía en 2020. Sus muertes desataron protestas sobre las desigualdades raciales en el sistema judicial de Estados Unidos.
En la tercera publicación, que obtuvo cerca de 14 millones de visualizaciones, se podía ver un meme con un texto que decía: “Adobe has developed software that can detect photoshop in an image” (“Adobe ha desarrollado un software que detecta photoshop en las imágenes”). Bajo el texto se incluía la imagen de una mujer con marcas de colores en toda la cara (lo que suele usarse para ilustrar la detección de calor), lo que daba a entender que algunas partes de la imagen se habían modificado. El usuario comparaba esta imagen con otra de una familia negra que estaba comiendo, en la cual el padre y la comida que había sobre la mesa tenían las mismas marcas de colores, lo cual dejaba entrever que estos dos elementos se habían añadido mediante edición. La publicación refuerza el estereotipo negativo generalizado sobre la falta de una figura paterna en las familias negras de Estados Unidos, lo cual tiene su origen en una compleja historia de racismo sistemático y desigualdad económica.
En un primer momento, Meta conservó las tres publicaciones en Facebook pese a las apelaciones de los usuarios. En sus apelaciones al Consejo, esos mismos usuarios argumentaron que el contenido representaba estereotipos raciales dañinos de los afroamericanos.
Después de que el Consejo remitiera estos casos a Meta, la empresa determinó que las publicaciones infringían la norma comunitaria sobre lenguaje que incita al odio, que prohíbe ataques directos contra las personas sobre la base de características protegidas, como la raza y la etnia. La política también prohíbe específicamente “dirigirse a una persona o un grupo de personas” empleando un “lenguaje deshumanizante” en forma de “comparaciones con delincuentes, por ejemplo, ladrones”, “burlas acerca del concepto de los crímenes de odio, de hechos de este tipo o de sus víctimas” y “generalizaciones que denotan inferioridad en cuanto a características morales”.
Además, Meta concluyó que la segunda publicación que incluía los nombres de Trayvon Martin y George Floyd también infringía la norma comunitaria sobre bullying y acoso, en virtud de la cual la empresa elimina el contenido que “celebre o se burle de la muerte o enfermedad” de una persona. La empresa explicó que “en la imagen podían verse los nombres de dos personas fallecidas, Trayvon Martin y George Floyd… El contenido trivializaba sus muertes al insinuar que protagonizaban una película animada ficticia”.
Por lo tanto, la empresa suprimió las tres publicaciones.
Competencia y ámbito de actuación del Consejo
El Consejo tiene potestad para revisar la decisión de Meta tras la apelación de un usuario que había denunciado contenido que se había mantenido publicado (artículo 2, apartado 1 del acta constitutiva; artículo 3, apartado 1 de los estatutos).
Si se da la circunstancia de que Meta reconoce haber cometido un error y revierte su decisión con respecto a un caso que el Consejo podría terminar examinando, este puede seleccionar dicho caso para una decisión resumida (artículo 2, apartado 2.1.3 de los estatutos). El Consejo revisa la decisión original para entender mejor los procesos de moderación de contenido empleados, reducir los errores y ser más justo con los usuarios de Facebook e Instagram.
Relevancia de los casos
Estos casos exponen tres situaciones en las que Meta no aplicó con eficiencia sus políticas sobre lenguaje que incita al odio y bullying y acoso, puesto que conservó en la plataforma publicaciones infractoras pese a las quejas de los usuarios. Dos de las publicaciones acumularon un número considerable de visualizaciones. Estos errores de aplicación incorrecta de políticas por parte de los moderadores pueden tener un impacto negativo en las personas de grupos con características protegidas, y contribuyen a crear un entorno de discriminación. El Consejo ha instado a Meta a abordar el lenguaje que incita al odio contra grupos marginados como una prioridad estratégica.
En 2022, el Consejo recomendó a Meta que “aclarase la norma comunitaria sobre lenguaje que incita al odio y las pautas proporcionadas a los revisores, y explicar que la política prohíbe incluso las referencias implícitas a los grupos protegidos cuando resulten razonablemente comprensibles” (decisión sobre el caso Caricaturas de Knin, recomendación n.º 1). En este sentido, Meta ha notificado haber implementado la recomendación parcialmente.
Decisión
El Consejo revoca las decisiones originales de Meta de mantener publicadas tres publicaciones y confirma que la empresa ha corregido sus errores iniciales después de llamarle la atención sobre estos casos.
Voltar para Decisões de Casos e Pareceres Consultivos sobre Políticas