أسقط
Comentarios deshumanizantes sobre la población de Gaza
تم النشر بتاريخ 18 نَيْسان 2024
Un usuario apeló la decisión de Meta de conservar en Facebook una publicación en la que se afirmaba que Hamás se había gestado entre la población de Gaza y que comparaba a esta con una “savage horde” (“horda de salvajes”). Cuando el Consejo llamó la atención de Meta sobre la apelación, la empresa revocó su decisión original y suprimió la publicación.
Esta es una decisión resumida. En las decisiones resumidas se examinan casos en los que Meta ha revertido su decisión original respecto a un contenido después de que el Consejo llamara la atención de la empresa sobre el caso. Estas decisiones son aprobadas por un panel de miembros del Consejo, no por todo el Consejo; no admiten comentarios públicos, y no sientan precedente para el Consejo. Las decisiones resumidas dan lugar a cambios directos en las decisiones de Meta y aportan transparencia respecto de estas correcciones, al tiempo que permiten detectar en qué aspectos la empresa podría mejorar su sistema de aplicación de políticas.
Resumen
Un usuario apeló la decisión de Meta de conservar en Facebook una publicación en la que se afirmaba que Hamás se había gestado entre la población de Gaza y que refleja sus “innermost desires” (“más profundos deseos”), y en la que se la comparaba con una “savage horde” (“horda de salvajes”). Cuando el Consejo llamó la atención de Meta sobre la apelación, la empresa revocó su decisión original y suprimió la publicación.
Información sobre el caso
En diciembre de 2023, un usuario republicó en Facebook una imagen de un hombre anónimo junto a un texto que manifestaba que el “general public” (“público general”) de Gaza no era la “victim” (“víctima”) de Hamás, sino que el grupo militante había surgido como “true reflection” (“fiel reflejo”) de “the innermost desires of a savage horde” (“los más íntimos deseos de una horda de salvajes”). La imagen republicada iba acompañada de un texto de apoyo que incluía la expresión “the truth” (“la verdad”). La publicación no alcanzó las 500 visualizaciones.
Conforme a la política sobre lenguaje que incita al odio de Meta, la empresa prohíbe el contenido dirigido a una persona o un grupo de personas con motivo de sus características protegidas, concretamente, si se las equipara con “infrahumanos” (por ejemplo, si se las tilda de “salvajes”). En este contexto, la mención del “general public of Gaza” (“público general de Gaza”) es una referencia implícita a los palestinos de Gaza, con lo que se apunta a las características protegidas de etnia y nacionalidad.
En una declaración en la que apelaba el caso ante el Consejo, el usuario afirmaba que la publicación “constituía lenguaje deshumanizante”, dado que generalizaba con respecto a la población de Gaza.
Después de que el Consejo llamara la atención de Meta sobre este caso, la empresa determinó que el contenido infringía su política sobre lenguaje que incita al odio, por lo que su decisión original de mantenerlo publicado era incorrecta, y procedió a suprimir el contenido de Facebook.
Competencia y ámbito de actuación del Consejo
El Consejo tiene potestad para revisar la decisión de Meta tras la apelación de un usuario que había denunciado contenido que se había mantenido publicado (artículo 2, apartado 1 del acta constitutiva; artículo 3, apartado 1 de los estatutos).
Si se da la circunstancia de que Meta reconoce haber cometido un error y revierte su decisión con respecto a un caso que el Consejo podría terminar examinando, este puede seleccionar dicho caso para una decisión resumida (artículo 2, apartado 2.1.3 de los estatutos). El Consejo revisa la decisión original para entender mejor los procesos de moderación de contenido empleados, reducir los errores y ser más justo con los usuarios de Facebook e Instagram.
Relevancia del caso
Este caso pone de manifiesto errores en cuanto a la aplicación de la política sobre lenguaje que incita al odio por parte de Meta, sobre todo en lo concerniente a los ataques contra las personas a causa de sus características protegidas. Los errores de moderación resultan particularmente dañinos en contextos de conflictos armados en desarrollo, motivo por el cual se deberían haber aplicado prácticas de moderación de contenido más eficaces.
De manera similar, en el caso “Caricaturas de Knin” se dirigía lenguaje que incita al odio contra una característica protegida (una etnia), al referirse a un grupo étnico como “ratas” sin aludir a él explícitamente. En aquel caso, era necesario un contexto histórico y cultural para interpretar la representación simbólica del grupo étnico en cuestión, mientras que el contenido de este otro caso dedica comentarios deshumanizantes a toda una población directamente, lo que puede entenderse razonablemente como una alusión a personas por sus características protegidas.
Por lo que respecta al caso “Caricaturas de Knin”, el Consejo recomendó que Meta debería “aclarar las Normas comunitarias sobre lenguaje que incita al odio y las pautas proporcionadas a los revisores, y explicar que la política también prohíbe las referencias implícitas a los grupos protegidos cuando resultan razonablemente comprensibles” (decisión sobre el caso “Caricaturas de Knin”, recomendación n.º 1). En este sentido, Meta ha notificado haber implementado la recomendación parcialmente. En el cuarto trimestre de 2022, Meta informó de que había “añadido aclaraciones en las Normas comunitarias y las pautas de aplicación de políticas para revisores. Según dichas aclaraciones, se eliminará el contenido que incluya lenguaje que incita al odio implícito si revisores especializados lo escalan para que expertos en la materia lo revisen si Meta entiende razonablemente la intención del usuario”. El Consejo considera que la recomendación se ha implementado parcialmente, puesto que no se ha modificado específicamente la norma comunitaria sobre lenguaje que incita al odio, sino que solo se han hecho algunos cambios en la introducción general de las Normas comunitarias.
El Consejo opina que la implementación total de esta recomendación podría contribuir a reducir el número de errores ocasionados por la aplicación de la política sobre lenguaje que incita al odio de Meta.
Decisión
El Consejo revoca la decisión original de Meta de mantener publicado el contenido y reconoce que la empresa ha corregido su error inicial después de que llamase su atención sobre el caso.
العودة إلى قرارات الحالة والآراء الاستشارية المتعلقة بالسياسة