Decisión de casos múltiples

Comentarios que promueven la depuración étnica

Un usuario apeló las decisiones de Meta de mantener publicados tres comentarios de Facebook que promovían la depuración étnica de las personas albanesas en Kosovo.

3 casos incluidos en el paquete

Anulado

FB-U3X0XVOY

Caso sobre violencia e incitación en Facebook

Plataforma
Facebook
Tema
Discriminación,Raza y etnia,Guerra y conflictos
Estándar:
Violencia e incitación
Ubicación
Albania,Serbia,Turquía
Date
Publicado el 9 de diciembre de 2025
Anulado

FB-C7C98IEV

Caso sobre violencia e incitación en Facebook

Plataforma
Facebook
Tema
Discriminación,Raza y etnia,Guerra y conflictos
Estándar:
Violencia e incitación
Ubicación
Albania,Serbia,Turquía
Date
Publicado el 9 de diciembre de 2025
Anulado

FB-DC3DA56G

Caso sobre violencia e incitación en Facebook

Plataforma
Facebook
Tema
Discriminación,Raza y etnia,Guerra y conflictos
Estándar:
Violencia e incitación
Ubicación
Albania,Serbia,Turquía
Date
Publicado el 9 de diciembre de 2025

Las decisiones resumidas analizan casos en los que Meta revirtió su decisión original sobre un contenido después de que el Consejo lo remitiera a la empresa e incluyen información sobre los errores que Meta reconoció. Estas decisiones son aprobadas por un panel de miembros del Consejo, no por todo el Consejo, no implican comentarios del público ni tienen valor de precedencia para el Consejo. Las decisiones resumidas traen aparejados cambios directos en las decisiones de Meta, ya que aportan transparencia respecto de estas correcciones, a la vez que permiten identificar en qué aspectos Meta podría mejorar la aplicación de sus políticas.

Resumen

Un usuario apeló las decisiones de Meta de mantener publicados tres comentarios de Facebook que promovían la depuración étnica de las personas albanesas en Kosovo. Después de que el Consejo le remitiera las apelaciones a Meta, la empresa revirtió sus decisiones originales y eliminó los tres comentarios.

Información de los casos

Este caso comprende un conjunto de tres contenidos. En junio de 2025, un usuario de Facebook publicó una foto de la construcción de la Biblioteca Nacional de Kosovo, en Pristina, la capital del país. Varios usuarios comentaron la publicación. El primer comentario, en el que se etiquetaba al usuario que realizó el reporte ante el Consejo, hablaba sobre una "buena depuración étnica, como la que comenzó Milošević", que sería [el] fin del "falso Estado" y del "mito turkoschiptar [en adelante, t************']" sobre la "gran turcoalbania". Slobodan Milošević fue presidente de Serbia y, posteriormente, de la antigua República de Yugoslavia, de la que Kosovo formaba parte.

El usuario que realizó el reporte publicó un comentario en respuesta, en el que señaló que el usuario que realizó la publicación parecía estar promoviendo la depuración étnica y el genocidio y glorificando los crímenes de guerra. El usuario que realizó el reporte afirmó que Milošević fue responsable del asesinato, la agresión sexual y el desplazamiento de muchísimas personas.

El segundo caso se relaciona con un comentario del usuario que realizó la publicación en respuesta al usuario que realizó el reporte. El usuario que realizó la publicación etiquetó nuevamente al usuario que realizó el reporte y le dijo que "se estaba victimizando" y que "Milošević había sido demasiado blando". Luego le dijo que "se debería hacer una depuración étnica total como la que hicieron con la población serbia a partir de la Segunda Guerra Mundial". También dijo que "eso era lo único que podían hacer", ya que "no son personas civilizadas".

Una vez más, el usuario que realizó el reporte publicó un comentario en respuesta, en el que acusó al usuario que realizó la publicación de promover el genocidio y de no saber nada de historia.

El tercer caso se relaciona con otro comentario del usuario que realizó la publicación en respuesta al usuario que realizó el reporte. El comentario decía: "Tarde o temprano recuperaremos la Kosovo y Metojia serbia" y la "OTAN [Organización del Tratado del Atlántico Norte] no siempre estará ahí para ayudarlos". Metojia, también denominada Metoquia, es la región suroeste de Kosovo. El comentario agregaba: "Son una desgracia para la civilización" y "saben muy bien quiénes son los t************".

El usuario que realizó el reporte apeló al Consejo tres veces, una por cada comentario del usuario que realizó la publicación, contra las decisiones originales de Meta de mantener publicados los tres comentarios. En sus declaraciones al Consejo, el usuario afirmó que el primer comentario utiliza "lenguaje despectivo y provocador para atacar a grupos étnicos específicos" con términos que "promueven una narrativa de superioridad étnica". También hizo hincapié en el hecho de que este tipo de contenido "puede contribuir al aumento de las tensiones étnicas y nacionales, en especial, en regiones con antecedentes de conflicto". En relación con el segundo comentario del usuario que realizó la publicación, el usuario que realizó el reporte mencionó que el hecho de promover una "depuración étnica total", con referencias a conflictos del pasado, "incita a la hostilidad y a la violencia contra un grupo específico". Según el usuario, "mantener tales afirmaciones sin moderar podría provocar daños en el mundo real". Por último, en relación con el tercer comentario del usuario que realizó la publicación, el usuario que realizó el reporte destacó que t************ "es un término con una connotación étnica históricamente despectiva que se utiliza para insultar y deshumanizar a las personas albanesas. Se lo reconoce ampliamente como lenguaje que incita al odio en el contexto de las tensiones étnicas en los Balcanes".

Inicialmente, Meta mantuvo los tres contenidos. Sin embargo, en virtud de la norma comunitaria sobre violencia e incitación de Meta, la empresa elimina "el lenguaje que incita o propicia actos de violencia y amenazas creíbles a la seguridad pública o personal. Esto incluye incitación a la violencia dirigida a una persona o un grupo de personas sobre la base de sus características protegidas o su condición de inmigrante". Además, la empresa elimina "las amenazas de violencia que podrían llevar a la muerte (u otras formas de violencia de gravedad alta)". Las amenazas de violencia se definen como "frases o imágenes que representan una intención, aspiración o llamada a cometer actos de violencia contra un objetivo. Las amenazas pueden expresarse con frases de diversos tipos, como declaraciones de intención, llamadas a la acción, dichos en defensa de una causa, expresiones de esperanza o deseo, y afirmaciones condicionales". Adicionalmente, en virtud de la norma comunitaria sobre lenguaje que incita al odio, la empresa elimina "el contenido que describe o ataca negativamente a las personas con insultos". La política define a los insultos como "palabras que generan inherentemente un clima de exclusión e intimidación en contra de las personas sobre la base de una característica protegida, a menudo porque estas palabras están vinculadas a discriminación, opresión y violencia históricas".

Después de que el Consejo remitió estos casos a Meta, la empresa determinó que los tres contenidos no deberían haberse mantenido publicados en la plataforma. Meta explicó que el primer contenido "promueve la reanudación de la depuración étnica iniciada por Slobodan Milošević", lo que fue "mencionado de manera explícita posteriormente en la conversación por el mismo usuario". Por lo tanto, Meta concluyó que este comentario constituye una amenaza de violencia de gravedad alta contra las personas albanesas. Meta también consideró que el segundo caso infringía la política de violencia e incitación y destacó que "el usuario está promoviendo la depuración étnica, lo que constituye una amenaza de violencia de gravedad alta dirigida a las personas albanesas". Por último, la empresa concluyó que el tercer comentario también infringía las normas, ya que hacía referencia a un "incidente histórico de violencia contra las personas albanesas en Kosovo", y que, a la luz de la "primera amenaza de violencia por parte del mismo usuario", también constituye una "amenaza de violencia de gravedad alta contra las personas albanesas". Como resultado, la empresa eliminó los tres contenidos de Facebook.

Autoridad y alcance del Consejo

El Consejo tiene la autoridad para revisar la decisión de Meta tras la apelación del usuario que reportó el contenido que se conservó en la plataforma (artículo 2, sección 1, del acta constitutiva; artículo 3, sección 1, de los estatutos).

Cuando Meta reconoce que cometió un error y revierte su decisión en un caso en consideración para la revisión del Consejo, el Consejo puede seleccionar ese caso para una decisión resumida (artículo 2, sección 2.1.3, de los estatutos). El Consejo revisa la decisión original para entender mejor los procesos de moderación de contenido empleados, reducir los errores y ser más justo con los usuarios de Facebook, Instagram y Threads.

Importancia de los casos

Los tres contenidos mencionados constituyen ejemplos de una aplicación deficiente de la norma comunitaria sobre violencia e incitación de Meta a gran escala. En tres oportunidades distintas, inicialmente los sistemas de moderación de contenido de la empresa no lograron identificar y eliminar claras amenazas de violencia de gravedad alta dirigidas a un grupo específico de personas sobre la base de características protegidas, en estos casos, personas albanesas. No obstante, después de que el Consejo marcó el contenido, Meta volvió a revisarlo, y sus equipos especializados consideraron el contexto completo de toda la conversación para determinar que los comentarios individuales infringían las normas.

El Consejo expuso reiteradas veces sus inquietudes sobre la aplicación deficiente de políticas en relación con las amenazas de muerte en general y, más específicamente, respecto del contenido que ataca a grupos que históricamente sufrieron y siguen sufriendo discriminación (consulta, por ejemplo, Declaraciones dirigidas a personas indígenas de Australia y Publicación en polaco contra las personas trans). El Consejo tuvo en cuenta los antecedentes de conflicto en Kosovo y el reciente aumento de las tensiones luego de los acontecimientos que se produjeron en la región en mayo y septiembre de 2023, y en febrero y noviembre de 2024, así como también el hecho planteado por el usuario que realizó el reporte respecto de la posibilidad de que comentarios como los mencionados generen actos de violencia en la vida real. En la decisión del caso Dibujo animado de Knin, al revisar un video publicado en Facebook en el que se representaba a personas de la etnia serbia como ratas, el Consejo llegó a la conclusión de que el contenido dirigido a un grupo étnico se considera deshumanizante y como una incitación al odio si "celebra hechos pasados de tratos discriminatorios", "en especial, en una región con antecedentes recientes de conflictos étnicos".

En esa misma decisión, el Consejo recomendó que Meta aclare "las pautas proporcionadas a los revisores y explique que la política prohíbe incluso las referencias implícitas a los grupos protegidos cuando hubiera una referencia razonablemente comprensible" (Dibujo animado de Knin, recomendación n.° 1). Aunque la recomendación se emitió en relación con la política de lenguaje que incita al odio (actualmente, política de conducta que incita al odio) de Meta, el Consejo considera que resulta relevante en este caso, ya que el usuario que realizó la publicación no se refirió explícitamente a las personas albanesas en ninguno de los tres comentarios. En respuesta a dicha recomendación, Meta informó que la empresa "agregó nuevas disposiciones a la introducción de [sus] Normas comunitarias en [su] Centro de transparencia que aclaran [su] enfoque en cuanto al contenido que utiliza lenguaje implícito o ambiguo y, por lo tanto, exige considerar un mayor contexto para determinar si infringe las normas. La actualización aclara que, en los casos donde un mayor contexto permita [a Meta] interpretar razonablemente que un determinado contenido infringe [sus] Normas comunitarias, [Meta] podrá eliminar dicho contenido" (actualización trimestral del cuarto trimestre de 2022 de Meta sobre el Consejo asesor de contenido). El Consejo consideró que la recomendación se implementó de manera parcial debido a que la actualización de la política no se adoptó en virtud de la política de lenguaje que incita al odio y no incluía disposiciones que abordaran las referencias implícitas a grupos protegidos.

Adicionalmente, el Consejo destacó que, después de que remitiera este conjunto de contenidos a Meta, la empresa evaluó los tres comentarios del caso, junto con los comentarios que hizo el usuario que realizó el reporte, como parte de una conversación más larga. Esto fue importante para determinar que los tres comentarios promovían la depuración étnica y la "recuperación de un Kosovo serbio", una referencia a un incidente histórico de violencia contra las personas albanesas en Kosovo y, por lo tanto, una amenaza de violencia de gravedad alta contra ellas. Aunque este enfoque es coherente con las pautas que el Consejo le brindó a Meta sobre cómo abordar la aplicación de políticas en sus plataformas, los revisores a gran escala no lo tuvieron en cuenta. En el caso Poema sobre la protesta política en Argentina, el Consejo destacó la importancia de proporcionar a los revisores a gran escala el contexto completo de una determinada publicación, como forma de mejorar la precisión de la aplicación de políticas. Aunque ese caso se centraba en la aplicación de políticas respecto de secuencias (publicaciones con varias imágenes), lo mismo se aplica a las conversaciones, como ilustran estos casos.

Además, el Consejo emitió recomendaciones para aumentar su comprensión y la transparencia general en torno a la precisión de la aplicación de las políticas de Meta y el enfoque para medirla:

  • "Con el fin de fundamentar futuras evaluaciones y recomendaciones para la política de violencia e incitación, y permitir al Consejo llevar a cabo su propio análisis de necesidad y proporcionalidad de las ventajas y desventajas en el desarrollo de políticas, Meta debe proporcionar al Consejo los datos que utiliza para evaluar la precisión de la aplicación de sus políticas. Esta información debería ser lo suficientemente extensa como para que el Consejo pueda validar los argumentos de Meta acerca de que los errores de este tipo en estos casos no son consecuencia de ningún problema sistémico con sus procesos de aplicación de políticas" (caso Publicaciones sobre el aborto en los Estados Unidos, recomendación n.° 1).
  • Meta "debería mejorar sus informes de transparencia para aumentar la información pública sobre tasas de errores mediante el desglose de esta información por país e idioma para cada norma comunitaria". El Consejo subrayó que "con informes de transparencia más detallados, el público podrá detectar áreas en las que es más común que ocurran errores, incluido el posible impacto específico en grupos minoritarios, y alertar Facebook para que los corrija" (caso Inquietud punyabí en torno a la RSS en la India, recomendación n.° 3).

En respuesta a ambas recomendaciones, Meta compartió un "resumen confidencial de los datos de aplicación de políticas... que incluía una visión general de los datos de precisión de la aplicación" de las políticas de violencia e incitación y de personas y organizaciones peligrosas (informe del primer semestre de 2025 de Meta sobre el Consejo asesor de contenido). El Consejo consideró que ambas recomendaciones se omitieron o re formularon, ya que las respuestas de Meta no abordaron los objetivos principales de las recomendaciones. En el caso de la primera recomendación, esto se debió a que el Consejo le solicitó a Meta los datos que la empresa utiliza para evaluar la precisión de la aplicación de políticas. Sin embargo, Meta solo compartió los resultados de la evaluación en sí. En el segundo caso, esto se debió a que le solicitó a Meta que hiciera públicos estos datos de aplicación de políticas, y que la empresa los desglosara por país e idioma. Por lo tanto, el Consejo concluyó que no se cumplieron los objetivos de ninguna de las recomendaciones.

Por último, el Consejo también efectuó una recomendación respecto de las auditorías de Meta sobre sus listas de insultos para garantizar que estén actualizadas en todas las regiones: "Cuando Meta audite sus listas de insultos, debe asegurarse de tener una amplia colaboración externa con las partes interesadas que sean pertinentes. Esto debe incluir la consulta con los grupos afectados y la sociedad civil" ( Crítica de las políticas migratorias de la UE y los inmigrantes, recomendación n.° 3). Meta informó que hubo progreso en cuanto a la implementación de esta recomendación. La empresa explicó que "interactúa regularmente con las partes interesadas, lo que incluye a la sociedad civil, para mantener listas de insultos adecuadas en todas las regiones del mundo, y [está] trabajando para formalizar este proceso en una etapa inicial de [su] proceso de auditoría anual" (informe del primer semestre de 2025 de Meta sobre el Consejo asesor de contenido). Meta manifestó que "está formando un grupo de trabajo para identificar la mejor manera de formalizar los requisitos y las prácticas recomendadas para garantizar la inclusión de las partes interesadas en la siguiente auditoría". Según Meta, se proporcionarán nuevas actualizaciones en el futuro.

El Consejo considera que la implementación integral de las recomendaciones mencionadas anteriormente fortalecería la capacidad de Meta de reducir la aplicación deficiente de políticas en relación con las amenazas dirigidas a grupos de personas sobre la base de una característica protegida. En primer lugar, mejoraría la capacidad del revisor de detectar referencias implícitas a grupos protegidos y eliminar contenido dañino. En segundo lugar, permitiría a la empresa ajustar su enfoque para medir y comparar los datos de precisión en diferentes idiomas o regiones a fin de asignar mejor los recursos y, así, mejorar las tasas de precisión donde sea necesario. En tercer lugar, los informes públicos sobre la precisión de las revisiones en virtud de la política de violencia e incitación aumentarían la transparencia y generarían un compromiso con Meta que tiene el potencial de conducir a nuevas mejoras. Por último, la consolidación de los requisitos y las prácticas recomendadas para interactuar con las partes interesadas con el fin de actualizar sus listas de insultos mejorará la capacidad de Meta de responder con mayor rapidez a las tendencias en constante evolución en cuanto al uso de términos que podrían causar daños.

Decisión

El Consejo anuló la decisión original de Meta de conservar los tres contenidos. El Consejo confirmó que Meta corrigió sus errores iniciales después de haberle remitido los casos.

Volver a Decisiones de casos y opiniones consultivas sobre políticas