Anulado
Comentario que afirma que las personas romaníes "no deberían existir"
31 de julio de 2025
Un usuario apeló la decisión de Meta de conservar un comentario de Facebook que atacaba a las personas romaníes diciendo que "no deberían existir". Después de que el Consejo le remitiera la apelación a Meta, la empresa revirtió su decisión original y eliminó el comentario.
Las decisiones resumidas analizan casos en los que Meta revirtió su decisión original sobre un contenido después de que el Consejo lo remitiera a la empresa e incluyen información sobre los errores que Meta reconoció. Estas decisiones son aprobadas por un panel de miembros del Consejo, no por todo el Consejo, no implican comentarios del público ni tienen valor de precedencia para el Consejo. Las decisiones resumidas traen aparejados cambios directos en las decisiones de Meta, ya que aportan transparencia respecto de estas correcciones, a la vez que permiten identificar en qué aspectos Meta podría mejorar la aplicación de sus políticas.
Resumen
Un usuario apeló la decisión de Meta de conservar un comentario de Facebook que atacaba a las personas romaníes diciendo que "no deberían existir". Después de que el Consejo le remitiera la apelación a Meta, la empresa revirtió su decisión original y eliminó el comentario.
Información sobre el caso
En marzo de 2025, un usuario de Facebook comentó una publicación que debatía la historia de las migraciones de la población romaní (conocida también con otros nombres, como gitanos), un grupo étnico originario del norte de la India que se expandió por todo el mundo, con predominancia en Europa en la era moderna. El comentario manifestaba que los romaníes "no debería existir" y "son solo [un] problema para el mundo".
Un usuario apeló ante el Consejo la decisión original de Meta de conservar el comentario. El usuario que presentó la apelación destacó la historia de persecución contra el pueblo romaní en Europa y la discriminación que enfrenta en la era moderna, como "educación segregada, discriminación laboral, discriminación en la vivienda, discriminación en la atención médica, discriminación política y legal, estigma social y en los medios de comunicación, brutalidad policial, pobreza extrema y crímenes de odio".
Antes del 7 de enero de 2025, cuando Meta anunció cambios en su norma comunitaria sobre lenguaje que incita al odio (ahora conducta que incita al odio), la política prohibía "afirmaciones que niegan la existencia (incluidas, entre otras, '[característica protegida o semiprotegida] no existe', 'no hay tal cosa como [característica protegida o semiprotegida]' o '[característica protegida o semiprotegida] no debería existir')".
Si bien esta prohibición se eliminó del texto público de la política de conducta que incita al odio, la empresa sigue eliminando las "incitaciones a la exclusión o segregación si se pronuncian contra personas en función de características protegidas", como raza u origen étnico. Esta prohibición incluye "exclusión general" que se define como "incitar a la exclusión o segregación generalizada, como '¡No admitimos X!'". En la información que Meta proporcionó al Consejo, la empresa también reveló que otros ejemplos de infracciones incluyen declaraciones como "no más" o "un mundo sin" miembros de un grupo con características protegidas.
Luego de que el Consejo le presentara este caso a Meta, la empresa determinó que el contenido infringía la política de conducta que incita al odio y que su decisión original de conservar el comentario había sido incorrecta. Meta consideró que el usuario infringió la política porque la afirmación que señala que los romaníes "no deberían existir" es una incitación a la exclusión general. Seguidamente, la empresa eliminó el contenido de Facebook.
Autoridad y alcance del Consejo
El Consejo tiene la autoridad para revisar la decisión de Meta tras la apelación del usuario que reportó el contenido que posteriormente se conservó en la plataforma (artículo 2, sección 1, del acta constitutiva; artículo 3, sección 1, de los estatutos).
Cuando Meta reconoce que cometió un error y revierte su decisión en un caso en consideración para la revisión del Consejo, el Consejo puede seleccionar ese caso para una decisión resumida (artículo 2, sección 2.1.3, de los estatutos). El Consejo revisa la decisión original para entender mejor los procesos de moderación de contenido empleados, reducir los errores y ser más justo con los usuarios de Facebook, Instagram y Threads.
Importancia del caso
El contenido en este caso proporciona un ejemplo de lenguaje que incita al odio contra el pueblo romaní que no es sutil ni codificado, sino que afirma expresamente que "no deberían existir". El caso es otro ejemplo de una aplicación de políticas deficiente sobre lenguaje que claramente incita al odio (consulta, por ejemplo, Comentario dirigido a personas con síndrome de Down, Declaraciones dirigidas a personas indígenas de Australia, Publicación en polaco contra las personas trans) que destaca fallas preocupantes de Meta en cuanto a la aplicación de sus políticas contra conductas que incitan al odio en sus plataformas.
El Consejo de Derechos Humanos de las Naciones Unidas reconoció hace mucho tiempo que el pueblo romaní "enfrentó, durante más de cinco siglos, discriminación, rechazo, exclusión social y marginación de forma generaliza y permanente en todo el mundo, en particular en Europa, y en todos los ámbitos de la vida". Este organismo reconoció también "la existencia del antigitanismo ["gitano" es el término que se usa en referencia al pueblo romaní y que algunos consideran peyorativo] como forma específica de racismo e intolerancia, que conduce a hechos hostiles que van desde la exclusión hasta la violencia contra las comunidades romaníes". De modo similar, de acuerdo con un estudio integral desarrollado por el Relator Especial de las Naciones Unidas sobre cuestiones de las minorías, el pueblo romaní está expuesto a riesgos de violencia, amenazas a su identidad colectiva, problemas relacionados con su calidad de vida y obstáculos que se interponen a su participación social efectiva. Hace poco, una resolución del Parlamento Europeo y una encuesta a diez países de este continente realizada por la Agencia de los Derechos Fundamentales de la Unión Europea destacan la discriminación y la violencia, así como las dificultades que enfrenta el pueblo romaní, en ámbitos como vivienda, educación, salud y empleo.
El Consejo puso reiteradamente sobre la mesa sus inquietudes sobre la aplicación deficiente de políticas respecto de contenido que ataca a grupos que históricamente sufrieron y siguen sufriendo discriminación. En la decisión del caso Declaraciones dirigidas a personas indígenas de Australia, el Consejo hizo hincapié en el error que cometió Meta al no eliminar el contenido que incitaba a la exclusión de este grupo. En la decisión del caso Presuntos delitos en Raya Kobo, el Consejo recomendó que "Meta debe reformular el valor de 'seguridad' para reflejar que el lenguaje que incita al odio en internet puede suponer un riesgo para la seguridad física de las personas y el derecho a la vida, además de los riesgos de intimidación, exclusión y silenciamiento" (recomendación n.º 1). La implementación de esta recomendación se demostró mediante información publicada.
El Consejo también emitió recomendaciones cuyo objetivo es mejorar la aplicación de políticas de Meta para reducir errores. Por ejemplo, el Consejo recomendó a Meta "hacer [públicos] los resultados de las auditorías internas que realiza para evaluar la precisión de la revisión manual y el rendimiento de los sistemas automatizados en la aplicación de la política de lenguaje que incita al odio [ahora conducta que incita al odio] [...] de un modo que permita que estas evaluaciones se comparten entre idiomas y regiones" (Acusaciones de criminalidad basadas en la nacionalidad, recomendación n.º 2). En su respuesta inicial al Consejo, Meta informó que la empresa implementará esta recomendación de forma parcial. Meta declaró que, si bien la empresa "continuará compartiendo datos sobre la cantidad de contenido relacionado con lenguaje que incita al odio abordado por [sus] mecanismos de aplicación de políticas en el Informe de cumplimiento de las Normas comunitarias (CSER)", los datos sobre la precisión de su aplicación de políticas a escala internacional se compartirán de forma confidencial con el Consejo. Esta recomendación se emitió en septiembre de 2024. La implementación está en curso, pero todavía no se compartieron datos con el Consejo.
El Consejo insta a Meta a mejorar de forma significativa los índices de precisión al detectar y eliminar contenido que claramente infringe su norma comunitaria sobre conducta que incita al odio en diversos idiomas y regiones. El Consejo señaló anteriormente en la decisión del caso Publicaciones que muestran la bandera de la época del apartheid en Sudáfrica que, "en 2018, Meta citó la falta de eliminación de contenido con lenguaje que incita al odio de Facebook en situaciones de crisis como la de Birmania como motivación para aumentar la aplicación de políticas automatizada". En la misma decisión, el Consejo explicó que, "en muchas partes del mundo, es menos probable que los usuarios interactúen con las herramientas de reportes dentro de la app de Meta por diversos motivos, lo que convierte a los reportes de usuarios en una señal poco confiable de dónde podrían estar ocurriendo los peores daños". Aún en esta decisión, el Consejo concluyó que "es esencial que Meta considere en su totalidad de qué modo los efectos de los cambios en la detección automática de contenido potencialmente infractor, para la aplicación de políticas tanto excesiva como insuficiente, puede tener efectos desiguales en todo el mundo, especialmente en países que experimentan crisis, guerras o crímenes atroces en la actualidad o que los han experimentado en el último tiempo".
El Consejo considera que la implementación completa de la recomendación n.º 2 de la decisión del caso "Acusaciones de criminalidad basadas en la nacionalidad" mencionada anteriormente fortalecería aún más la capacidad de la empresa para reducir la aplicación deficiente de políticas respecto de contenido dañino que afecta a grupos vulnerables. De este modo, Meta podría comparar datos de precisión entre idiomas y regiones, y asignar así recursos para mejorar los índices de precisión cuando sea necesario. Asimismo, los informes públicos sobre la precisión de las revisiones en virtud de la política de conducta que incita al odio aumentarían la transparencia y generarían un compromiso con Meta que tiene el potencial de conducir a nuevas mejoras.
Decisión
El Consejo anuló la decisión original de Meta de conservar el contenido. El Consejo confirmó que Meta corrigió su error inicial después de haberle remitido el caso.
Volver a Decisiones de casos y opiniones consultivas sobre políticas