Decisión de casos múltiples

Emojis en contra de las personas negras

El Consejo asesor de contenido rechazó las decisiones originales de Meta de conservar dos contenidos en los que se usaban emojis para comparar a las personas negras con monos, lo cual constituye una expresión de odio, discriminación y acoso.

2 casos incluidos en el paquete

Anulado

FB-QGOKEDPY

Caso sobre las en Facebook

Plataforma
Facebook
Tema
Discriminación,Raza y etnia
Ubicación
Brasil
Date
Publicado el 10 de febrero de 2026
Anulado

IG-EJNOH07S

Caso sobre las en Instagram

Plataforma
Instagram
Tema
Discriminación,Raza y etnia
Ubicación
Irlanda,Estados Unidos,Zimbabue
Date
Publicado el 10 de febrero de 2026

Resumen

El Consejo asesor de contenido rechazó las decisiones originales de Meta de conservar dos contenidos en los que se usaban emojis para comparar a las personas negras con monos, lo cual constituye una expresión de odio, discriminación y acoso. El Consejo instó a Meta a mejorar sus procesos de moderación manual y automatizada de modo que tengan en cuenta de forma integral el "algospeak", incluidos emojis, a fin de evitar ataques discriminatorios y de odio contra grupos. Esto podría implicar asegurarse de que los datos de entrenamiento para la aplicación automatizada de políticas sean adecuados para el contexto regional y estén actualizados, coordinar iniciativas para interrumpir de forma proactiva campañas de odio y garantizar que sus iniciativas de mitigación incluyan la supervisión activa de contenido con emojis que incitan a la discriminación y la hostilidad durante eventos deportivos importantes, como la Copa Mundial de la FIFA (Federación Internacional de Fútbol Asociación).

Información de los casos

Estos casos se relacionan con dos publicaciones realizadas en mayo de 2025 en las que se usaron emojis de mono en referencia a personas negras.

En el primer caso, un usuario de Brasil publicó un video breve en Facebook con la escena de la película ¿Qué pasó ayer? doblada al portugués, en la que dos personajes se pelean por un mono. En el texto superpuesto en el video, se nombra a los personajes como los clubes de fútbol "Barcelona" y "Real Madrid". Otro texto superpuesto hace referencia a chicos que están cobrando protagonismo en el fútbol brasileño. La descripción consta de un emoji de mono. La publicación se visualizó 22.000 veces y 12 personas la reportaron.

El segundo caso tiene que ver con un comentario publicado en respuesta a un video en una cuenta de Instagram de Irlanda. En el video, el usuario expresa indignación tras ser testigo de un incidente racista en la calle y la descripción insta a Irlanda a rechazar el racismo. El comentario de otro usuario señala que no respalda el mensaje, sino que quiere que la situación "estalle" y "divertirse a lo grande con todos los [emojis de mono] y en la calle". El comentario además incluye varios emojis de mono, de risa y de plegaria, y enfatiza "días gloriosos por delante". La publicación original se visualizó 4.000 veces y 62 personas reportaron el comentario.

Los sistemas automatizados de Meta y, luego de la apelación de los usuarios, los revisores decidieron conservar ambas publicaciones. Los usuarios, entonces, apelaron al Consejo. Luego de que el Consejo seleccionara estos casos para su revisión, Meta determinó como incorrectas sus decisiones originales y eliminó las publicaciones en julio de 2025 por infringir la norma comunitaria sobre conducta que incita al odio de la empresa.

Se puede usar lenguaje cifrado mediante giros idiomáticos o emojis (denominado "algospeak") para transmitir mensajes deshumanizantes o de odio y eludir, al mismo tiempo, los sistemas de moderación de contenido automatizados.

Conclusiones principales

Al Consejo le preocupa la precisión de la aplicación de la política de conducta que incita al odio, en especial en la evaluación de emojis que se emplean como algospeak. Los clasificadores identificaron el contenido, pero no tomaron medida alguna. Meta señala que los revisores deben tener en cuenta todos los aspectos del contenido, como imágenes, descripciones y superposiciones de texto, así como factores que van más allá del contenido inmediato, incluidos la publicación principal y los comentarios. Asimismo, Meta explicó que entrena a sus clasificadores con conjuntos de datos compuestos por ejemplos reportados y etiquetados, incluidos casos en los que se usan emojis de formas potencialmente infractoras. No obstante, las revisiones manuales y automatizadas no lograron evaluar con precisión las publicaciones.

Meta debe auditar de forma periódica sus datos de entrenamiento para mejorar la detección automatizada del uso de emojis infractores. Los procesos de aplicación de políticas siempre deben remitir el contenido a revisores que hablen el idioma en cuestión y cuenten con conocimiento regional.

En respuesta a las preguntas del Consejo, Meta indicó que, tras su comunicado del 7 de enero de 2025, los macromodelos lingüísticos (LLM) ahora se encuentran más ampliamente integrados como un nivel de revisión adicional, incluso para contenido que puede infringir la política de conducta que incita al odio. Según Meta, los LLM no reemplazan los modelos existentes, pero brindan una segunda opinión respecto de las decisiones de aplicación de políticas, ya que se centran en el contenido que se marcó para su eliminación. En estos casos, no participaron LLM en el proceso de revisión.

El Consejo considera que ambas publicaciones infringen la norma sobre conducta que incita al odio, que prohíbe las comparaciones deshumanizantes con animales. Ambas publicaciones usan el emoji de mono para atacar a las personas negras sobre la base de su característica protegida.

Conservar las publicaciones es una medida incoherente con las responsabilidades de Meta con los derechos humanos, ya que los emojis cuyo objeto es deshumanizar a grupos con características protegidas e incitar a la discriminación y la hostilidad contra ellos deberían quedar sujetos a eliminación. Es necesario y proporcionado eliminar ambas publicaciones.

Las dos publicaciones representan formas de algospeak empleado para expresar odio, discriminación y acoso contra grupos con características protegidas específicas. Asimismo, ilustran cómo se pueden usar emojis para incitar a otras personas a realizar acciones discriminatorias y potencialmente hostiles.

La publicación brasileña se realizó en el contexto de hostilidad y racismo sistemático ampliamente documentado en el ámbito del fútbol, en particular contra jugadores negros. El comentario en el caso irlandés se compartió en el contexto de una creciente discriminación racial y un aumento de la afrofobia en Irlanda.

Para coordinar mejor sus iniciativas y proteger a las personas que tal vez no se nombren directamente, pero son el blanco implícito de campañas de odio, Meta debe desarrollar un marco que armonice las medidas que ya impone a fin de interrumpir de forma proactiva campañas de odio, en especial aquellas que implican el uso de emojis. Meta debe garantizar que sus iniciativas de mitigación urgentes, ya sean mediante su centro de integridad de operaciones de productos u otro sistema de mitigación de riesgos, incluyan la supervisión activa de contenido con emojis que incitan a la discriminación u hostilidad contra un grupo concreto en los días previos a un evento deportivo importante, durante este y una vez que termina, como es el caso de la Copa Mundial de la FIFA 2026.

Decisión del Consejo asesor de contenido

El Consejo anuló las decisiones originales de Meta de conservar ambos contenidos.

Asimismo, el Consejo le recomendó a Meta:

  • Auditar los datos de entrenamiento de los sistemas automatizados que se emplean para aplicar la política de conducta que incita al odio y garantizar que los datos se actualicen de forma periódica a fin de incluir ejemplos de contenido con emojis en todos los idiomas, el uso infractor de emojis y nuevas instancias del uso de emojis con fines de odio.
  • Armonizar sus iniciativas actuales para interrumpir de forma proactiva campañas de odio, en especial aquellas que implican el uso de emojis, a fin de proteger mejor a las personas que no se nombran directamente, pero que son el blanco implícito de estas campañas.
  • Garantizar que sus iniciativas de mitigación urgentes, ya sea mediante su centro de integridad de operaciones de productos u otro sistema de mitigación de riesgos, incluyan la supervisión activa de contenido con emojis que incitan a la discriminación u hostilidad contra un grupo concreto en los días previos a un evento deportivo importante, durante este y una vez que termina, como la Copa Mundial de la FIFA.

El Consejo reitera la importancia de la recomendación relevante que hizo previamente y que insta a Meta a:

  • Brindar a los usuarios la oportunidad de revertir el error por sus propios medios, comparable a la intervención de fricción en el momento de la publicación que se creó como resultado de la recomendación n.º 6 del caso "Manifestaciones en Rusia a favor de Navalny". Si esta intervención ya no está en vigencia, la empresa debe proporcionar una intervención en el producto similar.

* Los resúmenes de casos ofrecen información general sobre los casos y no sientan precedentes.

Decisión completa del caso

  1. Descripción y contexto del caso

Esta decisión abarca dos casos en los que se usaron emojis de monos para hacer referencia a personas negras.

El primer caso se relaciona con un video corto publicado en Facebook en mayo de 2025 por un usuario de Brasil. El video muestra una escena de la película ¿Qué pasó ayer? doblada al portugués, en la que dos personajes se pelean por un mono. En el texto superpuesto en el video, se nombra a los personajes como "Barcelona" y "Real Madrid", que son clubes de fútbol de España. Durante la discusión, el personaje llamado "Real Madrid" amenaza brevemente al personaje llamado "Barcelona" con un arma. Otro texto superpuesto hace referencia a chicos que están cobrando protagonismo en el fútbol brasileño, y la descripción del video solo contiene un emoji de mono. La publicación se visualizó más de 22.000 veces y 12 personas reportaron el contenido.

El segundo caso se relaciona con un comentario publicado en mayo de 2025 en respuesta a un video publicado por un usuario de Irlanda en su cuenta de Instagram. En el video, aparece el usuario expresando su indignación tras presenciar un incidente racista en la calle en Irlanda, en el que un grupo de adolescentes le gritó un insulto racista a una mujer negra. En la descripción, el usuario expresa desconsuelo por la víctima y subraya que es posible ser una persona negra e irlandesa al mismo tiempo, pero que esta es una conversación que las "personas blancas privilegiadas" no quieren tener. El usuario también insta a los demás a expresar sus ideas y tener conversaciones difíciles, y anima a la sociedad a mejorar en la lucha contra el racismo. La descripción termina con un hashtag en el que llama a rechazar el racismo en Irlanda.

En respuesta al video en el caso irlandés, otro usuario comentó que no apoyaba el mensaje. Por el contrario, desafió al creador del video preguntándole qué es lo que pretendía hacer respecto de la situación. El usuario que comentó también dijo que tenía ganas de que la situación "estallara" y pudiera "divertirse a lo grande con todos los [emojis de mono] y en la calle". El comentario incluye varios emojis más de mono, de risa y de plegaria, y enfatiza "días gloriosos por delante". La publicación original se visualizó más de 4.000 veces y 62 personas reportaron el comentario.

Los sistemas automatizados de Meta detectaron ambas publicaciones como potencialmente infractoras de la política de conducta que incita al odio. El clasificador determinó que el contenido del caso brasileño no infringía las normas, aunque no pudo determinar con seguridad el idioma usado en el caso irlandés (inglés) y, por lo tanto, no tomó medidas al respecto.

Los usuarios reportaron las dos publicaciones como conducta que incita al odio, y estas se enviaron a revisión. Sin embargo, no se priorizaron para revisión manual y permanecieron en las plataformas.

En ambos casos, los usuarios que reportaron las publicaciones apelaron la decisión de Meta de conservar dichas publicaciones. Tras una revisión manual, Meta ratificó sus decisiones iniciales, y los usuarios apelaron al Consejo.

Como resultado de que el Consejo seleccionara estos casos para su revisión, Meta determinó que sus decisiones originales fueron incorrectas y eliminó las publicaciones en julio de 2025 por infringir la norma comunitaria sobre conducta que incita al odio de la empresa.

El Consejo destacó el siguiente contexto en cuanto a las decisiones que tomó:

El racismo que enfrentan los jugadores de fútbol brasileños, en particular los negros, ha atraído una considerablecoberturamediática, lo que destaca el problema mayor del racismo hacia los jugadores y entre los aficionados al fútbol. Por ejemplo, Vinícius Júnior, un jugador del Real Madrid, experimentó varios incidentes racistas, entre ellos, comparaciones con monos. El racismo escaló a un punto en el que el estado brasileño de Río de Janeiro aprobó la "Ley Vinícius Júnior" en 2023 para combatir el racismo durante eventos deportivos. La ley exige la interrupción e incluso el cese de un evento deportivo si ocurre un acto de racismo.

Varios incidentes de alto perfil contra jugadores de fútbol de ascendencia africana, principalmente de insultos por parte de aficionados en estadios y en medios sociales, también se reportaron en países europeos (por ejemplo, en España, Italia, Francia e Inglaterra). La Eurocopa 2020 puso el foco público sobre el problema, ya que los jugadores enfrentaban un ataque masivo de odio online. La CONMEBOL, la confederación de asociaciones de fútbol de América del Sur, creó un equipo especial en marzo de 2025 para erradicar el racismo, la discriminación y la violencia en el fútbol. Esto fue, en parte, en respuesta al racismo que enfrentan los jugadores brasileños, lo que incluye cánticos con referencia a los monos durante los partidos.

Los estudios han documentado olas sostenidas de insultos tras los partidos y aumentos en las noticias. Un estudio de la Asociación de Futbolistas Profesionales (PFA) (el sindicato de futbolistas profesionales de Inglaterra y Gales) y Signify (una empresa especializada en ciencia de datos) determinó que, en 2020, se enviaron más de 3.000 tuits a algunos jugadores que eran explícitamente abusivos, de los cuales el 56% eran racistas. De aquellos mensajes racistas, el 29% se expresaba a través de emojis. El mismo estudio determinó que el 43% de los jugadores de la Premier League, el nivel más alto del sistema inglés de ligas de fútbol, recibió insultos explícitamente racistas. De modo similar, un control reciente de la Unión de Asociaciones Europeas de Fútbol​ (UEFA), el máximo ente regulador del fútbol en Europa, determinó que el 33% de las publicaciones reportadas en Meta, TikTok y X por contenido abusivo compartido en torno a las finales de los clubes de la UEFA se clasificaron como racistas.

Como parte de la investigación de estos casos, el Consejo buscó en la biblioteca de contenido de Meta contenido que incluyera el emoji de mono. Un análisis de las 150 publicaciones públicas con más interacción tanto en Facebook como en Instagram entre el 1 de octubre de 2024 y el 1 de octubre de 2025 muestra que este emoji se utiliza con más frecuencia para acompañar videos de monos, memes o contenido con bromas divertidas pensado para volverse viral. Sin embargo, la investigación demostró que cuando el emoji aparecía en conversaciones relativas a personas negras tenía diversas connotaciones en diferentes contextos. Algunas veces se usaba de una manera deshumanizante para comparar a las personas negras con los animales. Otras veces se usaba para destacar o comentar el racismo detectado. También lo usaban usuarios que parecían ser de la comunidad negra de un modo autorreferencial o humorístico, aunque el Consejo no pudo verificar la identidad de estos usuarios. En muchas de las publicaciones relativas al fútbol, el emoji del mono se usaba de un modo deshumanizante, a menudo atacando a jugadores de fútbol concretos, mientras que en otras, en menor grado, se analizaba o condenaba la experiencia de racismo de los jugadores de fútbol.

El informe de la Comisión de Derechos Humanos e Igualdad de Irlanda para el sexto ciclo de supervisión de la Comisión Europea contra el Racismo y la Intolerancia destacó un aumento en el racismo, la discriminación y la intolerancia en Irlanda, y señaló que "el crecimiento de la ideología de extrema derecha, que generó acontecimientos como los disturbios de Dublín, fue el resultado de fallas sistémicas en la protección contra el racismo y la intolerancia en Irlanda". El cambio de Irlanda de una nación predominantemente blanca a un país más diverso gracias a la inmigración en la década del 90 ha generado un cambio en las relaciones sociopolíticas. Esto incluye el aumento en la "afrofobia", el racismo contra personas de ascendencia africana, en todo Irlanda.

La Agencia de los Derechos Fundamentales de la Unión Europea informó que casi la mitad de las personas de ascendencia africana que participaron en una encuesta sobre sus experiencias en la vida cotidiana en 13 Estados miembros de la UE, incluido Irlanda, "experimentaron discriminación racial, lo que supone un incremento del 39% en 2016 al 45% en 2022". Más del 44% de los encuestados en Irlanda experimentaron acoso racial y un 34% expresaron que les preocupaba ser víctimas de un ataque físico debido a su origen étnico o condición de inmigrantes. El informe sobre delitos de odio de 2024 de la Oficina de Instituciones Democráticas y Derechos Humanos (ODIHR) de la Organización para la Seguridad y la Cooperación en Europa (OSCE) señala que 587 de los 676 delitos de odio registrados por la policía de Irlanda se clasificaron como motivados por sesgos racistas y xenofóbicos.

Se usa lenguaje cifrado mediante giros idiomáticos o emojis (también denominado "algospeak") para eludir los sistemas de moderación de contenido automatizados. La investigación sugiere que el uso de emojis "presenta un método de evasión común que los usuarios utilizan para transmitir mensajes ofensivos a través de asociaciones estereotípicas, ya sea de manera deliberada o no intencional". Los investigadores también explican que, aunque los "modelos lingüísticos tienen una comprensión integral de las construcciones textuales, todavía es necesario que se les enseñe lo que significan los emojis en diferentes contextos y de qué modo los diferentes emojis condicionan la probabilidad de expresar odio en un mensaje, publicación o comentario dado".

2. Respuestas de los usuarios

En sus declaraciones al Consejo, los usuarios que reportaron las publicaciones explicaron que estas contenían lenguaje racista que comparaba a las personas negras con los monos. El usuario que presentó el reporte en el caso irlandés enfatizó que usar emojis en lugar de palabras era claramente racista y que el hecho de que la publicación permaneciera en la plataforma ponía en evidencia las fallas en los sistemas de detección automatizados de Instagram.

3. Respuestas y políticas de contenido de Meta

I. Políticas de contenido de Meta

La norma comunitaria sobre conducta que incita al odio prohíbe contenido "dirigido a una persona o grupo de personas basado en características protegidas", como raza, etnia y nacionalidad, "tanto de forma escrita como visual". Esto abarca "lenguaje deshumanizante en forma de comparaciones con animales... o generalizaciones relacionadas con ellos, lo que incluye... animales en general o tipos específicos de animales que culturalmente se perciben como inferiores (incluidos, entre otros: personas negras y simios o criaturas similares a simios...)". Estas comparaciones se pueden mostrar visualmente a través del uso de emojis y discernir en función del contexto.

En la introducción de sus Normas comunitarias, Meta establece que puede eliminar contenido en el que se utilice "lenguaje ambiguo o implícito" cuando el contexto adicional le permite entender razonablemente que el contenido infringe las Normas comunitarias.

II. Respuestas de Meta

Como resultado de la selección de estos casos por parte del Consejo, Meta revirtió sus decisiones originales de mantener ambas publicaciones y las eliminó. Tras una revisión por parte de expertos en el tema de la empresa, Meta decidió que ambas publicaciones constituían lenguaje deshumanizante que comparaba personas con animales basándose en características protegidas, lo que está prohibido según la política de conducta que incita al odio.

En el caso brasileño, Meta explicó que el contenido parecía reutilizar la escena de una película para hacer un comentario sobre las prácticas de contratación de los clubes de fútbol europeos, sugiriendo que el Real Madrid y Barcelona competían por los jugadores brasileños (que a menudo son negros) del mismo modo que los hombres en la escena se peleaban por un mono. Debido a los recientes incidentes racistas en los que aficionados rivales comparaban a algunos de estos jugadores con monos, la empresa determinó que el emoji de mono se estaba usando para comparar a los jugadores brasileños con monos.

En el caso irlandés, Meta determinó que el usuario que hizo el comentario parecía equiparar a las personas negras con monos al compartir el emoji de mono para referirse a ellas. De acuerdo con Meta, debido a la descripción del video de la mujer negra que era acosada en la calle, el uso del emoji de mono en el comentario refleja esa conducta, ya que compara a las personas negras con monos y expresa la intensión de acosarlas al igual que lo hicieron los jóvenes del video.

Meta le informó al Consejo que sus revisores a escala permitieron que ambas publicaciones permanecieran en las plataformas debido a una combinación de ambigüedad contextual, revisión incompleta, aplicación incorrecta de la información sobre las políticas en lo relativo a indicadores visuales como los emojis, y limitaciones de lenguaje y herramientas. La empresa informó al Consejo que se les proporcionó a los revisores capacitación y comentarios. Una investigación más detallada también reveló un problema de herramientas que impidió que se hiciera una adecuada traducción y asignación del caso, lo que provocó que el contenido brasileño se asignara para una evaluación inicial a un revisor que no dominaba el idioma portugués. Según Meta, este problema de asignación ya se resolvió y todas las revisiones se asignarán a colas con los conocimientos regionales y lingüísticos relevantes.

Meta destacó que su decisión de eliminar ambas publicaciones procura proteger el derecho de que las personas sean libres de discriminación y también se alinea con el artículo 20(2) del Pacto Internacional de Derechos Civiles y Políticos (ICCPR), que prohíbe "toda apología del odio nacional, racial o religioso que constituya incitación a la discriminación, la hostilidad o la violencia". La empresa también considera que la eliminación fue necesaria para conservar un entorno en el que los usuarios estén libres de discriminación u hostilidad.

En respuesta a las preguntas del Consejo, Meta afirmó que los emojis a veces pueden influir en el significado del contenido, pero su interpretación varía mucho entre usuarios y regiones y puede tener diferentes significados en diferentes publicaciones. Por lo tanto, la empresa no considera que los emojis infrinjan las normas intrínsecamente. Meta proporciona información y ejemplos en las guías internas para revisores manuales sobre el posible significado de los emojis que más se usan, como el emoji de mono, y les pide a los revisores que tengan en cuenta siempre todo el contexto en el que aparece el emoji para determinar si su uso podría estar infringiendo las normas. Esto incluye considerar todos los aspectos del contenido, como las imágenes, descripciones y superposiciones de texto, así como factores que van más allá del contenido inmediato, incluidos la publicación principal y los comentarios relacionados.

Asimismo, Meta afirmó que sus sistemas automatizados están diseñados para identificar usos de emojis que pueden infringir las políticas considerando el contexto en el que aparecen. Con este fin, según Meta, los sistemas analizan toda la publicación, capturando todos sus elementos y metadatos clave, lo que "permite que los modelos detecten patrones y señales que pueden indicar infracciones de políticas, incluso cuando se usan emojis para reemplazar palabras o conceptos". Esto incluye la consideración de patrones de infracción anteriores. No obstante, Meta observó que sus clasificadores priorizan la eliminación solo de infracciones explícitas de la política de conducta que incita al odio "a fin de minimizar el riesgo de eliminaciones indebidas y aplicación excesiva de políticas", lo cual es particularmente relevante para los emojis, que pueden tener significados que dependen en gran medida del contexto.

Meta explicó que, tras el comunicado de la empresa el 7 de enero de 2025, cambió el enfoque de los sistemas de detección de infracciones de políticas automatizados. Antes de dicha fecha, el sistema utilizaba la aplicación proactiva de políticas, lo que suponía la detección y la eliminación automáticas de todo el contenido infractor. Aunque los sistemas automatizados de Meta todavía pueden detectar infracciones potenciales de la norma sobre conducta que incita al odio, las eliminaciones de dichas infracciones ahora se basan en reportes de usuarios y escalamientos de socios de confianza, en lugar de basarse únicamente en la detección automática. La empresa observó que este enfoque se aplica a nivel global, pero "puede continuar la aplicación proactiva de políticas en países que experimentan crisis". Meta agregó que la empresa evalúa constantemente sus obligaciones legales en todo el mundo para determinar si estas iniciativas proactivas se ajustan a las leyes locales. Además, Meta explicó que la empresa asume un "enfoque personalizado" con respecto al uso de sus herramientas automatizadas y adapta su respuesta al asunto específico en cuestión. Por ejemplo, Meta mantiene la flexibilidad para usar sus herramientas automatizadas para abordar las tendencias de alto riesgo que se identifican en la plataforma, así como también para fines específicos, como la supresión del voto. En ciertos países que experimentan crisis (lo que puede incluir países designados por el Protocolo de la política de crisis) o inestabilidad prolongada, donde a causa de un riesgo considerable a la integridad y las normas se necesita un sistema de supervisión robusto, la empresa puede eliminar proactivamente contenido infractor basándose en el contexto del lugar.

En respuesta a las preguntas del Consejo, Meta afirmó que, tras el comunicado de la empresa el 7 de enero de 2025, los macromodelos lingüísticos (LLM) ahora se encuentran más ampliamente integrados como nivel de revisión adicional, lo que incluye contenido que puede infringir la política de conducta que incita al odio. Según Meta, los LLM no reemplazan los modelos existentes, pero brindan una segunda opinión respecto de las decisiones de aplicación de políticas, ya que se centran en el contenido que se marcó para su eliminación. En los casos actuales, no participaron LLM en el proceso de revisión.

Meta también afirmó que cuenta con varios sistemas para reducir el sesgo en el proceso de revisión. Para los revisores, esto incluye auditorías semanales de todos los equipos de revisión, lo que le permite a Meta entender dónde se están cometiendo errores para poder abordarlos. Además, según Meta, los revisores reciben capacitaciones periódicas sobre las políticas. La empresa dijo que también organiza sesiones quincenales para los revisores para aclarar dudas sobre detalles de las políticas y asegurarse de que las normas se apliquen de forma correcta y uniforme. Meta destacó que, para los sistemas automatizados, la empresa entrena a los clasificadores a partir de reportes revisados manualmente y selecciona una amplia variedad de contenido para asegurarse de que los clasificadores están aprendiendo de los casos más graves, así como también de contenido que, de lo contrario, podría pasarse por alto.

En respuesta a las preguntas del Consejo, Meta explicó que se puede notificar a los usuarios de Instagram que su publicación o comentario fue reportado y ofrecerles la opción de eliminarlo. Según Meta, como sus políticas de retención de datos no superan los 30 días, no es posible confirmar si el usuario del caso irlandés fue notificado acerca de su comentario.

Meta define "acoso masivo dirigido" como "intentos dentro y fuera de la plataforma de movilizar a un grupo numeroso de personas para que se dirijan a un blanco específico". Meta elimina este contenido cuando se dirige, a través de cualquier vía (es decir, en cualquier lugar de la plataforma), a "personas con alto riesgo de sufrir daños en la vida real", tales como defensores de los derechos humanos o menores de edad. Asimismo, Meta también elimina este contenido cuando se envía a cualquier persona a través de sus perfiles personales o bandeja de entrada y se considera (1) contenido que infringe las políticas de bullying y acoso para personas privadas o (2) contenido cuestionable que se basa en una característica protegida. Meta indicó que no permite contenido relativo a conducta que incita al odio, independientemente de si el contenido se dirige a una persona pública o privada.

El Consejo hizo preguntas sobre la política y las consideraciones de aplicación para el contenido que contiene emojis, el historial de aplicación de políticas de las publicaciones, novedades sobre la aplicación de la política de conducta que incita al odio después del comunicado del 7 de enero de 2025 y datos sobre los mecanismos de aplicación de políticas actuales. Meta respondió todas las preguntas.

4. Comentarios del público

El Consejo recibió nueve comentarios del público que cumplieron las condiciones de presentación. Ocho comentarios se enviaron desde los Estados Unidos y Canadá, y uno desde Oriente Medio y África del Norte. Para leer los comentarios del público enviados con consentimiento de publicación, haz clic aquí.

Los comentarios enviados se referían a los siguientes temas: el uso cambiante de emojis en algospeak, los desafíos para la detección automatizada de lenguaje cifrado así como la aplicación de políticas en contenido con emojis que pueden tener muchos significados, la importancia de las evaluaciones contextuales y las capacitaciones de los moderadores para detectar la evasión de la aplicación de políticas a través de algospeak, y estadísticas sobre el racismo en los deportes.

En octubre de 2025, como parte de un trabajo continuo con las partes interesadas, el Consejo consultó a representantes de organizaciones de sociedad civil, académicos, organizaciones intergubernamentales y otros expertos en temas relacionados con la moderación de contenido con emojis. Los participantes enfatizaron los desafíos del análisis contextual del contenido con emojis que tienen significados variados y cambiantes. También destacaron que, aunque algunos emojis se hayan usado para referirse a grupos con características protegidas o intensificar la naturaleza dañina de un mensaje, los mismos emojis se pueden usar en contextos de condena, empoderamiento o concientización. Se enfatizó que, aunque los sistemas automatizados y LLM muestran potencial para detectar lenguaje cifrado, la moderación aún requiere la supervisión humana para definir adecuadamente el contexto y el significado.

5. Análisis del Consejo asesor de contenido

El Consejo seleccionó estos casos para explorar el uso de emojis como forma de "algospeak" y de acoso y discriminación raciales online. Además, procura evaluar los enfoques de aplicación de políticas de Meta sobre dichas formas cambiantes de expresión, por parte tanto de moderadores humanos como de sistemas automatizados, en particular tras el comunicado de Meta del 7 de enero de 2025 en el que la empresa indicaba que iba a modificar su enfoque sobre la detección automatizada de infracciones de políticas. Los casos son relevantes para una de las siete prioridades estratégicas del Consejo: lenguaje que incita al odio contra grupos marginados.

El Consejo analizó las decisiones de Meta en estos casos en relación con sus políticas de contenido, valores y responsabilidades en materia de derechos humanos. Asimismo, el Consejo evaluó las implicancias de estos casos para el enfoque más general de Meta en cuanto a la gobernanza del contenido.

5.1 Cumplimiento de las políticas de contenido de Meta

  1. Reglas de contenido

El Consejo consideró que ambas publicaciones infringen la norma sobre conducta que incita al odio, que prohíbe las comparaciones deshumanizantes con animales. La sección aplicable de la policy hace referencia específica a la comparación de personas negras con simios y criaturas similares a simios como ejemplo de lenguaje deshumanizante. Ambas publicaciones usan el emoji de mono para atacar a las personas negras sobre la base de su característica protegida. Por lo tanto, ambos contenidos infringen la política de conducta que incita al odio.

En el caso brasileño, la publicación muestra una escena de una película en la que dos personajes se pelean por un mono. El texto superpuesto sobre los personajes en el video sugiere que los equipos de fútbol, como Real Madrid y Barcelona, se pelean por jugadores de fútbol brasileños prometedores (que a menudo son negros) de la misma manera en que los hombres del video se pelean por un mono. Esta interpretación es avalada por otro texto superpuesto que hace referencia a chicos que están cobrando protagonismo en el fútbol brasileño. El uso del emoji de mono en la descripción sirve para reforzar la intención de la publicación, que compara implícitamente a los jugadores de fútbol brasileños con monos. El Consejo reconoce la tendencia alarmante en los deportes, en particular en el fútbol, de aficionados que utilizan referencias a monos para discriminar a atletas negros. Dado este patrón establecido y el contexto actual, la publicación infringe el significado literal de la política de conducta que incita al odio de Meta al deshumanizar a las personas negras a través de comparaciones con animales o generalizaciones relacionadas con ellos.

En el caso irlandés, el comentario se opone a la condena de la publicación original con respecto al racismo contra personas negras en Irlanda. Expresa que tenía ganas de que la situación "estallara" y pudiera "divertirse a lo grande con todos los [emojis de mono] y en la calle". Esta referencia a las personas negras como monos junto con el uso de los emojis de risa y oración y a anhelar "divertirse a lo grande" transmite la intención del usuario de deshumanizar a las personas negras equiparándolas con monos. Dado el aumento en la afrofobia en Irlanda y el hecho de que el comentario se publica debajo de un video que expresa indignación hacia el racismo en Irlanda, el uso de los emojis de mono en el comentario es una clara referencia a las personas negras, como grupo con características protegidas, que las equipara con monos. Por lo tanto, esta publicación infringe la política de conducta que incita al odio.

2. Aplicación de políticas

Estos casos plantean inquietudes sobre la precisión a la hora de aplicar la política de conducta que incita al odio, en especial cuando se trata de evaluar el uso de los emojis como forma de algospeak.

Meta pide a los revisores que consideren siempre todo el contexto en el que aparece el emoji para determinar si su uso puede constituir una infracción. Esto significa que los revisores deben considerar todos los aspectos del contenido, como las imágenes, descripciones y superposiciones de texto, así como factores que van más allá del contenido inmediato, incluidos la publicación principal y los comentarios relacionados. Como los emojis pueden transmitir diferentes significados, este enfoque está en línea con la indicación anterior del Consejo de una evaluación contextual e integral de las publicaciones (consulta el caso Cinturón de Wampum, entre otros).

En estos casos, tanto la detección automatizada como varias revisiones manuales en diferentes niveles de aplicación de políticas no evaluaron de forma precisa las publicaciones y las conservaron en las plataformas. Al Consejo le preocupa que, aunque los clasificadores detectaron el contenido en ambos casos, no tomaron medidas al respecto: Se consideró que la publicación brasileña no infringía las normas y el clasificador no pudo determinar con seguridad que la publicación irlandesa estaba en inglés.

Además, la revisión inicial del caso brasileño incluyó problemas de asignación y traducción, y esta decisión inicial no se revisó con más detalle, más allá de haber recibido decenas de informes. Para asegurar una revisión adecuada, los procesos de aplicación de políticas de Meta se deben diseñar para remitir siempre el contenido a revisores que hablen el idioma en cuestión y cuenten con conocimiento regional. Por último, al Consejo le preocupa que, tras la apelación, en ambos casos los revisores mantuvieron la decisión inicial de conservar las publicaciones en las plataformas, a pesar de que la naturaleza infractora de ellas era clara y de tener la indicación detallada de que deben realizar una evaluación contextual e integral del contenido con emojis.

Asimismo, Meta explicó que entrena a sus clasificadores con conjuntos de datos compuestos por ejemplos reportados y etiquetados, incluidos casos en los que se usan emojis de formas potencialmente infractoras. La empresa debe mejorar la capacidad de sus sistemas automatizados para detectar con precisión el uso de emojis en contextos infractores. Debido al uso extendido de emojis que pueden tener diferentes significados, Meta debe auditar con frecuencia los datos de entrenamiento que se usan para la aplicación de la política de conducta que incita al odio, en especial con respecto a emojis en todos los idiomas, y asegurarse de que se incluyan conjuntos de datos más sólidos. La empresa debe considerar la naturaleza cambiante del uso de emojis, basándose en los hallazgos de investigaciones que incluyan información sobre tendencias en el uso de emojis en sus plataformas en diferentes idiomas y regiones (consultar también PC-31493). De acuerdo con el compromiso de Meta de desarrollar y aplicar sus normas globales de modo no discriminativo, Meta debe asegurarse de que los conjuntos de datos incluyan ejemplos de contenido con emojis que no sea en inglés.

5.2. Cumplimiento de las responsabilidades de Meta en materia de derechos humanos

El Consejo afirma que conservar ambas publicaciones en la plataforma no fue coherente con las responsabilidades de Meta en materia de derechos humanos.

Libertad de expresión (artículo 19 del ICCPR)

El artículo 19, párrafo 2, del ICCPR estipula que "toda persona tiene derecho a la libertad de expresión; este derecho comprende la libertad de buscar, recibir y difundir informaciones e ideas de toda índole, sin consideración de fronteras, ya sea oralmente, por escrito o en forma impresa o artística, o por cualquier otro procedimiento de su elección". La observación general n.° 34 también especifica que la expresión protegida incluye la expresión que puede considerarse "profundamente ofensiva" (párrafo 11).

Si un Estado impone restricciones sobre la libertad de expresión, estas deben cumplir los requisitos de legalidad, fin legítimo y necesidad y proporcionalidad (artículo 19, párrafo 3, ICCPR). Se suele hacer referencia a estos requisitos como "prueba de tres partes". El Consejo utiliza este marco para interpretar las responsabilidades de Meta en materia de derechos humanos en línea con los Principios Rectores sobre las Empresas y los Derechos Humanos de las Naciones Unidas (ONU), que Meta se comprometió a cumplir en su Política corporativa de derechos humanos. El Consejo lo hace tanto respecto de la decisión sobre el contenido en particular en revisión como de lo que esto pone de manifiesto acerca del enfoque más amplio de Meta en relación con la gestión del contenido. Como indicó el Relator Especial sobre la libertad de expresión de la ONU, "las empresas no tienen las obligaciones de los Gobiernos, pero sus efectos son de un tipo que les obliga a evaluar el mismo tipo de cuestiones sobre la protección del derecho de sus usuarios a la libertad de expresión" (A/74/486, párrafo 41).

I. Legalidad (claridad y accesibilidad de las reglas)

El principio de legalidad exige que las reglas que limitan la expresión sean accesibles y claras, y estén formuladas con precisión suficiente para que una persona pueda regular su comportamiento de conformidad con ellas (observación general n.º 34, párrafo 25). Asimismo, estas reglas "no pueden conferir a los encargados de su aplicación una discrecionalidad sin trabas para restringir la libertad de expresión" y deben "proporcionar suficientes orientaciones a los encargados de su ejecución para que puedan distinguir cuáles expresiones pueden restringirse correctamente y cuáles no" (ibidem). El Relator Especial sobre la libertad de expresión de la ONU dijo que, cuando se aplican a la gobernanza del discurso online por parte de actores privados, las reglas deben ser claras y específicas (A/HRC/38/35, párrafo 46). Las personas que usan las plataformas de Meta deben ser capaces de acceder a las reglas y entenderlas, y los revisores de contenido deben tener pautas claras para su aplicación.

El Consejo considera que las normas sobre comparaciones deshumanizantes con animales en general o tipos específicos que culturalmente se perciben como inferiores son suficientemente claras en lo que respecta a su aplicación a estos casos. Por lo tanto, la norma comunitaria sobre conducta que incita al odio estipula de forma clara y pública que la comparación de personas negras con simios o criaturas similares a simios está prohibida, y destaca el amplio reconocimiento de esta analogía racista. Además, las guías internas de Meta incluyen una lista ilustrativa y no exhaustiva de emojis, como los de mono y banana, que podrían representar una comparación visual entre grupos con características protegidas y animales.

II. Fin legítimo

Cualquier restricción sobre la libertad de expresión debe procurar además uno o más de los fines legítimos mencionados en el ICCPR, entre ellos, proteger los derechos de los demás (artículo 19, párrafo 3, ICCPR).

La Relatora Especial sobre las formas contemporáneas de racismo, discriminación racial, xenofobia y formas conexas de intolerancia de la ONU observó que el discurso de odio, incluido el que se difunde online, "perjudica gravemente a la sociedad, ya que destruye el tejido social de las comunidades y menoscaba las normas de los derechos humanos y la democracia, incluidas la igualdad y la no discriminación" (A/78/538, párrafo 31, [2023]). La Relatora Especial sobre la promoción y protección del derecho a la libertad de opinión y de expresión de la ONU advirtió a las empresas de medios sociales que el "discurso incendiario no solo pone en peligro a las personas y fomenta la autocensura, sino que también divide a las comunidades exacerbando el miedo, la desconfianza y la hostilidad, quebrantando la confianza social y debilitando el diálogo democrático y la participación ciudadana" (A/80/341, párrafo 30 [2025]).

El Consejo previamente reconoció que la norma comunitaria sobre lenguaje que incita al odio (actualmente la política de conducta que incita al odio) persigue el fin legítimo de proteger los derechos de los demás. Esos derechos incluyen los derechos a la igualdad y a la no discriminación (artículo 2, párrafo 1, del ICCPR; artículos 2 y 5 de la Convención Internacional sobre la Eliminación de todas las Formas de Discriminación Racial). Consulta también Publicaciones que muestran la bandera de la época del apartheid en Sudáfrica y Comentario sobre políticos kenianos que incluye un insulto designado).

III. Necesidad y proporcionalidad

El principio de necesidad y proporcionalidad previsto en el artículo 19(3) del ICCPR exige que las restricciones que se apliquen a la expresión "deben ser adecuadas para desempeñar su función protectora; deben ser el instrumento menos perturbador de los que permitan conseguir el resultado deseado; y deben guardar proporción con el interés que debe protegerse" (observación general n.º 34, párrafo 34).

Publicaciones individuales

El Consejo reconoce que el contenido con emojis puede tener muchos significados y que incluso puede usarse con fines de condena o empoderamiento o de modo autorreferencial. De manera similar al lenguaje que se puede usar tanto de forma ofensiva como no ofensiva, los emojis requieren un análisis contextual para poder comprender cabalmente el significado que buscan transmitir. Sin embargo, el contenido que usa emojis que pretenden incitar la discriminación, la hostilidad o la violencia hacia grupos con características protegidas debe eliminarse.

El artículo 20, párrafo 2, del ICCPR estipula que "toda apología del odio nacional, racial o religioso que constituya incitación a la discriminación, la hostilidad o la violencia estará prohibida por la ley". Esta prohibición es "plenamente compatible con el derecho a la libertad de expresión enunciado en el artículo 19 [ICCPR], cuyo ejercicio implica deberes y responsabilidades especiales" (observación general n.º 11, 1983, párrafo 2). La prohibición del artículo 20 también está sujeta al párrafo 3 del artículo 19 (observación general n.º 34, párrafos 50-52).

El Consejo considera que la eliminación de estas publicaciones es necesaria y proporcional para evitar que las plataformas de Meta se utilicen para incitar la discriminación o actos hostiles contra grupos con características protegidas, en estos casos, las personas negras. El Comité para la Eliminación de la Discriminación Racial considera que la "incitación se caracteriza por el afán de influir en otras personas, persuadiéndolas o amenazándolas para que adopten determinadas formas de conducta, incluida la comisión de un delito. La incitación puede ser explícita o implícita, mediante actos tales como la exhibición de símbolos racistas o la distribución de material, así como mediante palabras" (recomendación general n.º 35, párrafo 16 [2013]). El Comité observa que la "noción de incitación como acto preparatorio punible no exige que la incitación se traduzca en acción, pero al regular las formas de incitación (...) los Estados partes deben tener en cuenta como elementos importantes del delito de incitación (...) la intención del emisor y el riesgo o la probabilidad inminente de que el discurso en cuestión tenga por resultado la conducta deseada o pretendida por el emisor" (ibidem).

Una guía de la ONU de 2023 para responsables de políticas y profesionales subraya la importancia de identificar y abordar el lenguaje que incita al odio no verbal expresado a través de videos, música, memes y otros medios, así como también el lenguaje cifrado que puede ser más difícil de detectar. El Consejo citó anteriormente la frase "creatividad maliciosa", acuñada por Wilson Center, para referirse al "uso de lenguaje codificado; memes visuales y con texto basados en el contexto e iterativos; y otras tácticas para evitar la detección en las plataformas de medios sociales" (consulta la decisión sobre el caso Publicación en polaco contra las personas trans).

En algunos contextos, los emojis pueden representar formas de "algospeak" para expresar odio, discriminación y acoso hacia grupos específicos con características protegidas. El Consejo considera que el contenido en ambos casos se enmarca dentro de esta tendencia al hacer referencia y comparar a las personas negras con monos de forma evidente.

En el caso brasileño, la imagen y el emoji de mono se usaron para comparar a los jugadores de fútbol brasileños, muchos de ellos negros, con monos. El contenido se publicó en un contexto más amplio de racismo y hostilidadsistémicos y ampliamente documentados en el fútbol, con un enfoque particular en los ataques dirigidos a jugadores de fútbol negros. El contenido tuvo más de 22.000 visualizaciones y muestra una tendencia preocupante que perpetúa estereotipos racistas e incita la discriminación inminente y probable y acciones hostiles contra grupos específicos con características protegidas, en este caso, personas negras.

En el caso irlandés, se usó el emoji de mono en el comentario para comparar a todas las personas negras, a las que se hace referencia en la publicación principal, con monos. El comentario se compartió en un contexto de discriminación y exclusión en auge de las personas negras en Irlanda, en una publicación original que tuvo más de 293.000 Me gusta y 9.500 comentarios. En el caso Dibujo animado de Knin, el Consejo determinó que "la representación de los serbios como ratas y la incitación a su exclusión, junto con las referencias a actos históricos de violencia, afectan los derechos a la igualdad y a la no discriminación de aquellos a quienes se hizo alusión". Asimismo, en este caso, el usuario que hizo el comentario presentó a las personas negras como monos. El comentario fomentó conductas hostiles análogas hacia lo que se describió en la publicación principal, lo que incitó la discriminación y hostilidad.

Estas publicaciones ilustran de qué modo los emojis se pueden usar para instar a los demás a realizar acciones discriminatorias y potencialmente hostiles. Si se hubiera intervenido de un modo más moderado, por ejemplo, con etiquetas, pantallas de advertencia u otras medidas para reducir la difusión, no se hubiera proporcionado una protección adecuada contra los efectos que supone permitir contenido de esta naturaleza en la plataforma. Por ende, se justificaba su eliminación.

En casos más ambiguos, el Consejo anima a Meta a seguir explorando con detenimiento medidas menos intrusivas, en línea con la recomendación del Consejo en la decisión del caso Manifestaciones en Rusia a favor de Navalny. Esto permitiría que los usuarios subsanen las infracciones o fomentaría la comprensión de que el contenido de los usuarios puede perjudicar a los demás. Al desarrollar estas medidas, Meta debe asegurarse de que sean eficaces y no generen impactos negativos en los derechos humanos (consultar la recomendación n.º 1 del caso Comentario sobre políticos kenianos que incluye un insulto designado).

Problemas más generales

La investigación y los informes del Consejo muestran que dicho contenido suele dirigirse a personas específicas en función de sus características protegidas, en especial en el contexto de los deportes, como el fútbol. Meta elimina el acoso masivo dirigido conforme a la política de bullying y acoso cuando el contenido se escala para la revisión de un experto en el tema. La empresa también introdujo varias medidas de control del usuario para enfrentar el abuso. Por ejemplo, en Instagram, los usuarios pueden gestionar varios comentarios no deseados de una vez o bloquear de forma masiva las cuentas que los publicaron, o bien, configurar filtros de comentarios "para evitar que otros dejen comentarios ofensivos que contengan palabras, frases o emojis que no quieran ver".

Para coordinar mejor sus iniciativas y proteger a los usuarios que tal vez no se nombren directamente, pero son el blanco implícito de campañas de odio, Meta debe desarrollar un marco que armonice las medidas que ya impone a fin de interrumpir de forma proactiva campañas de odio, en especial aquellas que implican el uso de emojis. Esto debe incluir campañas para figuras públicas y personas privadas a través de menciones directas o explícitas e indirectas o implícitas que exijan la aplicación de las políticas de bullying y acoso o de conducta que incita al odio. Este marco garantizará que Meta tenga un enfoque cohesivo para abordar las fallas en los sistemas de moderación, identificar y evaluar campañas de odio coordinadas y dirigidas, y configurar canales de comentarios permanentes.

Asegurarse de que los sistemas estén bien preparados para manejar campañas dirigidas también es importante durante la preparación para eventos deportivos importantes, en especial, los de fútbol. Numerosos incidentesdocumentados tanto online como en estadios indican una tendencia alarmante de animosidad racista entre grupos de aficionados y espectadores. Meta debe garantizar que sus iniciativas de mitigación urgentes incluyan la supervisión activa de contenido con emojis que incitan a la discriminación u hostilidad contra un grupo concreto en los días previos a un evento deportivo importante, durante este y una vez que termina, como es el caso de la Copa Mundial de la FIFA 2026. Esto se puede alcanzar estableciendo un equipo interfuncional de expertos en el tema provenientes de toda la empresa para "responder en tiempo real a tendencias y problemas potenciales", de modo similar a un centro de integridad de operaciones de productos; implementando un proceso de revisión acelerado para las apelaciones relacionadas con infracciones conectadas con eventos deportivos; y un control de tendencias en tiempo real para detectar picos de contenidos con emojis que se dirigen a personas específicas o a grupos con características protegidas. Meta también debe trabajar con la FIFA y otras asociaciones deportivas profesionales para estar al tanto de las tendencias y dinámicas relevantes.

6. Decisión del Consejo asesor de contenido

El Consejo anuló la decisión original de Meta de conservar el contenido en ambos casos en revisión.

7. Recomendaciones

Aplicación de políticas

1. Para mejorar la capacidad de sus sistemas automatizados para detectar con más precisión el uso de emojis en contextos infractores, Meta debe auditar los datos de entrenamiento de los sistemas automatizados que se emplean para aplicar la política de conducta que incita al odio y garantizar que los datos se actualicen de forma periódica a fin de incluir ejemplos de contenido con emojis en todos los idiomas, el uso infractor de emojis y nuevas instancias del uso de emojis con fines de odio.

El Consejo considerará implementada esta recomendación cuando Meta le brinde resultados detallados de su primera auditoría y demuestre las mejoras necesarias que la empresa implementará como resultado.

2. Para proteger mejor a los usuarios que no se nombran directamente, pero que son el blanco implícito de campañas de odio, Meta debe armonizar sus iniciativas actuales para interrumpir de forma proactiva campañas de odio, en especial aquellas que implican el uso de emojis. Esto debe incluir campañas que involucran a figuras públicas y personas privadas a través de menciones directas o explícitas e indirectas o implícitas que exijan la aplicación de las políticas de bullying y acoso o de conducta que incita al odio.

El Consejo considerará que se implementó esta recomendación cuando Meta comparta sus prácticas de aplicación de políticas actualizada para campañas de odio dirigidas.

3. Para asegurarse de que sus sistemas estén bien preparados para manejar campañas de odio durante eventos deportivos importantes, como la Copa Mundial de la FIFA, Meta debe garantizar que sus iniciativas de mitigación urgentes, ya sea mediante su centro de integridad de operaciones de productos u otro sistema de mitigación de riesgos, incluyan la supervisión activa de contenido con emojis que incitan a la discriminación u hostilidad contra un grupo concreto en los días previos a un evento deportivo importante, durante este y una vez que termina.

El Consejo considerará que se implementó esta recomendación cuando Meta proporcione pruebas que confirmen la implementación de iniciativas de evaluación y mitigación de riesgos durante eventos deportivos importantes.

El Consejo también reitera la importancia de las recomendaciones anteriores y observa su relevancia en este asunto (recomendación n.º 1 del caso Comentario sobre políticos kenianos que incluye un insulto designado). En línea con esas recomendaciones, Meta debería:

  • Brindar a los usuarios la oportunidad de revertir el error por sus propios medios, comparable a la intervención de fricción en el momento de la publicación que se creó como resultado de la recomendación n.º 6 del caso "Manifestaciones en Rusia a favor de Navalny". Si esta intervención ya no está en vigor, Meta debe proporcionar una intervención en el producto similar.

Nota de procedimiento:

  • La preparación de las decisiones del Consejo asesor de contenido está a cargo de paneles conformados por cinco miembros, quienes deben aprobarlas por mayoría. Las decisiones del Consejo no necesariamente representan las opiniones de todos los miembros.
  • En virtud de su acta constitutiva, el Consejo asesor de contenido tiene la facultad de revisar apelaciones de usuarios cuyo contenido fue eliminado por Meta, apelaciones de usuarios que reportaron contenido que Meta mantuvo publicado y decisiones que Meta le presente (artículo 2, sección 1, del acta constitutiva). El Consejo tiene autoridad vinculante para ratificar o anular las decisiones sobre contenido de Meta (artículo 3, sección 5 y artículo 4 del acta constitutiva). El Consejo podrá emitir recomendaciones no vinculantes a las que Meta deberá responder (artículo 3, sección 4, y artículo 4). Cuando Meta se compromete a tomar medidas respecto de las recomendaciones, el Consejo supervisa su implementación.
  • En cuanto a la decisión del caso, se encargó una investigación independiente en nombre del Consejo. El Consejo recibió asistencia de Duco Advisors, una empresa asesora dedicada a la intersección de geopolítica, confianza, seguridad y tecnología.

Volver a Decisiones de casos y opiniones consultivas sobre políticas