Detener la “algolengua”, incluidos los emojis que utilizan lenguaje que incita al odio
10 de febrero de 2026
El Consejo asesor de contenido anuló las decisiones originales de Meta de mantener dos publicaciones en las que se utilizaban emojis para expresar odio, discriminación y acoso en contra de las personas negras al compararlas con monos. El Consejo instó a Meta a mejorar su moderación automatizada y humana para poder interpretar de forma integral la “algolengua”, incluidos los emojis, a fin de evitar los ataques de odio y discriminación contra determinados grupos. Esto debería incluir garantizar que los datos de capacitación para la aplicación automatizada de políticas sean adecuados para cada región y estén actualizados, que se coordinen los esfuerzos para interrumpir de forma proactiva las campañas de odio y que las medidas de mitigación incluyan la supervisión activa del contenido de los emojis que incitan a la discriminación y la hostilidad durante eventos deportivos masivos, como la Copa Mundial de la FIFA (Federación Internacional de Fútbol Asociación).
Sobre los casos
Estos casos abordan dos publicaciones hechas en mayo de 2025 con emojis de mono para hacer referencia a las personas negras.
En el primer caso, un usuario de Brasil publicó un video corto en Facebook que muestra una escena de la película “¿Qué pasó ayer?”, en la que dos personajes discuten en portugués y reclaman la propiedad de un mono. El texto superpuesto menciona a los personajes como si fueran los clubes de fútbol españoles Barcelona y Real Madrid. En el texto adicional superpuesto, se hace referencia a chicos que están teniendo protagonismo en el fútbol brasileño. El pie de foto es un emoji de un mono. La publicación fue vista más de 22.000 veces y 12 personas la denunciaron.
El segundo caso se refiere a un comentario publicado como respuesta a un video de una cuenta de Instagram de Irlanda. En el video, el usuario expresa su indignación tras presenciar un incidente racista en las calles de Irlanda, y el pie de foto insta a eliminar el racismo en Irlanda. Otro usuario comentó que no apoya ese mensaje y que desea que la situación “explote” y que quiere “divertirse a lo grande con todos los [emojis de monos] en la calle”. El comentario además incluía varios emojis de monos, de risa y de oración, destacando los “días gloriosos que se avecinan”. La publicación original fue vista más de 4.000 veces y 62 personas denunciaron el comentario.
Los sistemas automatizados de Meta y los revisores manuales (luego de las apelaciones de los usuarios) decidieron no eliminar las publicaciones. Posteriormente, los usuarios apelaron ante el Consejo. Como resultado de la selección de estos casos para su revisión por parte del Consejo, Meta determinó que sus decisiones iniciales eran erróneas y eliminó las publicaciones en julio de 2025 por infringir la Norma comunitaria sobre conductas que incitan al odio de la empresa.
La “algolengua” utiliza lenguaje codificado mediante paráfrasis o emojis para transmitir mensajes deshumanizantes o de odio con el fin de eludir los sistemas automatizados de moderación de contenido.
Conclusiones clave
El Consejo tiene preocupaciones con respecto a la precisión de la aplicación de la política de Conducta que incita al odio, especialmente a la hora de evaluar los emojis utilizados como algolengua. Los clasificadores identificaron el contenido, pero no tomaron medidas. Meta dice que los revisores deben considerar todos los aspectos del contenido, como las imágenes, los pies de foto y los textos superpuestos, así como factores que van más allá del contenido inmediato, que incluyen la publicación original y los comentarios. Meta también explicó que sus clasificadores están capacitados mediante conjuntos de datos de ejemplos denunciados y etiquetados, que incluyen casos en los que se utilizan emojis de forma que potencialmente infringe las normas. Sin embargo, las revisiones automatizadas y manuales no evaluaron de forma correcta las publicaciones.
Meta debe mejorar la detección automatizada del uso de indebido de emojis al auditar sus datos de capacitación de forma periódica. Los procesos de aplicación de normas deben dirigir siempre el contenido a revisores que utilicen el idioma adecuado y posean la experiencia regional correspondiente.
Como respuesta a las preguntas del Consejo, Meta dijo que luego del anuncio de la empresa del 7 de enero de 2025, los grandes modelos de lenguaje (LLM) están mejor integrados con una etapa de revisión adicional, que se incluye para el contenido que pueda infringir la política de Conducta que incita al odio. Según Meta, los LLM no reemplazan los modelos existentes, pero proporcionan una segunda opinión sobre las decisiones de aplicación de normas, ya que se enfocan en contenido que ha sido marcado para su eliminación. En estos casos, los LLM no intervinieron en el proceso de revisión.
El Consejo considera que las dos publicaciones infringen la Norma comunitaria de Conducta que incita al odio, la cual prohíbe las comparaciones deshumanizantes con animales. Ambas publicaciones utilizan el emoji del mono para referirse a las personas negras por su característica protegida.
Mantener las publicaciones, además, es incoherente con las responsabilidades de Meta respecto a los derechos humanos, ya que los emojis que buscan deshumanizar e incitar la discriminación o la hostilidad hacia grupos de características protegidas deben estar sujetos a eliminación. La eliminación de ambas publicaciones es necesaria y proporcional.
Ambas publicaciones representan formas de la algolengua que se utiliza para expresar odio, discriminación y acoso en contra de grupos con características protegidas específicos, e ilustran cómo se pueden utilizar los emojis para incitar a los demás a realizar acciones discriminatorias y potencialmente hostiles.
La publicación de Brasil se hizo en el contexto de racismo sistemático y hostilidad documentados en el fútbol, particularmente en lo que respecta a jugadores negros. El comentario en el caso de Irlanda se compartió en el contexto del aumento de la discriminación racial y la afrofobia en Irlanda.
Para coordinar mejor sus iniciativas y proteger a las personas que pueden no estar mencionadas directamente pero que son el objetivo implícito de las campañas de odio, Meta debe desarrollar un marco que armonice sus medidas existentes para interrumpir de forma proactiva las campañas de odio; especialmente aquellas en las que se utilicen emojis. Meta se debe asegurar de que las iniciativas de mitigación oportunas, ya sea mediante un centro de operaciones de integridad de producto u otro sistema de mitigación de riesgos, incluyan un monitoreo activo de contenidos con emojis que incitan a la discriminación o la hostilidad selectivas durante eventos deportivos masivos, así como antes e inmediatamente después de ellos, como la Copa Mundial de la FIFA 2026.
La decisión del Consejo asesor de contenido
El Consejo anula la decisión original de Meta de no eliminar el contenido.
Además, el Consejo recomienda que Meta haga lo siguiente:
- Auditar sus datos de capacitación para los sistemas automatizados utilizados para la aplicación de la política de Conducta que incita al odio y asegurarse de que los datos se actualicen de forma periódica para que incluyan ejemplos de emojis en todos los idiomas, uso en infracción de emojis e instancias nuevas de uso de emojis que incitan al odio.
- Armonizar sus medidas existentes para interrumpir de forma proactiva las campañas de odio, especialmente aquellas en las que se utilizan emojis, a fin de proteger mejor a las personas que no se nombran directamente pero que son el objetivo implícito de las campañas de odio.
- Asegurarse de que las iniciativas de mitigación oportunas, ya sea mediante un centro de operaciones de integridad de producto u otro sistema de mitigación de riesgos, incluyan un monitoreo activo de contenidos con emojis que incitan a la discriminación o la hostilidad selectivas durante eventos deportivos masivos, así como antes e inmediatamente después de ellos, como la Copa Mundial de la FIFA.
El Consejo reitera la importancia de sus recomendaciones anteriores, según las cuales Meta debe realizar lo siguiente:
- Proporcionar a los usuarios una oportunidad de corrección personal comparable a la intervención de fricción posterior al tiempo de publicación que se creó como resultado de las manifestaciones en Rusia a favor de Navalny, recomendación n.º 6. Si esta intervención ya no está vigente, Meta debe proporcionar una intervención de producto comparable.
Más información
Para leer los comentarios públicos sobre este caso, haga clic aquí.