Confirmado
Imágenes de una protesta acompañadas por cánticos a favor de Duterte
25 de noviembre de 2025
El Consejo asesor de contenido ratificó la decisión de Meta de conservar una publicación en Facebook que incluía un video manipulado durante una crisis política en Filipinas, pero destacó que al contenido se le debería haber colocado la etiqueta "Alto riesgo", dado el gran potencial que presentaba de engañar a los usuarios acerca de un asunto de importancia pública.
Para leer esta decisión en tagalo, haz clic aquí.
Para basahin ang desisyong ito sa wikang Tagalog, i-click ito.
Para leer esta decisión en bisaya, haz clic aquí.
Aron mabasa kini nga desisyon sa Bisaya, pag-click dinhi.
Resumen
El Consejo asesor de contenido ratificó la decisión de Meta de conservar una publicación en Facebook que incluía un video manipulado durante una crisis política en Filipinas, pero destacó que al contenido se le debería haber colocado la etiqueta "Alto riesgo", dado el gran potencial que presentaba de engañar a los usuarios acerca de un asunto de importancia pública. El Consejo le recomendó a Meta explicar públicamente en qué consisten sus etiquetas de contenido multimedia manipulado y cómo las aplica. El video debería haberse priorizado para la verificación de datos, y el Consejo determinó que el contenido es casi idéntico a otro contenido verificado. Asimismo, Meta debería proporcionar a los verificadores de datos mejores herramientas para abordar el contenido engañoso.
Información sobre el caso
En marzo de 2025, el expresidente de Filipinas Rodrigo Duterte fue extraditado a la Corte Penal Internacional en Países Bajos para enfrentar cargos por presuntos crímenes de lesa humanidad cometidos mientras estuvo en funciones desde 2016 hasta 2022. Unos días después de la detención, un usuario de Facebook volvió a compartir un video manipulado que había sido publicado por otro usuario. El video compartido incluía imágenes de una protesta serbia que no estaba relacionada con la detención de Duterte, con subtítulos y audio agregados para simular una manifestación a favor de Duterte llevada a cabo en Países Bajos.
En el video, había un texto superpuesto que decía: "Países Bajos". En el audio agregado, las personas repetían "Duterte" cantando, mientras sonaba la canción "Bayan Ko" en tagalo. "Bayan Ko" fue popular durante las protestas contra la ley marcial en Filipinas en la década de 1980.
Los sistemas automatizados de Meta marcaron la publicación original, que se compartió cientos de veces y obtuvo unas 100.000 visualizaciones, como posible información errónea. Meta incluyó el contenido en la cola online correspondiente a la verificación de datos. Por separado, Meta redujo temporalmente la visibilidad de la publicación en los feeds de los usuarios de Facebook no estadounidenses. Varios videos similares se hicieron virales, y los socios de verificación de datos de Meta en Filipinas calificaron a varios de estos como falsos. Sin embargo, debido al gran número de publicaciones en la cola, los verificadores de datos no pudieron revisar esta publicación en particular. Otro usuario de Facebook reportó la publicación compartida por difundir información errónea. Meta decidió conservar la publicación, y luego de ello, el usuario realizó una apelación. En una instancia de revisión manual, se consideró la apelación y se ratificó la decisión inicial. El usuario entonces presentó una apelación ante el Consejo asesor de contenido.
Conclusiones principales
El Consejo estuvo de acuerdo con Meta en que la publicación debía permanecer en la plataforma porque no incluía ningún tipo de contenido prohibido por la política de información errónea de la empresa, como hablar sobre lugares o procesos de votación o la elegibilidad de los candidatos. Sin embargo, el Consejo destacó que, además de referir el contenido para una verificación de datos y temporalmente mostrar menos la publicación en el feed de los usuarios, Meta debería haber colocado la etiqueta "Alto riesgo" en el contenido porque incluía un video fotorrealista digitalmente modificado con un gran riesgo de engañar al público durante un acontecimiento público importante.
Dada la importancia de ofrecer transparencia en torno al etiquetado del contenido multimedia manipulado, el Consejo le recomendó a Meta describir las distintas etiquetas, así como los criterios para aplicarlas. En este momento, la información más detallada sobre el etiquetado del contenido multimedia manipulado de Meta se encuentra en las decisiones del Consejo.
Meta debería haber tomado más medidas para garantizar que se realizara una verificación de datos en la publicación. Si bien Meta prioriza contenido similar para la verificación de datos durante los períodos electorales, la detención de alto perfil de un ex jefe de Estado, así como otras crisis políticas "actuales, en tendencia y decisivas", debe tratarse como un acontecimiento importante que cumple los requisitos para que haya más verificaciones. Asimismo, luego de la revisión, el Consejo determinó que el contenido del caso también debería haberse calificado como casi idéntico a contenido previamente verificado y etiquetado como tal, aunque reconoció que Meta enfrenta dificultades a la hora de hacer esta evaluación a gran escala.
El Consejo destacó que los videos manipulados pueden formar parte de campañas de información errónea coordinadas, en las que contenido similar, pero no idéntico, se publica y comparte con cambios sutiles para evadir la verificación de datos. Por lo tanto, es imperativo que Meta cuente con procesos eficaces para abordar las publicaciones engañosas virales, incluida la priorización de contenido idéntico o casi idéntico para la etapa de revisión, y que aplique todas las políticas pertinentes y las herramientas relacionadas. También se debería proporcionar a los verificadores de datos herramientas mejores para identificar rápidamente el contenido viral que probablemente repita afirmaciones engañosas.
Decisión del Consejo asesor de contenido
El Consejo ratificó la decisión de Meta de conservar el contenido.
Asimismo, el Consejo le recomendó a Meta:
- Describir las diferentes etiquetas informativas que la empresa usa para el contenido multimedia, así como cuándo las aplica.
- Crear una cola separada en la interfaz de verificación de datos que incluya contenido que es similar, pero no idéntico ni casi idéntico, a contenido que ya se verificó en un mercado determinado.
* Los resúmenes de casos ofrecen información general sobre los casos y no sientan precedentes.
Decisión del caso completa
- Descripción y contexto del caso
Después de que el expresidente de Filipinas Rodrigo Duterte fuera detenido en marzo de 2025 para enfrentar cargos ante la Corte Penal Internacional (CPI) en Países Bajos, un usuario de Facebook volvió a compartir un video de otro usuario. El video original muestra a una multitud de personas con carteles y la bandera serbia reunidas en una calle. En el video hay un texto superpuesto que dice "Países Bajos" y de fondo suena una canción patriota en tagalo, "Bayan Ko". También se puede escuchar el audio de personas que vitorean "¡Duterte!" una y otra vez. La canción "Bayan Ko" fue popular durante las protestas contra la ley marcial en la década de 1980, que se oponían al régimen del fallecido dictador y expresidente Ferdinand Marcos Sr. La publicación original tenía una descripción en inglés: "Netherlands supporters" (Personas mostrando su apoyo en Países Bajos). La publicación de Facebook que se volvió a compartir, objeto de este caso, tiene una descripción con tres emojis de cara suplicante. Por lo tanto, la publicación parece mostrar una protesta serbia no relacionada con la detención de Duterte, pero con subtítulos y audio que la hacen parecer una manifestación a favor de Duterte en Países Bajos.
La publicación original de Facebook se compartió cientos de veces y obtuvo unas 100.000 visualizaciones desde que se la publicó. Cuando se la publicó, un clasificador de Meta marcó el contenido como posible información errónea. La empresa luego incluyó el contenido en la cola online que proporciona a sus socios encargados de realizar una verificación de datos independiente. Algunas versiones similares de este video se hicieron virales en Facebook en marzo de 2025; varias de ellas fueron objeto de una verificación y los verificadores de datos de Meta las calificaron como falsas. Debido al gran volumen de este tipo de publicaciones y a su rápida difusión en la plataforma, los verificadores de datos no pueden calificar todas las publicaciones de esta cola, que puede incluir publicaciones similares a contenidos que ya han verificado. Según Meta, los verificadores de datos no calificaron la publicación original, y las calificaciones de "contenido falso" que se aplicaron a publicaciones similares no se aplicaron de forma automática en este caso. A pesar de que el contenido del caso no había sido calificado, Meta lo mostró temporalmente más abajo en el feed de Facebook de los usuarios no estadounidenses, incluidos aquellos de Filipinas, en función de determinadas señales que predecían que contenía información errónea.
Unos días después, un usuario reportó la publicación que se había vuelto a compartir, pero según Meta, no se priorizó el reporte para su revisión manual. Meta no llevó a cabo ninguna acción en relación con el reporte y lo cerró. Después de que se le notificó que Meta había decidido mantener el contenido en la plataforma, el usuario que realizó el reporte apeló la decisión. En una instancia de revisión manual, se ratificó la decisión inicial de mantener el contenido, lo que llevó al usuario a apelar la decisión ante el Consejo asesor de contenido. Cuando el Consejo seleccionó este caso, Meta volvió a agregar la publicación a una cola de verificación de datos, pero no se la calificó.
El Consejo destacó el siguiente contexto en cuanto a la decisión que tomó.
Durante su mandato como presidente de Filipinas entre 2016 y 2022, Rodrigo Duterte llevó a cabo una campaña contra las drogas ilegales, caracterizada por un uso excesivo de la fuerza y asesinatos perpetrados por justicieros. La CPI inició una investigación preliminar del caso, seguida de una investigación exhaustiva. El 11 de marzo de 2025, Duterte fue extraditado a Países Bajos para enfrentar cargos por crímenes de lesa humanidad ante la CPI.
El actual presidente Ferdinand Marcos, Jr., hijo del fallecido dictador, ganó las elecciones nacionales de 2022, y Sara Duterte, hija de Rodrigo Duterte, obtuvo la vicepresidencia. Poco después de ganar las elecciones, la alianza política entre ellos se quebró. En 2024 y 2025, el conflicto político se profundizó. A principios de este año, se presentaron pedidos de destitución contra la vicepresidenta Sara Duterte. En febrero, la Cámara de Representantes de Filipinas votó a favor de iniciar el proceso para destituir a Sara Duterte, que finalmente no prosperó. La detención de Duterte en marzo fue interpretada por algunas personas como el resultado de su disputa política. La vicepresidenta Sara Duterte adujo que la detención equivalía a un " secuestro", mientras que los activistas de derechos humanos y los familiares de las víctimas de la batalla contra las drogas la consideraron una victoria en términos de castigo a los responsables.
Poco después de la detención de Duterte, estallaron las protestas a su favor en Filipinas y Países Bajos. Activistas y familiares de víctimas de la batalla contra las drogas también se movilizaron exigiendo que se castigue a los responsables. Durante este período, varios videos con imágenes de una movilización serbia presentados como una protesta a favor de Duterte en Países Bajos, similares al contenido objeto de análisis, se viralizaron en los medios sociales.
Tres organizaciones de verificación de datos con las que Meta trabaja en Filipinas calificaron algunos de estos videos como "contenido falso" en función de señales que indicaban que las imágenes mostraban una protesta en Serbia, no en Países Bajos, y que no se relacionaban con la detención del expresidente Duterte. Estos verificadores de datos también publicaron sus calificaciones de "contenido falso" en sus respectivos sitios web. Según AFP, estos videos "hacían un uso indebido de elementos visuales no relacionados para sobredimensionar la cantidad de personas" (PC-31360). Otro video similar, que obtuvo más de tres millones de visualizaciones en medios sociales, mostraba una procesión católica que representaba de forma engañosa una movilización a favor de Duterte.
En el momento en que envío un comentario del público en relación con este caso, AFP había realizado una verificación de datos de "más de 30 afirmaciones falsas o engañosas" en relación con la detención de Duterte (PC-31360). Rappler, otro verificador de datos de Meta en Filipinas, señaló que "varias versiones de este video manipulado específico" se habían viralizado en Facebook en el marco de un "resurgimiento de las operaciones de información" y formaban parte de una "campaña no auténtica y organizada" dirigida a "manipular el comportamiento y la opinión pública a su favor" (PC-31349). Algunos expertos consultados por el Consejo indicaron que, desde 2016, los verificadores de datos y los grupos de la sociedad civil han soportado la mayor parte de la carga en la lucha contra la información errónea.
En términos más generales, el uso de medios sociales en Filipinas es uno de los más altos del mundo, y Facebook es la plataforma más utilizada. Los medios sociales desempeñan un papel fundamental en la preparación del discurso púbico sobre temas de actualidad. Por ejemplo, en las elecciones nacionales de 2016, determinados estrategas en materia de publicidad y relaciones públicas actuaron como "arquitectos de una red de información errónea" para gestionar campañas políticas mediante la contratación de influencers y trols online para promover narrativas políticas específicas. En las elecciones nacionales de 2022, el revisionismo histórico respecto del legado de la familia Marco se difundió en medios sociales, lo que algunas personas consideran que contribuyó a la victoria de Marcos Jr. Algunos expertos consultados por el Consejo explicaron que "influencers de redes sociales, vloggers y trabajadores digitales de empresas de publicidad y relaciones públicas han desempeñado un papel fundamental en la producción y difusión de información errónea en las plataformas de medios sociales". A medida que la rivalidad entre el presidente Marcos y la vicepresidenta Sara Duterte aumentó y dio lugar a narrativas políticas contrapuestas online, la población filipina comenzó a mostrar una mayor preocupación por la información errónea, y un estudio reveló que "el 67% (cifra sin precedentes)" de las personas mostraban una mayor preocupación al respecto para mediados de 2025. A principios de este año, el Congreso filipino inició una investigación para abordar la problemática de la información errónea en medios sociales, para lo cual convocó a influencers, vloggers y representantes de las empresas de medios sociales a testificar.
Tanto bajo el anterior Gobierno de Duterte como bajo el actual Gobierno de Marcos, hubo desafíos considerables para la libertad de expresión en Filipinas. Durante la presidencia de Duterte, ciertos periodistas y medios de comunicación considerados críticos de su Gobierno fueron objeto de ataques o cierres por parte del Gobierno y el blanco de trols online. El "etiquetado en rojo", es decir, el acto de etiquetar a grupos o personas como "seguidores, reclutadores o miembros del Nuevo Ejército del Pueblo o el Partido Comunista de Filipinas, se volvió una práctica habitual, a menudo utilizada contra periodistas y defensores de los derechos humanos. Las amenazas contra los medios de comunicación continúan bajo el Gobierno del presidente Marcos Jr. En junio de 2025, la Relatora Especial de la ONU sobre la libertad de expresión exhortó al Gobierno filipino a abordar la problemática de la intimidación y el acoso a periodistas y defensores de los derechos humanos en el país. Esta problemática, junto con el aumento de las campañas de información errónea en medios sociales, ha erosionado la confianza pública en las instituciones de medios de comunicación en Filipinas.
2. Respuestas del usuario
Según el usuario que realizó el reporte, el contenido del caso pretende mostrar una movilización a favor de Duterte tras su detención para enfrentar cargos ante la CPI, pero esta en realidad no ocurrió. El usuario manifestó que el contenido correspondía a un acontecimiento diferente y, por lo tanto, era "engañoso". También indicó que el contenido "ya había sido verificado" por uno de los verificadores de datos de Meta en Filipinas.
3. Respuestas y políticas de contenido de Meta
I. Políticas de contenido de Meta
Norma comunitaria sobre información errónea
Contenido sujeto a eliminación
En virtud de la norma comunitaria sobre información errónea, Meta elimina la información errónea únicamente cuando tiene probabilidades de contribuir de manera directa al riesgo de un daño físico inminente o de "interferir en el funcionamiento de los procesos políticos" [interferencia electoral o censal]. La información errónea relativa a interferencia electoral sujeta a eliminación se define mediante una lista de información errónea prohibida sobre lugares o fechas de votación, y sobre la elegibilidad de candidatos y votantes.
Contenido elegible para verificación de datos independiente
Para otros tipos de información errónea en el ámbito político, Meta indica que no se centra en la eliminación, sino en "reducir su prevalencia o en crear un ambiente que genere un diálogo productivo". En Estados Unidos, Meta discontinuó su programa de verificación de datos independiente y actualmente aborda el contenido engañoso mediante notas de la comunidad. Fuera de Estados Unidos, la verificación de datos sigue disponible. A estos efectos, Meta se asocia con organizaciones de verificación de datos independientes certificadas por la red de organismos imparciales International Fact-Checking Network (o la European Fact-Checking Standards Network en Europa) para revisar y calificar la veracidad del contenido más viral en las plataformas de Meta.
Los verificadores de datos pueden revisar y calificar la veracidad de las publicaciones públicas de Facebook, Instagram y Threads, como anuncios, artículos, fotos, videos, reels y publicaciones de audio y que solo incluyen texto. Las opciones de calificaciones son las siguientes: falso, alterado, parcialmente falso, falta contexto, sátira y verdadero.
Los verificadores de datos deciden qué contenido revisar y completan la verificación de forma independiente de Meta. Pueden identificar el contenido por iniciativa propia o seleccionarlo de una cola de remisiones de Meta de posibles casos de información errónea. Meta remite contenido en función de diferentes señales, que incluyen "cómo responden las personas", si los usuarios marcan un determinado contenido como "información falsa" o si los comentarios en una publicación "expresan desconfianza" sobre su autenticidad.
Los verificadores de datos priorizan la información falsa viral y las afirmaciones cuya falsedad puede verificarse que sean "actuales, en tendencia y decisivas" en el país e idioma correspondiente. El contenido que no puede someterse a una verificación de datos incluye "contenido que no incluye ninguna afirmación verificable", "opiniones y discursos de políticos" y "contenido multimedia creado o editado digitalmente que incluye una de las marcas de agua o etiquetas de transparencia de la IA de Meta en función de su autenticidad". Sin embargo, cuando un contenido multimedia manipulado contiene una afirmación falsa que no tiene que ver con el uso de un contenido multimedia creado o editado digitalmente, los verificadores de datos igual pueden calificar la publicación. El contenido verificado calificado como "falso", "alterado" o "parcialmente falso" puede degradarse, no recomendarse y rechazarse en relación con anuncios.
Contenido que puede etiquetarse como contenido multimedia manipulado
En virtud de las reglas sobre contenido multimedia manipulado de la política de información errónea, al contenido engañoso "creado o alterado digitalmente" que "no infringe las Normas comunitarias de cualquier otro modo" se le puede colocar una etiqueta informativa "por encima", o bien se lo puede rechazar si se envía como un anuncio. Esto se aplica a "contenido que incluye una imagen o video fotorrealista, o un audio que parece real, que se creó o alteró digitalmente y genera un riesgo particularmente alto de engañar de forma significativa al público en relación con asuntos de importancia pública". Meta no incluye en la política otros criterios respecto de cuándo "puede" aplicar esta etiqueta.
Meta exige que las personas avisen, mediante su "herramienta de aviso de IA", cada vez que los usuarios publiquen contenido orgánico con videos fotorrealistas o audios con sonido realista creados o alterados digitalmente". Meta indica que puede aplicar penalizaciones si los usuarios no lo hacen.
Meta aplica tres etiquetas informativas diferentes para el contenido multimedia manipulado: "Alto riesgo", "Información de IA" e "IA de alto riesgo". En el caso Presunto audio de incitación a manipular las elecciones en el Kurdistán iraquí, Meta informó al Consejo que para aplicar una etiqueta "Alto riesgo", el contenido (i) debe generar un riesgo particularmente alto de engañar de forma significativa al público en relación con asuntos de importancia pública y (ii) debe tener indicadores confiables de que se creó o alteró con medios digitales. La etiqueta "IA de alto riesgo" es similar a la etiqueta "Alto riesgo", pero se utiliza para contenido en relación con el cual hay indicadores confiables de que se creó o alteró con IA. La etiqueta "Información de IA" se utiliza para imágenes, no audio ni video, realizadas con IA que Meta detecta por medio de "indicadores de imágenes con IA estándar del sector o cuando las personas confirman haber estado subiendo contenido generado con IA".
Aplicar una etiqueta "Alto riesgo" no resulta en la degradación del contenido ni en su eliminación de las recomendaciones. En cambio, cuando los usuarios intentan volver a compartir una publicación relacionada con la etiqueta "Alto riesgo" en Facebook, Instagram o Threads, reciben un aviso emergente que los alerta de que el contenido puede haberse creado o alterado digitalmente.
Políticas de degradación
Las Normas de distribución de contenido de Meta describen los tipos de contenido que pueden degradarse por ser "problemáticos" o de "baja calidad". Meta basa la degradación de estos tipos de contenidos en el "compromiso que tiene con los valores de responder los comentarios directos de las personas, incentivar a los editores a invertir en contenido de alta calidad y fomentar una comunidad más segura". Según Meta, esto permite a las personas compartir contenido "sin que las moleste el contenido problemático o de baja calidad".
Entre los tipos de contenidos que Meta indica que degrada se encuentran la información errónea verificada y el contenido evaluado como "probablemente infractor" de las normas comunitarias de Meta. Cuando se publica contenido en Facebook, se lo evalúa mediante una serie de clasificadores para determinar si infringe las normas comunitarias de la plataforma. Estos clasificadores indican un nivel de "confianza" respecto de la probabilidad de que exista una infracción, que la empresa utiliza como señal para realizar determinadas acciones. Cuando la puntuación de confianza para un determinado contenido es alta, pero no lo suficientemente alta como para provocar su eliminación inmediata, Meta puede degradar el contenido. Si se determina que el contenido infringe cualquiera de las políticas cubiertas, se lo elimina. La empresa puede ajustar el umbral de confianza que los clasificadores individuales requieren para realizar determinadas acciones, como en momentos de crisis.
II. Respuestas de Meta
Meta indica que los verificadores de datos no pueden revisar toda la posible información errónea, por lo que la empresa les pide priorizar los "temas relevantes y virales que pueden llegar a provocar daños o difundirse rápidamente".
Meta le manifestó al Consejo que utiliza dos métodos para priorizar el contenido a verificar en momentos críticos. En primer lugar, Meta puede clasificar determinado contenido en cola como "urgente". En segundo lugar, durante acontecimientos mundiales de alta prioridad, como determinadas situaciones de crisis o elecciones que Meta considera "eventos del momento", Meta filtra y pone en cola contenido relacionado para someterlo a una verificación de datos. Este filtro utiliza una lista de palabras clave relevantes identificadas por especialistas en operaciones de mercado locales con conocimientos lingüísticos y contextuales utilizando normas definidas. Al contenido identificado mediante este proceso se le aplica una etiqueta temática con el nombre del evento correspondiente y se lo incluye en una vista filtrada especial y temporal de eventos del momento dentro de la herramienta de verificación de datos. Para calificar como "evento del momento", un determinado tema debe ser importante (por ejemplo, una crisis del mundo real, un debate cívico o un riesgo de daño en la vida real) y se debe considerar que conlleva un alto riesgo de difusión de información errónea. Los verificadores de datos conservan facultades discrecionales para determinar si seleccionan contenido clasificado como del momento o urgente para su revisión.
Además de seleccionar el contenido de la cola de Meta, los verificadores de datos pueden identificar contenido para revisión de manera independiente en las plataformas de Meta. Meta le manifestó al Consejo que los verificadores de datos tienen acceso a la biblioteca de contenido de Meta, una herramienta basada en la web que permite a quienes tienen acceso realizar búsquedas sistemáticas de determinados contenidos públicos disponibles en las plataformas de Meta. Los verificadores de datos pueden seleccionar contenido que descubren en la biblioteca de contenido de Meta para su verificación. Meta indicó que "invita proactivamente" a los verificadores de datos a utilizar esta herramienta.
Meta no trató la detención del expresidente para enfrentar cargos ante la CPI como un evento del momento ni certificó que el contenido fuese urgente como para someterlo a una verificación de datos. La empresa le manifestó al Consejo que no recibió información sobre tendencias de información errónea que pudieran provocar un daño físico o violencia inminentes en relación con las elecciones filipinas de medio término en mayo de 2025. Sin embargo, la empresa también compartió que sus socios de verificación de datos identificaron "afirmaciones con información errónea muy difundidas, por ejemplo, afirmaciones falsas relacionadas con la detención del expresidente Rodrigo Duterte para enfrentar cargos ante la CPI y la destitución de su hija [la vicepresidenta] Sara Duterte".
Meta explicó que, una vez que un verificador de datos califica un determinado contenido, este le indica a Meta en qué parte del contenido se encuentra la información falsa (si en la descripción, solo en el audio o el video o en alguna parte de ellos, o si en el contenido multimedia y la descripción en su conjunto). Luego, Meta utiliza tecnología para aplicar la calificación solo al contenido que es idéntico o casi idéntico en cuanto a ese aspecto específico (es decir, el mismo contenido multimedia o el mismo contenido multimedia combinado con la misma descripción). Si el verificador de datos solo califica el video de la publicación, Meta le aplica la calificación a cualquier publicación que contenga el mismo video o uno muy similar. Sin embargo, si califica tanto el video como la descripción en su conjunto, la calificación solo se aplica a las publicaciones que incluyan tanto el mismo video como la misma descripción, o un video y una descripción muy similares.
Meta define el contenido "idéntico" como aquel que comparte "exactamente los mismos atributos" que el contenido multimedia calificado por los verificadores de datos. El contenido "casi idéntico" y "casi igual" presenta "variaciones menores en cuanto a formato o texto superpuesto, pero transmite la misma afirmación desmentida". Meta no aplica etiquetas a gran escala de forma automática si el contenido no cumple con los estándares para que se lo considere idéntico o casi idéntico. Esto se debe a que la empresa considera que pequeñas diferencias en cuanto a la manera en que se formula una afirmación pueden afectar el hecho de si esta es verdadera o falsa. Para Meta, este enfoque "ayuda a prevenir la aplicación incorrecta de calificaciones verificadas".
En el caso bajo análisis, Meta concluyó que el contenido en cuestión no alcanzaba los umbrales para considerarse idéntico o casi idéntico para aplicar la misma etiqueta de calificación que sus verificadores de datos habían aplicado para videos similares que presentaban la protesta en Serbia como una protesta a favor de Duterte en Países Bajos. Por ejemplo, algunos videos calificados por los verificadores de datos tenían audio diferente, como esta publicación, que tenía la canción "Bayan Ko" de fondo, o subtítulos diferentes.
El contenido remitido a los verificadores de datos agota el tiempo de espera y se elimina de la cola de casos remitidos luego de siete días si estos no lo seleccionan para su revisión. Meta explicó que este plazo refleja la tendencia de que "la mayoría de las visualizaciones se dan durante los primeros días del ciclo de vida del contenido". Los verificadores de datos aún pueden seleccionar contenido fuera de la cola de casos remitidos de Meta para su revisión y calificarlo "sin importar cuánto tiempo haya estado en la plataforma. Por ejemplo, aunque los verificadores de datos, por lo general, se centran en temas actuales, el contenido más antiguo puede resurgir a la luz de nuevos temas".
En relación con las reglas sobre contenido multimedia manipulado establecidas en la política de información errónea de Meta, la empresa no aplicó ninguna de sus etiquetas, incluida la de "Alto riesgo", al contenido del caso. Meta le manifestó al Consejo que esto se debió a que no se había escalado internamente. Cuando se analizó el contenido luego de que el Consejo seleccionara el caso, "ya tenía más de dos meses de antigüedad". Debido a "la antigüedad del contenido y al hecho de que no se había viralizado", Meta decidió no aplicar la etiqueta de contenido multimedia manipulado en ese momento tampoco. Meta enfatizó que la etiqueta "Alto riesgo" constituye una política que se aplica únicamente en los procesos de escalamiento. Se utiliza con moderación para "abordar contenido creado digitalmente que presenta un riesgo especialmente grave de engañar al público respecto de un tema importante en un momento crítico". Según Meta, esto incluye "situaciones en que el contenido se publica en un momento cercano a un evento crítico, como una elección, y no hay tiempo suficiente para que el ecosistema de la información o los verificadores de datos aborden el contenido en cuestión". Debido a que el contenido se publicó dos meses antes de las elecciones de medio término de mayo de 2025 en Filipinas, Meta consideró que había tiempo suficiente para que "el ecosistema de la información o los mecanismos de respuesta a contenido ofensivo corrigieran cualquier información errónea incluida en la publicación (y, en este caso, se realizó una verificación de datos a versiones similares del video)". Pareciera que Meta no consideró ni la detención de Duterte ni las protestas posteriores como "eventos críticos" independientes.
La única medida de cumplimiento de normas que Meta tomó en relación con este contenido fue reducir temporalmente su visibilidad en el feed de Facebook de los usuarios no estadounidenses, incluidos los de Filipinas, en función de señales que predecían que la publicación contenía información errónea.
El Consejo realizó preguntas respecto de la manera en que funciona la verificación de datos, la forma en que Meta asigna recursos a los verificadores de datos, qué diferencias existían entre los videos similares sobre la detención de Duterte y el video que se volvió a compartir y si Meta consideró las reglas sobre contenido multimedia manipulado de la política de información errónea al moderar el contenido del caso. Meta respondió todas las preguntas.
4. Comentarios del público
El Consejo asesor de contenido recibió seis comentarios del público dentro de los plazos de presentación. Cinco de los comentarios provinieron de Asia-Pacífico y Oceanía, y uno de Europa. Para leer los comentarios del público enviados con consentimiento de publicación, haz clic aquí.
Los comentarios enviados se referían a los siguientes temas: las limitaciones a las que se enfrentan los verificadores de datos, sus conocimientos locales, las deficiencias del enfoque actual que Meta utiliza para abordar las campañas de desinformación coordinadas y las cuentas responsables de compartir información errónea en Filipinas.
En julio de 2025, como parte del trabajo continuo con las partes interesadas, el Consejo consultó a representantes de organizaciones de verificación de datos, académicos y otros expertos en información errónea. En esa mesa redonda, se analizó la manera en que funciona la verificación de datos en la práctica, la forma en que Meta realiza la verificación de datos fuera de Estados Unidos, el volumen de posible contenido engañoso al que se enfrentan los verificadores de datos y la capacidad de quienes difunden información errónea de realizar cambios a la publicación para eludir su detección, así como también el riesgo de una aplicación excesiva de políticas asociado al uso de la tecnología de búsqueda de coincidencias para detectar contenido idéntico o casi idéntico.
5. Análisis del Consejo asesor de contenido
Las campañas de información errónea representan una amenaza para la integridad de la información, la confianza pública y la democracia en sí. El Consejo seleccionó este caso para analizar la manera en que Meta aborda la información falsa o engañosa en sus plataformas, en especial, cuando esta se comparte en momentos con mayor tensión política y en contextos en que la información errónea influye en el debate público. El Consejo analizó la decisión de Meta en este caso respecto de sus políticas de contenido, valores y responsabilidades en materia de derechos humanos. Asimismo, el Consejo evaluó las implicaciones de este caso para el enfoque más general de Meta en cuanto a la gobernanza de contenido.
5.1 Cumplimiento de las políticas de contenido de Meta
I. Reglas de contenido
El Consejo considera que el contenido del caso no cumple con los criterios para su eliminación en virtud de lo establecido en la política de información errónea. No proporciona información sobre ninguna de las categorías prohibidas en virtud de lo dispuesto en esta política, como lugares de votación o censo, procesos de votación o elegibilidad de candidatos o votantes. El Consejo también considera que el contenido del caso cumple con los criterios para someterlo a una verificación de datos en virtud de la política de información errónea de Meta y coincide con Meta en que se debe remitir la publicación para su verificación. El contenido del caso cumple con los criterios para que se lo etiquete como contenido multimedia manipulado en virtud de la política de información errónea de Meta. Por lo tanto, Meta le debería haber aplicado la etiqueta "Alto riesgo".
Norma comunitaria sobre información errónea y verificación de datos independiente
El contenido del caso cumple con los criterios para que se realice una verificación de datos en virtud de la política de información errónea de Meta. La publicación contiene una afirmación verificable, no involucra discursos de políticos y no se le aplicó una etiqueta de transparencia de la IA que haga que el contenido no pueda someterse a una verificación de datos (es decir, la naturaleza engañosa de la publicación reside en la forma en que se la creó o alteró digitalmente, no en lo que se afirma). También cumple con uno de los elementos para que se priorice el contenido para su verificación: se trata de contenido "actual, en tendencia y decisivo". La publicación se compartió poco después de que se detuviera al expresidente Duterte, en un momento en que las circunstancias de su detención estaban siendo cuestionadas online y offline. En el momento en que se publicó el contenido del caso, se habían desencadenado protestas tanto a favor como en contra de la detención. En ese momento, se viralizaban publicaciones similares al contenido del caso en las que se afirmaba que se estaban realizando protestas a favor de Duterte. Uno de los verificadores de datos de Meta informó que videos similares habían obtenido más de tres millones de visualizaciones. Además, la detención tuvo lugar en un contexto más amplio de disputa política intensa entre el presidente Marcos y la vicepresidenta Sara Duterte, en un país en el que la información errónea influye en el debate político.
Meta debería haber tomado medidas para priorizar ese contenido en la cola que proporciona a los verificadores de datos. La empresa debería haber marcado el contenido del caso como "urgente" cuando lo puso en la cola para su verificación. Meta también debería haber designado la posible información errónea en torno a la detención del expresidente Duterte como un "evento del momento" e identificado y detectado proactivamente el contenido similar luego de que sus verificadores de datos calificaron videos similares como "falsos". En línea con los propios criterios de Meta, el tema se considera importante para el "debate cívico" y existía un "riesgo alto de difusión de información errónea". Según la información proporcionada al Consejo, pareciera que Meta no actuó de forma adecuada en este sentido.
El contenido del caso también se debería haber calificado como casi idéntico a contenido previamente verificado, y se lo debería haber etiquetado como tal. Los verificadores de datos que habían calificado videos similares identificaron la inexactitud en la combinación de las imágenes de la protesta en Serbia con el audio de las personas que vitoreaban "¡Duterte!" de fondo. Esos videos calificados no contenían la canción "Bayan Ko" junto con el vitoreo. Debido a que el contenido del caso incluía esta canción, era lo suficientemente diferente como para que la tecnología de búsqueda de coincidencias de Meta no lo identifique como idéntico o casi idéntico a videos similares previamente calificados como "falsos".
Para el Consejo, los cambios introducidos constituyen "variaciones menores", y el contenido repite "la misma afirmación desmentida" que otros videos similares que los verificadores de datos de Meta calificaron como falsos. Las diferencias menores en el audio, el texto y la descripción no modificaron las características engañosas fundamentales del contenido. Cuando ciertos cambios sutiles no afectan la naturaleza engañosa de un determinado contenido, se lo debe considerar como casi idéntico.
El Consejo también reconoce que es posible que los sistemas automatizados que Meta utiliza en la actualidad no sean capaces de realizar esta determinación a gran escala. Aplicar la etiqueta al contenido con audio diferente sin ningún tipo de evaluación podría provocar que se aplique la etiqueta a contenido que incluye audio que critica o desmiente al video engañoso. Las partes interesadas consultadas por el Consejo destacaron que la tecnología de búsqueda de coincidencias no sería capaz de anticipar todos los posibles usos y matices de expresión, y que ampliarla, sin desarrollar otras herramientas para abordar la problemática de la información errónea, podría provocar una aplicación excesiva de políticas. Al mismo tiempo, el enfoque actual de Meta no resulta eficaz para abordar la problemática de quienes modifican el contenido de maneras sutiles para engañar al sistema y eludir las políticas. Meta debe asignar suficientes recursos, automatizados o de otro tipo, para garantizar que las calificaciones de los verificadores de datos se apliquen de manera eficaz.
Norma comunitaria sobre información errónea y contenido multimedia manipulado
El Consejo considera que el contenido del caso constituye contenido multimedia manipulado al que se le debería haber aplicado una etiqueta. Sobre la base de verificaciones de datos públicas similares, el contenido es un "video fotorrealista" que parece haber sido "creado o alterado digitalmente". El Consejo considera que las imágenes del video de la protesta serbia cumplen con el requisito de ser "fotorrealistas" establecido en la política de contenido multimedia manipulado. La combinación de las imágenes de la protesta en Serbia con el audio de las personas cantando el nombre de Duterte, sumada a la superposición del texto "Países Bajos", constituye una alteración digital de las imágenes originales. El texto superpuesto "Países Bajos" distorsiona aún más el significado del video al hacer que parezca que la protesta sucedió en Países Bajos cuando, en realidad, ocurrió en Serbia. La publicación "tampoco infringe de ningún otro modo otras normas comunitarias", por lo que no amerita un tratamiento diferente, como la eliminación. El contenido implica un "riesgo particularmente alto de engañar materialmente al público en un asunto de importancia pública", ya que atañe a un asunto significativo relacionado con la política en Filipinas. Videos similares circularon en las plataformas de Meta, y los verificadores de datos de Filipinas de la empresa los habían calificado como falsos. Por lo tanto, la gran cantidad de contenido engañoso similar aumentaba el riesgo de engañar materialmente al público. Sobre la base de estos factores, Meta debería haber colocado la etiqueta "Alto riesgo".
Meta argumentó que no aplicó la etiqueta de contenido multimedia manipulado porque el contenido no se escaló a los equipos internos de la empresa y porque se publicó con bastante anticipación de las elecciones de mayo de 2025 como para que surgieran contraargumentos suficientes que desmintieran la afirmación falsa. Además, en el momento en que el Consejo seleccionó el caso, Meta no consideró colocar la etiqueta dada la antigüedad de la publicación y la falta de viralidad.
El Consejo no estuvo de acuerdo con Meta. En primer lugar, estas justificaciones no parecieran tener fundamentos en las políticas públicas de Meta. En segundo lugar, incluso considerando estos criterios internos, el Consejo llegó a conclusiones diferentes.
Meta debería haber tratado la detención del expresidente Duterte como un acontecimiento importante que justificaba el escalamiento de las publicaciones pertinentes para la posible colocación de la etiqueta "Alto riesgo". De acuerdo con las propias normas de Meta, el momento de la detención de Duterte representó un momento de tensión política en Filipinas y generó discursos públicos cruciales sobre las circunstancias de la detención y las protestas en apoyo y en contra del expresidente en Filipinas y en otras partes del mundo. Las partes interesadas a quienes consultó el Consejo destacaron la rapidez con la que las narrativas relativas a la detención de Duterte se propagaron en las plataformas de Meta. Según destacó Meta, se realizaron verificaciones de datos en versiones similares del video. Además, la detención ocurrió en el contexto de una rivalidad política de larga data entre los dos funcionarios del Gobierno de más alto rango del país, mientras la vicepresidenta Sara Duterte alegaba que su padre había sido secuestrado.
Según las acciones que realizó en este caso, Meta pareciera limitar su interpretación de acontecimientos importantes elegibles para colocar la etiqueta de contenido multimedia manipulado a las elecciones y excluir otras crisis políticas. El Consejo consideró que la detención y la posterior extradición ante la CPI de un ex jefe de Estado es un acontecimiento importante. Dada la situación política de Filipinas en el momento de la detención del expresidente, fue un error que Meta tratara las elecciones próximas de mayo de 2025 como el único acontecimiento importante en juego. En consecuencia, al restringir de forma efectiva la designación de "acontecimiento importante" a las elecciones, Meta socavó la utilidad de sus propias reglas para ayudar a limitar la difusión de contenido multimedia manipulado durante situaciones de gran tensión política. El contenido que las reglas de contenido multimedia manipulado cubren en la práctica pareciera ser significativamente más acotado que lo que pareciera reflejar la política.
Incluso si se asume que el acontecimiento importante de este caso fueron las elecciones de mayo de 2025, Meta no debería haber confiado únicamente en la capacidad de sus socios de verificación de datos para identificar y calificar las afirmaciones con información errónea. Los verificadores de datos a quienes consultó el Consejo, así como los comentarios enviados por el público, resaltaron de manera contundente la grave falta de recursos que experimentan quienes se dedican a la verificación de datos a la hora de realizar su trabajo (PC-31362, PressOne [Filipinas]; PC-31357, Foundation for Media Alternatives [Filipinas]). Otros verificadores de datos explicaron que no les resulta viable calificar todas las posibles versiones de videos similares. Sumado a la gran cantidad de contenido, quienes difunden información errónea suelen incorporar pequeñas modificaciones al contenido para distinguir las publicaciones nuevas del contenido que previamente se verificó y evadir, en consecuencia, las tecnologías de coincidencia de Meta encargadas de identificar el contenido idéntico o casi idéntico (PC-31357, Foundation for Media Alternatives [Filipinas]; PC-31349, Rappler [Filipinas]). Las partes interesadas hicieron hincapié en que la propagación continua de publicaciones engañosas sin etiquetas en las plataformas de Meta tiende a opacar las afirmaciones verdaderas (PC-31358, European Fact-Checking Standards Network). Uno de los verificadores de datos de Meta destacó que estas publicaciones forman parte de una campaña organizada más amplia cuya finalidad es difundir información errónea en internet (PC-31349, Rappler [Filipinas]). Dadas las circunstancias, Meta debería haber concluido que "no [hubo] tiempo suficiente para que el ecosistema de información o los verificadores de datos abordaran el contenido en cuestión", lo que hubiera dado lugar a la priorización de este tipo de contenido para la verificación de datos.
Cuando información engañosa parece formar parte de una campaña de desinformación sistémica más amplia para influir en la opinión pública acerca de un asunto social o político en particular en situaciones de gran tensión, es incluso más necesario hacer frente a las publicaciones engañosas virales, en especial, cuando las estrategias de propagación evolucionan rápidamente para evadir la detección y la revisión. En casos como este, Meta debería aplicar todas sus políticas pertinentes (incluida la verificación de datos y el etiquetado) y herramientas relacionadas.
II. Aplicación de políticas
En la decisión del caso Video alterado del presidente Biden, el Consejo expresó su preocupación por la práctica de Meta de degradar el contenido que verificadores de datos externos califican como "falso" o "alterado", sin informar a los usuarios ni proporcionar mecanismos de apelación. El Consejo indicó en esa decisión que "degradar el contenido tiene consecuencias negativas significativas sobre la libertad de expresión. Meta debería examinar estas políticas para garantizar que, en ellas, se defina con claridad por qué y cuándo se degrada el contenido, así como proporcionar a los usuarios acceso a mecanismos de reparación efectivos (artículo 2 del ICCPR)". A la vez, el Consejo reconoció que puede haber circunstancias en las que la degradación pueda estar justificada como una medida menos intrusiva que la eliminación del contenido (consulta, por ejemplo, los casos Publicaciones a favor de los disturbios en el Reino Unido, Acusaciones de criminalidad basadas en la nacionalidad, Video de maquillaje para un matrimonio infantil en Irán).
En el presente caso, la medida de Meta de mostrar temporalmente menos el contenido del caso en el feed de los usuarios no estadounidenses, incluidos los de Filipinas, estuvo en línea con su práctica de degradar el contenido límite infractor de políticas. Dado que el Consejo también determinó que el contenido era casi idéntico a contenido previamente calificado como falso, también se hubiera degradado conforme a la política de Meta de degradar el contenido que verificadores de datos externos califican como falso. Sin embargo, el Consejo también reiteró su gran preocupación respecto de la falta de claridad de las políticas de degradación, las oportunidades de apelación y las posibles consecuencias en la expresión política.
5.2 Cumplimiento de las responsabilidades de Meta en materia de derechos humanos
El Consejo determinó que conservar el contenido en la plataforma con la etiqueta "Alto riesgo" correspondiente al contenido multimedia manipulado —según exigen las propias políticas de Meta— hubiera sido coherente con las responsabilidades de la empresa en materia de derechos humanos. El Consejo estuvo de acuerdo en que la remisión de Meta del contenido para la verificación de datos se alineaba con sus responsabilidades en materia de derechos humanos, y, en este caso, la optimización de las herramientas disponibles para que los verificadores de datos externos puedan realizar la revisión sería una forma de cumplir con esas responsabilidades.
Libertad de expresión (artículo 19 del ICCPR)
El artículo 19 del ICCPR prevé una amplia protección de la expresión, incluido el discurso político (observación general n.º 34, párrafos 11 y 12). En él, se concede una protección "sumamente importante" al "debate público sobre figuras políticas y de las instituciones públicas" (observación general n.º 34, párrafo 38 20; consulta también la observación general n.º 25, párrafos 12 y 25). El Comité de Derechos Humanos de la ONU destacó que la libertad de expresión es fundamental para los asuntos públicos y el ejercicio efectivo del derecho de voto (observación general n.º 34, párrafo 20; consulta también la observación general n.º 25, párrafos 12 y 25).
La mera falsedad no puede ser el único fundamento para la eliminación del discurso conforme a la legislación internacional de derechos humanos (informe del Secretario General de la ONU sobre cómo contrarrestar la desinformación, A/77/287, párrafo 13). Solo puede restringirse si supera la prueba de tres partes de legalidad, legitimidad y necesidad y proporcionalidad. En 2024, varios Relatores Especiales de la ONU y grupos de trabajo de la ONU elaboraron una declaración conjunta sobre el fortalecimiento de la democracia y los derechos humanos durante las elecciones en todo el mundo: "Las empresas de medios sociales deben revisar y esclarecer sus procesos de moderación de contenido y algoritmos para garantizar que no favorezcan la censura de las voces disidentes ni la promoción de información errónea. Las empresas de tecnología deben respetar la debida diligencia, invertir en verificación de datos y comprender el idioma y el contexto locales en el marco de sus políticas de moderación de contenidos".
Si un Estado impone restricciones sobre la libertad de expresión, estas deben cumplir los requisitos de legalidad, fin legítimo y necesidad y proporcionalidad (artículo 19, párrafo 3, ICCPR). Se suele hacer referencia a estos requisitos como "prueba de tres partes". El Consejo utiliza este marco para interpretar las responsabilidades de Meta en materia de derechos humanos en línea con los Principios Rectores sobre las Empresas y los Derechos Humanos de las Naciones Unidas, que Meta se comprometió a cumplir en su Política corporativa de derechos humanos. El Consejo lo hace tanto respecto de la decisión sobre el contenido en particular en revisión como de lo que esto pone de manifiesto acerca del enfoque más amplio de Meta en relación con la gestión del contenido. Como indicó el Relator Especial de la ONU sobre libertad de expresión, "las empresas no tienen las obligaciones de los Gobiernos, pero sus efectos son de un tipo que les obliga a evaluar el mismo tipo de cuestiones sobre la protección del derecho de sus usuarios a la libertad de expresión" (A/74/486, párrafo 41).
I. Legalidad (claridad y accesibilidad de las reglas)
El principio de legalidad exige que las reglas que limitan la expresión sean accesibles y claras, y estén formuladas con precisión suficiente para que una persona pueda regular su comportamiento de conformidad con ellas (observación general n.º 34, párrafo 25). Asimismo, estas reglas "no pueden conferir a los encargados de su aplicación una discrecionalidad sin trabas para restringir la libertad de expresión" y deben "proporcionar suficientes orientaciones a los encargados de su ejecución para que puedan distinguir cuáles expresiones pueden restringirse correctamente y cuáles no" (ibidem). El Relator Especial sobre la libertad de expresión de la ONU dijo que, cuando se aplican a la gobernanza del discurso online por parte de actores privados, las reglas deben ser claras y específicas (A/HRC/38/35, párrafo 46). Las personas que usan las plataformas de Meta deben ser capaces de acceder a las reglas y entenderlas, y los revisores de contenido deben tener pautas claras para su aplicación.
La norma comunitaria sobre información errónea y las políticas relacionadas de Meta son claras en cuanto a su aplicación al contenido de este caso, pero deben mejorarse. El texto público de la política de información errónea explica con claridad a los usuarios las reglas aplicables y las distintas consecuencias de publicar información errónea y contenido multimedia manipulado en las plataformas de Meta (es decir, la eliminación del contenido, la verificación de datos o la colocación de una etiqueta de contenido multimedia manipulado). A la vez, los tipos de contenido que cumplen los requisitos para la verificación de datos, los criterios para designar a los verificadores de datos y las políticas de degradación están disponibles en distintas páginas del Centro de transparencia.
En la decisión del caso Presunto audio de incitación a manipular las elecciones en el Kurdistán iraquí, el Consejo indicó que Meta debía considerar "integrar la información sobre todas las diferentes etiquetas de contenido multimedia manipulado en una página en el Centro de transparencia, de modo que los usuarios puedan obtener más detalles al respecto fácilmente" y reiteró esta pauta en esta ocasión.
Asimismo, al Consejo le preocupa que la interpretación de Meta de sus reglas de contenido multimedia manipulado correspondientes a la etiqueta de IA dé lugar a un alcance más acotado que el que implica la política pública. Meta debería describir los distintos tipos de etiquetas de IA que coloca, los criterios que usa para aplicarlas y sus consecuencias. En este momento, la descripción más detallada de las tres etiquetas de IA que usa Meta se encuentra en la decisión reciente del Consejo correspondiente al caso Presunto audio de incitación a manipular las elecciones en el Kurdistán iraquí. Las reglas públicas deberían reflejar la regla interna de Meta de que se necesita un acontecimiento importante para que se pueda aplicar la etiqueta "Alto riesgo" a cierto contenido, así como qué califica como "acontecimiento importante".
II. Fin legítimo
Cualquier restricción sobre la libertad de expresión debe procurar además uno o más de los fines legítimos mencionados en el ICCPR, entre ellos, proteger los derechos de los demás (artículo 19, párrafo 3, ICCPR). En decisiones anteriores, el Consejo sostuvo que proteger el derecho a participar en asuntos públicos (artículo 25 del ICCPR) es un fin legítimo conforme a la política de información errónea de Meta (Presunto audio de incitación a manipular las elecciones en el Kurdistán iraquí, Video alterado del presidente Biden).
III. Necesidad y proporcionalidad
El principio de necesidad y proporcionalidad previsto en el artículo 19(3) del ICCPR exige que las restricciones que se apliquen a la expresión "deben ser adecuadas para desempeñar su función protectora, deben ser el instrumento menos perturbador de los que permitan conseguir el resultado deseado y deben guardar proporción con el interés que debe protegerse" (observación general n.º 34, párrafo 34). Para este propósito, la empresa debe, en primer lugar, evaluar los instrumentos que tiene disponibles para proteger un objetivo legítimo sin interferir con el discurso mismo; en segundo lugar, determinar cuál es el instrumento que menos interfiera en el discurso; y, en tercer lugar, evaluar si la medida que se selecciona es efectiva (A/74/486, párrafo 52).
Para evaluar la necesidad y proporcionalidad de estas medidas, así como para determinar qué otras medidas eran necesarias, el Consejo consideró lo siguiente: a) el hecho de que el contenido se publicara durante un momento de gran tensión política en Filipinas, cuando circulaban distintas narrativas acerca de las circunstancias de la detención del expresidente Duterte; b) el elevado uso de los medios sociales en el país; c) el historial de información errónea y desinformación en el país, en particular, en el período previo a las elecciones y durante estas; d) la naturaleza generalmente polarizada del entorno político y de los medios de comunicación; e) la continuada deslegitimación de los medios de comunicación y los periodistas, así como la disminución de la confianza del público en las instituciones de medios de comunicación; f) la probabilidad de que el contenido multimedia incluido en la publicación estuviera modificado, según indicaban publicaciones similares calificadas como falsas por los tres verificadores de datos del país de Meta; y g) la probabilidad de que el contenido multimedia digitalmente modificado engañara e influenciara al público en un asunto que había potenciado la polarización política en el país.
El Consejo destacó las medidas de Meta con respecto al contenido del caso: enviar el contenido del caso para la verificación de datos, primero, poco después de que el contenido se publicara y, nuevamente, cuando el Consejo lo seleccionó; y mostrar temporalmente menos el contenido en el feed de Facebook de los usuarios no estadounidenses, incluso en Filipinas, sobre la base de señales que predecían que el contenido incluía información errónea.
Si bien Meta adoptó algunas medidas para facilitar la revisión del contenido por parte de los verificadores de datos, debería haber realizado más de acuerdo con sus políticas. Por ejemplo, la empresa debería haber marcado el contenido del caso como urgente cuando lo colocó en la cola correspondiente a la verificación de datos, así como haber tratado la detención como un acontecimiento del momento que involucraba debate cívico. Meta también debería haber identificado y expuesto de forma proactiva contenido como este, dado que sus verificadores de datos ya habían marcado afirmaciones con información errónea muy difundidas sobre la detención del expresidente Duterte y habían calificado como falso contenido similar.
Dada la naturaleza de la desinformación en el ámbito político en contextos como el de Filipinas, descripto anteriormente, y su rápida difusión, Meta debería explorar formas para identificar y enfrentar de mejor forma la información errónea a través de todos los enfoques disponibles. Como se hizo hincapié en la declaración conjunta de los Relatores Especiales de la ONU, las empresas deberían responder ante la información errónea con prácticas de moderación de contenido fundamentadas en el contexto local.
Meta debería mejorar los mecanismos que usa para que los verificadores de datos revisen contenido similar a contenido previamente verificado. En la decisión del caso Video alterado del presidente Biden, el Consejo destacó que colocar una etiqueta a una pequeña parte del contenido "podría crear la falsa impresión de que el contenido no etiquetado es inherentemente confiable". Actualmente, los verificadores de datos pueden identificar contenido para la verificación de datos de forma independiente. En teoría, esto permite hacer frente al contenido similar a información engañosa previamente etiquetada. Sin embargo, las partes interesadas expresaron al Consejo que CrowdTangle, la herramienta de transparencia perteneciente a Meta que se dejó de utilizar en 2024, formaba parte integral de este proceso. Si bien los verificadores de datos tienen a disposición la biblioteca de contenido de Meta, la utilidad real de esta herramienta para ellos es incierta (consulta el caso Publicaciones que incluyen la frase "From the River to the Sea [Desde el río hasta el mar]"). Las partes interesadas señalaron que la capacidad de los periodistas de acceder a la herramienta es inconsistente, mientras otros destacaron que la herramienta no es fácil de usar para el trabajo de verificación de datos y citaron la imposibilidad de buscar texto en los videos, de buscar de forma inversa en las imágenes y de buscar grupos públicos por lugar. Sobre la base de estos comentarios, Meta debería seguir interactuando proactivamente con los verificadores de datos externos para garantizar que su biblioteca de contenido sea apta para sus propósitos.
La biblioteca de contenido de Meta también debe complementarse con otras medidas para hacer frente a las afirmaciones con información errónea muy difundidas. Para este propósito, el Consejo le recomendó a Meta desarrollar herramientas para la cola de verificación de datos que les permita a los socios de verificación de datos identificar rápidamente el contenido viral que no se haya calificado como idéntico o casi idéntico, aunque probablemente repita afirmaciones calificadas como falsas o engañosas. De esta forma, se expondrán afirmaciones con información errónea similares a las que ya se verificaron y, a la vez, se evitará el riesgo de la sobreaplicación de políticas surgido a raíz de la ampliación de la definición de contenido "idéntico" o "casi idéntico".
Meta debería tomar medidas para mejorar su respuesta ante la información errónea, en parte, para evitar imponer a sus socios de verificación de datos externos la carga de gestionar la información engañosa. A pesar de que Meta afirmó que está invirtiendo en tecnología para mejorar la detección de las "distinciones sutiles en el contenido" que pudiera compartir información engañosa, en el caso actual, queda demostrada la necesidad de seguir mejorando. En cuanto al programa existente de verificación de datos, por ejemplo, Meta debería garantizar brindar apoyo y recursos a sus socios para que puedan realizar el desafiante trabajo que espera de ellos. Meta también debería hacer frente a las cuentas que difunden información errónea de forma reiterada, entre otras cosas, aplicando la parte de la política de comportamiento no auténtico sobre comportamiento no auténtico coordinado.
Al Consejo también le preocupa que Meta no haya colocado la etiqueta "Alto riesgo" al contenido de este caso, según permitían las políticas de la empresa. El Consejo determinó que esto probablemente hubiera ayudado a evitar la difusión extendida de información falsa o engañosa en Filipinas durante ese momento crítico. Se hubiera advertido a los usuarios que veían la publicación que el contenido podría haberse modificado digitalmente, debido a que se acompañó el audio de las personas que repetían "¡Duterte!" cantando y la canción "Bayan Ko" de fondo con imágenes del video de la protesta en Serbia. Cabe destacar que la consecuencia de la etiqueta "Alto riesgo" es mostrar un aviso a los usuarios que quieren volver a compartir la publicación de que la publicación que pretenden compartir podría estar modificada digitalmente. Si bien la etiqueta es informativa, este aviso crea un grado de fricción que puede ayudar a disminuir la difusión de publicaciones engañosas sobre acontecimientos en curso cuando este tipo de contenido probablemente circule de forma más viral. De modo similar, en la decisión del caso Presunto audio de incitación a manipular las elecciones en el Kurdistán iraquí, el Consejo objetó la aplicación selectiva de la etiqueta "Alto riesgo" por parte de Meta antes de unas elecciones polarizadas en Kurdistán iraquí, lo que destaca aún más la confusión que puede provocar el etiquetado desigual del contenido engañoso. El Consejo señaló informes que muestran irregularidades en la aplicación de las etiquetas de IA al contenido, incluso cuando las señales estándar de generación con IA del sector están presentes. A medida que el contenido generado con IA se vuelve más popular en los medios sociales, es imprescindible que Meta mejore la aplicación de sus políticas en este ámbito.
En este caso, al Consejo le preocupa mucho que Meta no haya aplicado la etiqueta "Alto riesgo". Lo debería haber hecho en este caso y complementar su programa de verificación de datos aprovechando otras políticas a disposición.
6. Decisión del Consejo asesor de contenido
El Consejo asesor de contenido ratificó la decisión de Meta de mantener el contenido.
7. Recomendaciones
Política de contenido
1. Para informar de mejor modo a los usuarios de qué forma se aplica la política de contenido multimedia manipulado de la norma comunitaria sobre información errónea, Meta debería explicar las distintas etiquetas informativas que usa para el contenido multimedia manipulado, incluido el hecho de que la etiqueta "Alto riesgo" se aplica en relación con un acontecimiento importante, así como qué se considera "acontecimiento importante".
El Consejo considerará implementada esta recomendación cuando Meta haya actualizado el texto de la norma comunitaria sobre información errónea para reflejar este cambio.
Aplicación de políticas
2. Para permitir a los verificadores de datos externos abordar de manera eficiente los patrones de información errónea, Meta debería crear una cola separada dentro de la interfaz de verificación de datos que incluya contenido similar, pero no idéntico ni casi idéntico a contenido ya verificado en un mercado determinado.
El Consejo considerará implementada esta recomendación cuando Meta haya compartido información con el Consejo sobre los detalles de esta nueva función de la interfaz y de qué forma les permite a los verificadores de datos incorporar contenido nuevo y similar a las verificaciones de datos existentes.
* Nota de procedimiento:
- La preparación de las decisiones del Consejo asesor de contenido está a cargo de paneles conformados por cinco miembros, quienes deben aprobarlas por mayoría. Las decisiones del Consejo no necesariamente representan las opiniones de todos los miembros.
- En virtud de su acta constitutiva, el Consejo asesor de contenido tiene la facultad de revisar apelaciones de usuarios cuyo contenido fue eliminado por Meta, apelaciones de usuarios que reportaron contenido que Meta mantuvo publicado y decisiones que Meta le presente (artículo 2, sección 1, del acta constitutiva). El Consejo tiene autoridad vinculante para ratificar o anular las decisiones sobre contenido de Meta (artículo 3, sección 5 y artículo 4 del acta constitutiva). El Consejo podrá emitir recomendaciones no vinculantes a las que Meta deberá responder (artículo 3, sección 4, y artículo 4). Cuando Meta se compromete a tomar medidas respecto de las recomendaciones, el Consejo supervisa su implementación.
- En cuanto a la decisión del caso, se encargó una investigación independiente en nombre del Consejo. El Consejo también recibió asistencia de Duco Advisors, una empresa asesora dedicada a la intersección de geopolítica, confianza, seguridad y tecnología.* Lionbridge Technologies, LLC, con especialistas en más de 350 idiomas que trabajan en 5.000 ciudades diferentes de todo el mundo, se encargó de las competencias en materia lingüística.
Volver a Decisiones de casos y opiniones consultivas sobre políticas