Anulado

Video generado con IA en el conflicto entre Israel e Irán

Tras analizar la difusión de contenido generado con IA en conflictos armados en un caso relacionado con la guerra entre Israel e Irán en 2025, el Consejo asesor de contenido insta a Meta a tomar medidas más rigurosas para que los usuarios identifiquen este tipo de resultado.

Tipo de decisión

Estándar:

Políticas y temas

Tema
AI-generated content

Regiones/Países

Ubicación
Irán, Israel

Plataforma

Plataforma
Facebook

Para leer esta decisión en farsi, haz clic aquí.

برای خواندن حکم کامل به زبان فارسی، در اینجا کلیک کنید.

Para leer esta decisión en hebreo, haz clic aquí.

לקריאת החלטה זו בעברית יש ללחוץ כאן.

Resumen

Tras analizar la difusión de contenido generado con IA en conflictos armados en un caso relacionado con la guerra entre Israel e Irán en 2025, el Consejo asesor de contenido insta a Meta a tomar medidas más rigurosas para que los usuarios identifiquen este tipo de resultado. Su enfoque para detectar contenido generado con IA debe evolucionar. Esto incluye proporcionar detalles a gran escala sobre el origen del contenido multimedia, en función de normas de procedencia del contenido, invertir en herramientas de detección más potentes y desarrollar métodos más precisos para etiquetarlo. Meta debe crear un nuevo conjunto de reglas independientes para garantizar que los usuarios puedan reconocer de forma confiable contenido generado con IA. Asimismo, debe modificar sus políticas actuales para asegurar una respuesta oportuna y adecuada a resultados generados con IA engañosos.

La empresa debe honrar sus compromisos públicos y emplear sus propias herramientas y otras disponibles en el sector para abordar con eficacia el contenido generado con IA engañoso que se difunde entre las plataformas.

El Consejo anuló la decisión de Meta de conservar la publicación en este caso sin la etiqueta "IA de alto riesgo".

Por qué es importante

A medida que aumenta la cantidad y calidad del contenido generado con IA, este tendrá un impacto muy profundo en las personas y sociedades. Los riesgos se acrecientan cuando se comparten deepfakes diseñadas para engañar, manipular o aumentar la interacción durante conflictos y crisis, como en Irán y Venezuela en 2026, y estas se difunden con rapidez en las plataformas de diferentes empresas. Durante esas dos crisis, se afirmaba que el contenido generado con IA engañoso era auténtico y que el contenido auténtico era una invención. Eso acentúa la incapacidad de las personas de discernir qué es verdad, lo que constituye la ventaja del mentiroso, y conduce finalmente a una desconfianza general en toda la información. En los últimos años, observamos en todo el mundo el creciente problema de las campañas de influencia con IA, que se exacerba en ecosistemas de medios e internet restrictivos que limitan la información creíble. No obstante, que los resultados generados con IA sean engañosos no es en sí un motivo legítimo para restringir la libertad de expresión. El sector necesita coherencia para ayudar a los usuarios a distinguir este contenido, y las plataformas deben tomar medidas respecto de las cuentas y páginas fraudulentas que lo comparten.

Información de los casos

La guerra entre Israel e Irán en junio de 2025 marcó un punto de inflexión, en el que la presenciade contenido generado con IA engañoso en medios sociales se empezó a conocer como su propia "guerra blanda". Dichos resultados falsos se reportaron por conseguir enormes cantidades de visualizaciones, y se acusó tanto al Gobierno israelí como al Gobierno iraní de intentar ejercer influencia mediante IA. El 15 de junio, a dos días de los 12 que duró el conflicto entre Israel e Irán, se publicó un video en una página de Facebook que afirmaba ser una fuente de noticias. El usuario que hizo la publicación se encontraba en Filipinas. El video mostraba edificios sumamente dañados con texto superpuesto en inglés que rezaba "Live now – Haifa Towards Down" (En vivo - Están destruyendo Haifa) [sic] con la fecha de publicación. El video era muy similar a uno originado en TikTok que un verificador de datos independiente (Agence France-Presse) identificó como falso y generado con IA. La publicación de Facebook incluía una descripción que enumeraba muchas frases de estilo titular periodístico vinculadas al conflicto, así como términos y hashtags no relacionados. Esta obtuvo más de 700.000 visualizaciones, con muchos comentarios que señalaban que se trataba de contenido generado con IA.

Seis usuarios reportaron el caso a Meta, pero la empresa no lo revisó ni se sometió al escrutinio de verificadores de datos independientes. El usuario apeló al Consejo. Luego de que el Consejo seleccionara este caso, Meta confirmó que la publicación no infringía la norma comunitaria sobre información errónea porque no "contribuía directamente al riesgo de daño físico inminente" y no requería una etiqueta de IA.

Dadas las evidentes señales de engaño relacionadas con la publicación, el Consejo le preguntó a Meta por la identidad y el comportamiento de cuentas vinculadas a la página. La empresa, posteriormente, inhabilitó tres cuentas vinculadas a la página por interacción engañosa y falta de autenticidad, y eliminó la página y, junto con ella, el contenido del caso. La página reunía los requisitos de monetización mediante el programa de estrellas de Meta.

Conclusiones principales

El Consejo considera que el contenido suponía un riesgo sustancial de engaño al público en un asunto importante en un momento crítico, así que Meta debería haber aplicado la etiqueta "IA de alto riesgo". La publicación no alcanzaba el umbral para poder eliminarla (es decir, no suponía un riesgo de violencia o daño físico inminente). Meta debe tomar medidas más estrictas para abordar la proliferación de contenido generado con IA engañoso, incluido aquel que difunden redes de cuentas y páginas fraudulentas o no auténticas, en particular sobre asuntos de interés público, de modo que los usuarios puedan distinguir entre lo que es falso y lo que es real.

Al Consejo le preocupan los reportes que indican que Meta implementa de forma incoherente las normas de la Coalition for Content Provenance and Authenticity (C2PA), incluso en contenido generado por sus propias herramientas de IA, y que solo una parte de dichos resultados se etiqueta correctamente. La C2PA establece normas técnicas para incorporar información de procedencia como metadatos en el contenido, lo que permite a las plataformas identificar contenido generado con IA y aplicar etiquetas para informar a los usuarios más fácilmente.

Los mecanismos actuales para agregar incluso la etiqueta estándar "Información de IA" al video (mediante aviso por parte del usuario o tras escalamiento al equipo de políticas de contenido) no son lo suficientemente sólidos o exhaustivos para competir con el alcance y la velocidad del contenido generado con IA, en particular durante una crisis o un conflicto en los que aumenta la interacción en la plataforma. Un sistema que depende excesivamente de que se indique que se usó IA y de que el contenido se revise en la etapa de escalamiento (cosa que no ocurre a menudo) para poder etiquetar este resultado no aborda los desafíos que surgen en el entorno actual. Algunos miembros del Consejo asimismo señalaron que la etiqueta "IA de alto riesgo" (en resultados que podrían engañar a las personas en cuanto a asuntos importantes) también debe venir acompañada por medidas de degradación o eliminación de las recomendaciones, a fin de abordar las inquietudes respecto del excesivo alcance que tiene el impacto del contenido engañoso.

El limitado enfoque de Meta para ampliar las calificaciones a contenido idéntico o casi idéntico puede haber ocasionado que esta publicación no recibiera una calificación tras la verificación de datos. Debido a las limitaciones en cuanto a recursos y a un notable volumen de resultados, resulta difícil para los verificadores de datos garantizar que se revise de forma oportuna todo el contenido engañoso, en especial durante un conflicto o una crisis. El Consejo reitera que Meta debe asegurarse de que los verificadores de datos cuenten con los recursos adecuados y reciban orientación para poder priorizar el contenido que se origina a partir de un conflicto. El protocolo de la política de crisis y las designaciones de eventos populares deberían haberle permitido a Meta garantizar que se les brinde a los verificadores de datos independientes un respaldo más efectivo durante la crisis. Extender las calificaciones a una categoría más amplia de videos muy similares podría haber limitado en gran medida el daño potencial, incluido mediante la degradación. El caso pone de manifiesto ineficiencias en el enfoque actual de Meta durante conflictos armados, lo que se suma a las inquietudes que el Consejo ya expresó en otras ocasiones.

Es preocupante que, tras activar el protocolo de la política de crisis y asignar recursos adicionales, Meta no identificara por iniciativa propia las claras señales de interacción fraudulenta de la página y que solo haya investigado las cuentas detrás de ella en respuesta a las preguntas del Consejo. En lugar de recurrir a medidas de mitigación posteriores basadas en el contenido propensas a un alto porcentaje de fallas, se deberían haber aplicado con precisión las políticas basadas en comportamientos para prevenir los daños de estas cuentas infractoras.

Decisión del Consejo asesor de contenido

El Consejo anuló la decisión de Meta de conservar el contenido sin la etiqueta "IA de alto riesgo".

El Consejo recomendó a Meta lo siguiente:

  • Crear una norma comunitaria para el contenido generado con IA, independiente de la norma comunitaria sobre información errónea, que proporcione reglas exhaustivas sobre la preservación de la procedencia, protocolos de etiquetas de IA y un aviso que indique que es IA.
  • Desarrollar vías para agregar las etiquetas "Alto riesgo" e "IA de alto riesgo" al contenido con mucha más frecuencia, con el respaldo de canales de escalamiento más claros de sistemas automatizados y revisión a gran escala, de modo que haya un volumen mucho mayor de etiquetado.
  • Adjuntar información de procedencia y marcas de agua invisibles al contenido creado con las herramientas de Meta AI, incluido aplicar credenciales de contenido (conforme se estipula en la C2PA) en el momento de la creación.
  • Implementar credenciales de contenido a gran escala y garantizar que estas se vean de forma clara y consistente, y que se pueda acceder a ellas siempre que haya disponible información de procedencia.
  • Invertir en herramientas de detección más eficaces para contenido generado con IA en varios formatos (audio, audiovisual e imagen).
  • Publicar una explicación clara de las penalizaciones que se aplican al no avisar que el contenido se creó o alteró digitalmente, incluidos los criterios para las penalizaciones y las consiguientes limitaciones.
  • Modificar la norma comunitaria sobre información errónea para garantizar que la rápida revisión de información errónea que supone un riesgo inminente de violencia o daño físico no dependa exclusivamente de señales de socios externos. Como medida del protocolo de la política de crisis, se deberían asignar recursos para detectar dicho contenido infractor de forma oportuna y proactiva, con respaldo de acciones y conocimientos internos, incluidos aplicar etiquetas e investigar las páginas y cuentas que lo publican.

* Los resúmenes de casos ofrecen información general sobre los casos y no sientan precedentes.

Decisión del caso completa

1. Descripción y contexto de los casos

El 13 de junio de 2025, Israel lanzó un importante ataque aéreo contra bases nucleares y militares iraníes, entre otras zonas. Los líderes de Israel afirmaron que los ataques tenían como fin impedir el crecimiento del programa nuclear de Irán. Esto provocó que ambos países intercambiaran ataques durante más de una semana y media. Irán disparó cientos de misiles contra ciudades israelíes, muchos de los cuales fueron interceptados por las defensas del país, mientras que Israel atacó varias zonas en Irán, incluidas áreas cercanas a la capitán, Teherán. El 18 de junio, el secretario general de las Naciones Unidas (ONU), Antonio Guterres, declaró que "le alarmaba profundamente" la escalada militar y agregó que "otras intervenciones militares podrían tener consecuencias devastadoras, no solo para aquellos implicados en el conflicto, sino para toda la región y para la paz y la seguridad internacional en general". El 21 de junio, Estados Unidos llevó a cabo una serie de ataques contra zonas nucleares en Irán. El 24 de junio, se anunció un cese de hostilidades entre Israel e Irán.

El conflicto entre Israel e Irán en 2025 marcó un punto de inflexión, en el que la creciente influencia de contenido generado con IA en medios sociales se empezó a conocer como su propia "guerra blanda". La British Broadcasting Corporation reportó que tres videos generados con IA engañosos relacionados con el conflicto consiguieron más de 100 millones de visualizaciones. El ministro de asuntos exteriores de Israel compartió el video de un ataque en la prisión de Evin en Teherán, que un análisis forense más tarde consideró como un posible video generado con IA, pese a que la prisión realmente sufrió un ataque. Una investigación del Citizen Lab en la Universidad de Toronto reportó una red coordinada de perfiles no auténticos en X (antes Twitter), presuntamente vinculados con Israel, que motivaban a los iraníes a oponerse a su Gobierno. El Gobierno de Israel también reportó campañas con bots que emprendió Irán con el fin de influir en las opiniones respecto del conflicto y el impacto de sus ataques contra Israel.

En los últimos años, el contenido generado con IA engañoso se transformó en un desafío constante y creciente durante crisis y conflictos en todo el mundo. Este desafío se exacerba en lugares donde hay presión sobre la libertad de expresión y donde las medidas severas impuestas contra medios independientes y las interrupciones de internet entorpecen la información creíble que puede desacreditar a las campañas engañosas. Durante sus deliberaciones sobre este caso, el Consejo observó que, tanto en la operación de los Estados Unidos para capturar al presidente de Venezuela como en las manifestaciones masivas contra el Gobierno iraní, se afirmaba que el contenido generado con IA engañoso era auténtico y que el contenido auténtico era un invento. Ambas situaciones ponen en peligro la capacidad del público de distinguir lo falso de lo real, lo que constituye la ventaja del mentiroso, y suponen un riesgo de desconfianza respecto de toda la información.

Emergieron varios enfoques técnicos para ayudar a las plataformas y los usuarios a distinguir entre contenido multimedia sintético o manipulado y contenido multimedia auténtico. Un enfoque es rastrear la procedencia, es decir, el historial verificable de un activo digital, como una imagen, un video o un documento. La Coalition for Content Provenance and Authenticity (C2PA) establece normas técnicas para incorporar información de procedencia como metadatos en el contenido, lo que permite a las plataformas identificar contenido generado con IA y aplicar etiquetas para informar a los usuarios más fácilmente. Si bien estas herramientas aún están en evolución y ninguna constituye la solución perfecta, se perciben como "la base en lo que respecta a la generación y difusión responsables de contenido generado con IA". En paralelo, las inversiones en detección automatizada, como clasificadores, pueden proporcionar una vía para descubrir otras señales que indiquen que el contenido se generó con IA.

Este caso ilustra bien estos desafíos. El 15 de junio, a medida que el conflicto entre Israel e Irán escalaba, se publicó un video en una página de Facebook con 161.000 seguidores que afirmaba ser una fuente de noticias. El video mostraba edificios sumamente dañados, rodeados de columnas de humo y escombros, con texto superpuesto en inglés que rezaba "Live now – Haifa Towards Down" (En vivo - Están destruyendo Haifa) [sic] con la fecha de publicación. La publicación supuestamente hacía referencia a Haifa, una ciudad en el norte de Israel. El video parecía muy similar a otro que se originó en TikTok y que el verificador de datos independiente Agence France-Presse (AFP) identificó como falso y generado con IA (AFP solo proporciona imágenes estáticas del video calificado, pero son idénticas a los encuadres en el contenido del caso). La publicación de Facebook incluía una descripción en inglés que enumeraba muchas frases de estilo titular periodístico vinculadas al conflicto, así como términos y hashtags no relacionados, sin una narrativa clara. Mencionaba el conflicto en curso, líderes políticos mundiales, incendios forestales, misiles y más. Esta obtuvo más de 700.000 visualizaciones, con muchos comentarios que señalaban que se trataba de contenido generado con IA.

Seis usuarios reportaron el contenido del caso un total de nueve veces, pero los sistemas automatizados de Meta no lo priorizaron para revisión manual. El mismo día en que se publicó el contenido, un clasificador de información errónea lo puso en cola para someterlo a la revisión de verificadores de datos independientes, pero nunca se revisó ni calificó. No se trata de algo inusual, ya que Meta marca un gran volumen de información errónea potencial que supera la capacidad de revisión de los verificadores de datos.

Tras agotar los procedimientos de apelación internos dentro de la empresa, uno de los usuarios que reportó el contenido apeló la decisión de Meta de conservar el contenido ante el Consejo. Luego de que el Consejo seleccionara este caso, Meta confirmó que la publicación no infringía la norma comunitaria sobre información errónea porque no "contribuía directamente al riesgo de daño físico inminente". Meta defendió también su decisión de no etiquetar el contenido. No tomó medidas contra la página o las cuentas responsables del contenido.

Dadas las evidentes señales de engaño en torno a la publicación, el Consejo planteó a Meta una serie de preguntas sobre la identidad y el comportamiento de la página y las cuentas detrás de ella. Esto condujo a una investigación que llevó a Meta a detectar que los administradores de la página habían infringido las reglas sobre interacción fraudulenta y falta de autenticidad. La empresa entonces inhabilitó definitivamente las tres cuentas, medida con la que eliminó también la página y el contenido del caso de la plataforma.

2. Respuestas de los usuarios

En sus respuesta al Consejo, el usuario que solicitó la eliminación del contenido, tras pedir que se elimine, se quejó de que Meta permite "actos de terrorismo" en su plataforma. No había indicios claros en su alegato de que comprendiera que el contenido se había generado con IA o era engañoso.

3. Respuestas y políticas de contenido de Meta

I. Políticas de contenido de Meta

Norma comunitaria sobre información errónea

En virtud de la norma comunitaria sobre información errónea, Meta elimina la "información errónea o los rumores no verificables cuando, según nuestros socios expertos, es probable que contribuyan directamente al riesgo de violencia o daños físicos inminentes a personas". En países que experimentan un mayor riesgo de violencia social, "Meta trabaja de forma proactiva con socios locales para entender qué afirmaciones falsas pueden contribuir de manera directa al riesgo de daño físico inminente" para identificar y eliminar contenido en el que se realicen dichas afirmaciones.

En virtud del subtítulo "contenido multimedia manipulado", Meta afirma que, para el contenido que no infringe de otra forma las Normas comunitarias, es posible que se agregue una etiqueta a la publicación cuando se trata de una imagen, un video o un audio que parece real, que se creó o alteró digitalmente y genera un "riesgo particularmente alto de engañar sustancialmente al público en cuanto a asuntos de importancia pública". La política de información errónea también requiere que los usuarios informen cada vez que publican "contenido orgánico con videos fotorrealistas o audios con sonido realista creados o alterados digitalmente". No usar la herramienta de aviso de IA puede suponer penalizaciones.

En otras áreas, Meta también prohíbe el contenido y el comportamiento que "suelen superponerse con la difusión de información errónea". Esto incluye las normas comunitarias sobre integridad de la cuenta, prácticas engañosas y comportamiento no auténtico coordinado. En el caso de toda la demás información errónea que no infringe su norma comunitaria sobre información errónea, Meta se centra en "reducir su prevalencia o crear un ambiente que genere un diálogo productivo". Fuera de los Estados Unidos, Meta recurre a verificadores de datos independientes que revisan y califican el contenido. Esto puede conducir a que se le agreguen las etiquetas correspondientes a la calificación. Las calificaciones incluyen "falso" y "alterado" y pueden propiciar que se reduzca su distribución. Meta emplea tecnología para detectar información errónea potencial a fin de que los verificadores de datos la revisen, y estos últimos también pueden identificarla en su propio contenido para revisar. En enero de 2025, Meta anunció que ponía fin al programa de verificación de datos independiente en los Estados Unidos y lo reemplazaba por un modelo de notas de la comunidad.

En las Políticas de monetización para socios de Meta, se detallan las reglas que deben cumplir las páginas que "ganan dinero en las plataformas" y se señala que es posible que el contenido marcado como información errónea o clickbait no reúna los requisitos de monetización. En las Políticas de monetización de contenido también se definen las reglas para "crear contenido de marca apto para monetización seguro" y se restringe o reduce la monetización del contenido que muestra o describe ciertos temas, como "tragedia y conflictos, incluidos daños a la propiedad". En este respecto, ambas cuentas vinculadas a la página en este caso se eliminaron debido a infracciones en el nivel de la cuenta en relación con interacción fraudulenta.

II. Respuestas de Meta

Meta indicó que la publicación no infringía la política de información errónea que exige la eliminación de contenido "cuando tiene probabilidades de contribuir de manera directa al riesgo de un daño físico inminente". Su decisión tomó en cuenta que ningún experto independiente, como un socio local, marcó el contenido ni ninguna tendencia de información errónea relacionada.

Meta no le aplicó ninguna etiqueta en virtud de las reglas de contenido multimedia manipulado. Meta aplica tres etiquetas diferentes al contenido multimedia manipulado: "Información de IA", "Alto riesgo" e "IA de alto riesgo".

La etiqueta "Información de IA" se aplica de manera automática al contenido cuando Meta lo detecta por medio de "indicadores de imágenes con IA estándar del sector o cuando las personas confirman haber estado subiendo contenido generado con IA". Tal como reveló el Consejo en el caso Presunto audio de incitación a manipular las elecciones en el Kurdistán iraquí, Meta actualmente solo puede identificar imágenes estáticas y colocarles la etiqueta "Información de IA" de manera automática, basándose en los metadatos que muchas herramientas de IA generativa incorporan en dicho contenido. El contenido de audio y video requiere que el usuario avise que se trata de IA para que se le aplique la etiqueta. No hubo aviso alguno en este caso. En virtud de los procesos actuales de Meta, no se podría agregar una etiqueta automáticamente en estas circunstancias.

La etiqueta "Alto riesgo" se aplica a contenido que (i) genera un riesgo particularmente alto de engañar de forma significativa al público en relación con asuntos de importancia pública y (ii) muestra indicios confiables de que se creó o alteró digitalmente. A diferencia de la etiqueta "Información de IA", la etiqueta "Alto riesgo" es una política que se aplica solo en la etapa de escalamiento, es decir, solo los equipos de políticas internos de Meta pueden aplicarla luego de la revisión manual. No hubo escalamiento tal del contenido en cuestión antes de que el Consejo seleccionara el caso.

La etiqueta IA de alto riesgo se aplica cuando el contenido cumple todos los requisitos de la etiqueta "Alto riesgo" y muestra indicadores confiables de que se creó o alteró con IA. También se trata de una política impuesta en la etapa de escalamiento que requiere revisión manual. Los equipos de políticas internos de Meta examinaron este contenido únicamente después de que el Consejo lo seleccionara. Estos determinaron que, por entonces, había transcurrido demasiado tiempo para que una etiqueta se considerase relevante o urgente.

Meta tiene en cuenta fuentes internas y externas disponibles que considera creíbles al determinar si el contenido es producto de la IA o se creó o alteró digitalmente. Las fuentes externas pueden incluir organizaciones de noticias o de verificación de datos independientes que pueden argumentar su determinación con una base técnica, como una referencia a un modelo de detección con IA o a la conclusión de un experto forense.

Conforme se explica en la decisión del caso Imágenes de una protesta acompañadas por cánticos a favor de Duterte, las etiquetas de contenido multimedia manipulado no generan la degradación automática del contenido o su eliminación de las recomendaciones. En su lugar, los usuarios que vuelven a compartirlo con estas etiquetas pueden ver una ventana emergente, que puede disminuir el alcance de forma orgánica. Los mensajes de la ventana emergente dependerán de si el contenido se creó con IA o no.

Meta cuenta con varios sistemas fuera de los Estados Unidos para identificar y abordar posible información errónea. Algunos sistemas solo envían el contenido para que se someta a la revisión de verificadores de datos independientes, mientras que otros lo envían a revisión y aplican una degradación temporal mientras aguardan que finalice ese proceso. Que el contenido únicamente se envíe a revisión o se reduzca su alcance depende del tipo de sistema que lo marca, así como de otros factores, como el país y el idioma en cuestión.

Según Meta, el protocolo de la política de crisis se activó en el momento del conflicto entre Irán e Israel. Israel se había designado en virtud de este protocolo tras los ataques en el país el 7 de octubre de 2023. Irán se designó al comienzo del conflicto de junio de 2025. Tras activar el protocolo, la empresa puede implementar un conjunto de medidas diseñadas para reforzar su respuesta ante crisis y permitir a sus equipos evaluar y mitigar el riesgo de daño inminente. Durante esta crisis, no se generó ningún cambio en los sistemas de moderación automatizados, y el contenido del caso se revisó usando los modelos y umbrales existentes.

Meta designó el conflicto entre Irán e Israel como un "evento popular" con el objetivo de ayudar a los verificadores de datos independientes a identificar y desmentir afirmaciones falsas virales relacionadas con la situación, dado el alto riesgo de que se propague información errónea. En el momento en que se decretó el cese de las hostilidades, los verificadores de datos habían publicado varias comprobaciones relacionadas con el conflicto. Meta afirma que cuenta con verificadores de datos en Israel y Filipinas (donde reside la persona que hizo la publicación), pero no en Irán.

Luego de que el Consejo solicitara a Meta investigar el comportamiento de esta página y las cuentas vinculadas, la empresa inhabilitó las cuentas de tres administradores de la página diferentes.

La cuenta de uno de ellos se inhabilitó por infringir la política de representación de identidad auténtica tras "representar identidades de forma engañosa para engañar a otros, eludir la aplicación de políticas o infringir nuestras Normas comunitarias". La segunda se inhabilitó en virtud de la política de integridad de la cuenta por pertenecer a la misma persona o entidad que la cuenta inhabilitada. La tercera se inhabilitó conforme a la política de spam por interacción fraudulenta. La política de spam prohíbe ampliamente diversas prácticas engañosas, confusas o desmesuradas cuyo fin es aumentar la interacción en las publicaciones de forma no auténtica. Esto provocó que se eliminara la página y el contenido que esta había publicado. Antes de su eliminación, la página reunía los requisitos de monetización mediante el programa de estrellas de Meta.

El Consejo planteó preguntas respecto del etiquetado, la detección con IA, la verificación de datos, la implementación del protocolo de la política de crisis, los comportamientos en el nivel de la página y la cuenta, y mucho más. Meta respondió todas las preguntas.

4. Comentarios del público

El Consejo recibió seis comentarios del público que cumplieron las condiciones de presentación. Cuatro de ellos procedían de Europa y dos procedían de los Estados Unidos. Para leer los comentarios del público enviados con consentimiento de publicación, haz clic aquí.

Los comentarios abarcaban los siguientes temas: la moderación de contenido durante conflictos y crisis, la prevalencia de contenido generado con IA y el aumento de comportamientos no auténticos coordinados en un conflicto armado, las limitaciones de la definición de Meta para "daño físico inminente", la importancia de la verificación de datos durante un conflicto armado, las normas y la implementación de etiquetas de contenido multimedia manipulado, la importancia de las normas de la C2PA en la detección, entre otras cuestiones.

5. Análisis del Consejo asesor de contenido

El Consejo seleccionó este caso para analizar las políticas y prácticas de aplicación de Meta en relación con la difusión de contenido generado con IA engañoso en sus plataformas, en particular en el contexto de conflictos armados. Este caso se enmarca en las prioridades estratégicas del Consejo de situaciones de conflicto y crisis, e IA y automatización.

El Consejo analizó la decisión de Meta en este caso respecto de sus políticas de contenido, valores y responsabilidades en materia de derechos humanos. Asimismo, el Consejo evaluó las implicaciones de este caso para el enfoque más general de Meta en cuanto a la gobernanza de contenido.

5.1 Cumplimiento de las políticas de contenido de Meta

Reglas de contenido

Para el Consejo, el contenido del caso no se debía eliminar en virtud de la norma comunitaria sobre información errónea, sino que Meta le debería haber aplicado la etiqueta "IA de alto riesgo" conforme a sus reglas sobre contenido multimedia manipulado.

La publicación no infringía las políticas de información errónea de Meta que exigen la eliminación, ya que no había probabilidades de que expusiera a las personas a violencia o daños físicos inminentes. El video exageraba de manera engañosa el impacto del ataque iraní contra Israel y se publicó en torno al momento en que cayeron misiles sobre Haifa. Si bien es probable que esto haya aumentado la angustia de las personas engañadas, las probabilidades de que contribuyera a la violencia por parte de civiles israelís contra presuntos adversarios o influyera de manera directa en la respuesta del Gobierno de Israel eran bajas. No hay indicios de violencia entre comunidades dentro de Israel en respuesta a representaciones engañosas de los ataques.

Sin perjuicio de esta conclusión, es preocupante que Meta no haya proporcionado análisis de los posibles riesgos de daño en su análisis del contenido. En su lugar, concluyó que, como ningún socio de confianza lo había marcado, este no infringía sus reglas. Esta no es una postura aceptable cuando muchos socios de confianza informan al Consejo que la empresa tiene un bajo nivel de respuesta a las comunicaciones y las inquietudes que se plantean, en parte debido a la importante reducción de las capacidades de los equipos internos de Meta. Meta debe ser capaz de realizar dichas evaluaciones de daños por su cuenta, en lugar de esperar exclusivamente que lo hagan los socios durante un conflicto armado. Esta página tenía muchos seguidores, el contenido se había viralizado, el clasificador de información errónea de Meta había marcado el contenido y varios usuarios los reportaron. Fuentes confiables como AFP desacreditaron un video muy similar y dieron aviso a Meta para que revise de forma proactiva afirmaciones engañosas que podrían haber ocasionado daños. La activación del protocolo de la política de crisis debería haber garantizado que Meta tuviera a mano los recursos necesarios para realizar este tipo de evaluaciones por cuenta propia y comunicarse de forma proactiva con los socios si necesitaba contexto local. En estas circunstancias, el contenido se debería haber remitido a revisión.

Si esto hubiera ocurrido, habría quedado claro que el contenido suponía un riesgo material de engañar al público en un asunto importante en un momento crítico y se habría aplicado la etiqueta "IA de alto riesgo". La representación de la página como canal de noticias, junto con el texto superpuesto en el video que afirmaba que transmitía "en vivo" desde Haifa, proyectaba el contenido como imágenes genuinas de un conflicto armado en curso donde estaba en riesgo la vida de la población civil. Este usuario, cuya página ya se representaba de forma engañosa como un canal de noticias confiable, no habría revelado su engaño si hubiera avisado que había usado IA. Las aves blancas poco realistas sobrevolando en el video, y el hecho de que expertos de organizaciones como la AFP hayan determinado que el contenido era generado con IA, deberían haber llevado a Meta a evaluar si era necesaria la etiqueta. Meta también debería haber corregido su error tan pronto como el Consejo lo puso en conocimiento del asunto. La investigación en la plataforma que realizó el Consejo reveló varias versiones de este video, así como capturas de pantalla relacionadas que circulaban en las plataformas de Meta semanas después, y la empresa no había etiquetado ninguna de ellas.

Si verificadores de datos independientes también hubieran revisado esta publicación específica, es probable que se hubiera aplicado al contenido la etiqueta "falso" y se hubiera degradado (en función de la calificación que la AFP otorgó a un video similar). El limitado enfoque de Meta para ampliar las calificaciones a contenido idéntico o casi idéntico puede haber ocasionado que dicho contenido tampoco se califique (p. ej., debido a la incorporación de una superposición de texto en el video). Debido a las limitaciones en cuanto a recursos y a un notable volumen de contenido, resulta difícil para los verificadores de datos garantizar que se revise de forma oportuna todo el contenido engañoso, en especial durante un conflicto o una crisis. El Consejo reitera que Meta debe garantizar que los verificadores de datos cuenten con los recursos adecuados y reciban orientación para priorizar el contenido que se genera durante conflictos, a fin de realizar la desafiante labor que Meta confía en que llevarán a cabo (consulta el caso Imágenes de una protesta acompañadas por cánticos a favor de Duterte).

Es preocupante que, durante esta crisis, tras activar el protocolo de la política de crisis y asignar recursos adicionales, Meta no identificara por iniciativa propia las claras señales de interacción fraudulenta de la página y que solo haya investigado las cuentas detrás de ella en respuesta a las preguntas del Consejo. En lugar de recurrir a medidas de mitigación posteriores basadas en el contenido propensas a un alto porcentaje de fallas, se deberían haber aplicado con precisión las políticas de autenticidad e integridad basadas en comportamientos para prevenir los daños ocasionados por el contenido engañoso respaldado por estas cuentas infractoras.

5.2 Cumplimiento de las responsabilidades de Meta en materia de derechos humanos

El Consejo considera que, en virtud de las responsabilidades de Meta con los derechos humanos, se debería haber aplicado al contenido la etiqueta "IA de alto riesgo" para contenido multimedia manipulado, y Meta debe esforzarse más para abordar la proliferación de contenido generado con IA engañoso en sus plataformas, incluidas redes no auténticas o fraudulentas de cuentas y páginas.

Libertad de expresión (artículo 19 del ICCPR)

El artículo 19 del Pacto Internacional de Derechos Civiles y Políticos (ICCPR) brinda amplia protección de expresión, incluido el discurso político. Este derecho incluye la "libertad de buscar, recibir y difundir información e ideas de toda índole" (artículo 19, párrafo 2). Si un Estado impone restricciones sobre la libertad de expresión, estas deben cumplir los requisitos de legalidad, fin legítimo y necesidad y proporcionalidad (artículo 19, párrafo 3, ICCPR). Se suele hacer referencia a estos requisitos como "prueba de tres partes". El Consejo utiliza este marco para interpretar las responsabilidades de Meta en materia de derechos humanos en línea con los Principios Rectores sobre las Empresas y los Derechos Humanos de las Naciones Unidas, que Meta se comprometió a cumplir en su Política corporativa de derechos humanos. El Consejo lo hace tanto respecto de la decisión sobre el contenido en particular en revisión como de lo que esto pone de manifiesto acerca del enfoque más amplio de Meta en relación con la gestión del contenido. Como indicó el Relator Especial de la ONU sobre la libertad de expresión, "las empresas no tienen las obligaciones de los Gobiernos, pero sus efectos son de un tipo que les obliga a evaluar el mismo tipo de cuestiones sobre la protección del derecho de sus usuarios a la libertad de expresión" (A/74/486, párrafo 41).

Asimismo, el Grupo de Trabajo sobre empresas y derechos humanos de la ONU expresó que "puesto que el riesgo de violaciones graves de los derechos humanos es mayor en zonas afectadas por conflictos", el grado de diligencia debida de las empresas "debería aumentarse en consecuencia" ( A/75/212, párrafo 13). En un informe de 2024 sobre el conflicto entre Israel y Gaza, la Relatora Especial de la ONU sobre la libertad de expresión señaló que las plataformas fallan constantemente en cuanto a cumplir con esta responsabilidad y puso hincapié en los riesgos elevados que conlleva la información errónea y la desinformación en dichas situaciones ( A/79/319, párrafos 60, 66). En el conflicto entre Israel e Irán, las interrupciones de internet tuvieron un profundo impacto en el acceso de la población civil a la información sobre el tema, lo que creó un vacío que el contenido multimedia generado con IA llenó con rapidez (consulta PC-31545 WITNESS).

Hay un conjunto sólido de herramientas a disposición de Meta para mitigar los daños potenciales del contenido generado con IA en sus plataformas. Este caso muestra que la detección y el etiquetado deben implementarse de forma más coherente, frecuente y efectiva a fin de evitar la probabilidad de daños a los usuarios en un futuro cercano, en especial en situaciones de conflicto donde el riesgo es mucho mayor. Para respaldar esta iniciativa, es necesario contar con los verificadores de datos independientes adecuados y con orientación para priorizar el contenido que se genera durante conflictos, así como realizar inversiones en medidas de aplicación de políticas precisas contra comportamientos abusivos en el nivel de la cuenta y de la página.

I. Legalidad (claridad y accesibilidad de las reglas)

El principio de legalidad exige que las reglas que limitan la expresión sean accesibles y claras, y estén formuladas con precisión suficiente para que una persona pueda regular su comportamiento de conformidad con ellas (observación general n.º 34, párrafo 25). Asimismo, estas reglas "no pueden conferir a los encargados de su aplicación una discrecionalidad sin trabas para restringir la libertad de expresión" y deben "proporcionar suficientes orientaciones a los encargados de su ejecución para que puedan distinguir cuáles expresiones pueden restringirse correctamente y cuáles no" (ibidem). El Relator Especial de la ONU sobre la libertad de expresión dijo que, cuando se aplican a la gobernanza del discurso online por parte de actores privados, las reglas deben ser claras y específicas (A/HRC/38/35, párrafo 46). Las personas que usan las plataformas de Meta deben ser capaces de acceder a las reglas y entenderlas, y los revisores de contenido deben tener pautas claras para su aplicación.

La norma comunitaria sobre información errónea debe proporcionar mayor claridad a los usuarios y aquellos que aplican las reglas.

La explicación general que indica que Meta colabora con terceros para identificar tendencias engañosas no deja claro que la aplicación de políticas dependa enteramente de que los socios comuniquen a Meta sus inquietudes. En lugar de aclarar esto, se garantiza una enfoque diferente, por los motivos que se detallan debajo.

La única descripción pública detallada de las tres etiquetas de contenido multimedia manipulado que usa Meta se encuentra en las decisiones del Consejo. El Consejo reitera su recomendación de que Meta describa de forma exhaustiva en qué constan estas tres etiquetas que aplica, los criterios de aplicación y sus consecuencias ( Imágenes de una protesta acompañadas por cánticos a favor de Duterte). Asimismo, señala que este enfoque debe evolucionar.

Además, la política de contenido multimedia manipulado no describe públicamente las penalizaciones que "pueden" aplicarse si un usuario no avisa que usa IA. Meta explicó al Consejo que estas penalizaciones solo se aplican en la etapa de escalamiento en respuesta a reiteradas fallas y puede afectar a la distribución del contenido o generar una suspensión temporal de ciertas funciones de las cuentas. Según parece, Meta ejerce amplia discreción en esta área, y se les debería proporcionar a los usuarios información más clara.

Si se incluyeran más detalles respecto de la procedencia del contenido, el etiquetado y el aviso de uso de IA en la norma comunitaria sobre información errónea, se generaría confusión, ya que se mezclarían las iniciativas para mitigar el engaño con medidas positivas para promover la integridad de la información. No todo el uso de contenido generado con IA o todas las aplicaciones de etiquetas serán en respuesta a un intento de engaño. Si se definieran estas reglas en una norma comunitaria independiente, se aclararía el enfoque de Meta y mejoraría el comportamiento de los usuarios.

II. Fin legítimo

Toda restricción sobre la libertad de expresión debe procurar uno o más de los fines legítimos mencionados en el ICCPR, entre ellos, proteger la seguridad y los derechos de los demás.

En el caso Video alterado del presidente Biden, el Consejo enfatizó que "evitar que se engañe a las personas no es en sí un motivo legítimo para restringir la libertad de expresión". Sin embargo, la norma comunitaria sobre información errónea también apunta a mitigar el riesgo de violencia o daño físico inminente contra las personas, que es un fin legítimo con respecto a los derechos de los demás ( observación general n.º 34, párrafo 28).

III. Necesidad y proporcionalidad

El principio de necesidad y proporcionalidad previsto en el artículo 19(3) del ICCPR exige que las restricciones que se apliquen a la expresión "deben ser adecuadas para desempeñar su función protectora; deben ser el instrumento menos perturbador de los que permitan conseguir el resultado deseado; y deben guardar proporción con el interés que debe protegerse" (observación general n.º 34, párrafo 34).

La Relatora Especial de la ONU sobre la libertad de expresión indicó que "durante los conflictos armados, las personas se encuentran en su momento más vulnerable y con la mayor necesidad de información precisa y fiable para lograr su propia seguridad y bienestar. Sin embargo, es precisamente en esas situaciones cuando su libertad de opinión y de expresión […] se ve más limitada por las circunstancias de la guerra y por la actuación de las partes en el conflicto y otros actores que intentan manipular y restringir la información con fines políticos, militares y estratégicos" ( A/77/288, párrafo 1).

La Relatora Especial destacó también que "las empresas disponen de instrumentos para tratar el contenido de manera que se respeten los derechos humanos, en algunos aspectos una gama de instrumentos más amplia de la que disponen los Estados. Esta gama de opciones les permite adaptar sus respuestas a contenidos problemáticos específicos, según su gravedad y otros factores" ( A/74/486, párrafo 51).

Al evaluar la necesidad y proporcionalidad de medidas potenciales, el Consejo consideró lo siguiente: (a) que la página se representó de forma engañosa como un canal de noticias confiable; (b) que el contenido se relacionaba de manera directa con un conflicto armado en curso; (c) la vulnerabilidad de la población civil que busca información verificada en medio de ese conflicto; (d) la rápida difusión bien documentada de contenido generado con IA engañoso durante este conflicto (consultar PC-31528 Alan Turing Institute); (e) la distribución en diversas plataformas de contenido similar o casi idéntico; y (f) los incentivos de interacción y monetización que surgen al generar contenido multimedia manipulado durante conflictos.

El Consejo considera que colocar la etiqueta "IA de alto riesgo" para contenido multimedia manipulado en este caso hubiera cumplido sus requisitos de necesidad y proporcionalidad, y le preocupa que Meta no lo haya hecho. Esta medida sería mucho menos invasiva que la eliminación, dada la poca probabilidad de que el engaño condujera a daños inminentes. En la actualidad, dicho etiquetado sería informativo y no provocaría que se degradara o eliminara el contenido de las recomendaciones. Meta mostraría una ventana emergente a los usuarios que intenten compartir el contenido con esta etiqueta. La etiqueta reduciría el impacto del engaño en los usuarios que buscan información precisa online sobre el conflicto.

Casos anteriores del Consejo ratifican que la difusión de contenido multimedia manipulado sin una etiqueta puede erosionar la confianza en la autenticidad del contenido en la plataforma de manera más general. Esto ocurre particularmente durante un conflicto armado, donde el contenido multimedia manipulado que plasma infracciones a la ley humanitaria internacional podría menoscabar la confianza en estos marcos legales y las protecciones que ofrecen a la población civil. Para cumplir con sus responsabilidades con los derechos humanos, Meta debería haber remitido la revisión del contenido, sin recurrir a partes externas, para etiquetarlo de inmediato.

Los mecanismos actuales para agregar incluso la etiqueta estándar "Información de IA" al video (mediante aviso por parte del usuario o tras escalamiento al equipo de políticas de contenido) no son lo suficientemente sólidos o exhaustivos para competir con el alcance y la velocidad del contenido generado con IA, en particular durante una crisis o un conflicto en los que aumenta la interacción en la plataforma. El Consejo señala que un sistema que depende excesivamente de que se indique que se usó IA y de que el contenido se revise en la etapa de escalamiento (cosa que no ocurre a menudo) para poder etiquetar dicho contenido no aborda los desafíos que surgen en el entorno actual.

Algunos miembros señalaron que la definición de Meta de "violencia o daño físico inminente" no incluye los diferentes niveles de impacto, menos directo pero grave, en la sociedad que podría tener el contenido generado con IA engañoso durante un conflicto armado. Podría, por ejemplo, perjudicar el acceso a información creíble necesaria para responsabilizar a agentes del Gobierno y otras partes, lo que aumentaría la vulnerabilidad de la población a la manipulación y daría pie a otras formas de influencia engañosa. Para estos miembros del Consejo, etiquetar "contenido multimedia manipulado" sin degradarlo o eliminarlo de las recomendaciones no es suficiente para abordar esas inquietudes. Sofocar el alcance de dicho contenido durante momentos de alto riesgo, como un conflicto armado, sería una intervención necesaria y proporcionada. El Consejo reconoce que, si los verificadores de datos independientes hubieran calificado este contenido como "falso", ese también habría sido el resultado.

En todo el sector hay importantes desafíos técnicos para garantizar que se etiquete de forma precisa y coherente el contenido generado con IA. Meta le explicó al Consejo que emplea indicadores estándar del sector, es decir, metadatos que las herramientas de IA generativa suelen incorporar en el contenido, para etiquetar de forma automática imágenes estáticas. No obstante, no todas las herramientas de IA generativa actualmente incorporan los metadatos necesarios para aplicar una etiqueta. Incluso si una herramienta incorpora los metadatos, los usuarios pueden quitarlos fácilmente del contenido antes de compartirlo en medios sociales. Los limitados mecanismos de Meta pueden reflejar estos desafíos actuales. Sin embargo, es responsabilidad de la empresa responder de forma proactiva a tecnología que evoluciona rápido. Este problema trasciende el contenido engañoso, ya que estas limitaciones obstruyen la capacidad de los usuarios de verificar la autenticidad de toda la información. Estos obstáculos solo se intensificarán si el volumen y la calidad de los videos y audios generados con IA siguen yendo un paso por delante de las herramientas de detección y etiquetado disponibles. El Consejo recomienda firmemente a Meta que priorice perfeccionar sus mecanismos de detección y etiquetado para capturar mejor todas las formas de contenido multimedia generado con IA en sus plataformas, a fin de informar adecuadamente a los usuarios cuando es posible que estén interactuando con contenido de esta naturaleza y garantizar que se haga hincapié en los tipos de contenido que suponen el mayor riesgo.

El Consejo reconoce la presencia de Meta en el comité directivo de la C2PA. La C2PA declara que, como la difusión de información se transforma con rapidez, es fundamental rastrear la procedencia del contenido multimedia. Brinda una norma técnica clara para establecer el origen del contenido digital y las modificaciones a las que se somete. Los reportes que señalan que Meta no implementa las normas de la C2PA de forma coherente, incluso en contenido generado con IA mediante sus propias herramientas, son preocupantes. Un estudio reciente demostró que, tras una inspección mediante herramientas de la C2PA, solo una parte de las imágenes y los videos generados con las herramientas de IA de Meta proporcionaban credenciales de contenido y estaban correctamente etiquetados.

El contenido del caso parece haberse originado fuera de las plataformas de Meta, en TikTok, antes de que se volviera a compartir en las plataformas. De hecho, aparecieron publicaciones similares en Facebook, Instagram y X, pese al reporte de la AFP sobre la falsedad de contenido similar. Los comentarios del público hicieron énfasis en la necesidad de una colaboración más sólida entre plataformas durante períodos de conflictos armados, a fin de reducir la velocidad con que se propaga el contenido generado con IA engañoso.

Como se detalla anteriormente, el protocolo de la política de crisis y las designaciones de eventos populares deberían haberle permitido a Meta garantizar que se les brinde a los verificadores de datos independientes un respaldo más efectivo durante esta crisis. En particular, extender las calificaciones a una categoría más amplia de videos muy similares podría haber limitado en gran medida el daño potencial, incluido mediante la degradación. Este caso pone de manifiesto la ineficacia del enfoque actual de Meta durante conflictos armados, que se suma a las inquietudes que el Consejo planteó en casos anteriores en diferentes contextos ( Imágenes de una protesta acompañadas por cánticos a favor de Duterte).

6. Decisión del Consejo asesor de contenido

El Consejo anuló la decisión de Meta de conservar el contenido sin la etiqueta "IA de alto riesgo".

7. Recomendaciones

A. Política de contenido

Información errónea

  1. Para garantizar una ágil revisión de información errónea que genera riesgos inminentes de violencia o daños físicos durante una crisis, Meta debe modificar la norma comunitaria sobre información errónea para garantizar que la aplicación de esta regla no dependa de señales de socios externos. El protocolo de la política de crisis debería contar con una medida que permita asignar recursos para una detección oportuna y proactiva de dicho contenido infractor, respaldada por conocimientos internos, a fin de identificar y revisar contenido, y tomar medidas al respecto, en virtud de la política (incluidos aplicar etiquetas conforme a la política de contenido multimedia manipulado e investigar cuentas y páginas que muestren indicios de interacción fraudulenta).

El Consejo considerará implementada esta recomendación cuando Meta actualice su política de información errónea para reflejar estos requisitos en la categoría de violencia y daños físicos.

Contenido generado con IA

2. Para fomentar la confianza en la información en las plataformas de Meta, Meta debe crear una norma comunitaria que rija el contenido generado con IA y que sea independiente de la norma comunitaria sobre información errónea. La nueva norma comunitaria debe proporcionar detalles exhaustivos sobre la preservación de la procedencia (es decir, capturar datos objetivos sobre el historial de un elemento de contenido digital), protocolos de etiquetado de IA y reglas respecto del aviso de uso de IA.

El Consejo considerará implementada esta recomendación cuando Meta publique una nueva norma comunitaria específicamente sobre contenido generado con IA.

3. Para aumentar la claridad de sus reglas, Meta debe publicar una explicación clara de las penalizaciones que se aplican al no avisar que el contenido se creó o alteró digitalmente. Debe proporcionar criterios para aplicar las penalizaciones y enumerar qué funciones de la cuenta se limitan en consecuencia y por cuánto tiempo.

El Consejo considerará implementada esta recomendación cuando Meta actualice la norma comunitaria para incluir detalles de dichas penalizaciones y ponga a disposición las pautas revisadas en su Centro de transparencia.

B. Aplicación de políticas

Procedencia

4. Para garantizar que los usuarios puedan identificar con confianza el contenido generado con IA, Meta debe implementar credenciales de contenido (conforme se estipula en la Coalition for Content Provenance and Authenticity) a gran escala y asegurarse de que estas se vean con claridad y los usuarios puedan acceder a ellas cada vez que hay detalles de procedencia disponibles. La procedencia no debe ser un factor que se detecte únicamente de forma interna o se limite a sistemas backend.

El Consejo considerará implementada esta recomendación cuando Meta brinde un informe que explique los cambios realizados a sus plataformas y productos a fin de garantizar que las credenciales de contenido se muestren con claridad y coherencia a los usuarios si están disponibles.

Detección y etiquetado

5. Para mejorar la precisión de la detección y el etiquetado, Meta debe invertir en herramientas de detección más eficaces para contenido generado con IA en varios formatos (audio, audiovisual e imagen). Los equipos de escalamiento deben contar con herramientas para identificar tendencias de contenido de IA generativa, incluidos posibles daños en torno al contenido engañoso durante situaciones de crisis.

El Consejo considerará implementada esta recomendación cuando la empresa confirme que se adoptaron herramientas más eficaces y comparta datos de transparencia en relación con el rendimiento de estas herramientas. Estos hallazgos deben desglosarse por idioma y país, y si se activó el protocolo de la política de crisis. Estos datos deben reflejar períodos de tiempo comparables antes y después de la introducción de estos cambios.

6. Para garantizar un etiquetado más preciso, Meta debe incluir información de procedencia y marcas de agua invisibles en el contenido creado con las herramientas de Meta AI, de modo que se pueda detectar y etiquetar de forma coherente en las diversas plataformas. Esto debe incluir aplicar las credenciales de contenido en el punto de creación y atribuir al mismo tiempo indicadores estándar del sector a todo el contenido generado por Meta AI.

El Consejo considerará implementada esta recomendación cuando la empresa le comparta un informe sobre cómo Meta AI agrega y preserva de forma consistente datos de procedencia y marcas de agua invisibles en el contenido que se comparte en la plataforma.

7. Para emplear las etiquetas "Alto riesgo" e "IA de alto riesgo" en contenido engañoso de manera más consistente, Meta debe desarrollar vías para agregar dichas etiquetas al contenido con mucha más frecuencia, con el respaldo de canales de escalamiento más claros de sistemas automatizados y revisión a gran escala, de modo que haya un volumen mucho mayor de etiquetado.

El Consejo considerará implementada esta recomendación cuando haya nuevas vías de escalamiento para agregar dichas etiquetas al contenido y Meta le informe respecto del volumen de estas etiquetas agregadas en 2026, por trimestre. La ausencia de un denominador (es decir, el volumen total de contenido no etiquetado que no alcanza este umbral) no debería constituir obstáculo alguno para brindar esta información al Consejo.

* Nota de procedimiento:

  • La preparación de las decisiones del Consejo asesor de contenido está a cargo de paneles conformados por cinco miembros, quienes deben aprobarlas por mayoría. Las decisiones del Consejo no necesariamente representan las opiniones de todos los miembros.
  • En virtud de su acta constitutiva, el Consejo asesor de contenido tiene la facultad de revisar apelaciones de usuarios cuyo contenido fue eliminado por Meta, apelaciones de usuarios que reportaron contenido que Meta mantuvo publicado y decisiones que Meta le presente (artículo 2, sección 1, del acta constitutiva). El Consejo tiene autoridad vinculante para ratificar o anular las decisiones sobre contenido de Meta (artículo 3, sección 5, y artículo 4 del acta constitutiva). El Consejo podrá emitir recomendaciones no vinculantes a las que Meta deberá responder (artículo 3, sección 4, y artículo 4). Cuando Meta se compromete a tomar medidas respecto de las recomendaciones, el Consejo supervisa su implementación.
  • En cuanto a la decisión del caso, se encargó una investigación independiente en nombre del Consejo. El Consejo recibió asistencia de Duco Advisors, una empresa asesora dedicada a la intersección de geopolítica, confianza, seguridad y tecnología.

Volver a Decisiones de casos y opiniones consultivas sobre políticas