El Consejo pide nuevas reglas sobre la IA engañosa en conflictos
10 de marzo de 2026
Al analizar la propagación de contenido generado por IA en conflictos armados en un caso sobre la guerra entre Israel e Irán de 2025, el Consejo asesor de contenido pide a Meta que tome más medidas para permitir que los usuarios puedan identificar ese tipo de contenido. Su enfoque para mostrar contenido generado por IA debe evolucionar. Esto incluye proporcionar detalles a gran escala sobre el origen de los medios, con base en estándares de procedencia del contenido, invertir en herramientas de detección más sólidas y desarrollar mejores métodos para el etiquetado adecuado. Meta debe crear un nuevo conjunto de reglas independiente para garantizar que los usuarios puedan reconocer de forma confiable el contenido generado por IA. Además, debe modificar sus políticas actuales para garantizar una respuesta oportuna y adecuada al contenido engañoso generado por IA.
La empresa debe cumplir sus compromisos públicos y utilizar sus propias herramientas y otras disponibles en toda la industria para abordar de manera eficaz el contenido engañoso que se genera con IA y se difunde entre plataformas.
El Consejo anula la decisión de Meta de dejar la publicación en este caso sin una etiqueta de IA de alto riesgo.
Por qué esto es importante
El aumento en la cantidad y la calidad del contenido generado por IA tendrá un impacto profundo en las personas y las sociedades. Los riesgos aumentan cuando el contenido de medios sintéticos diseñado para engañar, manipular o aumentar la interacción se comparte durante conflictos y crisis, como en Irán y Venezuela en 2026, y se propaga rápidamente en las plataformas de distintas empresas. Durante esas dos crisis, surgieron afirmaciones de que el contenido engañoso generado por IA era auténtico y de que el contenido auténtico era fabricado. Esto aumenta la incapacidad del público para discernir la verdad, lo que ejemplifica el dividendo del mentiroso, y conduce a una desconfianza generalizada hacia toda la información. Las campañas de influencia impulsadas por IA constituyen un desafío creciente que se ha observado a nivel mundial en los últimos años, agravado en ecosistemas de medios e internet restrictivos que limitan el acceso a la información creíble. Sin embargo, el hecho de que el contenido generado por IA resulte engañoso no constituye por sí mismo una razón legítima para restringir la libertad de expresión. La industria necesita coherencia para ayudar a los usuarios a distinguir el contenido engañoso generado por IA, y las plataformas deben abordar las cuentas y páginas abusivas que comparten contenido de ese tipo.
Sobre los casos
La guerra entre Israel e Irán en junio de 2025 marcó un punto de inflexión, ya que la presencia de contenido engañoso generado con IA en las redes sociales pasó a conocerse como su propia “guerra blanda”. Se informó que ese contenido engañoso generó un enorme número de visualizaciones, y tanto el gobierno israelí como el iraní recibieron acusaciones de intentar influir mediante el uso de IA. El 15 de junio, dos días después del inicio del conflicto de 12 días entre Israel e Irán, un usuario publicó un video en una página de Facebook que afirmaba ser una fuente de noticias. El usuario que realizó la publicación se encontraba en Filipinas. El video mostraba grandes daños en edificios con un texto superpuesto en inglés que decía “En vivo ahora en Haifa hacia abajo” [sic], junto con la fecha de la publicación. El video era muy similar a uno que se originó en TikTok y que un verificador de datos independiente (Agence France-Presse) identificó como falso y generado por IA. Un texto en la publicación de Facebook incluía muchas frases con estilo de titular relacionadas con el conflicto, así como términos y hashtags no relacionados. La publicación recibió más de 700.000 visualizaciones, y varios comentarios señalaron que el contenido se había generado con IA.
Seis usuarios reportaron el caso a Meta, pero la empresa no lo sometió a revisión ni lo verificaron verificadores de datos externos. Un usuario apeló ante el Consejo. Después de que el Consejo seleccionó este caso, Meta confirmó que la publicación no infringía la Norma comunitaria de información errónea porque no “contribuía directamente al riesgo de daño físico inminente” y no requería una etiqueta de IA.
Las señales evidentes de engaño relacionadas con la publicación llevaron al Consejo a cuestionar a Meta sobre la identidad y el comportamiento de las cuentas vinculadas a la página. Posteriormente, la empresa deshabilitó tres cuentas vinculadas a la página por abuso de interacción y falta de autenticidad y eliminó la página y, con ella, el contenido del caso. La página había sido elegible para monetizar mediante el programa Stars de Meta.
Conclusiones clave
El Consejo concluye que el contenido representó un riesgo significativo de inducir a error al público sobre un asunto importante en un momento crítico, por lo que Meta debió aplicar una etiqueta de “IA de alto riesgo”. La publicación no alcanzó el umbral para su eliminación (representar un riesgo de violencia o daño físico inminente). Meta debe tomar más medidas para abordar la proliferación de contenido engañoso generado por IA en sus plataformas, incluido el que difunden redes no auténticas o abusivas de cuentas y páginas, especialmente en asuntos de interés público, para que los usuarios puedan distinguir entre lo real y lo falso.
El Consejo expresa preocupación por informes que indican que Meta implementa de manera inconsistente los estándares de la Coalición para la Procedencia y Autenticidad del Contenido (Coalition for Content Provenance and Authenticity, C2PA), incluso en contenido generado por sus propias herramientas de IA, y que solo una parte de ese contenido recibe el etiquetado adecuado. La C2PA establece estándares técnicos para incorporar información de procedencia como metadatos en el contenido, lo que permite a las plataformas identificar con mayor facilidad el contenido generado por IA y aplicar etiquetas para informar a los usuarios.
Los mecanismos actuales para colocar incluso la etiqueta estándar de Información de IA en videos (autodeclaración del usuario o una escalación al equipo de políticas de contenido) no son lo suficientemente sólidos ni completos como para hacer frente a la magnitud y la velocidad del contenido que se genera con IA, especialmente durante una crisis o un conflicto, situaciones en las que aumenta la interacción en la plataforma. Un sistema que depende en exceso de la autodeclaración del uso de IA y de la revisión detallada (que ocurre con poca frecuencia) para etiquetar correctamente ese contenido no puede responder a los desafíos que plantea el entorno actual. Algunos miembros del Consejo también señalaron que las etiquetas de IA de alto riesgo (para contenido que puede engañar a las personas sobre asuntos importantes) deben combinarse con la degradación o eliminación de las recomendaciones para abordar las preocupaciones sobre la ampliación del impacto del contenido engañoso.
El enfoque limitado de Meta para aplicar calificaciones a contenido idéntico o casi idéntico pudo haber provocado que esta publicación no recibiera una calificación de verificación de datos. Las limitaciones de recursos y el notable volumen de contenido dificultan que los verificadores de datos garanticen una revisión oportuna de todo el contenido engañoso, especialmente durante un conflicto o una crisis. El Consejo reitera que Meta debe garantizar que los verificadores de datos cuenten con recursos adecuados y dispongan de orientación para priorizar el contenido relacionado con conflictos. La designación del Protocolo sobre política de crisis (Crisis Policy Protocol, CPP) y de eventos en tendencia debería haber permitido a Meta garantizar un apoyo más eficaz para los verificadores de datos externos durante la crisis. La extensión de calificaciones a una categoría más amplia de videos muy similares podría haber limitado de forma significativa el daño potencial, incluso mediante su degradación. El caso pone de manifiesto las deficiencias en el enfoque actual de Meta durante los conflictos armados, lo que agrava las preocupaciones que el Consejo ha expresado anteriormente.
Resulta preocupante que, a pesar de la activación del CPP y de la asignación de recursos adicionales, Meta no identificara por iniciativa propia las claras señales de abuso de interacción provenientes de la página, y que solo investigara las cuentas detrás de ella en respuesta a las preguntas del Consejo. La aplicación precisa de las políticas basadas en el comportamiento podría haber prevenido los daños causados por estas cuentas que infringían las normas, en lugar de depender de medidas de mitigación posteriores basadas en el contenido que son propensas a presentar una alta tasa de fallos.
La decisión del Consejo asesor de contenido
El Consejo anula la decisión de Meta de mantener el contenido sin una etiqueta de IA de alto riesgo.
El Consejo recomienda que Meta haga lo siguiente:
- Cree una norma comunitaria para el contenido generado por IA, separada de la Norma comunitaria de información errónea, que establezca reglas integrales sobre preservación de procedencia, protocolos de etiquetado de IA y autodeclaración.
- Desarrolle mecanismos para colocar etiquetas de alto riesgo y de IA de alto riesgo en el contenido con mucha mayor frecuencia, con la asistencia de canales de escalación más claros desde los sistemas automatizados y mediante la revisión a gran escala, de modo que ese etiquetado pueda aplicarse en un volumen significativamente mayor.
- Adjunte información de procedencia y marcas de agua invisibles al contenido creado por las herramientas de IA de Meta, incluida la aplicación de credenciales de contenido (según lo establecido por la C2PA) en la creación.
- Implemente credenciales de contenido a gran escala y garantice que se muestren y permanezcan claramente visibles y accesibles siempre que haya detalles de procedencia disponibles.
- Invierta en herramientas de detección más sólidas para contenido generado por IA en múltiples formatos (audio, audiovisual e imagen).
- Publique una explicación clara de las sanciones por no declarar contenido creado o alterado digitalmente, incluidos los criterios para aplicar sanciones y las limitaciones resultantes.
- Modifique la Norma comunitaria de información errónea para garantizar que la revisión rápida de la información errónea que genere un riesgo directo de violencia o daño físico inminente no dependa únicamente de señales provenientes de socios externos. Un mecanismo del CPP debe asignar recursos para la detección oportuna y proactiva de ese contenido que infringe las normas, con el apoyo de experiencias y acciones internas, incluido el etiquetado y la investigación de las cuentas y páginas que realizan publicaciones.
Más información
Para leer los comentarios públicos sobre este caso, haga clic aquí.