El Consejo abordará los contenidos generados por IA sobre el conflicto entre Israel e Irán
18 de noviembre de 2025
El día de hoy, el Consejo anuncia un nuevo caso para considerar. Como parte de esto, invitamos a personas y organizaciones a enviar comentarios públicos utilizando el botón de abajo.
Selección de casos
Como no podemos atender todas las apelaciones, el Consejo prioriza los casos que tienen el potencial de afectar a una gran cantidad de usuarios alrededor del mundo, los casos que son de suma importancia para el discurso público o los que plantean preguntas importantes respecto a las políticas de Meta.
El caso que anunciamos el día de hoy es el siguiente:
Video generado por IA sobre el conflicto entre Israel e Irán
2026-004-FB-UA
Apelación del usuario
Envíe un comentario público utilizando el botón de abajo
Para leer este anuncio en hebreo, haga clic aquí.
.לקריאת הודעה זו בעברית, יש ללחוץ כאן
Para leer este anuncio en farsi, haga clic aquí.
.برای خواندن این اطلاعیه به زبان فارسی، در اینجا کلیک کنید
El 15 de junio de 2025, un usuario de Facebook publicó en una página que se identificaba como una fuente de noticias un video de 13 segundos que mostraba presuntos daños en edificios de Haifa, Israel, durante el conflicto de 12 días (del 13 al 25 de junio de 2025) entre Israel e Irán. El texto en inglés superpuesto en el video decía “En vivo ahora en Haifa” con la fecha de publicación. El video parecía ser el mismo que uno identificado por verificadores de datos independientes como generado por IA y, según se informa, proviene de TikTok. Un texto en inglés mencionaba frases con estilo de titular relacionadas con el conflicto, así como hashtags y términos inconexos, sin seguir una narrativa clara. Entre estas frases, se incluye una sobre un “gran ataque” de Irán contra Israel y que el gabinete de guerra israelí se encontraba en un búnker, así como referencias a una gran cantidad de misiles, el derribo de aviones, figuras políticas mundiales, conflictos en curso, como el de Gaza, un acuerdo nuclear, incendios forestales y hashtags para desbloquear cuentas. También se mencionaban fuentes de noticias israelíes que advertían sobre un ataque inminente. La publicación fue vista más de 700.000 veces.
Seis usuarios denunciaron el contenido un total de nueve veces por terrorismo, violencia, fraude y estafa. Sin embargo, las denuncias no recibieron prioridad para revisión manual. El mismo día en el que se publicó el contenido, un clasificador de Meta, que consideró que el contenido incluía información errónea, reportó la publicación a verificadores de datos externos. Los verificadores de datos externos no calificaron el contenido.
Uno de los usuarios denunciantes apeló ante el Consejo la decisión de Meta de mantener el contenido en la plataforma. Meta le confirmó al Consejo que, en su opinión, la publicación no infringía la Norma comunitaria de información errónea, ya que no “implicaba de forma directa un riesgo de daño físico inminente” ni “implicaba de forma directa una interferencia en el funcionamiento de los procesos políticos”. Sin embargo, dado que el Consejo seleccionó el caso, Meta desactivó tres cuentas relacionadas con la página debido a señales de abuso de participación y falta de autenticidad, por lo que la página y el contenido dejaron de estar disponibles en la plataforma. No obstante, el Consejo decidió continuar con el caso debido a sus implicaciones en cuestiones y prácticas importantes relacionadas con la política y su aplicación.
El Consejo seleccionó este caso para abordar el problema de moderar el contenido potencialmente generado por IA que pueda socavar la integridad de la información y mermar la confianza pública en el contexto de los conflictos armados. Este caso constituye una oportunidad para evaluar la moderación manual y automatizada de Meta del contenido generado por IA, también en situaciones de conflicto. También le permitirá al Consejo investigar las mejores formas de abordar dicho material en el entorno informativo, respetando al mismo tiempo la libertad de expresión y el acceso a la información en situaciones de conflicto.
Este caso se enmarca en las áreas de Situaciones de crisis y conflicto y Aplicación automatizada de políticas y selección de contenido de las prioridades estratégicas del Consejo. El Consejo agradecería comentarios públicos que aborden lo siguiente:
- El papel que desempeñó la información errónea o desinformación generada por IA en el conflicto entre Israel e Irán de junio de 2025, incluso en los medios de comunicación y el discurso público.
- Investigación sobre la prevalencia y el impacto de la información errónea o desinformación generada por IA en las plataformas de redes sociales en general, y en particular durante los conflictos armados, y los incentivos y las motivaciones para la creación y el intercambio de dicho contenido.
- Los desafíos para detectar, etiquetar o verificar de manera precisa los contenidos generados por IA, en particular en el contexto de las campañas coordinadas de información errónea o desinformación, y la eficacia de las respuestas en cuanto a política, producto y aplicación.
- Las responsabilidades en materia de derechos humanos de las empresas de redes sociales para abordar cualquier impacto negativo de las tergiversaciones generadas por IA, especialmente durante los conflictos armados, en el entorno informativo, respetando al mismo tiempo la libertad de expresión y garantizando el acceso de los usuarios a la información.
En sus decisiones, el Consejo puede emitir recomendaciones de políticas a Meta. Aunque las recomendaciones no son vinculantes, Meta debe responder a ellas en un plazo de 60 días. Por ello, el Consejo agradece los comentarios públicos que propongan recomendaciones pertinentes para este caso.
Comentarios públicos
Si usted o su organización consideran que pueden aportar perspectivas valiosas que ayuden a tomar una decisión sobre el caso anunciado hoy, pueden enviar sus contribuciones utilizando el siguiente botón. Tenga en cuenta que los comentarios públicos pueden realizarse de manera anónima. El plazo para enviar comentarios públicos es de 14 días y finalizará el martes 2 de diciembre a las 23:59, hora estándar del Pacífico (PST).
Próximos pasos
En las próximas semanas, los Miembros del Consejo deliberarán sobre este caso. Una vez que hayan tomado una decisión, la publicaremos en la página de Decisiones.