OVERTURNED
Presunto audio de incitación a manipular las elecciones en el Kurdistán iraquí
24 de junio de 2025
El Consejo asesor de contenido anuló la decisión de Meta de no etiquetar un clip de audio probablemente manipulado de dos políticos kurdos iraquíes en el que hablaban sobre manipular las elecciones parlamentarias, menos de dos semanas antes de la apertura de las votaciones sumamente reñidas.
.بۆ خوێندنەوەی ئەم بەیانە بە شێوەزاری کوردی سۆرانی، تکایە لێرە کرتە بکە
Para leer este comunicado en kurdo sorani, haz clic aquí.
Resumen
El Consejo asesor de contenido anuló la decisión de Meta de no etiquetar un clip de audio probablemente manipulado de dos políticos kurdos iraquíes en el que hablaban sobre manipular las elecciones parlamentarias, menos de dos semanas antes de la apertura de las votaciones, en unas elecciones sumamente controversiales y polarizadas. El Consejo exige que Meta etiquete el contenido.
Al Consejo le preocupa que, pese a la creciente prevalencia de contenido manipulado en diversos formatos, la aplicación de la política de contenido multimedia manipulado de Meta no sea coherente. La empresa debe priorizar la inversión en tecnología para identificar y etiquetar audios y videos manipulados a gran escala de modo que los usuarios estén debidamente informados.
Como ocurre en este caso, Meta no aplicó automáticamente una etiqueta a todas las instancias del mismo contenido multimedia manipulado, lo que resulta incoherente y no tiene justificación alguna.
Asimismo, Meta debería crear etiquetas para el contenido multimedia manipulado en el idioma local ya disponible en su plataforma. Esta medida debería, como mínimo, formar parte de las iniciativas de integridad electoral de Meta.
Información sobre el caso
Menos de dos semanas antes de las elecciones parlamentarias del Kurdistán iraquí, en octubre de 2024, un popular medio de comunicación afiliado a uno de los principales partidos políticos de la región, el Partido Demócrata del Kurdistán (KDP), compartió un clip de audio de dos minutos en su página de Facebook. La descripción de la publicación, escrita en kurdo sorani, aduce que el audio es una "conversación grabada" entre dos hermanos, Bafel y Qubad Talabani, miembros del otro partido político principal de la región, la Unión Patriótica del Kurdistán (PUK), sobre sus "planes siniestros" de manipular las elecciones de octubre de 2024. En el audio, dos hombres hablan con una voz en off en inglés (con subtítulos en kurdo sorani e inglés). Uno de los hombres afirma que se garantizó un "mínimo de 30 escaños" a la PUK, pero que deben "deshacerse" de los "11 escaños" que el KDP presuntamente "siempre usa a su favor". El otro hombre está de acuerdo y destaca la necesidad de que parezca que esos escaños se ganaron legítimamente, ya que las personas están al tanto, aunque no pueden probar, que la PUK cuenta con el respaldo de Baghdad y su "vecino". La página de Facebook del medio de comunicación tiene aproximadamente 4.000.000 de seguidores. La publicación se visualizó unas 200.000 veces.
Dos usuarios reportaron el contenido como información errónea, pero Meta cerró los reportes sin hacer una revisión. Luego de que uno de esos usuarios apelara a Meta, la empresa sostuvo su decisión en función de la puntuación de un clasificador. El usuario entonces presentó una apelación ante el Consejo asesor de contenido.
Meta identificó otras dos publicaciones que incluían el clip de audio en las páginas de Facebook e Instagram del mismo medio de comunicación y en la página de Facebook del KDP. Tras solicitar a un medio de comunicación con sede fuera del Kurdistán iraquí y a un socio de confianza que revisen el audio para verificar si existe la posibilidad de que se haya creado digitalmente, Meta etiquetó algunas de las publicaciones, pero no el contenido en este caso. La etiqueta aplicada a otras publicaciones con el mismo audio indica lo siguiente: "Este contenido podría haberse creado o alterado digitalmente para que parezca real".
Conclusiones principales
Cuando se trata de identificar contenido creado o manipulado con IA en sus plataformas, Meta le explicó al Consejo que solo puede identificar y etiquetar de forma automática imágenes estáticas, no contenido de audio o video. Dados los conocimientos y recursos de la empresa y el uso generalizado de sus plataformas, Meta debe priorizar la inversión en tecnología para identificar y etiquetar audios y videos manipulados a gran escala.
Meta no empleó las herramientas de las que dispone para aplicar automáticamente la etiqueta "Información de IA" a todas las instancias del mismo contenido multimedia manipulado, lo que resulta incoherente y no tiene justificación alguna. En el caso "Video alterado del presidente Biden", Meta se comprometió a implementar la recomendación del Consejo que indica que, respecto del contenido multimedia manipulado que no infringe otras Normas comunitarias, la empresa debe aplicar una etiqueta a "todas las instancias idénticas de ese contenido multimedia en la plataforma". La declaración de Meta en este caso, que indica que no aplica automáticamente la etiqueta "Alto riesgo" al contenido que incluye el audio, contradice esta recomendación. "Información de IA" y "Alto riesgo" son etiquetas informativas que Meta tiene para el contenido multimedia manipulado.
El Consejo manifiesta que hay indicadores confiables, incluidas las señales técnicas, que indican que el clip se creó digitalmente. Cumple con los requisitos de contenido multimedia manipulado de la política de información errónea de Meta. Colocarle la etiqueta "Alto riesgo" es coherente con las políticas y las responsabilidades en materia de derechos humanos de Meta. El audio se publicó durante un período electoral muy controvertido en una región con un historial de elecciones irregulares. Esto incrementa las posibilidades de que el audio influya en las decisiones electorales y dañe la integridad de las elecciones. Si, en lugar de eliminar el contenido, se le coloca una etiqueta informativa en este caso, se satisfacen los requisitos de necesidad y proporcionalidad.
Al Consejo le preocupa que las etiquetas de contenido multimedia manipulado de Meta no estén en kurdo sorani, pese a que este es uno de los idiomas en la app disponibles para los usuarios de Facebook. Para garantizar que los usuarios sepan cuándo el contenido se creó o alteró digitalmente, poner la etiqueta a disposición en el idioma local ya disponible en las plataformas de Meta debe, como mínimo, formar parte de sus iniciativas de integridad electoral.
Al Consejo le preocupa también que Meta recurra a terceros para que realicen una evaluación técnica de contenido posiblemente manipulado. Meta debe reconsiderar poner a disposición de sus equipos internos estos conocimientos.
El Consejo señala que el problema en este caso reside en si el audio es real o falso, no si lo que se dice en él es verdad. Dado que etiquetar el audio como contenido probablemente creado o alterado digitalmente, de un modo similar, alertaría a los usuarios respecto de su precisión, el Consejo considera una medida suficiente que se aplique la política de información errónea al contenido multimedia manipulado. No obstante, al Consejo le preocupa que Meta no cuente con verificadores de datos en idioma kurdo para que revisen contenido durante las elecciones como parte de sus medidas de integridad de las elecciones.
Decisión del Consejo asesor de contenido
El Consejo asesor de contenido anuló la decisión de Meta de no etiquetar el contenido y exigió que se etiquetara la publicación.
Asimismo, el Consejo le recomendó a Meta:
- Aplicar una etiqueta relevante a todo el contenido que tenga el mismo material multimedia manipulado, incluidas todas las publicaciones que incluyan el audio manipulado en este caso.
- Garantizar que las etiquetas informativas para contenido multimedia manipulado en Facebook, Instagram y Threads se muestren en el mismo idioma que el usuario haya elegido para su plataforma.
* Los resúmenes de casos ofrecen información general sobre los casos y no sientan precedentes.
Decisión del caso completa
1. Descripción y contexto del caso
Menos de dos semanas antes de que se llevaran a cabo las elecciones parlamentarias del Kurdistán iraquí, en octubre de 2024, un popular un medio de comunicación afiliado al Partido Demócrata del Kurdistán (KDP) compartió un clip de audio de dos minutos en su página de Facebook. La descripción de la publicación, escrita en kurdo sorani, aduce que el audio es una "conversación grabada" entre dos hermanos, Bafel y Qubad Talabani, miembros del partido político Unión Patriótica del Kurdistán (PUK), sobre sus "planes siniestros" de manipular las elecciones de octubre de 2024. En el audio, dos hombres hablan con una voz en off en inglés (con subtítulos en kurdo sorani e inglés). Uno de ellos le confirma al otro que se garantizó un "mínimo de 30 escaños" a su partido, pero que deben "deshacerse" de los "11 escaños" que el KDP presuntamente "siempre usa a su favor". De este modo, el KDP "probaría un sorbo de su propia medicina", según la persona que habla. Su interlocutor está de acuerdo y destaca la necesidad de que parezca que esos escaños se ganaron legítimamente, ya que las personas están al tanto, aunque no pueden probar, que ellos cuentan con el respaldo de Baghdad y su "vecino". La página de Facebook del medio de comunicación tiene aproximadamente 4.000.000 de seguidores. La publicación se visualizó unas 200.000 veces y se compartió menos de 100 veces.
Un usuario reportó la publicación el mismo día en que se publicó, conforme a la norma comunitaria sobre información errónea de Meta. Sin embargo, el reporte no se priorizó para revisión manual, y Meta lo cerró automáticamente y conservó la publicación en Facebook sin tomar otras medidas. El sistema HERO (High Risk Early Review Operations) de Meta también identificó el contenido en este caso para que se sometiera a otra revisión basándose en señales que indicaban que tenía probabilidad de volverse viral. El reporte se cerró luego sin someterse a revisión manual porque, según Meta, la "viralidad no era lo suficientemente alta para enviarlo a la etapa de revisión". Poco después, otro usuario reportó el contenido como información errónea, pero Meta también cerró este reporte. El segundo usuario apeló a Meta, y la empresa sostuvo su decisión en función de la puntuación de un clasificador. El usuario entonces apeló la decisión de Meta ante el Consejo asesor de contenido. Un día después, Meta identificó otras publicaciones que incluían el clip de audio en las páginas de Facebook e Instagram del mismo medio de comunicación que compartió la publicación en este caso, así como en la página de Facebook del KDP. Conforme a una asociación forjada en 2024, el equipo de políticas de contenido de Meta envió entonces estas publicaciones a un medio de comunicación para que este analizara las probabilidades de que el contenido incluido en ellas se hubiera generado con IA. Un socio de confianza también brindó aportes sobre las señales técnicas y contextuales para determinar si el contenido se generó con IA. Tras estas consultas, Meta decidió etiquetar algunas publicaciones que incluían el clip de audio, pero no el contenido en este caso. La etiqueta aplicada a otras publicaciones con el mismo audio indica lo siguiente: "Este contenido podría haberse creado o alterado digitalmente para que parezca real". El Programa de socios de confianza es una red de ONG, organismos humanitarios e investigadores de los derechos humanos de 113 países que reportan contenido y proporcionan comentarios a Meta sobre sus políticas de contenido y su aplicación.
El Consejo destacó el siguiente contexto en cuanto a la decisión que tomó.
El KDP y la PUK son los principales partidos políticos del Kurdistán iraquí. Cada uno cuenta con sus propias fuerzas de seguridad. La extensa rivalidad que existe entre ellos culminó en una guerra civil que duró desde 1994 hasta 1998. Eventualmente, los partidos llegaron a un frágil acuerdo para compartir el poder que mitigó temporalmente el conflicto. No obstante, en años recientes, se renovaron e intensificaron las tensiones, lo que condujo a años de demora en las elecciones que finalmente se realizaron en octubre de 2024.
La mayoría de los medios de comunicación del Kurdistán iraquí tienen " afiliación directa" con los partidos políticos, y estos o sus líderes los financian. Esto conduce a informes periodísticos partidistas. Tanto los expertos a los que consultó el Consejo como los informes públicos indican que el medio de comunicación que publicó el contenido en este caso está afiliado al KDP, que lo financia, y carece de independencia editorial.
Facebook es la tercera plataforma más usada en Irak. El uso de campañas de desinformación coordinadas es una práctica habitual durante los procesos políticos kurdos, como las elecciones parlamentarias de 2018. "Shadow media", una red de páginas de medios sociales afiliadas a partidos políticos y figuras políticas influyentes, presuntamente intentó influir en la opinión pública de cara a las elecciones de octubre de 2024 en favor de sus patrocinadores, que incluyen figuras clave de los dos partidos.
El 20 de octubre de 2024, el KDP ganó la mayoría de los escaños parlamentarios en las elecciones. La PUK quedó segunda. Masrour Barzani, del KDP, es el actual primer ministro. Qubad Talabani, de la PUK (presuntamente uno de los que hablan en el audio), es el actual primer ministro adjunto.
2.Respuestas de los usuarios
El usuario que reportó el contenido ante el Consejo indicó que el audio fue generado con IA, se compartió durante una campaña electoral "controversial" y se estaba usando para "dañar la reputación de un partido".
El medio de comunicación que lo publicó también emitió una declaración ante el Consejo en la que explicaba que compartió el audio como parte de su cobertura periodística, "sin ofrecer opiniones o comentarios sobre este en sí", sino más bien "simplemente como un informe periodístico local". Afirmó que el objetivo era publicar noticias "precisas". El medio señaló que un partido político publicó el audio y que "muchos partidos comparten videos de esta naturaleza con regularidad".
3. Respuestas y políticas de contenido de Meta
I. Políticas de contenido de Meta
Norma comunitaria sobre información errónea
La norma comunitaria sobreinformación errónea de Meta rige la moderación de contenido multimedia manipulado en sus plataformas. En el caso del contenido que no infringe la sección "No publicar" de la norma comunitaria, la política se centra en "reducir su prevalencia" o "crear un ambiente que genere un diálogo productivo". Para cumplir con este fin, Meta puede colocarle una etiqueta informativa por encima, o rechazarlo si se envía como un anuncio, cuando el contenido es una imagen, un video o un audio que parece real, que se creó o alteró digitalmente y genera un "riesgo particularmente alto de engañar de manera sustancial al público en un asunto de importancia pública".
II. Respuestas de Meta
Meta tiene tres etiquetas informativas diferentes para el contenido multimedia manipulado: (i) "Información de IA", (ii) "Alto riesgo" y (iii) "IA de alto riesgo".
La etiqueta "Información de IA" se aplica de manera automática al contenido que Meta detecta por medio de "indicadores de imágenes con IA estándar del sector o cuando las personas confirman haber estado subiendo contenido generado con IA". Meta informó anteriormente al Consejo que, para detectar indicadores de imágenes estándar del sector, la empresa recurre a "metadatos que las herramientas de creación con IA generativa insertan en el contenido". No obstante, en este momento, la detección automática y la etiqueta "Información de IA" no se aplican a contenido de audio o video. En dichos casos, Meta recurre a los usuarios para que indiquen si están subiendo contenido generado con IA.
La etiqueta "Alto riesgo" se aplica a contenido creado o alterado digitalmente, mientras que la etiqueta "IA de alto riesgo" se aplica a contenido generado con IA, según las pautas de aplicación de políticas internas. Ambas etiquetas se aplican a contenido de imagen, audio y video que reúne todos los siguientes requisitos: (i) crea un riesgo particularmente alto de engañar de forma sustancial al público en asuntos de importancia pública; (ii) muestra indicadores confiables de que fue creado o alterado digitalmente; (iii) la etiqueta "IA de alto riesgo" además le exige que cuente con indicadores confiables que confirmen que se creó o alteró con IA. La etiqueta adherida a una publicación varía según si es "Alto riesgo" o "IA de alto riesgo". La etiqueta "Alto riesgo" indica que "este contenido podría haberse creado o alterado digitalmente para que parezca real", mientras que la etiqueta "IA de alto riesgo" indica que "este contenido se creó o alteró digitalmente con IA para que parezca real" (énfasis agregado). Ambas etiquetas de "alto riesgo" vienen con un enlace para "obtener más información" que dirige al usuario a este artículo. Según Meta, con dos etiquetas diferentes, la empresa puede proporcionar a los usuarios información más precisa sobre qué tan probable es que el contenido esté manipulado y el método que se usó para crearlo o alterarlo. Cuando la empresa tiene menos certeza sobre si el contenido se creó digitalmente, adhiere la etiqueta "Alto riesgo" para alertar a los usuarios de que podría haberse creado o alterado de manera digital. La etiqueta adherida a una publicación suele estar de forma predeterminada en el idioma que configuró el usuario en la plataforma, pero Meta manifestó que no traduce la etiqueta al kurdo (aunque los usuarios pueden configurar el idioma predeterminado a dos variedades del kurdo, incluido el kurdo sorani).
Meta expresó que colocar una etiqueta informativa, ya sea "Información de IA" o una de las de "alto riesgo", no conduce a que se degrade el contenido o se elimine de las recomendaciones. Meta puede mostrar una ventana emergente a los usuarios que hacen clic en el contenido para volver a compartirlo con la etiqueta "Alto riesgo". Cuando los usuarios intenten volver a compartir una imagen o un video relacionado con la etiqueta "Alto riesgo" en Facebook, Instagram o Threads, recibirán un aviso que los alertará de que el contenido puede haberse creado o alterado digitalmente. Sin embargo, esta opción no está disponible cuando las publicaciones se comparten en Instagram Stories o Facebook Reels, como en este caso.
Luego de que los equipos internos de Meta identificaran las tres publicaciones con el mismo clip de audio, las enviaron a un medio de comunicación para que las revise y determine si se podrían haber creado digitalmente. Asimismo, Meta solicitó a un socio de confianza que evaluara la autenticidad del audio. Meta también consideró otros factores específicos del Kurdistán iraquí, como el breve intervalo entre la fecha en que se compartió el audio y la fecha de las próximas elecciones, la falta de verificadores de datos en idioma kurdo en el Kurdistán iraquí, los comentarios que indicaban que algunos usuarios no consideraban el audio como manipulado y la detección por parte de clasificadores internos de Meta de otras instancias del audio que potencialmente se estaban viralizando. En función de estas consideraciones, Meta colocó la etiqueta "Alto riesgo" en las publicaciones con el mismo audio que la empresa detectó y evaluó, pero no en el contenido en este caso. La empresa explicó que no aplicó la etiqueta a todas las publicaciones que incluían el audio para evitar etiquetar erróneamente contenido que no reunía los requisitos para ello, como publicaciones que desacreditan o condenan el audio. Para Meta, etiquetar todas las instancias del audio podría confundir a los usuarios.
Como parte de sus iniciativas de integridad en las elecciones de octubre de 2024, Meta informó al Consejo haber realizado búsquedas focalizadas diarias de infracciones relacionadas con discurso hostil e injerencia electoral, supervisión de anuncios políticos y controles de suplantación de identidad y acoso a candidatos a cargos políticos. Además, Meta señaló que conformó un equipo interfuncional con conocimientos lingüísticos y contextuales para evaluar los riesgos en la plataforma e implementar medidas de mitigación adecuadas antes de las elecciones del 20 de octubre de 2024 y en el transcurso de estas. Así es como se identificaron las tres publicaciones virales que incluían el audio, independientes del contenido del caso. Un clasificador interno determinó que las tres tenían potencial de viralización, con más de 1,5 millones de visualizaciones combinadas.
El Consejo planteó preguntas sobre lo siguiente: las etiquetas que aplica Meta al contenido multimedia manipulado; el proceso para identificar dicho contenido y cuándo Meta aplica automáticamente una etiqueta a contenido similar o idéntico; si el contenido se sometió a verificación de datos; y las iniciativas de integridad de las elecciones de Meta en el Kurdistán iraquí. Meta respondió todas las preguntas.
4. Comentarios del público
El Consejo asesor de contenido recibió dos comentarios del público que cumplieron las condiciones de presentación. Un comentario procedía de Oriente Medio y África septentrional, y otro de Asia central y meridional. Para leer los comentarios del público enviados con consentimiento de publicación, haz clic aquí.
Los comentarios abarcaban los siguientes temas: la autenticidad del clip de audio; la prevalencia de la propaganda durante las elecciones en el Kurdistán iraquí; y la libertad de prensa en la región.
5. Análisis del Consejo asesor de contenido
El Consejo seleccionó este caso para abordar cómo Meta garantiza la libertad de expresión mientras gestiona el contenido multimedia manipulado que se comparte en el contexto de un proceso electoral. Este caso se enmarca dentro de la prioridad estratégica del Consejo en materia de elecciones y espacio cívico.
El Consejo analizó la decisión de Meta en este caso respecto de sus políticas de contenido, valores y responsabilidades en materia de derechos humanos. Asimismo, el Consejo evaluó las implicaciones de este caso para el enfoque más general de Meta en cuanto a la gobernanza de contenido.
5.1 Cumplimiento de las políticas de contenido de Meta
Reglas de contenido
Norma comunitaria sobre información errónea
Para el Consejo, el contenido del caso cumple con los requisitos de contenido multimedia manipulado de la política de información errónea de Meta. Por ende, se le debería haber aplicado la etiqueta "Alto riesgo".
La publicación se relaciona con un asunto de importancia pública en la región, es decir, las elecciones en el Kurdistán iraquí. El contenido supone un alto riesgo de engaño para el público tanto nacional como internacional. La voz en off en inglés va dirigida al personal diplomático en la región o a observadores internacionales, y los subtítulos en kurdo sorani hacen que el contenido sea accesible para los votantes. El contenido se visualizó unas 200.000 y se compartió justo antes de las elecciones. Hay indicadores confiables de que el contenido se creó o alteró con medios digitales. Las fuentes a las que recurrió Meta lo confirmaron al evaluar la autenticidad del audio. Entre ellas, se encontraban un socio de confianza y un medio de comunicación fuera del Kurdistán iraquí en los que Meta confió para que evaluaran si el contenido se había creado o alterado digitalmente. Estas fuentes destacaron la naturaleza forzada de la conversación y la falta de ritmo conversacional. También notaron señales técnicas que indicaban que el audio probablemente se había creado digitalmente. Estas señales incluían audio de fondo incoherente, así como calificaciones de las herramientas de detección de IA. Se obtuvo la aprobación de los equipos internos de Meta para colocar la etiqueta "Alto riesgo" en el audio subyacente en otras publicaciones que lo incluían, pero no en el contenido del caso. Por ende, se debería haber aplicado a dicho contenido la etiqueta "Alto riesgo", que indica que podría haberse creado o alterado digitalmente. Para el Consejo, la explicación de Meta sobre por qué la empresa no aplicó la etiqueta a todo el contenido que incluía el mismo audio no fue convincente. El análisis respecto de los argumentos de Meta y las conclusiones del Consejo sobre la aplicación de la etiqueta a todo el contenido con el mismo material multimedia manipulado se incluyen en la sección de análisis sobre derechos humanos que figura debajo.
5.2 Cumplimiento de las responsabilidades de Meta en materia de derechos humanos
El Consejo considera que, si se hace una interpretación correcta de las políticas de Meta, se debe colocar la etiqueta "Alto riesgo" en el contenido. Conforme al análisis del artículo 19 del Pacto Internacional de Derechos Civiles y Políticos (ICCPR) a continuación, aplicar la etiqueta al contenido en este caso, así como a todas las instancias del clip de audio, también es coherente con las responsabilidades de Meta en materia de derechos humanos.
Libertad de expresión (artículo 19 del ICCPR)
El artículo 19 del ICCPR prevé una amplia protección de la expresión, en especial, la expresión política ( observación general n.º 34, párrafos 11 y 12). El Comité de Derechos Humanos de las Naciones Unidas destaca que el valor de expresión es particularmente alto cuando se debaten asuntos políticos (observación general n.º 34, párrafos 11 y 13). Si un Estado impone restricciones sobre la libertad de expresión, estas deben cumplir los requisitos de legalidad, fin legítimo y necesidad y proporcionalidad (artículo 19, párrafo 3, ICCPR). Se suele hacer referencia a estos requisitos como "prueba de tres partes". El Consejo utiliza este marco para interpretar las responsabilidades de Meta en materia de derechos humanos en línea con los Principios Rectores sobre las Empresas y los Derechos Humanos de las Naciones Unidas, que Meta se comprometió a cumplir en su Política corporativa de derechos humanos. El Consejo lo hace tanto respecto de la decisión sobre el contenido en particular en revisión como de lo que esto pone de manifiesto acerca del enfoque más amplio de Meta en relación con la gestión del contenido. Como indicó el Relator Especial de la ONU sobre libertad de expresión, "las empresas no tienen las obligaciones de los Gobiernos, pero sus efectos son de un tipo que les obliga a evaluar el mismo tipo de cuestiones sobre la protección del derecho de sus usuarios a la libertad de expresión" (A/74/486, párrafo 41).
El Comité de Derechos Humanos de la ONU destacó que la libertad de expresión es fundamental para los asuntos públicos y el ejercicio efectivo del derecho de voto (observación general n.º 34, párrafo 20); consulta también la observación general n.º 25, párrafos 12 y 25). Al mismo tiempo, varios Relatores Especiales y grupos de trabajo de la ONU realizaron una declaración conjunta en 2024 que reza: "Si bien el discurso político disfruta de una sólida protección conforme a la ley internacional, en ocasiones los políticos abusan de la libertad y la emplean como una licencia para participar en discursos tóxicos y difundir información errónea, incluido en relación con los resultados electorales y la integridad de las elecciones. Las campañas difamatorias coordinadas y el uso de deepfakes en medios sociales son particularmente alarmantes, ya que se convirtieron en poderosas herramientas para manipular elecciones, incluido por parte de actores extranjeros que buscan interferir en procesos electorales transfronterizos" (consulta también el informe de la Relatora Especial de la ONU, A/HRC/47/25, párrafo 18, sobre cómo los políticos y medios de comunicación tradicionales propagan la desinformación; informe del Relator Especial de la ONU sobre la realización del derecho a la libertad de opinión y de expresión en contextos electorales, A/HRC/26/30).
El Consejo señaló que el audio se publicó durante un período electoral muy controvertido en una región con un historial de elecciones ensombrecidas por irregulares. Esto incrementa la posibilidad de que el audio influya en las decisiones electorales y dañe la integridad de las elecciones. Tal como lo indica el informe de la Relatora Especial de la ONU, las plataformas de medios sociales ejercen una influencia particularmente poderosa en la integridad electoral (A/HRC/47/25, párrafo 16). En opinión del Consejo, dados los hallazgos de expertos independientes de la ONU respecto de la omnipresencia de la desinformación electoral en todo el mundo, las responsabilidades de Meta en materia de derechos humanos requiere tomar las medidas adecuadas para mitigar sus efectos adversos. Si dichas medidas de mitigación limitan el derecho a la libertad de expresión de los usuarios, estas deben cumplir los requisitos de la prueba de tres partes conforme al artículo 19(3) del ICCPR.
I. Legalidad (claridad y accesibilidad de las reglas)
El principio de legalidad exige que las reglas que limitan la expresión sean accesibles y claras, y estén formuladas con precisión suficiente para que una persona pueda regular su comportamiento de conformidad con ellas (observación general n.º 34, párrafo 25). Asimismo, estas reglas "no pueden conferir a los encargados de su aplicación una discrecionalidad sin trabas para restringir la libertad de expresión" y deben "proporcionar suficientes orientaciones a los encargados de su ejecución para que puedan distinguir cuáles expresiones pueden restringirse correctamente y cuáles no" (ibidem). El Relator Especial sobre la libertad de expresión de la ONU dijo que, cuando se aplican a la gobernanza del discurso online por parte de actores privados, las reglas deben ser claras y específicas (A/HRC/38/35, párrafo 46). Las personas que usan las plataformas de Meta deben ser capaces de acceder a las reglas y entenderlas, y los revisores de contenido deben tener pautas claras para su aplicación.
El Consejo considera que la política de información errónea en relación con contenido multimedia manipulado resulta suficientemente clara conforme se aplica al contenido en este caso. El texto público de la política claramente informa a los usuarios sobre las reglas aplicables y las consecuencias que conlleva publicar dicho contenido en las plataformas de Meta (es decir, colocar una etiqueta informativa) cuando este no infringe otras Normas comunitarias. No obstante, Meta debería considerar integrar la información sobre todas las diferentes etiquetas de contenido multimedia manipulado en una página en el Centro de transparencia, de modo que los usuarios puedan obtener más detalles al respecto fácilmente.
II.Fin legítimo
Cualquier restricción sobre la libertad de expresión debe procurar uno o más de los fines legítimos mencionados en el ICCPR, entre ellos, proteger los derechos de los demás (artículo 19, párrafo 3, ICCPR). En el caso Video alterado del presidente Biden, el Consejo sostuvo que proteger el derecho a participar en asuntos públicos (artículo 25 del ICCPR) constituye un fin legítimo.
III.Necesidad y proporcionalidad
El principio de necesidad y proporcionalidad previsto en el artículo 19(3) del ICCPR exige que las restricciones que se apliquen a la expresión "deben ser adecuadas para desempeñar su función protectora; deben ser el instrumento menos perturbador de los que permitan conseguir el resultado deseado; y deben guardar proporción con el interés que debe protegerse" (observación general n.º 34, párrafo 34).
El Relator Especial sobre la promoción y protección del derecho a la libertad de opinión y de expresión señaló ( A/74/486, párrafo 51) que "las empresas disponen de instrumentos para tratar el contenido de manera que se respeten los derechos humanos, en algunos aspectos una gama de instrumentos más amplia de la que disponen los Estados". En este sentido, el Consejo considera que, si se coloca una etiqueta informativa al contenido en este caso (como la etiqueta "Alto riesgo"), en lugar de eliminarlo, se satisfacen los requisitos de necesidad y proporcionalidad. Para determinar la necesidad y proporcionalidad de esta medida, el Consejo tuvo en cuenta los siguientes factores: a) la publicación del contenido cerca de las elecciones; b) el historial de desinformación e información errónea durante elecciones anteriores; c) la naturaleza polarizada del entorno político; d) el control político sobre los medios de comunicación en la región, es decir, la fuente de la información; e) la probabilidad de que el contenido multimedia incluido en la publicación esté alterado, conforme lo indican dos evaluaciones independientes; y f) la probabilidad de que el contenido multimedia alterado digitalmente confunda a los votantes e influya en ellos.
El derecho de acceso a la información y el derecho a votar se vinculan de manera intrínseca, se refuerzan mutuamente y constituyen elementos de democracia. En la Declaración conjunta de 2009 del Relator especial de las Naciones Unidas sobre la promoción y protección del derecho a la libertad de opinión y de expresión, el representante de la Organización para la Seguridad y la Cooperación en Europa en materia de libertad de los medios, la relatora especial de la Organización de los Estados Americanos sobre la libertad de expresión y la relatora especial de la Comisión Africana de Derechos Humanos y de los Pueblos sobre libertad de expresión y acceso a la información, se destaca que "las elecciones libres y transparentes solo son posibles cuando el electorado se encuentra debidamente informado y tiene acceso a información pluralista y suficiente". Colocar una etiqueta informativa en el contenido es la medida menos invasiva que informaría a los usuarios acerca de la posibilidad de que el clip de audio se haya creado digitalmente, lo que mitigaría los riesgos de confundir al público de cara a unas elecciones sumamente controversiales y polarizadas. Al aplicar la etiqueta "Alto riesgo", Meta indica a los usuarios que el contenido puede haberse creado digitalmente y proporciona pautas sobre cómo evaluarlo sin decidir sobre la veracidad de la información que podría influir en las elecciones. El Consejo hace hincapié, además, en el entorno partidista de los medios de comunicación, tanto tradicionales como medios sociales, en el Kurdistán iraquí (consulta PC-31199, Centre for Advanced Studies in Cyber Law and Artificial Intelligence). Conservar el contenido sin una etiqueta repercute de manera negativa en los usuarios, ya que carecerán de información y no podrán participar en el debate político en un ecosistema de por sí débil para la libertad expresión.
La consistencia y coherencia de la interferencia en la expresión (es decir, etiquetado) exige que se aplique la etiqueta a todas las instancias del audio. En el caso Video alterado del presidente Biden, el Consejo recomendó que, respecto del contenido multimedia manipulado que no infringe otras Normas comunitarias, la empresa debería aplicar una etiqueta a "todas las instancias idénticas de ese contenido multimedia en la plataforma". El Consejo reconoce el compromiso de Meta con la implementación de esta recomendación. Aplicar la etiqueta a todas las instancias del audio en cuestión en este caso sería coherente con dicho compromiso. La declaración de Meta en este caso, que indica que no aplica automáticamente la etiqueta "Alto riesgo" al contenido que incluye el audio, contradice esta recomendación.
Cabe recordar que las etiquetas no degradan el contenido ni evitan que se recomiende. Asimismo, la inquietud de Meta respecto de confundir a los usuarios si se etiqueta erróneamente contenido que desacredita o condena el audio no es convincente ni cuenta con evidencia que la respalde. Por el contrario, no aplicar la etiqueta a todas las instancias del audio incrementa las posibilidades de engañar y confundir al público. El Consejo señala que algunos usuarios comentaron en la publicación del medio de comunicación que creían que el audio era real. Según Meta, la empresa aplicó una etiqueta a otras publicaciones del mismo medio de comunicación que también incluían ese audio. Si se etiquetan algunas publicaciones del mismo medio de comunicación, pero no todas, es probable que se confunda, o peor aún, que se engañe incluso más a los usuarios. Como manifestó el Consejo en la decisión del caso Video alterado del presidente Biden, aplicar una etiqueta a una pequeña parte del contenido " podría crear la falsa impresión de que el contenido no etiquetado es inherentemente confiable". Al Consejo le preocupa que Meta aplique la etiqueta de forma selectiva en el período previo a unas elecciones sumamente controversiales y polarizadas. No obstante, el Consejo no está convencido de la necesidad de que haya dos etiquetas de "alto riesgo" independientes, una que indique que el contenido puede estar manipulado y la otra, que lo está. Meta debe reevaluar si esta complejidad agregada persigue alguna finalidad útil.
Al Consejo le preocupa también que las etiquetas de contenido multimedia manipulado de Meta no estén disponibles en kurdo sorani, que es uno de los idiomas del contenido del caso (es decir, los subtítulos están en este idioma). El Consejo señala que el kurdo sorani es uno de los idiomas en la app disponibles para los usuarios de Facebook. Sin embargo, los usuarios que tengan configurado de forma predeterminada el idioma como kurdo sorani no podrán ver las etiquetas de IA, como "Alto riesgo", en este dialecto. En varias decisiones, el Consejo recomendó traducir las Normas comunitarias y aspectos de las pautas de aplicación de políticas internas de Meta a los idiomas que hablan sus usuarios. De este modo, se garantiza que los usuarios estén informados de las reglas y que haya así una aplicación de políticas precisa (consulta los casos Inquietud punyabí en torno a la RSS en la India, Bot de Birmania y Reapropiación de términos árabes). De manera similar, la etiqueta "Alto riesgo" tiene como fin informar al usuario que el contenido puede estar manipulado por medios digitales. Como mínimo, poner la etiqueta a disposición en el idioma local ya disponible en las plataformas de Meta debería formar parte de sus iniciativas de integridad electoral.
El Consejo manifiesta que el problema en este caso tiene que ver con la autenticidad del audio, independientemente de la precisión de las denuncias que se realizaron en el caso. Dado que etiquetar el audio como contenido probablemente creado o alterado digitalmente, de un modo similar, alertaría a los usuarios respecto de su precisión, el Consejo considera una medida suficiente que se aplique la política de información errónea al contenido multimedia manipulado. No obstante, al Consejo le preocupa que Meta no cuente con verificadores de datos en idioma kurdo para que revisen contenido durante las elecciones como parte de sus medidas de integridad de las elecciones. Esto ocurre especialmente en el contexto de un entorno político altamente polarizado, medios de comunicación independientes limitados y un historial de desinformación electoral y campañas de desinformación coordinadas.
Aplicación de políticas
Al Consejo le preocupa tanto la aplicación limitada e incoherente de la política de contenido multimedia manipulado de Meta como que la empresa recurra a terceros para que realicen la evaluación técnica de contenido que es probable que se haya manipulado. En la decisión del caso Video alterado del presidente Biden, Meta le explicó al Consejo que "los videos que implican discurso se consideran los más engañosos y son los más fáciles de detectar de manera confiable". En ese caso, el Consejo señaló a Meta que "el contenido solo de audio puede incluir menos indicios de poca autenticidad y, por ende, ser tanto o más engañoso que el contenido de video". Por consiguiente, el Consejo sugirió a Meta no centrarse en fotos, o imágenes estáticas, sino que la prioridad sea identificar audios y videos manipulados. No obstante, cuando se trata de identificar contenido creado o manipulado con IA en sus plataformas, Meta explicó que solo puede identificar y etiquetar de forma automática imágenes estáticas, no contenido de video o audio. Si se aplica la etiqueta "Información de IA" a contenido de audio o video, la empresa depende de los usuarios para que le informen si se usa o no IA. Dado que Meta es una de las empresas de IA y tecnología líderes del mundo, con los recursos de los que dispone y el uso generalizado de sus plataformas, el Consejo reiteró que Meta debe priorizar la inversión en tecnología que permita identificar y etiquetar audios y videos manipulados a gran escala. Asimismo, en cuanto al contenido que la empresa ya identificó y evaluó como probablemente manipulado y que "crea un riesgo particularmente alto de engañar de forma sustancial al público en un asunto de importancia pública", que Meta no haya desplegado las herramientas que tiene para aplicar de manera automática la etiqueta a todo el contenido que incluye el material manipulado se considera incoherente e injustificado.
Por último, Meta debe reconsiderar la viabilidad de contar con pericia interna para evaluar si el contenido se manipuló o no. Al Consejo no le queda claro por qué una empresa con tantos conocimientos técnicos y recursos contrata a medios de comunicación externos y socios de confianza para que identifiquen contenido multimedia probablemente manipulado en situaciones de alto riesgo.
6. Decisión del Consejo asesor de contenido
El Consejo asesor de contenido anuló la decisión de Meta de no etiquetar el contenido y exigió que se etiquetara la publicación.
7. Recomendaciones
Aplicación de políticas
1. Para garantizar que las etiquetas de "alto riesgo" se apliquen con coherencia a todo el contenido manipulado idéntico o similar, Meta debe aplicar la etiqueta relevante a todo el contenido que incluya el mismo material manipulado en sus plataformas, incluidas todas las publicaciones que incluyan el audio manipulado en este caso.
El Consejo considerará implementada esta recomendación cuando Meta le proporcione un proceso claro para identificar y aplicar de manera coherente la etiqueta "Alto riesgo" adecuada a todas las instancias de contenido multimedia manipulado en la plataforma.
2. Como parte de sus iniciativas de integridad electoral y con el fin de garantizar que los usuarios sepan que circula contenido multimedia manipulado en las plataformas de Meta en el período previo a las elecciones, Meta debe asegurarse de que las etiquetas informativas para contenido multimedia manipulado en Facebook, Instagram y Threads se muestren en el mismo idioma que el usuario eligió para su plataforma.
El Consejo considerará implementada esta recomendación cuando Meta brinde información en el Centro de transparencia sobre los idiomas en los que las etiquetas de contenido multimedia manipulado están disponibles para los usuarios de sus plataformas.
* Nota de procedimiento:
- La preparación de las decisiones del Consejo asesor de contenido está a cargo de paneles conformados por cinco miembros, quienes deben aprobarlas por mayoría. Las decisiones del Consejo no necesariamente representan las opiniones de todos los miembros.
- En virtud de su acta constitutiva, el Consejo asesor de contenido tiene la facultad de revisar apelaciones de usuarios cuyo contenido fue eliminado por Meta, apelaciones de usuarios que reportaron contenido que Meta mantuvo publicado y decisiones que Meta le presente (artículo 2, sección 1, del acta constitutiva). El Consejo tiene autoridad vinculante para ratificar o anular las decisiones sobre contenido de Meta (artículo 3, sección 5, y artículo 4 del acta constitutiva). El Consejo podrá emitir recomendaciones no vinculantes a las que Meta deberá responder (artículo 3, sección 4, y artículo 4). Cuando Meta se compromete a tomar medidas respecto de las recomendaciones, el Consejo supervisa su implementación.
- En cuanto a la decisión del caso, se encargó una investigación independiente en nombre del Consejo. El Consejo recibió asistencia de Duco Advisors, una empresa asesora dedicada a la intersección de geopolítica, confianza, seguridad y tecnología.
- Lionbridge Technologies, LLC, con especialistas en más de 350 idiomas que trabajan en 5.000 ciudades diferentes, se encargó de las competencias en materia lingüística.
Volver a Decisiones de casos y opiniones consultivas sobre políticas