El Consejo asesor de contenido ratificó la decisión de Meta en el caso "Video alterado del presidente Biden".

El Consejo asesor de contenido ratificó la decisión de Meta de conservar un video que se editó para que parezca que el presidente de los Estados Unidos Joe Biden toca de manera inapropiada el pecho de su nieta adulta, cuya descripción lo denomina "pedófilo". La publicación de Facebook no infringe la política de contenido multimedia manipulado, que se aplica solo a videos creados con inteligencia artificial (IA) y a contenido que muestra personas diciendo cosas que no dijeron. Dado que el video de esta publicación no se alteró con IA y muestra al presidente Biden haciendo algo que no hizo (no algo no dijo), no infringe la política existente. Asimismo, es evidente que este clip de video se alteró y, por lo tanto, es improbable que el "usuario promedio" confíe en su autenticidad, que, según Meta, es una característica clave de los archivos multimedia manipulados. No obstante, al Consejo le preocupa la política de contenido multimedia manipulado, tal como está ahora, ya que la considera incoherente, carente de una justificación persuasiva y con un enfoque erróneo en cómo se creó el contenido, en lugar de apuntar a qué daños específicos busca prevenir (por ejemplo, en procesos electorales). Meta debe reconsiderar esta política con rapidez, dada la cantidad de elecciones que se celebrarán en 2024.

Información Sobre el Caso

En mayo de 2023, un usuario de Facebook publicó un clip de video de siete segundos, basado en una grabación real del presidente Biden realizada en octubre de 2022, cuando fue a votar en persona durante las elecciones intermedias de los Estados Unidos. En el video original, intercambia stickers "Yo voté" con su nieta adulta, quien acudía a votar por primera vez, le coloca el sticker sobre el pecho, según ella se lo indica, y la besa en la mejilla. En el clip de video, publicado poco más de seis meses después, la grabación se alteró para reproducir en bucle el momento en que el presidente coloca la mano sobre el pecho de su nieta, de modo que parezca que la toca de forma inapropiada. La música del video alterado incluye la letra "Girls rub on your titties" (Chicas, frótense las tetas), de la canción "Simon Says" de Pharoahe Monch, mientras que la descripción de la publicación afirma que el presidente Biden es un "pedófilo enfermo" y describe a quienes votaron por él como "mal de la cabeza". Otras publicaciones con el mismo clip de video alterado, pero con música y descripción diferentes, se hicieron virales en enero de 2023.

Otro usuario reportó la publicación a Meta como lenguaje que incita al odio, pero la empresa cerró automáticamente el caso sin realizar una revisión. Luego, el usuario apeló la decisión de Meta y un revisor decidió que el contenido no infringía las normas, por lo que conservó la publicación. Por último, el usuario apeló al Consejo.

Conclusiones principales

El Consejo está de acuerdo con Meta en que el contenido no infringe la política de contenido multimedia manipulado de la empresa porque el clip no muestra al presidente Biden diciendo cosas que no dijo ni se alteró con IA. La política actual solo prohíbe los videos editados que muestran a personas diciendo palabras que no dijeron (no hay una disposición respecto de personas que hacen algo que no hicieron) y se aplica únicamente a los videos creados con IA. Según Meta, una característica clave del "contenido multimedia manipulado" es que puede llevar al usuario "promedio" a creer que es auténtico o no está alterado. En este caso, la reproducción en bucle de una escena en el video es obviamente una alteración.

Sin embargo, el Consejo considera que la política de contenido multimedia manipulado de Meta carece de justificación persuasiva, es incoherente y confusa para los usuarios, y no especifica con claridad los daños que pretende prevenir. En resumen, se debería reconsiderar esta política.

No basta con que solo se aplique a contenido de video, contenido alterado o generado mediante IA, y contenido que hace que parezca que una persona dice algo que no dijo. Meta debe ampliar la política para que abarque audio, así como contenido que muestra a personas haciendo cosas que no hicieron. Además, al Consejo no le convence la lógica de que dichas reglas dependan de las medidas técnicas que se emplean para crear el contenido. Los expertos a los que consultó el Consejo y los comentarios del público ampliamente concuerdan en que prevalece el contenido no alterado mediante IA, que no necesariamente es menos engañoso, por ejemplo, la mayoría de los teléfonos tienen funciones para editar contenido. Por ello, la política no debería abordar las "deep fakes" de un modo diferente del contenido alterado por otros medios (por ejemplo, "cheap fakes").

El Consejo reconoce que Meta puede aplicar medidas necesarias y proporcionadas para prevenir daños offline ocasionados por contenido multimedia manipulado, lo que incluye proteger el derecho a votar y a participar en asuntos públicos. No obstante, la política actual no aclara específicamente los daños que intenta prevenir. Meta debe brindar mayor claridad sobre cuáles son dichos daños y realizar revisiones con rapidez, dada la cantidad récord de elecciones en 2024.

En este momento, la política también genera inquietudes respecto de la legalidad. Actualmente, Meta publica esta política en dos espacios: como política independiente y como parte de la norma comunitaria sobre información errónea. Ambos espacios difieren en cuanto al fundamento y la redacción operativa exacta. Se deben aclarar estas diferencias y se deben corregir los errores que haya.

Al mismo tiempo, el Consejo considera que, en la mayoría de los casos, Meta podría prevenir el daño ocasionado a los usuarios que resultan engañados respecto de la autenticidad del contenido de audio o audiovisual, pero con medios menos restrictivos que la eliminación del contenido. Por ejemplo, la empresa podría incluir etiquetas en el contenido engañoso para informar a los usuarios que este sufrió alteraciones significativas, a fin de proporcionar contexto respecto de su autenticidad. Meta ya usa etiquetas como parte de su programa de verificación de datos externo, pero si se tomara dicha medida para aplicar esta política, debería hacerse sin recurrir a verificadores de datos externos y en toda la plataforma.

Decisión del Consejo asesor de contenido

El Consejo asesor de contenido ratificó la decisión de Meta de conservar la publicación.

El Consejo recomienda que Meta lleve a cabo estas acciones:

  • Reconsiderar el alcance de su política de contenido multimedia manipulado para que abarque contenido de audio y audiovisual, contenido que muestra personas haciendo cosas que no hicieron (así como diciendo cosas que no dijeron) y contenido, independientemente de cómo se creó o alteró.
  • Definir con claridad en una política unificada de contenido multimedia manipulado los daños que busca prevenir, más allá del engaño a los usuarios, como prevenir la interferencia con el derecho a votar o a participar en asuntos públicos.
  • Dejar de eliminar contenido multimedia manipulado si no se evidencia ninguna infracción de otras políticas y, en lugar de ello, aplicar una etiqueta que indique que el contenido se modificó de manera significativa y podría resultar engañoso. Dicha etiqueta debe colocarse en el contenido multimedia (por ejemplo, en la parte inferior de un video), no en toda la publicación, y se debe aplicar a todas las instancias idénticas de ese contenido multimedia en las plataformas de Meta.

Más información

Para leer la decisión completa del caso, haz clic aquí.

Para leer una sinopsis de los comentarios del público sobre el caso, haz clic aquí.

Volver a Noticias