El Consejo asesor de contenido anunció dos nuevos casos: "Video alterado del presidente Biden" y "Publicación sobre armas vinculada con el conflicto en Sudán".

El Consejo anunció hoy dos nuevos casos para su consideración. Como parte de este proceso, invitamos a las personas y organizaciones a enviar comentarios.

Selección de casos

Como no podemos atender todas las apelaciones, el Consejo prioriza los casos que podrían afectar a muchos usuarios de todo el mundo, que sean de suma relevancia para el discurso público o que planteen cuestiones importantes sobre las políticas de Meta.

Estos son los casos que anunciamos hoy:

Video alterado del presidente Biden

2023-029-FB-UA

Apelación del usuario para eliminar contenido de Facebook

Si quieres enviar comentarios del público, que pueden ser anónimos, haz clic aquí.

El 29 de octubre de 2022, día de las elecciones intermedias en los Estados Unidos, el presidente Biden fue personalmente a votar temprano acompañado por su nieta adulta, quien votaba por primera vez. Luego de votar, intercambiaron stickers "Yo voté". El presidente Biden colocó un sticker sobre el pecho de su nieta, tal como ella se lo indicó, y la besó en la mejilla. Ese momento quedó registrado en video.

En mayo de 2023, un usuario de Facebook publicó una versión alterada de siete segundos del clip. En las imágenes se repite en bucle el momento en que la mano del presidente Biden toca el pecho de su nieta. En el video alterado se oye un fragmento breve de la canción "Simon Says" de Pharoahe Monch, cuya letra dice "Girls rub on your titties" (Chicas, frótense los pechos). La descripción que acompaña al video indica que el presidente Biden es un "pedófilo enfermo" por tocar el pecho de su nieta de ese modo. También cuestiona a las personas que lo votaron diciendo que están "mal de la cabeza".

A pesar de que un usuario reportó el contenido a Meta, la empresa no lo eliminó. Dicho usuario presentó una apelación, y un revisor sostuvo la decisión de no eliminarlo. Para principios de septiembre de 2023, la publicación había tenido menos de 30 reproducciones y no se había compartido. Más tarde, el mismo usuario apeló ante el Consejo asesor de contenido argumentando que el video había sido manipulado.

Luego de que el Consejo seleccionara este caso, Meta confirmó que su decisión de dejarlo en la plataforma era correcta. De acuerdo con la evaluación que realizó Meta, la norma comunitaria sobre contenido multimedia manipulado no amparaba la eliminación del contenido porque solo se aplica a videos generados mediante inteligencia artificial o en los cuales se muestra a una persona diciendo cosas que no dijo. Meta determinó que las normas comunitarias sobre información errónea o bullying y acoso tampoco se aplicaban en este caso. Asimismo, el contenido no se sometió a la revisión de verificadores de datos independientes como parte del programa de verificación de datos de Meta, aunque Meta sí reconoce que circulan noticias que indican que el video había sido alterado.

El Consejo seleccionó este caso para evaluar si las políticas de Meta contemplan de forma adecuada los videos alterados que podrían conducir a las personas a creer erróneamente que los políticos hicieron algo, fuera del discurso, que no hicieron. Este caso recae dentro de las prioridades del Consejo respecto de elecciones y espacio cívico, y aplicación automática de políticas y selección de contenido.

Al Consejo le gustaría recibir comentarios del público sobre lo siguiente:

  • Investigación de tendencias online sobre el uso de contenido de video alterado o manipulado para influir en la percepción que se tiene de figuras políticas, en especial en los Estados Unidos.
  • La idoneidad de las políticas de información errónea de Meta, incluso de aquellas que rigen el contenido multimedia manipulado, para responder a desafíos presentes y futuros en esta área, en particular en el contexto de elecciones.
  • Las responsabilidades de Meta con los derechos humanos en lo que respecta a contenido de video alterado para crear una impresión engañosa de una figura pública y cómo deberían interpretarse teniendo en cuenta los desarrollos en materia de inteligencia artificial generativa.
  • Desafíos y prácticas recomendadas para la autenticación de contenido de video a gran escala, incluso mediante el uso de automatización.
  • Investigación sobre la eficacia de respuestas alternativas para abordar la información errónea o la desinformación en el ámbito político más allá de la eliminación del contenido, como programas de verificación de datos y etiquetado (también conocidos como "tratamientos informativos"). Por último, investigación sobre cómo evitar el sesgo en dichas respuestas.

Como parte de sus decisiones, el Consejo puede formular recomendaciones de políticas a Meta. Si bien estas recomendaciones no son vinculantes, Meta debe responder a ellas en un plazo de 60 días. El Consejo recibe comentarios del público con recomendaciones que sean relevantes para este caso.

Publicación sobre armas vinculada con el conflicto en Sudán

2023-028-FB-UA

Apelación del usuario para restaurar contenido en Facebook

Si quieres enviar comentarios del público, que pueden ser anónimos, haz clic aquí.

Para leer este aviso en árabe, haz clic aquí.

لقراءة هذا الإعلان باللغة العربية، انقر هنا

En junio de 2023, un usuario de Facebook publicó una ilustración de una bala con notas en árabe que identificaban sus diversos componentes. La descripción de la publicación, también en árabe, brindaba instrucciones para quitar la bala del cartucho y fabricar con sus componentes un dispositivo tipo cóctel Molotov, una sencilla bomba incendiaria, habitualmente en una botella y muy fácil de hacer. También se incluía una nota adicional sobre cómo arrojar el dispositivo de manera segura, y la descripción también rezaba "victoria para la población sudanesa" y para "las fuerzas armadas populares". El contenido tuvo solo algunas visualizaciones antes de que Meta lo eliminara.

Este hace referencia a la tierra natal del usuario, Sudán. En abril de 2023, se desató una batalla en la capital del país entre las Fuerzas Armadas sudanesas y el grupo paramilitar conocido como Fuerzas de Apoyo Rápido (FAR). Desde entonces se unieron otros grupos al conflicto armado, que dejó miles de muertos y obligó a más de cuatro millones de personas a huir.

El día en que se publicó el contenido, un "clasificador de lenguaje hostil" lo evaluó tomando como pauta tres de las normas comunitarias de Facebook (lenguaje que incita al odio, violencia e incitación, y bullying y acoso) y determinó que infringía una de ellas. Meta eliminó la publicación por infringir la norma comunitaria de Facebook sobre violencia e incitación. Tras la eliminación, Meta aplicó una falta estándar y una restricción de funciones por tres días en el perfil del creador del contenido, que no le permitía interactuar con grupos, crear salas de Messenger o unirse a estas. El usuario apeló la decisión de Meta de inmediato. Debido a ello, un revisor evaluó la publicación. Meta confirmó que la decisión de eliminar inicialmente el contenido fue correcta, pero, en esta ocasión, se determinó que infringía la política de bienes y servicios restringidos. El usuario entonces apeló al Consejo.

Luego de que el Consejo remitiera el caso a Meta, la empresa determinó que su decisión original de eliminar el contenido en virtud de la norma comunitaria sobre violencia e incitación era correcta. En función de esta política, Meta elimina contenido que incluye instrucciones sobre "cómo fabricar o usar explosivos" o "instrucciones para fabricar o usar armas cuando existe evidencia de que el objetivo es lesionar gravemente o matar a personas".

El Consejo seleccionó este caso para evaluar las políticas de Meta sobre contenido relacionado con armas y las prácticas de aplicación de políticas de la empresa en el contexto de conflictos. Este caso se enmarca en una de las siete prioridades estratégicas del Consejo, específicamente en "situaciones de conflicto y crisis".

Al Consejo le gustaría recibir comentarios del público sobre lo siguiente:

  • Información sobre el contexto sociopolítico de Sudán y entre las comunidades de la diáspora sudanesa, el conflicto permanente del país y el potencial de daño en la vida real ocasionado por contenido similar al de este caso.
  • Cómo el derecho humanitario internacional (también conocido como derecho de conflictos armados) debería fundamentar las responsabilidades de Meta en lo que respecta a la moderación de contenido relacionado con armas en el contexto de conflictos armados.
  • La aplicación de las políticas de contenido por parte de Meta para expresiones en idioma árabe relacionadas con la situación en Sudán, así como el uso que hace la empresa de la automatización para hacer cumplir sus reglas.
  • El impacto de la moderación de contenido en la capacidad de los usuarios de participar en debates online sobre el conflicto armado en Sudán y en otros países, y las responsabilidades con los derechos humanos de Meta en este contexto.

Como parte de sus decisiones, el Consejo puede formular recomendaciones de políticas a Meta. Si bien estas recomendaciones no son vinculantes, Meta debe responder a ellas en un plazo de 60 días. El Consejo recibe comentarios del público con recomendaciones que sean relevantes para este caso.

Comentarios del público

Si tú o tu organización consideran que pueden contribuir con perspectivas valiosas que ayuden a tomar una decisión sobre los casos anunciados hoy, puedes enviar tus aportes a través de los enlaces que aparecen arriba. Ten en cuenta que los comentarios del público pueden enviarse de forma anónima. El plazo para enviar comentarios del público dura 14 días y finaliza el martes 24 de octubre a las 23:59 de tu zona horaria local.

Próximos pasos

En las próximas semanas, los miembros del Consejo deliberarán sobre estos casos. Cuando hayan tomado sus decisiones finales, las publicaremos en el sitio web del Consejo asesor de contenido. Para recibir notificaciones cuando el Consejo anuncie nuevos casos o publique decisiones, regístrate aquí.

Archivos adjuntos

Arabic-Language Translation

Volver a Noticias