El Consejo asesor de contenido anunció nuevos casos sobre violencia de género

El Consejo anunció hoy dos nuevos casos para su consideración. Como parte de este proceso, invitamos a las personas y organizaciones a enviar comentarios.

Selección de casos

Como no podemos atender todas las apelaciones, el Consejo prioriza los casos que podrían afectar a muchos usuarios de todo el mundo, que sean de suma relevancia para el discurso público o que planteen cuestiones importantes sobre las políticas de Meta.

Este es el primer caso que anunciamos hoy:

Imagen de violencia de género

(2023-006-FB-UA)

Apelación de un usuario para eliminar contenido de Facebook

Enviar comentarios del público aquí.

Ten en cuenta que el plazo para enviar comentarios del público dura 14 días y finaliza el jueves 11 de mayo a las 23:59 de tu zona horaria local.

En mayo de 2021, un usuario de Facebook en Irak publicó una foto con un texto en árabe. La foto muestra a una mujer con marcas visibles de un ataque físico, además de moretones en la cara y el cuerpo. El texto empieza advirtiendo a las mujeres acerca de escribir cartas a sus esposos. Relata que la mujer de la foto escribió una carta a su esposo y que él la malinterpretó, lo que condujo a un ataque físico contra ella. De acuerdo con diferentes traducciones preliminares, la publicación indica que el esposo pensó que la mujer lo había llamado "burro" o que le había pedido que le llevara un "burro". Luego afirma que, en realidad, le estaba pidiendo un "velo". En árabe, las palabras "burro" y "velo" son similares. Hay varios emojis con risas y sonrisas en toda la publicación. El texto no nombra a la mujer de la foto, pero su cara se puede ver claramente. La publicación tiene cerca de 20.000 visualizaciones y menos de 1.000 reacciones.

En febrero de 2023, un usuario de Facebook reportó el contenido tres veces por infringir la norma comunitaria sobre violencia e incitación. Como los reportes no fueron priorizados para pasar por una revisión manual y fueron cerrados automáticamente por Meta, el contenido quedó en la plataforma. Meta le dijo al Consejo que prioriza apelaciones para la revisión manual en función de ciertos criterios, como la gravedad de la infracción y la viralidad del contenido. Las apelaciones que no se priorizan para la revisión manual dentro de un determinado período se cierran automáticamente sin más acción. El usuario que reportó el contenido apeló la decisión de Meta al Consejo asesor de contenido. Luego de que el Consejo seleccionara este caso, Meta determinó que había cometido un error en su decisión anterior de conservar el contenido en la plataforma y eliminó la publicación.

Meta eliminó el contenido de Facebook de acuerdo con su norma comunitaria sobre bullying y acoso. La norma comunitaria sobre bullying y acoso prohíbe contenido en el que se humille aún más a personas que se muestran sufriendo bullying físicamente o contenido que exalte, celebre o se burle de su muerte o lesiones físicas graves cuando se dirige a personas no públicas o a figuras públicas de alcance limitado. La política proporciona los siguientes ejemplos de figuras públicas de alcance limitado: personas cuya fama se limita al activismo que realizan o su labor periodística o que se hicieron conocidas de forma involuntaria. Al realizar la revisión, Meta supo que la mujer que aparece en la foto es una activista de la región cuya imagen había sido compartida en los medios sociales en el pasado.

El Consejo seleccionó este caso para explorar las políticas y las prácticas de Meta al moderar contenido que describe violencia de género y bromea sobre ella, así como su impacto sobre los derechos de los usuarios tanto dentro como fuera de las plataformas de Meta. Este caso cae dentro de la prioridad de "género" del Consejo, que es una de las siete prioridades estratégicas del Consejo.

Al Consejo le gustaría recibir comentarios del público sobre lo siguiente:

  • Las decisiones de aplicación de políticas de Meta sobre contenido que bromea sobre la violencia de género o se burla de ella.
  • La relación entre el contenido de Facebook e Instagram que bromea sobre la violencia de género o se burla de ella y su efecto sobre las personas a las que les podría afectar este contenido y su capacidad de usar estas plataformas.
  • La relación entre el contenido de Facebook e Instagram que bromea sobre la violencia de género o se burla de ella y su efecto sobre la violencia de género fuera de la plataforma.
  • Cómo se pueden usar representaciones de violencia de género para dirigirse a figuras públicas, defensores de los derechos humanos y activistas.
  • Información sobre el contexto socio-político en Irak (y la región) en relación con la violencia de género y su representación en los medios sociales.

En sus decisiones, el Consejo puede formular recomendaciones de políticas a Meta. Si bien estas recomendaciones no son vinculantes, Meta debe responder a ellas en un plazo de 60 días. El Consejo recibe comentarios del público con recomendaciones que sean relevantes para este caso.

La decisión sobre el caso "Violencia contra las mujeres" considerará dos casos juntos

El Consejo también decidió considerar un segundo caso nuevo junto con el caso que anunciamos en marzo de 2023. Esto quiere decir que la próxima decisión sobre el caso "Violencia contra las mujeres" considerará dos casos: el caso original anunciado el 9 de marzo (2023-002-IG-UA) y un segundo caso anunciado hoy (2023-005-IG-UA). Agregar este segundo caso permitirá al Consejo explorar la forma en que la política sobre lenguaje que incita al odio de Meta impacta en el contenido que debate sobre violencia de género con más detalles y matices, así como brindarle recomendaciones integrales a Meta.

Los comentarios del público siguen siendo una parte clave del proceso, y puedes enviar comentarios sobre el nuevo caso aquí hasta el jueves 4 de mayo a las 23:59 de tu zona horaria local. A fin de darle al panel tiempo suficiente para considerar los comentarios del público que se hayan enviado sobre este caso, solo recibiremos comentarios durante 7 días, en lugar de hacerlo durante 14 días como siempre. Si ya enviaste tus comentarios para el caso previamente anunciado, puedes volver a hacerlo mediante este canal.

El caso original (2023-002-IG-UA) trataba sobre una publicación que tenía un audio de una mujer que describía su experiencia en una relación íntima violenta, y el texto decía que "los hombres asesinan, violan y abusan de mujeres mental y físicamente, todo el tiempo, todos los días". Meta eliminó la publicación conforme a la norma comunitaria sobre lenguaje que incita al odio. Luego de que el usuario apelara la decisión al Consejo, Meta revisó su decisión y nos dijo que cree que eliminar la publicación había sido un error.

Después de anunciar el caso, determinamos que el mismo usuario había apelado otro caso (2023-005-IG-UA) al Consejo. Este caso trataba sobre una publicación que tenía un video de una mujer reconociendo que odia a los hombres. La mujer decía que la diferencia entre el odio a los hombres y la misoginia es que el odio a los hombres se basa en el miedo porque los hombres asesinan y violan en todo el mundo. Meta eliminó la publicación por infringir su norma comunitaria sobre lenguaje que incita al odio. El usuario apeló al Consejo. Después de que el Consejo seleccionara el caso, Meta revisó nuevamente su decisión y nos dijo que cree que fue correcta.

Próximos pasos

En las próximas semanas, los miembros del Consejo deliberarán sobre estos casos. Cuando hayan tomado sus decisiones finales, las publicaremos en el sitio web del Consejo asesor de contenido.

Para recibir notificaciones cuando el Consejo anuncie nuevos casos o publique decisiones, regístrate aquí.

Volver a Noticias