Decisión de casos múltiples

Publicaciones educativas sobre ovulación

En esta decisión resumida, el Consejo toma en cuenta dos publicaciones educativas sobre ovulación de manera conjunta. El Consejo cree que las decisiones originales de Meta de eliminar ambas publicaciones hacen que resulte más difícil para las personas acceder a un área sumamente estigmatizada de información sobre salud para mujeres. Después de que el Consejo le remitiera estas dos apelaciones a Meta, la empresa revirtió sus decisiones originales y restauró ambas publicaciones.

2 casos incluidos en el paquete

Anulado

FB-YZ2ZBZWN

Caso sobre desnudos y actividad sexual de adultos en Facebook

Plataforma
Facebook
Tema
Salud,Igualdad de sexo y género
Estándar:
Desnudos y actividad sexual de adultos
Ubicación
Estados Unidos,Pakistán
Date
Publicado el 16 de noviembre de 2023
Anulado

IG-F5NPUOXQ

Caso sobre desnudos y actividad sexual de adultos en Instagram

Plataforma
Instagram
Tema
Salud,Igualdad de sexo y género
Estándar:
Desnudos y actividad sexual de adultos
Ubicación
Argentina
Date
Publicado el 16 de noviembre de 2023

Esta es una decisión resumida. Las decisiones resumidas examinan casos en los que Meta revirtió su decisión original sobre un contenido después de que el Consejo le remitiera el caso a la empresa. Estas decisiones incluyen información sobre los errores reconocidos de Meta. Un panel de miembros del Consejo las aprueba, pero no todo el Consejo. No tienen en cuenta los comentarios del público ni tienen un valor de precedente para el Consejo. Las decisiones resumidas aportan transparencia a las correcciones de Meta y destacan áreas de posible mejora en su aplicación de políticas.

Resumen del caso

En esta decisión resumida, el Consejo toma en cuenta dos publicaciones educativas sobre ovulación de manera conjunta. El Consejo cree que las decisiones originales de Meta de eliminar ambas publicaciones hacen que resulte más difícil para las personas acceder a un área sumamente estigmatizada de información sobre salud para mujeres. Después de que el Consejo le remitiera estas dos apelaciones a Meta, la empresa revirtió sus decisiones originales y restauró ambas publicaciones.

Descripción y contexto del caso

En el primer caso, del 15 de marzo de 2023, un usuario de Facebook en los Estados Unidos comentó una publicación realizada en un grupo de Facebook. El comentario estaba escrito en inglés e incluía una foto de cuatro tipos diferentes de moco cervical y sus correspondientes niveles de fertilidad, con una descripción de cada tejido en la foto. El comentario era en respuesta a la publicación de otra persona, que indagaba sobre el síndrome de ovario poliquístico (SOP), problemas de fertilidad y secreción vaginal. El contenido no tuvo visualizaciones, nadie lo compartió y los sistemas automatizados de Meta lo reportaron una vez. El grupo afirma que el propósito es brindar un espacio seguro para que mujeres de Pakistán que padecen "afecciones invisibles" relacionadas con la salud reproductiva, como "endometriosis, adenomiosis, SOP y otros problemas menstruales", debatan los desafíos que enfrentan y se brinden apoyo mutuo.

En el segundo caso, del 7 de marzo de 2023, un usuario de Instagram publicó un video en el que se mostraba la mano de una persona sobre un lavabo con secreción vaginal en el dedo. El texto debajo del video está escrito en español y el título reza "Ovulación: ¿cómo reconocerla?". El resto del texto describe en detalle cómo el moco cervical se vuelve más claro durante la ovulación y en qué punto del ciclo menstrual una mujer puede esperar estar ovulando. También describe otros cambios fisiológicos previstos al ovular, como aumento de la libido y de la temperatura corporal, y dificultad para conciliar el sueño. La descripción en la cuenta del usuario indica que se dedica a la salud vaginal y vulvar, y a la educación en ciclo menstrual y menstruación. El contenido tuvo más de 25.000 reproducciones, nadie lo compartió y los sistemas automatizados de Meta lo reportaron una vez.

En ambos casos, Meta inicialmente eliminó ambos contenidos en virtud de la política sobre desnudos y actividad sexual de adultos, que prohíbe "imágenes de actividades sexuales", excepto "en contextos médicos o relacionados con la salud". Sin embargo, Meta reconoció que los contenidos recaen dentro de la concesión que permite compartir imágenes que muestran elementos derivados de la actividad sexual (que pueden incluir, entre otros, secreciones vaginales) en un contexto médico o relacionado con la salud, y los restauró en la plataforma.

Luego de que el Consejo remitiera ambos casos a Meta, la empresa determinó que en ninguno de ellos se infringe la política sobre desnudos y actividad sexual de adultos, y que eliminar ambos contenidos fue una decisión incorrecta. Por ello, la empresa los restauró en Facebook e Instagram, respectivamente.

Autoridad y alcance del Consejo

El Consejo tiene la facultad para revisar las decisiones de Meta tras la apelación de un usuario cuyo contenido se eliminó (artículo 2, sección 1, del acta constitutiva; artículo 3, sección 1, de los estatutos).

Cuando Meta reconoce que cometió un error y revierte su decisión en un caso en consideración para la revisión del Consejo, el Consejo puede seleccionar ese caso para una decisión resumida (artículo 2, sección 2.1.3, de los estatutos). El Consejo revisa la decisión original para entender mejor el proceso de moderación de contenido, para reducir los errores y para ser más justo con las personas que usan Facebook e Instagram.

Importancia del caso

Ambos casos ponen de manifiesto las dificultades de aplicar las concesiones que se establecen en las pautas de desnudos y actividad sexual de adultos de Meta a contenido médico o relacionado con la salud. Tal como explicó por escrito en su apelación ante el Consejo el usuario en el primer caso, entender la apariencia y la textura del moco cervical permite a las mujeres hacer un seguimiento de su ciclo de ovulación y fertilidad. También expuso que no todas las mujeres tienen los medios o recursos para obtener esta información de un médico, o bien para comprar kits de ovulación o realizarse análisis de sangre para determinar si están ovulando. La decisión original de Meta de eliminar este contenido hace que resulte más difícil para las personas acceder a lo que ya es un área sumamente estigmatizada de información sobre salud para mujeres.

Anteriormente, el Consejo había emitido recomendaciones en relación con la política sobre desnudos y actividad sexual de adultos en lo que respecta a información médica o relacionada con la salud para fines educativos y de difusión, así como para mejorar la aplicación de concesiones estipuladas en las Normas comunitarias de la empresa. Específicamente, el Consejo instó a Meta a mejorar la detección automática de imágenes con texto superpuesto para garantizar que las publicaciones que dan a conocer los síntomas de cáncer de mama no se marquen erróneamente para revisión (recomendación n.º1 del caso "Síntomas de cáncer de mama y desnudos") y que las apelaciones basadas en excepciones de la política se prioricen para revisión manual (recomendación n.º 5 del caso "Meme de los 'dos botones'"). Si bien actualmente Meta está evaluando la viabilidad de aplicar la segunda recomendación, la empresa ya aplicó por completo la primera. Meta implementó un clasificador de contenido relacionado con la salud basado en imágenes y mejoró el clasificador de superposición de texto existente con el fin de perfeccionar aún más las técnicas de Instagram para detectar contenido cuyo contexto es el cáncer de mama. En un período de 30 días en 2023, estas mejoras contribuyeron a que se sometan a revisión manual otros 3.500 contenidos que, de otro modo, se habrían eliminado automáticamente.

La implementación total de ambas recomendaciones permitirá reducir la tasa de errores en la eliminación de contenido cuando este se publica en virtud de una concesión estipulada en la norma comunitaria, por ejemplo, si tiene como fin difundir o dar a conocer los diversos aspectos de la salud reproductiva femenina.

Decisión

El Consejo anuló las decisiones originales de Meta de eliminar los contenidos. El Consejo confirma que Meta corrigió su error inicial después de haberle remitido los casos.

Volver a Decisiones de casos y opiniones consultivas sobre políticas