Anulado
Autoexamen de mamas
18 de diciembre de 2023
Una usuaria apeló la decisión de Meta de eliminar una publicación de Facebook que incluía un video en el que se proporcionaban instrucciones para realizar un autoexamen de mamas.
Esta es una decisión resumida. Las decisiones resumidas examinan casos en los que Meta revirtió su decisión original sobre un contenido después de que el Consejo le remitiera el caso a la empresa. Estas decisiones incluyen información sobre los errores reconocidos por Meta e informan al púbico sobre el impacto del trabajo del Consejo. Un panel de miembros del Consejo las aprueba, pero no todo el Consejo. No abarcan el proceso de comentarios del público ni tienen un valor de precedente para el Consejo. Las decisiones resumidas aportan transparencia a las correcciones de Meta y destacan áreas en las que la empresa podría mejorar la aplicación de políticas.
Resumen del caso
Una usuaria apeló la decisión de Meta de eliminar una publicación de Facebook que incluía un video en el que se proporcionaban instrucciones para realizar un autoexamen de mamas. Después de que el Consejo le remitiera la apelación a Meta, la empresa revirtió su decisión original y restauró la publicación.
Descripción y contexto del caso
En abril de 2014, hace más de nueve años, una usuaria de Facebook publicó un video con un texto. En el texto, se explicaba que en el video se proporcionaban instrucciones para que las mujeres se realizaran un autoexamen de mamas cada mes para prevenir el cáncer de mama. En el video animado, se mostraba un seno femenino descubierto y se ofrecía información sobre el cáncer de mama y cuándo se debe contactar a un médico. Además, en el video se especificaba que se debían seguir las recomendaciones del médico. La publicación se visualizó menos de 500 veces.
Nueve años tras su primera publicación, Meta eliminó el contenido de la plataforma conforme a su política de desnudos y actividad sexual de adultos, que prohíbe "imágenes de desnudos de adultos reales" si hay "pezones femeninos descubiertos", excepto, entre otros fines, para generar "conciencia sobre el cáncer de mama". Sin embargo, Meta reconoció que se aplica la concesión de generación de conciencia sobre el cáncer de mama y restauró el contenido en Facebook. No queda claro por qué se aplicaron medidas sobre el contenido nueve años después de su publicación original.
En su apelación al Consejo, la usuaria expresó sorpresa ante la eliminación del contenido después de nueve años y afirmó que la finalidad de la publicación del video era informar a las mujeres sobre la realización de un autoexamen de mamas a fin de aumentar las probabilidades de detectar síntomas en una etapa temprana y, en última instancia, salvar vidas. La usuaria afirmó que "si se hubiese tratado de senos masculinos, nada habría sucedido".
Autoridad y alcance del Consejo
El Consejo tiene la facultad para revisar la decisión de Meta tras una apelación de la persona cuyo contenido se eliminó (artículo 2, sección 1, del acta constitutiva; artículo 3, sección 1, de los estatutos).
Cuando Meta reconoce que cometió un error y revierte su decisión en un caso en consideración para la revisión del Consejo, el Consejo puede seleccionar ese caso para una decisión resumida (artículo 2, sección 2.1.3, de los estatutos). El Consejo revisa la decisión original para entender mejor los procesos de moderación de contenido, reducir los errores y ser más justo con los usuarios de Facebook e Instagram.
Importancia del caso
El caso pone de manifiesto la inconsistencia de Meta al aplicar concesiones para contenido médico y sobre salud, según se permite conforme a la norma comunitaria sobre desnudos y actividad sexual de adultos. Los derechos de las mujeres a la libertad de expresión y la salud se ven afectados por dicha inconsistencia. Este caso enfatiza la conexión entre estos dos derechos y la necesidad de una moderación de contenido efectiva para permitir la generación de conciencia sobre una causa o para fines educativos o médicos.
En una de sus primeras decisiones de casos, el Consejo emitió recomendaciones relacionadas con la política de desnudos y actividad sexual de adultos de Meta, específicamente sobre este tema. El Consejo instó a Meta a mejorar la detección automatizada de imágenes con superposiciones de texto para garantizar que las publicaciones que generan conciencia sobre los síntomas del cáncer de mama no se marquen erróneamente para su revisión (decisión del caso Síntomas de cáncer de mama y desnudos, recomendación n.º 1). Además, el Consejo animó a Meta a "implementar un proceso de auditoría interno para analizar de forma constante una muestra estadísticamente representativa de las decisiones automatizadas de eliminación de contenido que deban revertirse a fin de aprender de los errores de la aplicación de políticas" (decisión del caso Síntomas de cáncer de mama y desnudos, recomendación n.º 5). Meta informó la implementación de la primera recomendación y publicó información para demostrarla. En cuanto a la segunda recomendación, la empresa la describió como una tarea que ya realiza, pero no publicó información que demuestre su implementación.
El Consejo también enfatizó la importancia de que los moderadores revisen las apelaciones que los usuarios envían a Meta y solicitó específicamente a la empresa que garantice que los usuarios puedan apelar las decisiones tomadas por sistemas automatizados para que se analicen de forma manual cuando se determina que su contenido infringió la norma comunitaria de Facebook sobre desnudos y actividad sexual de adultos (decisión del caso Síntomas de cáncer de mama y desnudos, recomendación n.º 4). Meta se negó a implementar esta recomendación tras evaluar su viabilidad.
El Consejo reitera que la implementación completa de estas recomendaciones es necesaria para reducir la tasa de errores del contenido eliminado erróneamente conforme a la concesión en la norma comunitaria sobre desnudos y actividad sexual de adultos a fin de generar conciencia o informar a los usuarios sobre los síntomas tempranos del cáncer de mama.
Decisión
El Consejo anuló la decisión original de Meta de eliminar el contenido. El Consejo confirma que Meta corrigió su error inicial después de haberle remitido el caso.
Volver a Decisiones de casos y opiniones consultivas sobre políticas