Anulado
Denuncia por parte de un periodista sueco de violencia sexual contra menores
1 de febrero de 2022
El Consejo asesor de contenido anuló la decisión de Meta de eliminar una publicación en la que se describían hechos de violencia sexual contra dos menores.
Resumen del caso
Nota: Antes de leer la siguiente decisión, ten en cuenta que incluye material posiblemente delicado en relación con contenido sobre violencia sexual contra menores.
El Consejo asesor de contenido anuló la decisión de Meta de eliminar una publicación en la que se describían hechos de violencia sexual contra dos menores. El Consejo determinó que la publicación no infringía la norma comunitaria sobre explotación sexual, maltrato y desnudos de menores. De acuerdo con el contexto general de la publicación, se dejó claro que el usuario pretendía informar sobre un asunto de interés público y condenar la explotación sexual de un menor.
Información sobre el caso
En agosto de 2019, un usuario de Suecia publicó en su página de Facebook una foto de archivo de una niña pequeña sentada con las manos en la cabeza, de forma tal que ocultaba su rostro. La foto incluía un pie de foto en sueco, donde se describían hechos de violencia sexual contra dos menores. La publicación incluía detalles sobre las violaciones de dos menores anónimos, en los que se especificaban sus edades y el municipio en el que sucedió el primer delito. El usuario también detalló las condenas que recibieron los dos perpetradores anónimos por los delitos.
La publicación indicaba que el sistema de justicia penal de Suecia es demasiado indulgente e incentiva el delito. El usuario también abogaba por el establecimiento de un registro de delincuentes sexuales en el país. Además, proporcionó fuentes en la sección de comentarios de la publicación, en las que se identificaban las causas penales mediante los números de referencia judiciales y había enlaces a la cobertura mediática local de los delitos.
En la publicación, se incluyeron detalles gráficos del impacto nocivo que tuvo el delito en la primera víctima. También contenía citas atribuidas al perpetrador en las que, al parecer, se jactaba de la violación con sus amigos y se refería a la víctima con términos sexualmente explícitos. Si bien el usuario publicó el contenido en Facebook en agosto de 2019, Meta lo eliminó dos años más tarde, en septiembre de 2021, conforme a sus normas sobre explotación sexual, maltrato y desnudos de menores.
Conclusiones principales
El Consejo determinó que esta publicación no infringe la norma comunitaria sobre explotación sexual, maltrato y desnudos de menores. La descripción precisa y clínica de la publicación acerca de las secuelas de la violación, así como la inclusión de la declaración sexualmente explícita del perpetrador, no constituyeron lenguaje que explota sexualmente a niños ni representaron a un menor en un "contexto de carácter sexual".
El Consejo también concluyó que en la publicación no se mostraba a un menor en un "contexto de carácter sexual", ya que, de acuerdo con el contexto general de la publicación, se dejó claro que el usuario pretendía informar sobre un asunto de interés público y condenar la explotación sexual de un menor.
El Consejo destacó que Meta no definió términos clave, como "representación" y "sexualización", en sus Normas comunitarias de acceso público. Además, mientras que Meta le indicó al Consejo que permite "informar" sobre violaciones y explotación sexual, la empresa no lo aclaró en las políticas públicas disponibles ni definió la diferencia entre "representar" e "informar". A continuación, se abordan estos puntos en una recomendación.
Es preocupante que, luego de dos años, Meta eliminara la publicación de la plataforma sin explicar de forma adecuada el motivo de esta medida. Ningún cambio sustancial realizado a las políticas durante este período justifica la eliminación.
La decisión del Consejo asesor de contenido
El Consejo asesor de contenido anuló la decisión de Meta de eliminar el contenido y solicitó que se restaurara la publicación.
En su declaración de asesoramiento normativo, el Consejo recomendó que Meta hiciera lo siguiente:
- Defina "representación gráfica" y "sexualización" en la norma comunitaria sobre explotación sexual, maltrato y desnudos de menores. Meta debe dejar claro que no todo lenguaje explícito constituye una representación gráfica o sexualización, además de explicar la diferencia entre términos legales, clínicos o médicos, y contenido gráfico. Meta también debe proporcionar una aclaración para distinguir entre "explotación sexual de menores" e "informar sobre explotación sexual de menores". El Consejo considerará la recomendación implementada cuando se hayan incorporado a la norma comunitaria lenguaje que defina términos clave y la distinción.
- Lleve a cabo un proceso de desarrollo de políticas, incluido un debate en el foro de políticas, para determinar si se debe incorporar una prohibición en cuanto a la identificación funcional de víctimas infantiles de violencia sexual en sus Normas comunitarias y cómo hacerlo. En este proceso, deben participar asesores externos y expertos en identificación funcional y los derechos de los niños. El Consejo considerará esta recomendación implementada cuando Meta publique las minutas del foro de políticas de productos donde se haya debatido esto.
* Los resúmenes de casos ofrecen información general sobre los casos y no sientan precedentes.
Decisión del caso completa
1. Resumen de la decisión
El Consejo asesor de contenido anuló la decisión de Meta de eliminar el contenido de Facebook. En la publicación, se informó sobre la violación de dos menores y se usó lenguaje explícito para describir la agresión y su impacto en uno de los sobrevivientes. Meta aplicó la norma comunitaria sobre explotación sexual, maltrato y desnudos de menores para eliminar la publicación y remitió el caso al Consejo asesor de contenido. El Consejo determinó que el contenido no infringe la política contra representaciones de explotación sexual de menores y que debe restaurarse.
2. Descripción del caso
En agosto de 2019, un usuario de Suecia publicó en su página de Facebook una foto de archivo de una niña pequeña sentada con las manos en la cabeza, de forma tal que ocultaba su rostro, con un pie de foto en sueco, en donde se describían hechos de violencia sexual contra dos menores con lenguaje gráfico. La publicación incluía detalles sobre las violaciones de dos menores anónimos, en los que se especificaban sus edades y el municipio en el que sucedió el primer delito. El usuario también detalló las condenas que recibieron los dos perpetradores anónimos por esos delitos. Uno de los perpetradores, al parecer, recibió una pena sin privación de la libertad, ya que era menor en el momento en que cometió el delito. Se informó, además, que el otro perpetrador recientemente había completado una pena privativa de la libertad por un delito violento contra otra mujer. El usuario argumentó que el sistema de justicia penal de Suecia es demasiado indulgente e incentiva el delito. También abogaba por el establecimiento de un registro de delincuentes sexuales en el país. Además, el usuario proporcionó fuentes en la sección de comentarios de la publicación, en las que se identificaban las causas penales mediante los números de referencia judiciales y había enlaces a la cobertura mediática local de los delitos. En el momento en que se publicó este contenido, los debates sobre las penas por agresiones sexuales infantiles formaban parte de un debate más amplio en torno a la reforma de la justicia penal en Suecia. La página de Facebook del usuario se dedicaba a publicar sobre agresores sexuales de niños y pedidos de reforma a las penas existentes por delitos sexuales en Suecia.
En la publicación, se proporcionaron detalles abundantes y gráficos del impacto nocivo del delito en la primera víctima, por ejemplo, se describían sus lesiones físicas y mentales, el acoso offline y online que padeció y la ayuda psicológica que recibió. También contenía citas atribuidas al perpetrador en las que, al parecer, se jactaba de la violación con sus amigos y se refería a la víctima con términos sexualmente explícitos. En la publicación, se describía que el perpetrador expresó a sus amigos que "la niña era 'apretada' y con orgullo presumió sus manos ensangrentadas".
La publicación obtuvo unos dos millones de visualizaciones, 2.000 comentarios y 20.000 reacciones. De acuerdo con Meta, la publicación se compartió en una página cuya configuración de privacidad era pública, lo que significa que cualquier persona podía ver el contenido publicado. La página tiene alrededor de 100.000 seguidores, y el 95% de ellos se encuentran en Suecia.
Desde que se publicó en agosto de 2019 hasta el 1 de septiembre de 2021, ocho usuarios enviaron comentarios para marcar posibles infracciones relacionadas con lenguaje que incita al odio, violencia e incitación, y bullying y acoso. Los procesos para que los usuarios envíen comentarios sobre una publicación y aquellos para que reporten una supuesta infracción son distintos. Los usuarios tienen ambas opciones disponibles. Los comentarios envían señales a Meta que se consideran en conjunto y pueden influir en cómo se prioriza el contenido en la sección de noticias de ese usuario en particular. Cuando un usuario reporta una publicación como una supuesta infracción de una política, Meta evalúa la publicación para determinar si cumple con sus políticas. Un usuario reportó la publicación el 5 de septiembre de 2019 por infringir la política sobre bullying y acoso. En consecuencia, se realizó una revisión automática, en la que se evaluó la publicación y se determinó que no infringía las normas, por lo que no se eliminó. En agosto de 2021, la tecnología de Meta identificó la publicación como potencialmente infractora. Tras una revisión manual, se determinó que la publicación infringía la política sobre explotación sexual, maltrato y desnudos de menores, y se eliminó. La cuenta del creador del contenido cometió una falta, que generó dos limitaciones independientes de las funciones. Una de las limitaciones de las funciones impidió que el usuario transmitiera en vivo en Facebook, usara productos publicitarios y creara salas de Messenger o se uniera a ellas. La otra, una limitación de las funciones de 30 días, impidió que el usuario creara cualquier tipo de contenido nuevo, excepto mensajes privados. Después de que el usuario apelara la decisión y tras otra revisión manual, no se restauró la publicación, pero se revirtió la falta asociada con su eliminación. Meta revirtió la falta porque la empresa determinó que la finalidad de la publicación era generar conciencia. En su Centro de transparencia, Meta indica que la aplicación de una falta por parte de la plataforma "depende de la gravedad del contenido, el contexto en el que se compartió y el momento en que se publicó", pero no menciona de forma explícita que una falta puede revertirse o retenerse si la finalidad de la publicación del contenido es generar conciencia.
Según Meta, en 2021, eliminó cinco contenidos de esta página, todos a causa de infracciones contra la política sobre explotación sexual, maltrato y desnudos de menores. Tres de las publicaciones eliminadas se restauraron tras otra revisión, en la que se determinó que se habían eliminado por error. Las faltas asociadas a estas eliminaciones se revirtieron cuando las publicaciones se restauraron.
Cuando esta publicación se eliminó, Meta también redujo la distribución de la página y la eliminó de las recomendaciones. Meta explica, en el Centro de transparencia, que las páginas o grupos que repetidamente infringen sus políticas podrían eliminarse de las recomendaciones y que su distribución podría verse reducida. En el Centro de transparencia, no se indica cuánto dura esta penalización. Meta le informó al Consejo que una página se elimina de las recomendaciones durante el tiempo que excede el límite de faltas. El límite de faltas consiste en tres faltas por una infracción estándar y una falta por una infracción grave (p. ej., violación que involucra explotación sexual infantil, suicidio y autolesiones, o terrorismo).
3. Autoridad y alcance
El Consejo tiene autoridad para revisar las decisiones que Meta envía a revisión (Artículo 2, sección 1, del acta constitutiva; Artículo 2, sección 2.1.1, de los estatutos). El Consejo puede mantener o revertir la decisión de Meta (Artículo 3, sección 5, del acta constitutiva), y la decisión que tome será vinculante para la empresa (Artículo 4 del acta constitutiva). Meta también debe evaluar la viabilidad de aplicar su decisión con respecto a contenido idéntico cuyo contexto sea similar (Artículo 4 del acta constitutiva). Las decisiones del Consejo podrían incluir declaraciones de asesoramiento normativo con recomendaciones no vinculantes a las que Meta debe responder (Artículo 3, sección 4, Artículo 4 del acta constitutiva).
4. Normas pertinentes
El Consejo asesor de contenido consideró las siguientes normas en su decisión:
I. Normas comunitarias de Facebook
Según las bases de la política sobre explotación sexual, maltrato y desnudos de menores, Meta no admite contenido que "explote sexualmente o ponga en peligro a niños". Conforme a esta política, Meta elimina todo contenido que "incluya amenazas, proporcione instrucciones o comparta enlaces sobre explotación sexual infantil, la represente, exalte, apoye, admita la participación en ella o en el que se realicen afirmaciones de intención". Meta también prohíbe "todo contenido (incluidas fotos, videos, obras de arte reales, contenido digital y representaciones verbales) en el que se muestre a niños en contextos sexuales". Además, esta política prohíbe todo contenido que identifique o ridiculice, por medio de nombres o imágenes, a presuntas víctimas de explotación sexual infantil. No obstante, no prohíbe la identificación funcional de un menor.
II. Valores de Meta
Los valores de Meta se detallan en la introducción a las Normas comunitarias de Facebook. El valor de "expresión" se describe como fundamental.
Nuestras Normas comunitarias siempre apuntaron a crear un espacio donde las personas puedan expresarse y dar a conocer su opinión. [Queremos que] las personas puedan hablar abiertamente sobre los temas que les importan, incluso si otros no están de acuerdo o los consideran objetables.
Meta limita la "expresión" en favor de otros cuatro valores, y tres de ellos son relevantes en este caso:
"Seguridad": el contenido que supone una amenaza para las personas puede intimidar, excluir o silenciar a otros, por lo que no está permitido en Facebook.
"Privacidad": nos comprometemos a proteger la información y la privacidad de las personas. Gracias a la privacidad, las personas tienen la libertad de ser quienes son, de elegir cómo y cuándo compartir contenido en Facebook, y de conectarse más fácilmente.
"Dignidad": creemos que todas las personas son dignas y tienen los mismos derechos. Esperamos que esas personas respeten la dignidad de los demás y no los acosen ni los degraden.
III. Normas de derechos humanos
Los Principios Rectores sobre las Empresas y los Derechos Humanos de las Naciones Unidas (UNGP) establecen un marco voluntario que encuadra las responsabilidades de las empresas privadas en cuanto a estos derechos. En 2021, Meta anunció su Política corporativa de derechos humanos, con la que reafirmó su compromiso a respetar estos derechos de conformidad con los UNGP. El análisis del Consejo en este caso se basó en las siguientes normas de derechos humanos:
- Derecho a la libertad de opinión y expresión: Artículo 19 del Pacto Internacional de Derechos Civiles y Políticos (ICCPR); observación general n.º 34 del Comité de Derechos Humanos (2011); informe del Relator Especial de la ONU sobre la libertad de opinión y expresión: A/74/486 (2019); informe del Relator Especial de la ONU sobre la libertad de opinión y expresión: A/HRC/17/27 (2011).
- Consideración plena de los intereses del niño: Artículo 3 de la Convención sobre los Derechos del Niño (CRC); observación general n.º 25, Comité de los Derechos del Niño (2021).
- Derecho a la salud física y mental: Artículo 12 del Pacto Internacional de Derechos Económicos, Sociales y Culturales (ICESCR); Artículos 17 y 19 de la CRC, sobre los derechos de los niños a acceder a información para la promoción de su salud física y mental, y para estar protegidos contra toda forma de violencia física o mental.
- Derecho a la privacidad: Artículo 17 del ICCPR; Artículo 16 de la CRC; observaciones concluyentes, Nepal, Comité de los Derechos del Niño, 21 de septiembre de 2005, CRC/C/15/Anexo 261, párrafos 45, 46.
5. Declaración del usuario
Tras la remisión de Meta y la decisión del Consejo de aceptar el caso, se envió un mensaje al usuario para notificarle acerca de la revisión del Consejo y para proporcionarle la oportunidad de presentar una declaración ante el Consejo. El usuario no presentó ninguna declaración.
6. Explicación de la decisión de Meta
Meta explicó en sus fundamentos que el contenido se eliminó porque infringía la norma comunitaria sobre explotación sexual, maltrato y desnudos de menores. Meta aclaró que la publicación se consideró infractora debido a dos oraciones: una en que se describían en detalle las secuelas físicas de la violación, y otra en que se citaba la descripción sexualmente explícita que el perpetrador hizo de la menor como "apretada". Meta hizo referencia a conclusiones de expertos correspondientes a una gran variedad de fuentes, incluida Rape, Abuse and Incest National Network (RAINN), "2021 Tackling Child Sexual Abuse Strategy" del Reino Unido y la "Estrategia para una lucha más eficaz contra el abuso sexual de menores" de la Unión Europea, así como a múltiples artículos académicos, en las que se indicaba que permitir representaciones de la violación puede dañar a las víctimas a través de nuevos traumas, la invasión de la privacidad y el favorecimiento del acoso.
Meta también explicó que, si bien algunas de sus políticas cuentan con excepciones para permitir compartir contenido que de otro modo sería infractor cuando la finalidad es generar conciencia o condenar acciones nocivas, el desafío de "determinar dónde comienza el riesgo de [generar nuevos traumas] y dónde finaliza el beneficio de la concientización" hizo que prohibiera las representaciones gráficas incluso cuando se comparten de buena fe y para generar conciencia. Meta indicó en sus fundamentos ante el Consejo que sí permite informar sobre una violación o una agresión sexual sin representaciones gráficas. Meta también explicó que en la definición de "representación" incluye mostrar imágenes y audios, describir con palabras o realizar transmisiones.
Meta aclaró en sus fundamentos que determinó que los valores de "privacidad", "seguridad" y "dignidad" de los menores desplazaron al valor de "expresión" porque el contenido gráfico podía revictimizarlos. Meta también expresó que, a pesar de que la publicación no mencionaba a la víctima, la información provista en ella podría usarse para identificarla y causar un trato discriminatorio.
Meta también explicó que la Convención sobre los Derechos de los Niños (CRC) sirvió como guía para definir sus políticas y valores, según una cita de la observación general n.º 25 (2021) del Comité de los Derechos del Niño de la ONU, para implementar políticas y prácticas, y así proteger a los niños de "riesgos conocidos y emergentes de toda forma de violencia en el entorno digital". Meta expresó al Consejo que debido al riesgo de revictimización determinó que la eliminación era necesaria. Si bien Meta considera la aplicación de la excepción relacionada con el interés periodístico al contenido gráfico cuando el interés público en la expresión es especialmente contundente y el riesgo de daños es bajo, en este caso, Meta determinó que el riesgo de daños superó al valor de la expresión del interés público. Según Meta, Facebook aplicó la concesión de interés periodístico a infracciones contra la política sobre explotación sexual infantil seis veces el año pasado.
7. Comentarios de terceros
El Consejo recibió diez comentarios del público de partes interesadas, incluidas instituciones académicas y organizaciones de sociedad civil que se ocupan de los derechos de sobrevivientes de agresiones sexuales, los derechos de los niños y la libertad de expresión. Tres comentarios procedieron de Europa, dos de Latinoamérica y el Caribe, y cinco de los Estados Unidos y Canadá. Los comentarios abarcaron varios temas, como la importancia de proteger la privacidad de los sobrevivientes; el peligro de eliminar el discurso de sobrevivientes u organizaciones que trabajan en la prevención del maltrato y la explotación sexual de menores; el papel de las opciones de diseño de la plataforma de Meta en cuanto a la promoción de publicaciones sensacionalistas, y la necesidad de una mayor transparencia y claridad en torno al sistema de moderación de contenido de la plataforma.
El 30 de noviembre de 2021, se realizó una mesa redonda virtual donde participaron siete entidades y organizaciones de sociedad civil, cuya misión es representar a sobrevivientes de violencia doméstica y sexual contra mujeres y niños. En el debate, se tocaron numerosos temas relacionados con el contenido del caso, entre ellos, la distinción entre lo que el público general podría considerar descripciones gráficas de una violación y las descripciones clínicas reales del acto y sus secuelas; la explotación secundaria o victimización de los sobrevivientes con el fin de solicitar o recaudar donaciones; el empoderamiento de los sobrevivientes al preguntarles qué quieren y obtener su consentimiento informado para cubrir los delitos cometidos contra ellos; y la importancia crítica de la agencia de los sobrevivientes.
Si quieres leer los comentarios del público que se enviaron en relación con este caso, haz clic aquí.
8. Análisis del Consejo asesor de contenido
El Consejo analizó la pregunta de si este contenido debería restaurarse desde tres perspectivas: las Normas comunitarias de Facebook, los valores de Meta declarados públicamente, y sus responsabilidades respecto de los derechos humanos. El Consejo concluyó que el contenido no infringe las Normas comunitarias de Facebook y debe restaurarse. Los valores y las responsabilidades de Meta respecto de los derechos humanos respaldan la restauración del contenido. El Consejo recomendó que se hicieran cambios en las políticas de contenido de Meta para ofrecer una definición clara de "sexualización", "representación gráfica" e "informar sobre el tema".
8.1 Cumplimiento de las Normas comunitarias
El Consejo concluyó que esta publicación no infringe la norma comunitaria sobre explotación sexual, maltrato y desnudos de menores, y que el contenido no debió eliminarse. El Consejo determinó que la descripción precisa y clínica de la publicación acerca de las secuelas de la violación, así como la inclusión de la declaración sexualmente explícita del perpetrador, no constituyeron lenguaje que explota sexualmente a niños ni representaron a un menor en un "contexto de carácter sexual".
El Consejo también concluyó que en la publicación no se mostraba a un menor en un "contexto de carácter sexual", ya que, de acuerdo con el contexto general de la publicación, se dejó claro que el usuario pretendía informar sobre un asunto de interés público y condenar la explotación sexual de un menor. El usuario replicó el lenguaje usado en los medios de comunicación suecos, que informaron sobre el testimonio provisto en los casos judiciales correspondientes a las violaciones a las que se hace referencia en la publicación.
8.2 Cumplimiento de los valores de Meta
El Consejo determinó que la decisión de Meta de eliminar esta publicación no concuerda con su valor de "expresión". El Consejo reconoció que los valores de "privacidad", "seguridad" y "dignidad" tienen mucha importancia cuando se trata de contenido que describe gráficamente la explotación sexual de un menor. No obstante, el Consejo determinó que las dos oraciones en cuestión no llegaron a ser contenido que explotaba sexualmente a niños. Asimismo, el interés público en dirigir la atención a este asunto e informar al público, o abogar por reformas legales y políticas, es una parte central del valor de "expresión". En cuanto a sopesar los distintos valores involucrados en este caso, el Consejo también indicó la importancia de no silenciar a quienes abogan por prevenir la explotación sexual infantil ni a los sobrevivientes de esta. El Consejo también reconoció que posiblemente algunos sobrevivientes no quieran hablar por miedo a que los detalles gráficos de la agresión se viralicen en la plataforma.
8.3 Cumplimiento de las responsabilidades de Meta con los derechos humanos
El Consejo determinó que la restauración del contenido en este caso es coherente con las responsabilidades de Meta con los derechos humanos.
Libertad de expresión y Artículo 19 del ICCPR
El Artículo 19 del ICCPR proporciona amplia protección al derecho a la libertad de expresión a través de cualquier medio e independientemente de las fronteras. No obstante, el derecho podría restringirse en ciertas situaciones limitadas y acotadas, lo que se conoce como la prueba de tres partes de legalidad (claridad), legitimidad y necesidad y proporcionalidad. Si bien el ICCPR no genera las mismas obligaciones para Meta que para los Estados, la empresa se compromete a respetar los derechos humanos como se establece en los UNGP. Este compromiso abarca derechos humanos de reconocimiento internacional, según los definen, entre otros organismos, el ICCPR y la CRC. El Relator Especial de la ONU sobre la libertad de opinión y de expresión sugirió que el Artículo 19, párrafo 3, del ICCPR brinda un marco útil para guiar las prácticas de moderación de contenido de las plataformas (A/HRC/38/35, párrafo 6).
I. Legalidad (claridad y accesibilidad de las reglas)
El requisito de legalidad en la legislación internacional de derechos humanos dispone que toda restricción a la libertad de expresión: (a) sea suficientemente accesible, de modo que las personas tengan información adecuada sobre cómo la ley limita sus derechos; y (b) la ley se formule con la precisión suficiente para que las personas puedan regular su conducta.
Como se indicó en la sección 8.1 anterior, el Consejo concluyó que esta publicación no infringía la política sobre explotación sexual infantil de Meta, por lo que la eliminación no se correspondió con ninguna norma aplicable. El Consejo también determinó que la política podría beneficiarse a partir de la definición clara de términos clave y la incorporación de ejemplos de casos dudosos. Los términos "representación" y "sexualización" no están definidos en las Normas comunitarias de acceso público. Si Meta no define términos clave o expone excepciones relevantes, los usuarios no pueden comprender cómo cumplir con las reglas.
El Consejo indicó que las "preguntas frecuentes" de Meta y sus Normas de implementación internas (IIS), que son pautas provistas a los revisores de contenido para ayudarlos a evaluar el contenido que podría considerarse una infracción de una de las Normas comunitarias de Facebook, proporcionan criterios más específicos en cuanto a qué constituye sexualización de un menor en la plataforma conforme a la política sobre explotación sexual, maltrato y desnudos de menores.
Meta señaló al Consejo en los fundamentos correspondientes a este caso que permite "informar" sobre violaciones y explotación sexual, pero no lo aclaró en las políticas públicas disponibles ni definió la diferencia entre "representar" e "informar". El Consejo señaló que ni en las políticas públicas ni en las preguntas frecuentes o las IIS se aborda la diferencia entre la representación gráfica prohibida o la sexualización de un menor, y la comunicación de información no infractora sobre la violación y la explotación sexual de un menor.
Al Consejo le preocupó que el contenido del caso permaneciera en la plataforma durante dos años y, luego, se eliminara sin una explicación adecuada respecto del motivo de la eliminación. Ningún cambio sustancial realizado a las políticas durante este período justifica la eliminación. El Consejo preguntó si la remisión del contenido a revisión manual se debió a un cambio en el clasificador. Meta indicó que lo que ocasionó la remisión de la publicación a revisión manual fue una combinación de las puntuaciones del clasificador con aprendizaje automático o aprendizaje artificial (predicción que realiza un algoritmo sobre la probabilidad de que cierto contenido infrinja determinada política) y el número de visualizaciones que la publicación obtuvo durante un período de dos semanas. En su respuesta a las preguntas del Consejo, Meta no especificó si hubo algún cambio en los clasificadores que justificara que estos pudieran haber determinado que el contenido no era infractor en 2019, pero que su tecnología marcara el mismo contenido como potencialmente infractor e idóneo para remisión a revisión manual en 2021.
II. Fin legítimo
Las restricciones de la libertad de expresión deben tener un fin legítimo, que puede incluir la protección de los derechos de otras personas. El Consejo reconoció que la norma comunitaria sobre explotación sexual, maltrato y desnudos de menores de Facebook procura evitar perjuicios en la vida real en los derechos de menores que pudieran relacionarse con contenido en Facebook. Por lo tanto, las restricciones de esta política tienen como fin cumplir el fin legítimo de proteger los derechos de los niños a la salud física y mental (Artículo 12 del ICESCR, Artículo 19 de la CRC), en consonancia con la consideración plena de los intereses del niño (Artículo 3 de la CRC).
III. Necesidad y proporcionalidad
El principio de necesidad y proporcionalidad en el marco de las leyes internacionales de derechos humanos exige que las restricciones que se apliquen a la expresión "deben ser adecuadas a fin de cumplir su función de protección, deben ser el instrumento menos invasivo entre aquellos que permitan cumplir dicha función [y] deben ser proporcionales al interés que se busca proteger" (observación general n.º 34, párrafo 34). El principio de proporcionalidad exige que se considere la forma de expresión en cuestión (observación general n.º 34, párrafo 34).
Tal como el Consejo indicó en la sección 8.3 de la decisión del caso 2020-006-FB-FBR, Meta debe mostrar tres cosas para demostrar que seleccionó el instrumento menos invasivo para abordar el fin legítimo:
(1) La consideración plena de los intereses del niño no se podría abordar con medidas que no infrinjan la libertad de expresión.
(2) Entre las medidas que infringen la libertad de expresión, Meta seleccionó la menos invasiva.
(3) La medida seleccionada efectivamente permite alcanzar el objetivo y no es ineficaz ni contraproducente (A/74/486, párrafo 52).
Analizar si los fines podrían haberse alcanzado con medidas que no infringieran la libertad de expresión exige la comprensión de absolutamente todas las decisiones que Meta tomó y las opciones disponibles para abordar el daño. Para ello, es indispensable ofrecer transparencia al Consejo respecto de la amplificación y cómo el diseño de la plataforma de Meta podría fomentar el contenido sensacionalista. El Consejo solicitó a Meta información o investigaciones internas sobre cómo sus opciones de diseño para la plataforma de Facebook, incluidas las decisiones o procesos que afectan qué publicaciones amplificar, fomentan la cobertura sensacionalista de asuntos que involucran a niños. Meta no ofreció al Consejo ninguna respuesta clara a esa pregunta ni proporcionó ninguna investigación al respecto. La transparencia es fundamental para garantizar el escrutinio público de las medidas que toma Meta. La falta de detalles en la respuesta de Meta ante la pregunta del Consejo o de la divulgación pública de cómo las opciones de diseño de la plataforma relacionadas con la amplificación afectan la libertad de expresión perjudica la capacidad del Consejo de determinar exhaustivamente cuál es el instrumento menos invasivo para respetar los derechos del niño, en consonancia con la consideración plena de sus intereses.
El Consejo concluyó que eliminar este contenido que trataba delitos sexuales contra menores, un asunto de interés público y una materia de debate público, no constituye el instrumento menos invasivo en la promoción de los derechos del niño. En la observación general n.º 34, se destaca la importancia dada a la expresión política en el Artículo 19 del ICCPR, incluido el derecho a la libertad de expresión en "discursos políticos", "comentarios sobre asuntos propios y públicos" y "debates sobre los derechos humanos". Todos estos incluirían una conversación sobre el sistema de justicia penal de un país y la cobertura de sus operaciones en casos específicos.
El Consejo es consciente del daño fuera de la plataforma que podrían sufrir los sobrevivientes de explotación sexual infantil si en la plataforma hubiera representaciones de esa explotación. No obstante, el Consejo marca una diferencia entre el lenguaje del perpetrador que sexualiza al menor y la publicación del usuario que cita al perpetrador con el fin de concientizar acerca de un asunto de interés público. El Consejo está de acuerdo con la contribución hecha por organizaciones que trabajan para prevenir la explotación sexual y con los sobrevivientes de esta respecto de la importancia de tener en cuenta la necesidad de proteger los testimonios de los sobrevivientes y todo contenido cuyo fin sea informar al público y participar en defensa de que se reformen los obstáculos legales, sociales y culturales que impiden la prevención de la explotación sexual infantil.
El Consejo consideró si el uso de una pantalla de advertencia podría ser la medida menos invasiva para proteger al máximo los intereses del niño. Por ejemplo, en la norma comunitaria sobre explotación sexual de adultos, se establece que se aplican pantallas de advertencia al contenido que incluye relatos o declaraciones sobre explotación sexual de adultos que comparte la víctima o un tercero (distinto de la víctima) que 1) apoya a la víctima, 2) condena el acto o 3) concientiza al respecto en general, lo que se determinará a partir del contexto o el pie de foto. De acuerdo con una publicación de blog en Newsroom de Meta sobre cómo abordar la información errónea, la empresa afirmó que cuando se aplica una pantalla de advertencia a cierto contenido, el 95% de los usuarios no hacen clic para verlo. Dado que el Consejo no cuenta con información sobre el nivel de interacción inicial, no puede llegar a una conclusión respecto del impacto de las pantallas de advertencia, en especial, cuando se aplican a contenido que informa sobre explotación sexual infantil.
Por último, el Consejo también consideró la capacidad potencial de daño en la vida real cuando en la cobertura se incluye información suficiente para identificar a un menor. El contenido que pudiera favorecer una identificación funcional o "por partes" de un menor que fue víctima de explotación sexual infantil involucra los derechos de los niños a la libertad de expresión (Artículo 19 del ICCPR), a la privacidad (Artículo 16 de la CRC) y a la seguridad (Artículo 19 de la CRC). La identificación funcional podría tener lugar cuando el contenido ofrece o compila suficientes fragmentos discretos de información que permiten identificar a una persona sin mencionarla. En este caso, el Consejo no pudo determinar si los fragmentos de información proporcionados, junto con los enlaces a los informes de los medios, podrían aumentar la posibilidad de que las víctimas fueran identificadas.
Sin embargo, algunos miembros del Consejo hicieron hincapié en que cuando hay dudas de si cierto contenido podría favorecer la identificación funcional de una víctima menor, Meta debería priorizar la protección de la privacidad y de la salud física y mental del menor, de acuerdo con los principios internacionales de derechos humanos. Según estos miembros del Consejo, el poder de amplificación de la plataforma es un factor clave a la hora de evaluar si un menor podría ser identificado y, en consecuencia, las protecciones otorgadas a los niños que son víctimas de abuso sexual.
En la norma comunitaria actual sobre explotación sexual, maltrato y desnudos de menores, se prohíbe el "contenido que identifique o ridiculice a presuntas víctimas de explotación sexual infantil por medio de nombres o imágenes". Otras políticas que tratan la prevención de la identificación de un menor o una víctima de un delito (p. ej., norma comunitaria sobre medidas adicionales de protección para menores; organización de actos dañinos y promoción de la delincuencia) dejan brechas significativas en cuanto a abordar la identificación funcional de menores que son víctimas de explotación sexual.
9. Decisión del Consejo asesor de contenido
El Consejo asesor de contenido anuló la decisión de Meta de eliminar el contenido y solicitó que se restaurara la publicación.
10. Declaraciones de asesoramiento normativo
Política de contenido
- Meta debe definir "representación gráfica" y "sexualización" en la norma comunitaria sobre explotación sexual, maltrato y desnudos de menores. Meta debe dejar claro que no todo lenguaje explícito constituye una representación gráfica o sexualización, además de explicar la diferencia entre términos legales, clínicos o médicos, y contenido gráfico. Meta también debe proporcionar una aclaración para distinguir entre "explotación sexual de menores" e "informar sobre explotación sexual de menores". El Consejo considerará la recomendación implementada cuando se hayan incorporado a la norma comunitaria lenguaje que defina términos clave y la distinción.
- Meta debe llevar a cabo un proceso de desarrollo de políticas, incluido un debate en el foro de políticas, para determinar si se debe incorporar una prohibición en cuanto a la identificación funcional de víctimas infantiles de violencia sexual en sus Normas comunitarias y cómo hacerlo. En este proceso, deben participar asesores externos y expertos en identificación funcional y los derechos de los niños. El Consejo considerará esta recomendación implementada cuando Meta publique las minutas del foro de políticas de productos donde se haya debatido esto.
* Nota de procedimiento:
La preparación de las decisiones del Consejo asesor de contenido está a cargo de paneles conformados por cinco miembros, quienes deben aprobarlas por mayoría. Las decisiones del Consejo no necesariamente representan las opiniones personales de todos los miembros.
En cuanto a la decisión del caso, se encargó una investigación independiente en nombre del Consejo. Un instituto de investigación independiente con sede en la Universidad de Gotemburgo y un equipo conformado por más de 50 científicos sociales de seis continentes, así como 3.200 expertos de diferentes países del mundo, ofrecen sus conocimientos sobre contextos culturales y sociopolíticos. Duco Advisors, una empresa asesora dedicada a la intersección de geopolítica, confianza y seguridad, y tecnología, también colaboró en la investigación.
Volver a Decisiones de casos y opiniones consultivas sobre políticas