El Consejo asesor de contenido anuló la decisión de Meta en el caso sobre música drill británica

El Consejo asesor de contenido anuló la decisión de Meta de eliminar un clip de video de música drill británica de Instagram. Originalmente, Meta eliminó el contenido tras una solicitud de la Policía Metropolitana. Este caso genera inquietudes respecto de las relaciones de Meta con las autoridades policiales, que tienen la capacidad potencial de intensificar el sesgo. El Consejo realizó recomendaciones para favorecer el cumplimiento del procedimiento debido y la transparencia en estas relaciones.

ACTUALIZACIÓN DE ENERO DE 2023:

En este caso, el Consejo asesor de contenido envió una solicitud de libertad de información al Servicio de Policía Metropolitana (MPS), con preguntas sobre la naturaleza y el volumen de las solicitudes que el MPS realizó a empresas de medios sociales, incluida Meta, para que se revisara o eliminara contenido de música drill durante un período de un año. El MPS respondió el 7 de octubre de 2022 y proporcionó cifras de la cantidad de solicitudes que envió, así como de la cantidad que generó eliminaciones. La respuesta del MPS se publicó por completo junto con la decisión, y las cifras proporcionadas fueron incluidas en la decisión del Consejo, que se publicó el 22 de noviembre de 2022. El 4 de enero de 2023, el MPS se puso en contacto con el Consejo para avisarle que había identificado errores en su respuesta, y que los había corregido. Notablemente, corrigió las cifras de la siguiente forma: el total de las solicitudes que la Policía Metropolitana realizó a empresas de medios sociales y servicios de streaming para que se revisara o eliminara contenido entre junio de 2021 y mayo de 2022 en relación con música drill pasó a ser 992 [en lugar de 286]. Además, ahora el MPS confirma que dichas solicitudes generaron 879 eliminaciones [en lugar de 255], de las cuales 28 estaban relacionadas con las plataformas de Meta [en lugar de 21], que generaron 24 eliminaciones [en lugar de 14]. La decisión contiene las cifras originales previas a las correcciones del MPS. Esta actualización no cambia el análisis o la decisión del Consejo asesor de contenido en este caso. La respuesta actualizada de la solicitud de libertad de información se puede encontrar aquí.

Información sobre el caso

En enero de 2022, una cuenta de Instagram que, según su autodescripción, divulgaba música británica, publicó contenido que destacaba el lanzamiento de la canción de música drill británica "Secrets Not Safe" (Secretos no seguros) de Chinx (OS), incluido un clip del video musical de la canción.

Poco después, la Policía Metropolitana, responsable de las autoridades policiales en el Gran Londres, envió un correo electrónico a Meta en el que solicitaba que la empresa revisara todo el contenido que incluyera "Secrets Not Safe". Meta también recibió contexto adicional de la Policía Metropolitana. De acuerdo con Meta, este incluía información sobre violencia entre pandillas (incluidos asesinatos) en Londres y la preocupación de la Policía de que la canción pudiera generar más violencia a modo de represalia.

Equipos especialistas de Meta revisaron el contenido. Con base en el contexto que proporcionó la Policía Metropolitana, se determinó que incluía una "amenaza velada" al hacer referencia a un tiroteo ocurrido en 2017, lo que podría propiciar más violencia. La empresa eliminó el contenido de la cuenta en revisión por infringir su política sobre violencia e incitación. También eliminó 52 contenidos que incluían la canción "Secrets Not Safe" de otras cuentas, incluida la de Chinx (OS). Más tarde, los sistemas automáticos de Meta eliminaron el contenido otras 112 veces.

Meta remitió este caso al Consejo. El Consejo le pidió a Meta que también presentara la publicación del contenido de Chinx (OS). Sin embargo, Meta manifestó que no era posible, ya que el hecho de eliminar el video de "Secrets Not Safe" de la cuenta de Chinx (OS) produjo, en última instancia, la eliminación de la cuenta, y el contenido no se preservó.

Conclusiones principales

El Consejo determinó que eliminar este contenido no fue una medida coherente con las Normas comunitarias de Meta, sus valores o sus responsabilidades con los derechos humanos.

Meta no contaba con pruebas suficientes para concluir que el contenido incluía una amenaza creíble, y la revisión propia del Consejo no encontró pruebas para respaldar tal resolución. Ante la falta de dichas pruebas, Meta debió haber dado más peso a la naturaleza artística del contenido.

Este caso genera inquietudes respecto de las relaciones de Meta con los Gobiernos, en especial, en una situación en la que, a raíz de solicitudes de autoridades policiales, contenido legal se revisó a la luz de las Normas comunitarias y se eliminó. Si bien las autoridades policiales en ocasiones pueden proporcionar contexto y pericia, no todo el contenido que las autoridades policiales preferirían eliminar debe eliminarse. Por lo tanto, es fundamental que Meta evalúe estas solicitudes de forma independiente, en particular, cuando se relacionan con expresiones artísticas de personas pertenecientes a minorías o grupos marginados, cuyo contenido afronta un riesgo crítico de sesgo cultural.

Los canales a través de los cuales las autoridades policiales presentan solicitudes a Meta son aleatorios y confusos. No se exige a las autoridades policiales cumplir con criterios mínimos para justificar sus solicitudes, y por lo tanto, las interacciones no son sistemáticas. Asimismo, los datos que Meta publica sobre las solicitudes gubernamentales son parciales.

La falta de transparencia en torno a la relación de Meta con las autoridades policiales aumenta la posibilidad de que la empresa actúe de forma sesgada. En una solicitud de libertad de información que presentó el Consejo, se descubrió que las 286 solicitudes que la Policía Metropolitana hizo a empresas de medios sociales y servicios de streaming para que se revisara o eliminara contenido musical entre junio de 2021 y mayo de 2022 tuvieron que ver con música drill, que es particularmente popular entre los jóvenes británicos de la comunidad negra. Las plataformas eliminaron contenido a partir de 255 de estas solicitudes. Entre las 21 solicitudes relacionadas con plataformas de Meta, hubo 14 eliminaciones de contenido. El Consejo determinó que, para honrar sus valores y responsabilidades con los derechos humanos, la respuesta de Meta a las solicitudes de las autoridades policiales debe respetar el procedimiento debido y ser más transparente.

Este caso también genera inquietudes en torno al acceso a mecanismos de reparación. Como parte de este caso, Meta manifestó al Consejo que, cuando la empresa toma decisiones relacionadas con el contenido "en etapa de escalamiento", los usuarios no pueden realizar apelaciones al Consejo. Las decisiones "en etapa de escalamiento" son aquellas que toman los equipos de especialistas internos de Meta. De acuerdo con Meta, todas las decisiones sobre solicitudes realizadas por autoridades policiales se toman "en etapa de escalamiento" (a menos que la solicitud se realice mediante una herramienta para reportar contenido disponible públicamente en el producto), ya que son decisiones sobre ciertas políticas que solo pueden aplicar los equipos internos de Meta. La situación se suma a las inquietudes surgidas durante la preparación de la opinión de asesoramiento normativo del Consejo acerca de la verificación cruzada, cuando Meta reveló que, entre mayo y junio de 2022, alrededor de un tercio del contenido del sistema de verificación cruzada no ofrecía la posibilidad de realizar apelaciones al Consejo.

Meta remitió al Consejo contenido escalado en varias ocasiones, incluida esta. No obstante, al Consejo le preocupa que a los usuarios se les niegue el acceso a un mecanismo de reparación cuando Meta toma algunas de sus decisiones relacionadas con contenido más trascendentales. La empresa debe abordar este problema de forma urgente.

La decisión del Consejo asesor de contenido

El Consejo asesor de contenido anuló la decisión de Meta de eliminar el contenido.

El Consejo le recomendó a Meta:

  • Crear un sistema estandarizado para recibir solicitudes de eliminación de contenido de agentes estatales. Este debería incluir la petición de ciertos criterios, por ejemplo, el modo en que se infringió una política y pruebas de ello.
  • Publicar datos sobre las solicitudes de revisión y eliminación de contenido por infracciones contra las Normas comunitarias provenientes de agentes estatales.
  • Revisar regularmente sus datos sobre las decisiones de moderación de contenido iniciadas a partir de solicitudes de agentes estatales para evaluar la existencia de posibles sesgos sistémicos y crear un mecanismo para abordar cualquier sesgo que se detecte.
  • Proporcionar a los usuarios la oportunidad de realizar una apelación al Consejo cuando tome decisiones relacionadas con el contenido "en etapa de escalamiento".
  • Preservar las cuentas y el contenido penalizados o inhabilitados por publicar contenido que esté sujeto a una investigación abierta llevada a cabo por el Consejo.
  • Actualizar su valor de "expresión" para que en este se refleje la importancia de la expresión artística.
  • Aclarar en las Normas comunitarias que, para que contenido se elimine por ser una "amenaza velada", se requieren un indicio principal y otro secundario, y se debe dejar claro cuál es cuál.

Más información

Para leer la decisión completa del caso, haz clic aquí.

Para leer una sinopsis de los comentarios públicos del caso o la respuesta de la Policía Metropolitana a la solicitud de libertad de información que presentó el Consejo, haz clic en los siguientes archivos adjuntos.

Volver a Noticias