El Consejo asesor de contenido anuncia nuevos casos y la revisión de las políticas de información errónea sobre el COVID-19 de Meta

Hoy, el Consejo asesor de contenido anunció que aceptó una solicitud de Meta en la que se le pedía una opinión consultiva sobre políticas respecto de la eliminación de información errónea sobre el COVID-19. El Consejo también anunció nuevos casos que tendrá en consideración respecto de la identidad de género y los desnudos, el lenguaje que incita al odio y la invasión de Ucrania por parte de Rusia, y la música drill británica.

Como parte de la opinión consultiva sobre políticas y los nuevos casos, invitamos a personas y organizaciones a presentar comentarios públicos.

  • Enviar comentarios sobre la opinión consultiva sobre políticas en relación con el COVID-19 aquí.
  • Enviar comentarios sobre los casos de "identidad de género y desnudos" aquí.
  • Enviar comentarios sobre el caso del "poema ruso" aquí.
  • Enviar comentarios sobre el caso de "música drill británica" aquí.

Opinión consultiva sobre políticas

Además de revisar casos individuales sobre eliminación o restauración de contenidos, el Consejo también puede aceptar solicitudes de asesoramiento por parte de Meta sobre sus políticas de contenido más amplias. Después de recibir la solicitud de Meta y los aportes de los asesores externos, el Consejo ofrece recomendaciones detalladas sobre los cambios que Meta debería hacer en sus políticas en relación con un tema determinado.

Meta debe hacer pasar las recomendaciones del Consejo por el proceso oficial de desarrollo de políticas y comunicar actualizaciones periódicas al respecto, incluso a través de su sala de prensa. Aunque la opinión consultiva sobre políticas del Consejo no es vinculante, Meta debe dar una respuesta pública y adoptar medidas de seguimiento en un plazo de 60 días a partir de la recepción de las recomendaciones.

A la fecha, el Consejo emitió otras dos opiniones consultivas sobre políticas, publicó la primera de ellas relacionada con la difusión de información residencial privada en Facebook e Instagram en febrero de 2022 y comenzó la revisión del sistema de comprobación de Meta en octubre de 2021.

Eliminación de información errónea sobre el COVID-19 (PAO 2022-01)

Enviar comentario público aquí.

Meta solicitó una opinión consultiva sobre políticas respecto del enfoque empleado con la información errónea sobre el COVID-19, como se detalla en la política sobre información errónea de salud dañina de la empresa.

Puedes consultar la solicitud completa que Meta presentó ante el Consejo aquí.

En su solicitud, Meta le pregunta al Consejo si debería seguir eliminando contenido en virtud de esta política o si se debería adoptar otro enfoque menos restrictivo que concuerde mejor con los valores y las responsabilidades para con los derechos humanos de la empresa.

Meta le informó al Consejo que el enfoque respecto de la información errónea en sus plataformas se basa principalmente en contextualizar afirmaciones potencialmente falsas y reducir su alcance, no en eliminar el contenido. Dado que es difícil definir con precisión lo que constituye información errónea en una amplia variedad de temas, eliminar información errónea a gran escala supone el riesgo de interferir injustamente en la expresión de un usuario. No obstante, la empresa comenzó a adoptar un enfoque diferente en enero de 2020, a medida que se empezaba a notar el impacto generalizado del COVID-19. Meta decidió eliminar de sus plataformas categorías enteras de información errónea sobre la pandemia. Meta afirma que lo hizo porque "expertos en salud externos nos dijeron que la información errónea sobre el COVID-19, como afirmaciones falsas sobre curas, uso de mascarilla, distanciamiento social y la capacidad de transmisión del virus, podría contribuir al riesgo de daño físico inminente".

El enfoque actual de Meta es eliminar la información errónea que es probable que contribuya de manera directa al riesgo de daño físico inminente, así como etiquetar, verificar y degradar la información errónea que no cumple con la norma sobre "daño físico inminente".

Según Meta, "elimina la información errónea de salud dañina si se cumplen los siguientes criterios: (1) hay una emergencia de salud pública; (2) las organizaciones de salud más importantes del mundo o las autoridades sanitarias locales nos indican que una afirmación particular es falsa; y (3) dichas organizaciones o autoridades manifiestan que la afirmación puede contribuir de manera directa al riesgo de daño físico inminente". El artículo sobre el COVID-19 que figura en el servicio de ayuda proporciona una lista de 80 "afirmaciones falsas claras" que la empresa elimina porque "repercuten de manera directa en el riesgo de daño físico inminente, según la evaluación de un experto externo relevante". Dichas afirmaciones incluyen falsas curas, información falsa cuyo fin es disuadir a la gente de someterse a tratamiento, información falsa sobre prevención, sobre la disponibilidad de recursos de salud o el acceso a ellos, o sobre la ubicación o la gravedad del brote de una enfermedad.

En el caso del contenido que no está dentro del ámbito de aplicación de estas normas de eliminación, la empresa recurre a organizaciones de verificación de datos independientes para que revisen y califiquen la precisión del contenido más viral. Los verificadores de datos independientes revisan elementos individuales de contenido y pueden etiquetar el contenido como "falso", "alterado", "parcialmente falso" o "falta contexto". El contenido que se etiqueta como "falso" o "alterado" se cubre con una pantalla de advertencia en la que los usuarios deben hacer clic para ver el contenido. Esta pantalla también incluye enlaces a artículos que proporciona el verificador de datos en los que se exponen argumentos que comprueban la falsedad de la afirmación. El contenido etiquetado como "parcialmente falso" o "falta contexto" tiene una etiqueta menos intrusiva que no oscurece la publicación ni requiere que se haga clic para ver el contenido. Esta etiqueta también incluye un enlace a artículos proporcionados por el verificador de datos. Según Meta, el contenido calificado como "falso", "alterado" o "parcialmente falso" se degrada en el feed de los usuarios, mientras que aquel calificado como "falta contexto" generalmente no.

Asimismo, Meta manifiesta que emplea una medida de reducción de emergencia temporal cuando "hay aumentos repentinos de información errónea sobre una crisis particular en nuestras plataformas y nuestros verificadores de datos externos no dan abasto para calificar dichas afirmaciones". En tales circunstancias, la empresa manifiesta que degrada afirmaciones importantes que se someten a verificación reiteradas veces a gran escala.

En su solicitud, Meta expresa que, en circunstancias limitadas, puede agregar una etiqueta a contenido que no infringe las normas sobre el COVID-19 que dirige a los usuarios al Centro de información sobre COVID-19 de Meta. Según la empresa, "estas etiquetas no indican que se haya emitido una opinión sobre si la publicación es verdadera o falsa".

En su solicitud de una opinión consultiva sobre políticas, Meta hace hincapié en los cambios en el panorama en cuanto al COVID-19 como el motivo por el cual solicita el asesoramiento del Consejo respecto de su enfoque actual. En primer lugar, según Meta, al principio de la pandemia, carecíamos de pautas de las autoridades, lo que "creaba un vacío de información que fomentaba la difusión de rumores, especulaciones e información errónea". En la actualidad, contamos con mayor acceso a información. "Si bien sigue circulando información errónea sobre el COVID-19, se publica con asombrosa velocidad información objetiva basada en datos sobre la pandemia". En segundo lugar, el desarrollo de vacunas, tratamientos terapéuticos y la evolución de las variantes de la enfermedad indican que el COVID-19 tiene menor tasa de mortalidad. Por último, Meta manifiesta que "las autoridades de salud públicas están evaluando activamente si el COVID-19 evolucionó a un estado de menor gravedad". En su solicitud, Meta reconoce ante el Consejo que el trayecto de la pandemia varía y lo seguirá haciendo en todo el mundo, y cita la variación en las tasas de vacunación, los recursos y la capacidad del sistema de atención médica, y la pérdida de confianza en las pautas del Gobierno como factores que contribuyen al efecto probablemente desproporcionado que la enfermedad tendrá en personas de diferentes países.

La solicitud de Meta señala las decisiones anteriores del Consejo sobre el COVID-19, "afirmaciones sobre la cura del COVID-19" y "confinamientos en Brasil debido al COVID-19". Puedes consultar la respuesta de Meta ante las recomendaciones normativas del Consejo en estos casos aquí.

Preguntas que Meta planteó al Consejo:

Meta presentó las siguientes opciones normativas ante el Consejo para su consideración:

  1. Seguir eliminando cierta información errónea sobre el COVID-19. Esta opción implica continuar con el enfoque actual de Meta de eliminar el contenido que contribuye de manera directa al riesgo de daño físico inminente. Meta afirma que, de conformidad con esta opción, la empresa dejaría eventualmente de eliminar información errónea si esta ya no supone riesgo de daños y solicita el asesoramiento del Consejo sobre cómo tomar esta determinación.
  2. Tomar medidas de reducción de emergencia temporales. De conformidad con esta opción, Meta dejaría de eliminar información errónea sobre el COVID-19 y, en su lugar, reduciría la distribución de las afirmaciones. Esto constituiría una medida temporal y la empresa busca que el Consejo la asesore respecto de cuándo dejar de usar dicha medida si se adoptara.
  3. Recurrir a la verificación de datos independiente. En virtud de esta opción, el contenido actualmente sujeto a eliminación se enviaría a verificadores de datos independientes para que lo sometan a evaluación. Meta expresa que "siempre habrá una cantidad limitada de verificadores de datos disponibles para calificar contenido". Si Meta implementara esta opción, los verificadores de datos no podrían revisar todo el contenido sobre el COVID-19 en nuestras plataformas, y parte de este no se revisaría para comprobar su precisión, no se degradaría ni se etiquetaría".
  4. Usar etiquetas. Con esta opción, Meta agregaría etiquetas al contenido que no evitarían que los usuarios lo vean, pero proporcionarían enlaces directos a información fidedigna. Meta considera esta opción como una medida temporal y quiere que el Consejo la asesore respecto de qué factores debería tener en cuenta para decidir dejar de usar estas etiquetas.

Meta le explicó al Consejo que cada una de estas opciones presentan ventajas y desventajas, en particular en cuanto a alcance, precisión y cantidad de contenido afectado. Por motivos técnicos, la empresa recomienda encarecidamente adoptar un enfoque general, en lugar de enfoques por país o región.

Si bien el Consejo considerará las opciones específicas que proporciona Meta, es posible que las recomendaciones y la opinión consultiva sobre políticas del Consejo no se limiten a estas opciones.

El Consejo solicita comentarios del público sobre lo siguiente:

  • La prevalencia y el impacto de la información errónea sobre el COVID-19 en distintos países y regiones, en especial en lugares en los que Facebook e Instagram son el medio principal para compartir información y en los que hay acceso limitado a atención médica, incluidas vacunas.
  • La efectividad de las intervenciones de los medios sociales para abordar la información errónea sobre el COVID-19, por ejemplo, qué impacto tiene en la difusión de información errónea, la confianza en las medidas y los resultados de salud pública, así como el impacto en la libertad de expresión, en particular el discurso cívico y el debate científico.
  • Los criterios que Meta debería aplicar para levantar las intervenciones temporales respecto de la información errónea a medida que las situaciones de emergencia evolucionan.
  • El uso de sistemas algorítmicos o de recomendación para detectar y aplicar intervenciones de información errónea, y tácticas para mejorar la precisión y la transparencia de dichos sistemas.
  • El trato justo que reciben los usuarios que ven afectada su libertad de expresión a causa de las intervenciones de medios sociales para abordar la información errónea sobre salud, incluida la capacidad del usuario de oponerse a la aplicación de etiquetas o de pantallas de advertencia, o a la degradación de su contenido.
  • Principios y prácticas recomendadas para guiar los informes de transparencia relativos a las intervenciones de Meta en respuesta a la información errónea de salud.

Comentarios del público

Una parte importante del proceso del Consejo para el desarrollo de una opinión consultiva sobre políticas consiste en recopilar otras opiniones y conocimientos de personas y organizaciones. Estos aportes les permiten a los miembros del Consejo obtener más conocimientos y comprender cómo las políticas de Meta afectan a diferentes personas en distintas partes del mundo.

Si crees que tú o tu organización pueden hacer aportes valiosos para esta solicitud de opinión consultiva sobre políticas, puedes enviarlos aquí.

El plazo para recibir comentarios del público para la solicitud de opinión consultiva sobre políticas que se anunció hoy se extiende hasta el jueves, 25 de agosto, a las 15:00 UTC.

Este plazo es más largo que el período que se establece para la recepción de comentarios del público de nuevos casos, ya que el proceso de opinión consultiva sobre políticas no tiene las mismas limitaciones de tiempo que las decisiones sobre casos. Además, los comentarios del público pueden tener una extensión máxima de seis páginas y deben presentarse en alguno de los idiomas disponibles en el sitio web del Consejo para permitir una participación más amplia sobre los temas en cuestión. La lista completa de idiomas está disponible en el enlace anterior.

Próximos pasos

Ahora que el Consejo aceptó esta solicitud de opinión consultiva sobre políticas, está recopilando la información necesaria mediante, entre otras acciones, la solicitud de comentarios del público que emitió hoy. Tras las deliberaciones, el Consejo en pleno emitirá su voto en relación con la opinión consultiva sobre políticas. Si se aprueba, se publicará en el sitio web del Consejo.

Casos nuevos

Como no podemos atender todas las apelaciones, el Consejo prioriza los casos que podrían afectar a muchos usuarios de todo el mundo, que sean de suma relevancia para el discurso público o que planteen cuestiones importantes sobre las políticas de Meta.

Estos son los casos que anunciamos hoy:

Identidad de género y desnudos (2022-009-IG-UA 2022-010-IG-UA)

Apelación de un usuario para restaurar contenido en Instagram

Enviar comentarios públicos aquí.

Estos casos se relacionan con dos decisiones de contenido que tomó Meta, que el Consejo asesor de contenido intenta abordar de forma conjunta. Una misma cuenta de Instagram que pertenece conjuntamente a una pareja que reside en los Estados Unidos publicó dos imágenes independientes con descripciones. En ambas imágenes se puede ver a la pareja, la cual indica en la publicación, y en sus respuestas ante el Consejo, que se identifica como transgénero no binaria. En la primera imagen, publicada en 2021, se ve a la pareja desnuda de la cintura para arriba con los pezones cubiertos con cinta adhesiva de color piel (no se pueden ver). En la segunda imagen, publicada en 2022, una de las personas está vestida y la otra tiene el torso descubierto y las manos sobre los pezones. En las descripciones que acompañan a estas imágenes, la pareja manifiesta que la persona que aparece con el torso desnudo pronto se someterá a una cirugía de pecho. Ambas personas manifiestan que tienen pensado documentar el proceso quirúrgico y debatir los problemas de atención médica que experimentan las personas transgénero. Incluyen comunicados de recaudación de fondos para pagar la cirugía.

Meta eliminó ambas publicaciones en virtud de la norma comunitaria sobre servicios sexuales. En ambos casos, los sistemas automatizados de Meta identificaron el contenido como potencialmente infractor.

  • En el primer caso, el reporte se cerró de manera automática sin haberse revisado. Luego, tres usuarios reportaron el contenido tras calificarlo como pornografía y autoagresión. Los moderadores que revisaron manualmente estos reportes determinaron que la publicación no infringe las normas. Cuando se reportó el contenido por cuarta vez, otro revisor determinó que sí infringía las normas y lo eliminó.
  • En el segundo caso, los sistemas automatizados de Meta identificaron dos veces la publicación como potencialmente infractora, se envió a revisión manual y se determinó que no infringía las normas. Más adelante, dos usuarios reportaron el contenido, pero ambos reportes se cerraron automáticamente sin revisarse. Por último, los sistemas automatizados de Meta identificaron el contenido como potencialmente infractor por tercera vez y se sometió a revisión manual. El revisor consideró que la publicación infringía las normas y la eliminó.

Los propietarios de la cuenta apelaron ambas decisiones de eliminación ante Meta, y la empresa mantuvo su decisión de eliminar dichas publicaciones.

Los propietarios de la cuenta apelaron las dos decisiones de eliminación ante el Consejo. El Consejo las analizará en conjunto. En su declaración al Consejo, la pareja expresó principalmente confusión sobre por qué su contenido infringía las políticas de Meta. Asimismo, explicó que los pechos en las fotos no pertenecen a una mujer y que es importante que no se censuren los cuerpos transgénero en la plataforma, en especial cuando los derechos de las personas trans y el acceso de estas a atención médica de afirmación de género se encuentran en riesgo en los Estados Unidos.

Como consecuencia de que el Consejo seleccionara estas publicaciones, Meta identificó las eliminaciones como un "error del sistema de cumplimiento de normas" y las restauró.

Al Consejo le gustaría recibir comentarios del público sobre lo siguiente:

  • Si las políticas de Meta sobre desnudos y servicios sexuales respetan de manera suficiente los derechos de los usuarios trans y no binarios.
  • Si la excepción a la disposición de Meta que prohíbe la exhibición de pezones femeninos en la política sobre desnudos es efectiva en la práctica en el caso de la cirugía de confirmación de género.
  • Si Meta cuenta con procedimientos suficientes para abordar el contenido no infractor reportado y mitigar el riesgo de eliminar contenido por error.
  • Cómo Meta podría mejorar el uso de la automatización para detectar desnudos y servicios sexuales.
  • Información sobre el contexto sociopolítico en los Estados Unidos (y en todo el mundo), en particular en lo que respecta a los desafíos o las limitaciones a la libertad de expresión, incluida la expresión de género y la expresión sobre los derechos de las personas trans y no binarias, y los problemas de acceso a atención médica de afirmación de género.
  • Información sobre el rol de los medios sociales en todo el mundo como recurso y foro de expresión de los usuarios trans y no binarios.

En sus decisiones, el Consejo puede formular recomendaciones de políticas a Meta. Si bien estas recomendaciones no son vinculantes, Meta debe responder a ellas en un plazo de 60 días. El Consejo recibe comentarios del público con recomendaciones que sean relevantes para estos casos.

Poema ruso (2022-008-FB-UA)

Apelación de un usuario para restaurar contenido en Facebook

Enviar comentarios públicos aquí.

En abril de 2022, un usuario de Facebook en Letonia publicó una foto con un texto en ruso en la sección de noticias. En las fotos se observa una calle en la que yace una persona, probablemente muerta. No hay heridas visibles. En el texto, el usuario habla sobre los presuntos crímenes que los soldados soviéticos cometieron en Alemania durante la Segunda Guerra Mundial. Asimismo, afirma que dichos crímenes se excusaron bajo el pretexto de que los soldados se vengaban por el horror que los nazis habían sembrado en la URSS.

El usuario establece una conexión entre la Segunda Guerra Mundial y la invasión de Ucrania, y argumenta que el ejército ruso "se volvió fascista". Manifiesta que el ejército ruso en Ucrania "viola a las niñas, lastima a sus padres, tortura y asesina a personas pacíficas".

Por último, concluye que "después de Bucha, los ucranianos también querrán repetir... y podrán repetir" dichas acciones. Al final de la publicación, el usuario comparte fragmentos del poema "Kill him!" del poeta soviético Konstantin Simonov, incluidas estas líneas: "kill the fascist so he will lie on the ground’s backbone, not you"; "kill at least one of them as soon as you can; Kill him! Kill him! Kill!" (Mata al fascista para que él se vuelva carroña, y no tú; mata al menos a uno de ellos tan pronto como puedas; ¡mátalo!, ¡mátalo!, ¡mata!).

La publicación se visualizó aproximadamente 20.000 veces. El mismo día en que se publicó el contenido, otro usuario lo reportó como "contenido violento y gráfico". En función de la decisión de un revisor, Meta lo eliminó por infringir la norma comunitaria sobre lenguaje que incita al odio. Horas más tarde, el usuario que publicó el contenido presentó una apelación, y un segundo revisor lo evaluó y determinó que infringía la política sobre lenguaje que incita al odio.

El usuario presentó una apelación ante el Consejo asesor de contenido. Luego de que el Consejo seleccionara la apelación para revisión el 31 de mayo de 2022, Meta determinó que había cometido un error en su decisión anterior de eliminar el contenido y lo restauró. El 24 de junio de 2022, 24 días después de que se restableciera el contenido, Meta aplicó una pantalla de advertencia a la foto de la publicación en virtud de la norma comunitaria sobre contenido violento y gráfico, basándose en el argumento de que muestra una muerte violenta.

En su apelación ante el Consejo, el usuario indica que la foto que compartió es la imagen "más inocua" de las que documentan los "crímenes del ejército ruso en la ciudad de Bucha", "en cuyas calles yacen decenas de civiles muertos". El usuario afirma que la publicación no apela a la violencia y trata sobre "la historia del pasado y del presente". Expresa que el poema se dedicó originalmente a la "lucha de los soldados soviéticos contra los nazis" y que lo publicó para demostrar cómo "el ejército ruso se transformó en una analogía del ejército fascista". Como parte de su apelación, indicó que es periodista y que considera importante que las personas entiendan lo que está pasando, en especial en un conflicto bélico.

Al Consejo le gustaría recibir comentarios del público sobre lo siguiente:

  • Cómo las políticas de Meta deberían abordar el lenguaje que incita al odio o la incitación a la violencia sobre la base de la nacionalidad en el contexto de un conflicto armado internacional, incluso cuando estos se dirigen potencialmente a las fuerzas armadas.
  • Cómo Meta debería tener en cuenta las leyes sobre conflictos armados al moderar contenido relacionado con este tema.
  • Si la política de Meta debería distinguir entre ataques a las instituciones (como el ejército y las fuerzas armadas) y a las personas que forman parte de ellas (como los soldados).
  • Información relacionada con la moderación de contenido de Meta que incluye comentarios de periodistas o expresiones artísticas, en particular arte que podría abordar temas sensibles, como la guerra.
  • La obra de Konstantin Simonov, el contexto que la rodea y cómo se hace referencia a ella en la actualidad, incluido en relación con el conflicto en curso.
  • Información relacionada con la difusión y la visibilidad de fotos en las plataformas de Meta que exhiben posibles violaciones a los derechos humanos o crímenes de guerra en conflictos armados.

En sus decisiones, el Consejo puede formular recomendaciones de políticas a Meta. Si bien estas recomendaciones no son vinculantes, Meta debe responder a ellas en un plazo de 60 días. El Consejo recibe comentarios del público con recomendaciones que sean relevantes para este caso.

Música drill británica (2022-007-IG-MR)

Caso remitido por Meta

Enviar comentarios públicos aquí.

En enero de 2022, una cuenta de Instagram que afirma promocionar música británica publicó un video con una breve descripción en su cuenta pública. El clip de 21 segundos es parte del video musical de una canción de drill británico denominada "Secrets Not Safe", del rapero Chinx (OS). En la descripción, se etiqueta a Chinx (OS) y a un artista colaborador, y se promociona el lanzamiento reciente de la canción. El clip de video muestra parte del segundo verso de la canción y la pantalla se funde a negro con el texto "OUT NOW". El drill es un subgénero del rap popular en el Reino Unido, con gran cantidad de artistas activos en Londres.

Poco tiempo después de que se publicara el video, Meta recibió una solicitud de las autoridades policiales del Reino Unido para eliminar el contenido que incluía esta canción. Meta afirma que las autoridades policiales le informaron que dicho contenido incluye elementos que podrían contribuir a daños en la vida real. La empresa también estaba al tanto de que la canción hacía referencia a un tiroteo acontecido tiempo atrás de un modo que preocupaba que pudiera provocar más violencia. Como consecuencia de ello, la publicación se remitió a expertos de Meta para someterla a una revisión interna.

Los expertos de Meta determinaron que el contenido infringía la política sobre violencia e incitación, específicamente la disposición que prohíbe "declaraciones cifradas en las que el método para infligir violencia o daños no se expresa claramente, pero existe una amenaza velada o implícita". Las Normas comunitarias proporcionan una lista de indicios que indicarían que el contenido incluye amenazas veladas o implícitas. Esto incluye contenido que "se comparte en un contexto de represalias" y contenido con "referencias a incidentes de violencia históricos o de ficción". Se solicita siempre más información o contexto para identificar y eliminar las diversas categorías que figuran al final de la política sobre violencia e incitación, incluidas amenazas veladas. Meta le explicó al Consejo que el cumplimiento de las normas en estas categorías no está sujeto a una revisión a gran escala (el proceso de revisión estándar realizado por moderadores externos) y solo lo pueden ejercer los equipos internos de Meta. Asimismo, Meta manifestó que las Normas comunitarias de Facebook se aplican a Instagram.

Cuando Meta eliminó el contenido dos días después de su publicación, también quitó copias del video que publicaron otras cuentas. En función de la información proporcionada por las autoridades policiales del Reino Unido, el equipo de política pública de Meta consideró que la canción "podría aumentar el riesgo de violencia entre pandillas a modo de represalia" y "constituye un llamado a la acción amenazante que podría suponer un riesgo de violencia inminente o daños físicos, incluida violencia entre pandillas a modo de represalia".

Horas después de que se eliminara el contenido, el propietario de la cuenta presentó una apelación. Un revisor que evaluó el contenido determinó que no infringía las normas y lo restauró en Instagram. Al cabo de ocho días, tras una segunda solicitud de las autoridades policiales del Reino Unido, Meta volvió a eliminar el contenido y quitó también otras instancias del video que encontró en sus plataformas. En este caso, la cuenta tiene menos de 1.000 seguidores, la mayoría de los cuales viven en el Reino Unido. El usuario recibió notificaciones de Meta en ambas oportunidades en que se eliminó el contenido, pero no se le informó que esta medida partió de la solicitud de las autoridades policiales del país.

Al abordar este tema ante el Consejo, Meta afirma que se trata de un caso de particular dificultad, ya que implica equilibrar los intereses opuestos de la expresión artística y de la seguridad pública. Meta explica que, si bien la empresa considera la expresión artística de inmenso valor, es difícil determinar cuándo dicha expresión se transforma en una amenaza creíble. Meta le solicita al Consejo que evalúe si, en este caso y de manera más general, los riesgos de seguridad asociados con la potencial instigación a la violencia entre pandillas pesan más que el valor de la expresión artística en la música drill.

Al Consejo le gustaría recibir comentarios del público sobre lo siguiente:

  • La importancia artística y cultural de la música drill británica y cualquier relación entre la difusión de dicha música online y actos de violencia en el mundo real.
  • La responsabilidad de Meta para con los derechos humanos que conlleva respetar la expresión artística, así como garantizar que sus plataformas no se utilicen para incitar a la violencia, y cómo su enfoque respecto de la moderación de contenido musical debería basarse en ello.
  • Si las políticas de Meta sobre violencia e incitación deberían dar margen al humor, la sátira o la expresión artística y, de ser así, cómo se deberían formular y aplicar de forma precisa a gran escala.
  • Cómo las plataformas de medios sociales deberían gestionar las solicitudes de las autoridades policiales para que se revise o se elimine contenido que no infringe leyes nacionales, pero que podría incumplir las reglas de contenido de la plataforma.
  • Cómo las plataformas de medios sociales deberían incorporar solicitudes de las autoridades policiales para que se elimine contenido, en especial aquellas que no se basan en una presunta ilegalidad, en sus informes de transparencia.

En sus decisiones, el Consejo puede formular recomendaciones de políticas a Meta. Si bien estas recomendaciones no son vinculantes, Meta debe responder a ellas en un plazo de 60 días. El Consejo recibe comentarios del público con recomendaciones que sean relevantes para estos casos.

Comentarios del público

Si tú o tu organización consideran que pueden contribuir con perspectivas valiosas que ayuden a tomar una decisión sobre los casos anunciados hoy, puedes enviar tus aportes a través de los enlaces que aparecen arriba. El plazo para recibir comentarios del público se extiende durante 14 días y finaliza el martes, 9 de agosto de 2022, a las 15:00 UTC.

Próximos pasos

En las siguientes semanas, los miembros del Consejo deliberarán sobre estos casos. Cuando hayan tomado sus decisiones finales, las publicaremos en el sitio web del Consejo asesor de contenido. Para recibir notificaciones cuando el Consejo anuncie nuevos casos o publique decisiones, regístrate aquí.

Volver a Noticias