Anulado

Afirmación sobre la existencia de una cura para el COVID-19

El Consejo asesor de contenido anuló la decisión de Facebook de eliminar una publicación que, según su criterio, contribuye al riesgo de daño físico inminente.

Tipo de decisión

Estándar:

Políticas y temas

Tema
Información errónea, Salud, Seguridad
Estándar comunitario
Violencia e incitación

Regiones/Países

Ubicación
Francia

Plataforma

Plataforma
Facebook

Para leer esta decisión en francés, haz clic aquí.
Pour lire l’intégralité de la décision en français, veuillez cliquer ici.

Resumen del caso

El Consejo asesor de contenido anuló la decisión de Facebook de eliminar una publicación que, según su criterio, "contribuye al riesgo de daño físico... inminente". El Consejo determinó que la regla de Facebook sobre información errónea y daño inminente (parte de la norma comunitaria sobre violencia e incitación) es confusa e inapropiada, y recomendó, entre otras cosas, que la empresa elabore una nueva norma comunitaria sobre información errónea relativa a la salud.

Información sobre el caso

En octubre de 2020, un usuario publicó un video con un texto en francés en un grupo público de Facebook relacionado con el COVID-19. La publicación manifestaba un presunto escándalo en la Agence Nationale de Sécurité du Médicament (la agencia francesa responsable de regular productos de salud), que se negó a autorizar el uso combinado de hidroxicloroquina y azitromicina contra el COVID-19, pero sí autorizó y promocionó el remdesivir. El usuario criticaba la falta de una estrategia sanitaria en Francia y afirmaba que "la cura de [Didier] Raoult" se usa en otras partes para salvar vidas. La publicación también cuestionaba lo que la sociedad podía perder al permitir que los médicos recetaran un "medicamento inocuo" en una situación de emergencia ante los primeros síntomas de COVID-19.

En la derivación al Consejo, Facebook citó este caso como ejemplo de los desafíos que conlleva abordar el riesgo de daños reales que supone la información errónea sobre la pandemia de COVID-19.

Conclusiones principales

Facebook eliminó el contenido por infringir la regla sobre información errónea y daño inminente, que forma parte de la norma comunitaria sobre violencia e incitación, ya que, según su investigación, contribuía al riesgo de daño físico inminente durante la pandemia. Facebook explicó que eliminó la publicación porque afirmaba la existencia de una cura para el COVID-19 y concluyó que podría llevar a las personas a ignorar las recomendaciones de salud o a automedicarse.

El Consejo observó que, en esta publicación, el usuario se oponía a una política gubernamental y buscaba que se modifique. La combinación de medicamentos que la publicación decía que constituía una cura no es de venta libre en Francia, y el contenido no alienta a las personas a comprar o tomar medicamentos sin receta. Teniendo en cuenta estos y otros factores del contexto, el Consejo señaló que Facebook no había demostrado que la publicación pudiera elevar el riesgo de daño inminente, como se indica en su propia regla incluida en las Normas comunitarias.

Asimismo, el Consejo determinó que la decisión de Facebook no cumplía con las normas internacionales de derechos humanos sobre libertad de expresión. Dado que Facebook cuenta con una gama de herramientas que permiten abordar la información errónea, por ejemplo, ofrece a los usuarios contexto adicional, la empresa no pudo demostrar por qué no eligió una opción menos invasiva que eliminar el contenido.

El Consejo también resolvió que la regla sobre información errónea y daño inminente de Facebook, que la publicación presuntamente infringe, es confusa, inapropiada y no coincide con las normas internacionales de derechos humanos. El entramado de políticas que figuran en diversas partes del sitio web de Facebook no aclara a los usuarios qué contenido está prohibido. Los cambios a las políticas de Facebook sobre el COVID-19 anunciados en Newsroom no siempre se reflejaron en las Normas comunitarias. Incluso algunos de estos cambios parecían contradecirlas.

La decisión del Consejo asesor de contenido

El Consejo asesor de contenido anuló la decisión de Facebook de eliminar el contenido y solicitó que se restaure la publicación.

En una declaración de asesoramiento normativo, el Consejo recomienda que Facebook:

  • Cree una nueva norma comunitaria sobre información errónea relativa a la salud, y consolide y explique las reglas existentes en un solo lugar. Se deberían definir términos clave, como "información errónea".
  • Adopte medidas menos invasivas al aplicar las políticas sobre información errónea relativa a la salud en casos en que el contenido no alcance el límite de daño físico inminente que Facebook definió.
  • Ofrezca mayor transparencia respecto de cómo modera la información errónea relativa a la salud, lo que incluye publicar un informe de transparencia sobre la manera en que se aplicaron las Normas comunitarias durante la pandemia de COVID-19. Esta recomendación se basa en los comentarios públicos que recibió el Consejo.

* Los resúmenes de casos ofrecen información general sobre los casos y no sientan precedentes.

Decisión del caso completa

1. Resumen de la decisión

El Consejo asesor de contenido anuló la decisión de Facebook de eliminar contenido que designaba como información errónea relativa a la salud que "contribuye al riesgo de daño físico... inminente". El Consejo determinó que la decisión de Facebook no cumplía con sus Normas comunitarias, sus valores o las normas internacionales de derechos humanos.

2. Descripción del caso

En octubre de 2020, un usuario publicó un video con un texto en francés en un grupo público de Facebook relacionado con el COVID-19. El texto que acompañaba al video manifestaba un presunto escándalo en la Agence Nationale de Sécurité du Médicament (la agencia francesa responsable de regular productos de salud), que se negó a autorizar el uso combinado de hidroxicloroquina y azitromicina contra el COVID-19, pero sí autorizó y promocionó el remdesivir. El usuario criticaba la falta de una estrategia sanitaria en Francia y afirmaba que "la cura de [Didier] Raoult" se usa en otras partes para salvar vidas. Didier Raoult (a quien se menciona en la publicación) es profesor de microbiología de la Facultad de Medicina de Marsella y dirige el Institut Hospitalo-Universitaire Méditerranée Infection (IHU) en esa ciudad. La publicación también cuestionaba lo que la sociedad podía perder al permitir que los médicos recetaran un "medicamento inocuo" en una situación de emergencia ante los primeros síntomas de COVID-19. El video afirmaba que la combinación de hidroxicloroquina y azitromicina se administraba a pacientes en los primeros estadios de la enfermedad e insinuaba que este no era el caso del remdesivir. La publicación se compartió en un grupo público relacionado con el COVID-19 que tiene más de 500.000 miembros y tuvo aproximadamente 50.000 visualizaciones, de 800 a 900 reacciones (la mayoría fueron "Me enoja", seguidas por "Me gusta") y de 200 a 300 comentarios de 100 a 200 personas diferentes, y se compartió entre 500 y 600 veces. Facebook eliminó el contenido por infringir su norma comunitaria sobre violencia e incitación. Al remitir su decisión al Consejo asesor de contenido, Facebook citó este caso como ejemplo de los desafíos que conlleva abordar el riesgo de daños reales que supone la información errónea sobre la pandemia de COVID-19.

3. Autoridad y alcance

El Consejo tiene autoridad para revisar la decisión de Facebook en virtud del Artículo 2 (Autoridad para realizar la revisión) del acta constitutiva y puede sostener o revertir esa decisión basándose en la sección 5 del Artículo 3 (Procedimientos de revisión: resolución del acta constitutiva). Facebook no presentó los motivos para excluir el contenido de conformidad con la sección 1.2.1 del Artículo 2 (Contenido no disponible para revisión) de los estatutos del Consejo, ni tampoco indicó que considera el caso no elegible en virtud de la sección 1.2.2 del Artículo 2 (Obligaciones legales) de dichos estatutos. En virtud de la sección 4 del Artículo 3 (Procedimientos para revisión: decisiones) del acta constitutiva del Consejo, la decisión final puede incluir una declaración de asesoramiento normativo, que Facebook tendrá en cuenta para guiar el desarrollo de sus políticas a futuro.

4. Normas pertinentes

El Consejo asesor de contenido consideró las siguientes normas en su decisión:

I. Normas comunitarias de Facebook:

La introducción a las Normas comunitarias de Facebook incluye un enlace titulado "COVID-19: Protecciones y actualizaciones de las Normas comunitarias", que reza:

Mientras las personas de todo el mundo se enfrentan a esta emergencia de salud pública sin precedentes, queremos asegurarnos de que nuestras Normas comunitarias protejan a las personas de contenido dañino y nuevos tipos de abuso relacionados con el COVID-19. Estamos trabajando para eliminar contenido que pueda contribuir a causar daños reales, incluso a través de nuestras políticas que prohíben la organización de actos para infringir daños, la venta de mascarillas sanitarias y artículos relacionados, el lenguaje que incita al odio, el bullying y el acoso, y la desinformación que contribuye al riesgo de violencia o daños físicos inminentes.

Facebook indicó que se amparó en la prohibición sobre "información errónea y rumores que no se pueden verificar, que contribuyen al riesgo de violencia inminente o daño físico", incluida en la norma comunitaria sobre violencia e incitación (a la que se hará referencia como "regla sobre información errónea y daño inminente" a partir de ahora). Según la calificación de esta regla, "su aplicación requiere información y contexto adicionales".

Las bases de la política de Facebook sobre violencia e incitación es que busca "evitar daños en el mundo real que puedan relacionarse con contenido en Facebook". Asimismo, Facebook indica que elimina contenido que "incite o favorezca situaciones de violencia grave" y si "considera que existe un riesgo físico genuino o amenazas directas a la seguridad pública".

Si bien Facebook no se basó en la norma comunitaria sobre noticias falsas en este caso, el Consejo mencionó que hay una variedad de opciones de cumplimiento de normas en virtud de esta política que no incluyen eliminar contenido.

II. Valores de Facebook:

La introducción a las Normas comunitarias indica que la "expresión" es un valor fundamental de Facebook. Las Normas comunitarias lo describen de la siguiente manera:

Nuestras Normas comunitarias siempre apuntaron a crear un espacio donde las personas puedan expresarse y dar a conocer su opinión. [...] Queremos que las personas puedan hablar abiertamente sobre los temas que les importan, incluso si otros no están de acuerdo o los consideran objetables.

Sin embargo, la plataforma puede limitar la "expresión" en favor de otros valores, incluida la "seguridad". Facebook define el valor de "seguridad" de la siguiente forma:

nos comprometemos a hacer de Facebook un lugar seguro. La expresión que supone una amenaza para las personas puede intimidar, excluir o silenciar a otros, por lo que no está permitida en Facebook.

III. Normas pertinentes de derechos humanos:

Los Principios Rectores sobre las Empresas y los Derechos Humanos de la ONU (UNGP), respaldados por el Consejo de Derechos Humanos de la ONU en 2011, establecen un marco voluntario que encuadra las responsabilidades de las empresas relacionadas con estos derechos. El Consejo basó su análisis de este caso en las disposiciones de tratados de la ONU y en el asesoramiento acreditado de los mecanismos de derechos humanos de este organismo, incluidos los siguientes:

  • Artículo 19 del Pacto Internacional de Derechos Civiles y Políticos (ICCPR)
  • Observación general n.º 34 del Comité de Derechos Humanos sobre libertad de opinión y libertad de expresión (2011) (observación general n.º 34)
  • Informe del Relator Especial de la ONU sobre la libertad de opinión y expresión, "Las pandemias y la libertad de opinión y de expresión, A/HRC/44/49 (2020), el documento de investigación 1/2019 sobre las elecciones en la era digital (2019) y los informes A/74/486 (2019) y A/HRC/38/35 (2018)

5. Declaración del usuario

Facebook remitió este caso al Consejo asesor de contenido. Facebook confirmó al Consejo que la plataforma envió al usuario una notificación que le informaba sobre la posibilidad de presentar una declaración respecto del caso, pero el usuario no lo hizo.

6. Explicación de la decisión de Facebook

Facebook eliminó el contenido por infringir la regla sobre información errónea y daño inminente en virtud de la norma comunitaria sobre violencia e incitación. Según Facebook, la publicación contribuía al riesgo de daño físico inminente durante la pandemia.

Facebook explicó que eliminó el contenido porque (1) la publicación afirmaba que existe una cura para el COVID-19, argumento que la Organización Mundial de la Salud (OMS) y otras autoridades sanitarias confiables rechazan, y (2) expertos destacados informaron a Facebook que todo contenido que garantice una cura o tratamiento para el COVID-19 podría ocasionar que las personas ignoraran las pautas de salud preventiva o intentaran automedicarse. Facebook explicó que es ese el motivo por el que no permite afirmaciones falsas sobre curas para el COVID-19.

Asimismo, agregó que en casos relacionados con información errónea relativa a la salud, la empresa consulta con la OMS y las principales autoridades de salud pública. Por medio de estas consultas, Facebook identificó diferentes categorías de información errónea sobre el COVID-19, entre ellas, afirmaciones falsas sobre inmunidad (p. ej., "Las personas de treinta años no pueden contraer el virus), prevención (p. ej., "Beber cuatro litros de agua fría concede alrededor de una hora de inmunidad) y tratamientos o curas (p. ej., "Beber una cucharada de lejía cura el virus").

Facebook consideró el caso de suma importancia, ya que tiene que ver con una publicación que se compartió en un grupo público de Facebook grande relacionado con el COVID-19 y, por lo tanto, tenía el potencial de llegar a una gran población en riesgo de contagio. Además, lo estimó un caso difícil porque genera tensión entre sus valores de "expresión" y "seguridad". Para Facebook, se debe preservar la capacidad de debatir y compartir información sobre la pandemia de COVID-19 y de analizar la eficacia de posibles tratamientos y estrategias de mitigación, pero también se debe limitar la difusión de información falsa que podría generar daños.

7. Comentarios de terceros

El Consejo recibió ocho comentarios públicos: uno de Asia-Pacífico y Oceanía, tres de Europa y cuatro de Canadá y los Estados Unidos. Siete de estos comentarios se publicaron junto con este caso, y el restante se presentó para publicación sin consentimiento. Las publicaciones abarcaban diversos temas, entre ellos, la importancia de una transparencia significativa y medidas menos invasivas como alternativas a la eliminación de contenido; una crítica general sobre la censura, el sesgo y el manejo de la información errónea relativa a la pandemia por parte de Facebook, así como opiniones para mejorar el proceso de comentarios públicos.

8. Análisis del Consejo asesor de contenido

8.1. Cumplimiento de las Normas comunitarias

Facebook eliminó el contenido porque, según su criterio, infringía la regla sobre información errónea y daño inminente. Facebook indicó que la publicación incluía información errónea, ya que aseguraba que existía una cura para el COVID-19, lo que contradice la opinión de la OMS y de importantes expertos del sector de salud, que afirman que no la hay. Facebook mencionó que estos expertos advirtieron sobre los efectos dañinos de la información errónea sobre el COVID-19, ya que, al creer en ella, las personas pueden ignorar pautas de precaución o automedicarse. Sobre la base de las recomendaciones generales de estos expertos, Facebook dictaminó que la publicación en cuestión podría contribuir a daño físico inminente. Asimismo, Facebook indicó que, a causa de la información errónea relacionada con el COVID-19, una persona había fallecido tras ingerir una sustancia química usada habitualmente para el tratamiento de acuarios.

Para el Consejo, Facebook no demostró de qué manera la publicación de este usuario contribuía a daño inminente en este caso. En lugar de ello, la empresa parecía establecer una correlación entre la información errónea sobre curas o tratamientos para el COVID-19 y la posibilidad de riesgo inminente. Las Normas comunitarias de Facebook indican que se necesita contexto e información adicionales antes de eliminar contenido en virtud de la regla sobre información errónea y daño inminente. No obstante, estas no explican qué factores contextuales se tienen en cuenta, y Facebook no incluyó ninguno específico en sus bases del caso.

Para decidir si la información errónea contribuye a daño "inminente" según lo define su propia norma, se deben analizar diversos factores contextuales, incluidos el estado y la credibilidad de la persona que habla, el alcance de su discurso, la terminología precisa que usa y si el presunto tratamiento o la supuesta cura ya está disponible para el público vulnerable al mensaje (como la información errónea que menciona Facebook sobre el uso de agua o lejía como cura o prevención para el COVID-19).

En este caso, el usuario cuestiona una política gubernamental o promociona la opinión extensamente conocida aunque minoritaria de un médico. El objeto de la publicación es ejercer presión sobre una agencia gubernamental para modificar esta política; no parece animar a las personas a comprar o tomar determinados medicamentos sin una receta médica. Sigue habiendo grandes dudas sobre cómo la publicación generaría un daño inminente. Si bien algunos estudios indican que la combinación de medicamentos antibióticos y contra la malaria que presuntamente constituyen una cura puede ser dañina, los expertos con los que consultó el Consejo indicaron que estos fármacos se venden solo con receta en Francia. Además, las autoridades francesas no aprobaron la supuesta cura, por lo que no queda claro por qué las personas que lean la publicación se inclinarían a ignorar las precauciones de salud en aras de una cura a la que no pueden acceder. El Consejo también explicó que en este grupo público de Facebook podría haber miembros francoparlantes que viven fuera de Francia. Facebook no abordó los factores contextuales particulares que indican que hay potencial de daño inminente con respecto a dichos usuarios. El Consejo sigue mostrando preocupación respecto de la información errónea relativa a la salud en Francia y en otras partes del mundo (consulta Recomendación de políticas II. b.). En resumen, si bien el Consejo reconoce que, durante una pandemia, toda información errónea puede ocasionar daños, Facebook no pudo proporcionar los factores contextuales que indiquen que esta publicación particular se contempla en su propia regla sobre daño inminente. Por lo tanto, Facebook no actuó de conformidad con su norma comunitaria.

El Consejo también indicó que este caso pone de manifiesto problemas importantes que tienen que ver con distinguir una opinión de un hecho. Además, plantea la pregunta de cuándo la "información errónea" (que no está definida en virtud de las Normas comunitarias) es una caracterización apropiada. También plantea la pregunta de si una presunta afirmación incorrecta desde el punto de vista objetivo en una publicación más general que critica una política gubernamental sería motivo suficiente para eliminar toda la publicación. Si bien no es necesario considerar estos inconvenientes al decidir si Facebook actuó de conformidad con su regla sobre información errónea y daño inminente en este caso, el Consejo los considera fundamentales para las futuras aplicaciones de dicha regla.

8.2. Cumplimiento de los valores de Facebook

El Consejo asesor de contenido determinó que la decisión de eliminar el contenido no cumplía con los valores de Facebook. Las bases de Facebook no demostraron el peligro que supone esta publicación para el valor de "seguridad" de un modo que baste para desplazar el valor de "expresión" en la medida en que se justifique su eliminación.

8.3. Cumplimiento de las normas de derechos humanos sobre la libertad de expresión

Esta sección evalúa si la decisión de Facebook de eliminar la publicación de su plataforma es coherente con las normas internacionales de derechos humanos. El Artículo 2 de nuestra acta constitutiva especifica que debemos prestar particular atención al impacto de eliminar contenido tomando en cuenta las normas de derechos humanos que protegen la libertad de expresión. En virtud de los Principios Rectores sobre las Empresas y los Derechos Humanos de la ONU, se espera que las empresas "realicen sus operaciones respetando las normas internacionales de derechos humanos y aborden las situaciones en las que participen y que afecten de manera negativa estos derechos" (UNGP, Principio 11). Las normas internacionales de derechos humanos se definen en referencia a los instrumentos de la ONU, incluido el Pacto Internacional de Derechos Civiles y Políticos (UNGP, Principio 12). Asimismo, los Principios Rectores especifican que los dictámenes de mecanismos de reclamo no judiciales (como el Consejo asesor de contenido) deberían respetar los derechos humanos de reconocimiento internacional (UNGP, Principio 31). En su explicación sobre las bases por las que eliminó el contenido, Facebook reconoció la capacidad de aplicación de los Principios Rectores y del Pacto Internacional de Derechos Civiles y Políticos a su decisión de moderación del contenido.

El Artículo 19, párrafo 2, del ICCPR protege ampliamente "todo tipo" de expresión. El Comité de Derechos Humanos de la ONU destacó que el valor de la expresión es particularmente alto cuando se debaten asuntos de interés público (observación general n.º 34, párrafos 13, 20, 38). La publicación en cuestión constituye la crítica directa de una política gubernamental y parece que intenta llamar la atención de la Agence Nationale de Sécurité du Médicament. El usuario plantea un asunto de interés público, aunque incluye la invocación y promoción de la opinión de una minoría dentro de la comunidad médica. Aunque una opinión refleje el punto de vista de una minoría, merece el mismo nivel de protección. El usuario pregunta por qué no se les permite a los médicos recetar un determinado medicamento en situaciones de emergencia, pero no anima al público general a actuar de manera independiente respecto de la opinión minoritaria de Raoult.

Dicho esto, el Artículo 19, párrafo 3, del ICCPR permite aplicar restricciones a la libertad de expresión si los encargados de regular el discurso demuestran que se cumplen tres condiciones. En este caso, Facebook debería demostrar que su decisión de eliminar el contenido es legal, legítima y necesaria. El Consejo examina la eliminación de la publicación del usuario por parte de Facebook sobre la base de una prueba que se divide en tres partes.

I. Legalidad

Las personas deben recibir un aviso correspondiente sobre el tipo de discurso que está prohibido en caso de que se restrinja su libertad de expresión, incluidas aquellas acusadas de implementar dichas restricciones (consultar la observación general n.º 34, párrafo 25). En este caso, la prueba de legalidad requiere evaluar si la regla sobre información errónea y daño inminente es confusa e inapropiada. Para empezar, esta regla no incluye la definición de "información errónea". Según el Relator Especial de la ONU sobre la libertad de opinión y expresión, "los términos confusos y muy subjetivos como 'injustificado', 'sesgado', 'falso' y 'falsificado' no describen de forma adecuada el tipo de contenido que está prohibido". (Documento de investigación 1/2019, página 9). Asimismo, proporciona a las autoridades una "amplia competencia para censurar la expresión de opiniones poco populares, controvertidas o minoritarias" (Documento de investigación 1/2019, página 9). Además, dichas prohibiciones imprecisas conceden a las autoridades "la capacidad de determinar la veracidad o falsedad del contenido en el dominio político y público" e "incentivan la autocensura" (Documento de investigación 1/2019, página 9). El Consejo también destaca que, según la categoría de esta política, se necesita información y contexto adicionales para determinar incumplimientos, pero en la evaluación de este caso no se indica qué tipo de información y contexto adicionales son relevantes.

Asimismo, Facebook anunció a través de Newsroom varios cambios a la política relativa al COVID-19, pero no los reflejó en las Normas comunitarias vigentes. Desafortunadamente, los comunicados de Newsroom en ocasiones parecen contradecir lo que dicen las Normas comunitarias. Por ejemplo, en la publicación de Newsroom "Cómo combatimos la desinformación sobre COVID-19 en nuestras apps" (25 de marzo de 2020), Facebook indicó que "quitaría la información errónea relacionada con el COVID-19 que pudiera contribuir a daño físico inminente", lo que supone un límite diferente del que se estipula en la regla sobre información errónea y daño inminente, que aborda la información errónea que "contribuye" a daño inminente. En un artículo del servicio de ayuda de mediados de diciembre de 2020, "Protecciones y actualizaciones de políticas a raíz del COVID-19", Facebook afirmó que:

eliminaría información errónea que contribuya al riesgo de violencia o daños físicos inminentes. En un contexto de pandemia como la de COVID-19, esto se aplica a (...) afirmaciones que indican que existe una 'cura' para el COVID-19, a menos y hasta que la Organización Mundial de la Salud u otra organización de salud importante lo confirmen. Esto no implica que las personas no puedan hablar sobre ensayos o estudios médicos, o relatar experiencias anecdóticas sobre curas o tratamientos para los síntomas conocidos del COVID-19 (p. ej., fiebre, tos, dificultad para respirar).

Este comunicado (que se realizó después de que se eliminara la publicación en cuestión) refleja la naturaleza en constante evolución de las posturas científicas y gubernamentales sobre temas de salud. Sin embargo, esto no se integró en las Normas comunitarias.

Dado el entramado de reglas y políticas que figuran en distintas partes del sitio web de Facebook, la falta de definición de términos clave, como "información errónea", y las diversas normas relativas a si una publicación "podría contribuir" o realmente contribuye a daño inminente, a los usuarios les resulta difícil comprender qué contenido está prohibido. El Consejo determinó que la aplicación de esta regla en este caso es confusa e inapropiada. Por lo tanto, no cumple con la prueba de legalidad.

II. Fin legítimo

La prueba de legitimidad estipula que la eliminación de la publicación por parte de Facebook debería tener un objetivo de interés público legítimo y específico, según el Artículo 19, párrafo 3, del ICCPR (observación general n.º 34, párrafos 28 a 32). El objetivo de proteger la salud pública está estipulado específicamente en este artículo. Según nuestro criterio, el propósito de Facebook de proteger la salud pública durante una pandemia satisfacía esta prueba.

III. Necesidad y proporcionalidad

En cuanto a la prueba de necesidad, Facebook debería demostrar que seleccionó el medio menos invasivo para abordar el objetivo de interés público legítimo (observación general n.º 34, párrafo 34).

Facebook debe demostrar tres cosas:

(1) El objetivo de interés público no se podría abordar con medidas que no infrinjan la libertad de expresión.

(2) Entre las medidas que infringen la libertad de expresión, Facebook seleccionó la menos invasiva.

(3) La medida seleccionada efectivamente permite alcanzar el objetivo y no es ineficaz ni contraproducente (A/74/486, párrafo 52).

Facebook cuenta con diversas opciones para tratar contenido falso y potencialmente dañino relacionado con la salud. El Consejo le preguntó a Facebook si podría haber implementado medios menos invasivos en este caso. Facebook respondió que, en casos de daño inminente, la única medida de cumplimiento de normas es eliminar el contenido. Sin embargo, si lo evalúan socios externos y estos determinan que es falso (pero no se relaciona con daño inminente), implementa una variedad de opciones de cumplimiento de normas que no incluyen la eliminación. Esta respuesta básicamente vuelve a poner de manifiesto el funcionamiento de sus Normas comunitarias, pero no explica por qué la eliminación del contenido fue el medio menos invasivo para proteger la salud pública.

Tal como se menciona en la norma comunitaria sobre noticias falsas, las herramientas que emplea Facebook para abordar este contenido incluyen suspender los incentivos económicos a personas y páginas que promueven información errónea; reducir la distribución de contenido que verificadores de datos independientes hayan clasificado como falso; y brindar a los usuarios contexto e información adicional sobre una publicación particular, incluido a través del Centro de información sobre COVID-19 de Facebook, a fin de combatir la información errónea. El Consejo tomó la política sobre noticias falsas de Facebook no para insinuar que se debería usar para juzgar opiniones, sino para hacer hincapié en que Facebook cuenta con diversas opciones de cumplimiento de normas con las que puede tratar la información errónea, que no incluyen eliminar contenido.

Facebook no explicó por qué en este caso eliminar el contenido constituyó la medida menos invasiva para proteger la salud pública porque, entre otras cosas, no indicó por qué la publicación se relacionaba con un daño inminente, sino que simplemente mantiene este argumento para justificar su accionar. Por lo tanto, la eliminación de la publicación no pasó la prueba de necesidad.

9. Decisión del Consejo asesor de contenido

9.1 Decisión sobre el contenido

El Consejo asesor de contenido decidió anular la decisión de Facebook de eliminar la publicación en cuestión.

9.2. Declaraciones de asesoramiento normativo

I. Facebook debería aclarar sus Normas comunitarias con respecto a la información errónea relativa a la salud, en particular en cuanto al COVID-19.

El Consejo recomienda que Facebook establezca una norma comunitaria clara y accesible sobre información errónea relativa a la salud. De este modo, consolidaría y aclararía las reglas actuales en un solo lugar (esto incluye definir términos clave, como "información errónea"). La elaboración de esta regla debería incluir casos hipotéticos detallados que ilustren los matices de interpretación y aplicación de estas reglas a fin de brindar mayor claridad a los usuarios (consultar el informe A/HRC/38/35, párrafo 46 [2018]). Facebook, en conjunto con partes interesadas relevantes, debería realizar una evaluación sobre el impacto de sus decisiones en los derechos humanos como parte del proceso de actualización de reglas (UNGP, Principio 18 y 19).

II. Facebook debería adoptar medidas de cumplimiento de normas menos invasivas en lo que respecta a la información errónea relativa a la salud.

a.) Para garantizar que dichas medidas representen los medios menos invasivos para proteger la salud pública, el Consejo recomienda a Facebook:

  • Aclarar los daños concretos que busca prevenir y ser transparente respecto de cómo evaluará el daño potencial de determinados elementos de contenido.
  • Realizar una evaluación de la variedad actual de herramientas para tratar la información errónea relativa a la salud.
  • Considerar el potencial de desarrollo de otras herramientas que sean menos invasivas que la eliminación de contenido.
  • Publicar sus diversas opciones de cumplimiento de normas dentro de las Normas comunitarias, y clasificar estas opciones según qué tan invasivas sean en función de cómo infringen la libertad de expresión.
  • Explicar qué factores, incluidos criterios basados en evidencia, usa la plataforma al seleccionar la opción menos invasiva cuando aplica las Normas comunitarias para proteger la salud pública.
  • Aclarar dentro de las Normas comunitarias qué opción de cumplimiento de normas corresponde a cada regla.

b.) En casos en que los usuarios publiquen información sobre tratamientos para el COVID-19 que contradiga las recomendaciones de las autoridades de salud y se detecte potencial de daño físico aunque no inminente, el Consejo recomienda a Facebook adoptar medidas menos invasivas. Entre ellas, se encuentra el etiquetado, que alerta a los usuarios sobre la naturaleza conflictiva del contenido de una publicación y proporciona enlaces a las opiniones de la Organización Mundial de la Salud y las autoridades sanitarias nacionales. En determinadas situaciones, tal vez sea necesario agregar más fricción a una publicación, por ejemplo, evitando que las personas interactúen con ella o la compartan, a fin de reducir la amplificación orgánica o generada por algoritmos. También se puede considerar bajar de categoría el contenido para evitar que otros usuarios lo vean en la sección de noticias. Los usuarios deben conocer con claridad todas las medidas de cumplimiento de normas, como el etiquetado u otros métodos para generar fricción, que deben estar sujetas a apelación.

III. Facebook debería aumentar la transparencia de sus procedimientos de moderación del contenido relacionado con información errónea relativa a la salud.

El Consejo recomienda a Facebook mejorar sus informes de transparencia sobre la moderación del contenido que incluya información errónea relativa a la salud y basarse en los comentarios públicos que recibe:

  • Debe publicar un informe de transparencia sobre cómo se aplicaron las Normas comunitarias durante la crisis mundial por la pandemia de COVID-19, que incluya lo siguiente:
    • Datos en términos totales y porcentuales sobre la cantidad de eliminaciones, así como información sobre otras medidas de cumplimiento de normas, sobre las Normas comunitarias específicas aplicadas, incluso sobre la proporción de eliminaciones que se realizaron completamente por medio del proceso de automatización.
    • Un desglose del tipo de contenido sobre el que se aplicaron las normas (como publicaciones, cuentas y grupos individuales).
    • Un desglose de la fuente de detección (como automatización, reporte de un usuario, socios de confianza, autoridades policiales).
    • Un desglose por región e idioma.
    • Métricas sobre la eficacia de medidas menos invasivas (p. ej., el impacto del etiquetado o el cambio a una categoría inferior).
    • Datos sobre la disponibilidad de apelaciones durante la situación de emergencia, lo que incluye el número total de casos en que se retiró una apelación en su totalidad, y el porcentaje de apelaciones automatizadas.
    • Conclusiones obtenidas y lecciones aprendidas, como información sobre los cambios que Facebook realiza para asegurar un mayor cumplimiento con sus responsabilidades en cuanto a los derechos humanos de cara al futuro.

* Nota de procedimiento:

La preparación de las decisiones del Consejo asesor de contenido está a cargo de paneles conformados por cinco miembros, quienes deben estar de acuerdo por mayoría. Las decisiones del Consejo no necesariamente representan las opiniones personales de todos los miembros.

En cuanto a la decisión del caso, se encargó una investigación independiente en nombre del Consejo. Un instituto de investigación independiente con sede en la Universidad de Gotemburgo y un equipo conformado por más de 50 científicos sociales de seis continentes, así como 3.200 expertos de diferentes países del mundo, ofrecen sus conocimientos sobre contextos culturales y sociopolíticos.

Volver a Decisiones de casos y opiniones consultivas sobre políticas