Confirmado

Confinamientos por el COVID-19 en Brasil

El Consejo asesor de contenido ratificó la decisión de Facebook de conservar una publicación realizada por un consejo médico estatal de Brasil, en la que se afirmaba que los confinamientos son ineficaces y que la Organización Mundial de la Salud (OMS) los había condenado.

Tipo de decisión

Estándar:

Políticas y temas

Tema
Gobiernos, Salud
Estándar comunitario
Violencia e incitación

Regiones/Países

Ubicación
Brasil

Plataforma

Plataforma
Facebook

Resumen del caso

El Consejo asesor de contenido ratificó la decisión de Facebook de conservar una publicación realizada por un consejo médico estatal de Brasil, en la que se afirmaba que los confinamientos son ineficaces y que la Organización Mundial de la Salud (OMS) los había condenado.

El Consejo determinó que la decisión de Facebook de mantener el contenido en la plataforma fue coherente con sus políticas de contenido. También detectó que el contenido incluía información imprecisa, lo que generó preocupación teniendo en cuenta la gravedad de la pandemia en Brasil y la posición del consejo como institución pública. Sin embargo, el Consejo precisó que el contenido no presentaba un riesgo de daño inminente y que debía, por lo tanto, permanecer en la plataforma. Por último, el Consejo hizo hincapié en la importancia de implementar medidas que no sean eliminar contenido para contrarrestar la difusión de información errónea sobre el COVID-19 en ciertas circunstancias, como en este caso.

Información sobre el caso

En marzo de 2021, la página de Facebook de un consejo médico estatal de Brasil publicó la imagen de un aviso por escrito sobre medidas para reducir la propagación del COVID-19, cuyo título era "Nota pública contra el confinamiento".

El aviso afirmaba que los confinamientos son ineficaces, van contra los derechos fundamentales de la Constitución y fueron condenados por la OMS. Incluía una supuesta cita del Dr. David Nabarro, representante especial de la OMS para el COVID-19, en la que se afirmaba: "the lockdown does not save lives and makes poor people much poorer" (los confinamientos no salvan vidas y empobrecen mucho más a los pobres). El aviso también afirmaba que en el estado brasileño de Amazonas había aumentado el número de muertes e ingresos hospitalarios tras el confinamiento, lo que demostraba el fracaso de esas restricciones. El aviso afirmaba que los confinamientos provocarían un aumento de los trastornos mentales, el alcoholismo y la drogadicción, y los daños económicos, entre otras cosas. Concluía diciendo que las medidas preventivas eficaces contra el COVID-19 incluían campañas educativas sobre medidas higiénicas, uso de mascarillas, distanciamiento social, vacunación y vigilancia gubernamental, pero nunca la implementación de confinamientos.

La página tiene más de 10.000 seguidores. El contenido se vio alrededor de 32.000 veces y se compartió unas 270 veces. Ningún usuario reportó el contenido. Facebook no tomó ninguna medida contra el contenido y remitió el caso al Consejo. El contenido sigue en la plataforma.

Conclusiones principales

El Consejo concluyó que la decisión de Facebook de mantener el contenido en la plataforma fue coherente con sus políticas de contenido. En la norma comunitaria sobre violencia e incitación, se prohíbe el uso de contenido que incluya información errónea que contribuya al riesgo de violencia o daño físico inminentes. En el artículo del servicio de ayuda al que se puede acceder desde la norma, se indica que Facebook determina si la información es falsa en función de la opinión de autoridades de salud pública. También detectó que el contenido incluía información imprecisa, lo que generó preocupación teniendo en cuenta la gravedad de la pandemia en Brasil y la posición del consejo como institución pública. Sin embargo, el Consejo precisó que el contenido no presentaba un riesgo de daño inminente.

La afirmación de que la OMS había condenado los confinamientos y la cita atribuida al Dr. David Nabarro no son del todo precisas. El Dr. Nabarro no dijo que "lockdown does not save lives" (los confinamientos no salvan vidas), sino que señaló que la OMS "not advocate lockdowns as a primary means of control of this virus" (no defendía los confinamientos como principal medida para el control de este virus) y que tienen como consecuencia "making poor people an awful lot poorer" (empobrecer mucho más a los pobres). La OMS afirmó que "lockdowns are not sustainable solutions because of their significant economic, social broader health impacts. However, during the #COVID19 pandemic there’ve been times when restrictions were necessary and there may be other times in the future" (los confinamientos no son soluciones sostenibles debido a sus repercusiones económicas, sociales y sanitarias en general significativas. Sin embargo, durante la pandemia de #COVID19, hubo momentos en los que las restricciones fueron necesarias y quizá vuelvan a serlo en el futuro).

El Consejo mencionó el argumento de Facebook de que el límite de "daño inminente" no se alcanzó, ya que la OMS y otros expertos sanitarios le aconsejaron a la empresa "eliminar las afirmaciones que combaten ciertas prácticas de salud, como el distanciamiento social", pero no las afirmaciones en contra de los confinamientos. Si bien confirmó que se comunicó con la autoridad de salud pública nacional de Brasil, Facebook señaló que no tiene en cuenta el contexto local al definir el límite de daño inminente para el cumplimiento de la política sobre información errónea y daño.

El Consejo consideró que Facebook debería tener presente el contexto local al evaluar el riesgo de daño físico inminente y el hecho de que una institución pública compartió el contenido, la cual tiene la obligación de proporcionar información confiable. Sin embargo, el Consejo determinó que la publicación no alcanzó el límite de daño inminente en este caso, a pesar de la gravedad de la pandemia en Brasil, ya que en ella se hizo hincapié en la importancia de implementar otras medidas para contrarrestar la propagación del COVID-19 (incluido el distanciamiento social).

Facebook reveló que la publicación cumplía los requisitos para la verificación de datos, pero que los socios de verificación de datos no evaluaron este contenido. El Consejo señaló que el enfoque de Facebook obvió proporcionar contexto adicional a contenido que podía poner en peligro la confianza de las personas en la información pública sobre el COVID-19 y que Facebook debe priorizar el envío de la información potencialmente errónea sobre salud proveniente de autoridades públicas a los socios de verificación de datos.

El Consejo indicó que Facebook antes había definido que el contenido proveniente de políticos no cumple los requisitos para la verificación de datos, pero en sus políticas no quedan claros los criterios de elegibilidad para otros usuarios, como páginas o cuentas administradas por instituciones públicas.

La decisión del Consejo asesor de contenido

El Consejo asesor de contenido ratificó la decisión de Facebook de mantener el contenido en la plataforma.

En una declaración de asesoramiento normativo, el Consejo recomienda que Facebook:

  • Implementara la recomendación del Consejo correspondiente a la decisión del caso 2020-006-FB-FBR, según la cual Facebook debe adoptar medidas menos invasivas cuando el contenido relacionado con el COVID-19 distorsione los consejos de autoridades de salud internacionales y cuando se identifique un posible daño físico que no sea inminente.
  • Priorizara la verificación de datos del contenido marcado como información errónea sobre salud y tuviera en cuenta el contexto local.
  • Ofreciera mayor transparencia en la norma comunitaria sobre noticias falsas respecto de cuándo el contenido cumple los requisitos para la verificación de datos, entre otras cosas, especificar si las cuentas de instituciones públicas están sujetas a la verificación de datos.

* Los resúmenes de casos ofrecen información general sobre los casos y no sientan precedentes.

Decisión del caso completa

1. Resumen de la decisión

El Consejo asesor de contenido ratificó la decisión de Facebook de conservar una publicación realizada por un consejo médico estatal de Brasil, en la que se afirmaba que los confinamientos son ineficaces y que la Organización Mundial de la Salud (OMS) los había condenado. Por lo tanto, el contenido permanecerá en Facebook.

2. Descripción del caso

En marzo de 2021, la página de Facebook de un consejo médico estatal de Brasil publicó la imagen de un aviso por escrito con mensajes en portugués sobre medidas para reducir la propagación del COVID-19, cuyo título era "Nota pública contra el confinamiento". El aviso afirmaba que los confinamientos son ineficaces, van contra los derechos fundamentales de la Constitución y son condenados por la Organización Mundial de la Salud (OMS). Incluía una supuesta cita del Dr. David Nabarro, uno de los representantes especiales de la OMS para el COVID-19, en la que se afirmaba que "the lockdown does not save lives and makes poor people much poorer" (los confinamientos no salvan vidas y empobrecen mucho más a los pobres). El aviso también afirmaba que en el estado brasileño de Amazonas había aumentado el número de muertes e ingresos hospitalarios tras el confinamiento, como prueba del fracaso de esas restricciones. El aviso indicaba que los confinamientos provocarían un aumento de los trastornos mentales, el alcoholismo y la drogadicción, y los daños económicos, entre otras cosas. Concluía diciendo que las medidas preventivas eficaces contra el COVID-19 incluían campañas educativas sobre medidas higiénicas, uso de mascarillas, distanciamiento social, vacunación y amplia vigilancia por parte del Gobierno, pero nunca la decisión de adoptar confinamientos.

La página tiene más de 10.000 seguidores. El contenido se vio alrededor de 32.000 veces y se compartió unas 270 veces. Ningún usuario reportó el contenido. Facebook no tomó ninguna medida contra el contenido y remitió el caso al Consejo. El contenido sigue en la plataforma.

El siguiente contexto fáctico es pertinente para la decisión del Consejo. En el Artículo 1 de la Ley Federal N.º 3268/1957 de Brasil, se indica que los consejos médicos son parte de la administración gubernamental de cada uno de los 26 estados, poseen personalidad jurídica conforme al derecho público y tienen autonomía administrativa y financiera. Los consejos son responsables del registro profesional de los médicos y sus títulos. En el Artículo 2, se señala que son organismos supervisores de la ética profesional y tienen facultades sancionatorias sobre los médicos. Los consejos médicos no tienen autoridad para imponer determinadas medidas, como confinamientos, conforme a la Ley N.º 3268/1957.

Las afirmaciones realizadas en la publicación de que la OMS había condenado los confinamientos y de que el Dr. David Nabarro había dicho que "lockdown does not save lives" (los confinamientos no salvan vidas) no son del todo precisas. El Dr. Nabarro señaló que los confinamientos tienen como consecuencia "making poor people an awful lot poorer" (empobrecer mucho más a los pobres), pero no dijo que "do not save lives" (no salvan vidas). La OMS no condenó los confinamientos, sino que dijo que los confinamientos no son una solución sostenible debido a sus repercusiones económicas, sociales y sanitarias en general significativas, pero que puede haber momentos en que esas restricciones sean necesarias e ideales para preparar medidas de salud pública a largo plazo.

El confinamiento de Amazonas al que se hizo referencia en el aviso compartido por el consejo médico se implementó entre el 25 y el 31 de enero de 2021, conforme al Decreto N.º 43.303 con fecha de 23 de enero de 2021, y se extendió, conforme al Decreto N.º 43.348 con fecha de 31 de enero de 2021, hasta el 7 de febrero de 2021. Mediante estos decretos, se impusieron restricciones temporales sobre el movimiento de las personas en lugares públicos y se suspendió la operación de toda actividad y servicio comerciales, con unas pocas excepciones (incluido el transporte de bienes esenciales y el funcionamiento de mercados, panaderías, farmacias, gasolineras, bancos y unidades de atención médica, entre otros). La policía y otras autoridades hicieron cumplir las medidas de confinamiento. Quienes no respetaran los decretos podían enfrentar muchas sanciones.

3. Autoridad y alcance

El Consejo asesor de contenido tiene la facultad de revisar un amplio conjunto de preguntas que remite Facebook (Artículo 2, sección 1, del acta constitutiva; Artículo 2, sección 2.1, de los estatutos). Las decisiones sobre estas preguntas son vinculantes y pueden incluir declaraciones de asesoramiento con recomendaciones. Estas recomendaciones no son vinculantes, pero Facebook debe responder a ellas (Artículo 3, sección 4 del acta constitutiva).

4. Normas pertinentes

El Consejo asesor de contenido consideró las siguientes normas en su decisión:

I. Normas comunitarias de Facebook:

La introducción a las Normas comunitarias incluye una sección titulada "COVID-19: Actualizaciones y protecciones de las Normas comunitarias". El texto completo dice:

Mientras las personas de todo el mundo se enfrentan a esta emergencia de salud pública sin precedentes, queremos asegurarnos de que nuestras Normas comunitarias protejan a las personas de contenido dañino y nuevos tipos de abuso relacionados con el COVID-19. Estamos trabajando para eliminar contenido quepueda contribuir a causar daños reales, incluso a través de nuestras políticas que prohíben la organización de actos para infringir daños, la venta de mascarillas sanitarias y artículos relacionados, el lenguaje que incita al odio, el bullying y el acoso, yla desinformación que contribuye al riesgo de violencia o daños físicos inminentes.

A medida que la situación avanza, seguimos analizando el contenido de la plataforma, evaluando las tendencias de lo que se dice e interactuando con los expertos. Brindaremos orientación adicional mediante nuestras políticas siempre que corresponda para proteger a los miembros de nuestra comunidad durante esta crisis. [Énfasis agregado].

En la norma comunitaria sobre violencia e incitación, se indica que Facebook prohíbe el contenido que incluye "información errónea y rumores que no se puedan verificar que contribuyan al riesgo de violencia o daños físicos inminentes". Luego dice: "De forma adicional, contamos con reglas y orientación específicas sobre contenido relacionado con el COVID-19 y las vacunas. Para ver estas reglas específicas, haz clic aquí".

De acuerdo con el artículo provisto en el enlace anterior, conforme a esta política, Facebook elimina el contenido que rechaza las prácticas de salud recomendadas que "las autoridades de salud pública sugieren tomar como medida de protección contra el contagio o la propagación del COVID-19", incluidos "el uso de mascarillas, el distanciamiento social, la realización de pruebas de COVID-19 y […] la vacunación contra el COVID-19".

En las bases de la política correspondientes a la norma comunitaria sobre noticias falsas de Facebook, se indica lo siguiente:

Nos tomamos muy en serio la responsabilidad de disminuir la difusión de noticias falsas en Facebook. También somos conscientes de que este tema es complejo y delicado. Queremos ayudar a las personas a mantenerse informadas sin silenciar el debate público productivo. Hay una línea muy delgada entre las noticias falsas y las sátiras o las opiniones. Por eso, no eliminamos las noticias falsas de Facebook, sino que reducimos significativamente su distribución mostrándolas más abajo en la sección de noticias.

En la norma sobre noticias falsas, se ofrece información sobre las distintas opciones de aplicación de políticas que usa Facebook, aparte de la eliminación de contenido:

Estamos trabajando para ayudar a nuestra comunidad a informarse mejor y reducir la difusión de noticias falsas de varias formas. Para hacerlo:

  • Obstaculizamos los incentivos económicos de personas, páginas y dominios que difunden información errónea.
  • Usamos varios tipos de indicios, incluidas las opiniones de nuestra comunidad, como base de un modelo de aprendizaje automático que predice qué historias podrían ser falsas.
  • Reducimos la distribución de contenido calificado como falso por verificadores de datos independientes.
  • Animamos a las personas a decidir por sí mismas qué leer, en quién confiar o qué contenido compartir brindándoles más contexto y promoviendo la educación sobre medios de noticias.
  • Colaboramos con académicos y otras organizaciones para ayudar a resolver este tema complejo.

II. Valores de Facebook:

Los valores de Facebook se describen en la introducción a las Normas comunitarias. La "expresión" se describe como un valor fundamental de Facebook:

Nuestras Normas comunitarias siempre apuntaron a crear un espacio donde las personas puedan expresarse y dar a conocer su opinión, y esta máxima no cambiará. La misión de crear comunidades y unir más al mundo depende de la posibilidad de las personas para compartir diferentes perspectivas, experiencias, ideas e información. Queremos que las personas puedan hablar abiertamente sobre los temas que les importan, incluso si otros no están de acuerdo o los consideran objetables.

Facebook señaló que la "expresión" podría verse limitada en favor de otros cuatro valores, y en este caso, el valor pertinente es "seguridad":

nos comprometemos a hacer de Facebook un lugar seguro. La expresión que supone una amenaza para las personas puede intimidar, excluir o silenciar a otros, por lo que no está permitida en Facebook.

III. Normas de derechos humanos:

Los Principios Rectores sobre las Empresas y los Derechos Humanos de la ONU (UNGP), respaldados por el Consejo de Derechos Humanos de la ONU en 2011, establecen un marco voluntario que encuadra las responsabilidades de las empresas privadas en cuanto a estos derechos. En marzo de 2021, Facebook anunció su Política corporativa de derechos humanos, en la que reafirma su compromiso a respetar los derechos de conformidad con los Principios Rectores sobre las Empresas y los Derechos Humanos de la ONU. El análisis del Consejo en este caso se basó en las siguientes normas de derechos humanos:

  • Derecho a la libertad de opinión y expresión: Artículo 19 del Pacto Internacional de Derechos Civiles y Políticos (ICCPR), observación general n.º 34, Comité de Derechos Humanos (2011); informes del Relator Especial de la ONU sobre la libertad de opinión y expresión: A/HRC/38/35 (2018), A/74/486 (2019), A/HRC/44/49 (2020), A/HRC/47/25 (2021); "Joint Declaration on Freedom of Expression and 'Fake News', Disinformation and Propaganda", FOM.GAL/3/17 (2017).
  • Derecho a la salud: Artículo 12 del Pacto Internacional de Derechos Económicos, Sociales y Culturales (ICESCR); observación general n.º 14 del Comité de Derechos Económicos, Sociales y Culturales (2000).
  • Derecho a la vida: Artículo 6 del ICCPR.

5. Declaración del usuario

Facebook remitió este caso al Consejo asesor de contenido. Facebook le confirmó al Consejo asesor de contenido que envió al usuario una notificación para avisar que el caso había sido remitido al Consejo y le dio la posibilidad al usuario de enviar información sobre este caso, pero el usuario no presentó ninguna declaración.

El Consejo indicó que la notificación que envió Facebook da al usuario la posibilidad de presentar información. No obstante, al Consejo le preocupa que Facebook no proporcionara al usuario suficiente información para que pudiera presentar una declaración de forma adecuada. Las notificaciones que Facebook muestra al usuario indican los temas generales relacionados con el caso, pero no proporcionan una explicación detallada de los motivos por los que el contenido se remite al Consejo y las políticas relevantes que podrían aplicarse en contra de este.

6. Explicación de la decisión de Facebook

Facebook no tomó ninguna medida contra el contenido e indicó cuando remitió el caso al Consejo que es "complicado porque este contenido no infringe las políticas de Facebook, pero algunas personas pueden usarlo como argumento para adoptar ciertas medidas de seguridad durante la pandemia". Explicó que "un equipo interno de Facebook familiarizado con la región detectó informes de la prensa sobre el contenido del caso y marcó el caso para revisión. Los revisores determinaron que el contenido no infringía las políticas de Facebook".

Facebook afirmó que prohíbe la información errónea que pudiera "contribuir al riesgo de violencia o daño físico inminentes" y que consulta con la OMS, los Centros para el Control y la Prevención de Enfermedades de los EE. UU. y otras autoridades de salud pública líderes a fin de determinar si cierta afirmación falsa sobre el COVID-19 pudiera contribuir al riesgo de daño físico inminente. Facebook dijo que el contenido en este caso no reunía esos criterios. Afirmó que "la OMS no indica que criticar las medidas de confinamiento pudiera contribuir al riesgo de daño físico inminente" y que "aunque la Organización Mundial de la Salud y otros expertos en salud le aconsejaron a Facebook que eliminara las afirmaciones en contra de prácticas sanitarias específicas, como el distanciamiento social, no se pronunciaron en contra de las afirmaciones que descalifican los confinamientos".

En respuesta a una pregunta del Consejo sobre cómo Facebook define el límite entre medidas de confinamiento y distanciamiento social, Facebook señaló que "la OMS define 'confinamiento' como medidas de distanciamiento físico a gran escala y restricciones en el movimiento implementadas por el Gobierno. Por otro lado, el 'distanciamiento social' es la práctica de un individuo de mantenerse a cierta distancia física de otra persona. En teoría, los confinamientos pueden incluir distanciamiento social como requisito".

Facebook también indicó que "en este caso, la publicación cumplía los requisitos para ser calificada por nuestros verificadores de datos externos, pero que ellos no calificaron este contenido. [sic] y no se bajó su calificación ni se etiquetó como noticia falsa". Facebook agregó que sus socios de verificación de datos son independientes y que "no especula sobre por qué califican o no las publicaciones que cumplen los requisitos, incluida esta".

Facebook indicó que no adopta diferentes enfoques respecto del límite correspondiente a la información errónea sobre salud según el contexto de distintos países (sus políticas son de alcance mundial). Expresó que consulta con las autoridades de salud pública líderes al elaborar sus políticas y confirmó en sus respuestas a las preguntas del Consejo que se comunicó con la autoridad de salud pública nacional de Brasil.

7. Comentarios de terceros

El Consejo asesor de contenido recibió 30 comentarios del público sobre este caso. Tres comentarios se enviaron desde Asia-Pacífico y Oceanía; uno, desde Asia central y meridional; nueve, desde Latinoamérica y el Caribe, y 17, desde EE. UU. y Canadá.

Diversas organizaciones y personas enviaron comentarios, incluidos varios investigadores y organizaciones de Brasil. Los comentarios abarcaron los siguientes temas: importancia de considerar el contexto brasileño, incluido el impacto del COVID-19 y el contexto político; debate y análisis del impacto de medidas de aplicación de políticas alternativas, como etiquetar y bajar la calificación del contenido, y la naturaleza influyente del usuario como autoridad médica.

Los comentarios que brindaron más contexto sobre la situación de Brasil destacaron la politización de la emergencia sanitaria en dicho país (PC-10105), que el cumplimiento de las medidas decretadas por políticas públicas basadas en evidencia para combatir el COVID-19 se vieron afectadas por las fuerzas políticas de Brasil que rechazaban esas medidas (PC-10100) y que, debido a un contexto en el que "confinamiento" se convirtió en un término político popular, las afirmaciones contra los confinamientos podían también fomentar la oposición a otras medidas de seguridad (PC-10106). Los investigadores centrados en la desinformación en Brasil también determinaron que las autoridades públicas tienen un impacto mucho mayor al compartir información errónea (PC-10104).

Si quieres leer los comentarios del público que se enviaron en relación con este caso, haz clic aquí.

8. Análisis del Consejo asesor de contenido

8.1. Cumplimiento de las Normas comunitarias

El Consejo concluyó que la decisión de Facebook de mantener el contenido en la plataforma fue coherente con sus políticas de contenido. En la norma comunitaria sobre violencia e incitación, se prohíbe el uso de contenido que incluya información errónea que contribuya al riesgo de violencia o daño físico inminentes. En el artículo del servicio de ayuda al que se puede acceder desde la norma comunitaria sobre violencia e incitación, se indica que Facebook elimina el contenido falso conforme a esta política en función de orientaciones anteriores obtenidas de autoridades de salud pública. Si bien el Consejo determinó que el contenido incluía información errónea (consulta a continuación), el contenido no representaba un riesgo de daño inminente.

En la publicación, se afirmaba que los confinamientos son ineficaces y que la OMS los condenó, y se incluyó una supuesta cita del doctor oficial de la OMS David Nabarro que decía que "the lockdown does not save lives and makes poor people much poorer" (los confinamientos no salvan vidas y empobrecen mucho más a los pobres). Esta información no es del todo precisa. La parte de la cita del doctor oficial de la OMS David Nabarro que decía que "lockdown does not save lives" (los confinamientos no salvan vidas) no es precisa. El Dr. Nabarro afirmó que la OMS "not advocate lockdowns as a primary means of control of this virus" (no defiende los confinamientos como principal medida para el control del virus) y que tienen como consecuencia "making poor people an awful lot poorer" (empobrecer mucho más a los pobres), pero no dijo que "lockdown does not save lives" (los confinamientos no salvan vidas). La OMS afirmó que "lockdowns are not sustainable solutions because of their significant economic, social broader health impacts. However, during the #COVID19 pandemic there’ve been times when restrictions were necessary and there may be other times in the future… Because of their severe economic, social broader health impacts, lockdowns need to be limited in duration. They’re best used to prepare for longer-term public health measures. During these periods, countries are encouraged to lay the groundwork for more sustainable solutions" (Los confinamientos no son soluciones sostenibles debido a sus repercusiones económicas, sociales y sanitarias en general significativas. Sin embargo, durante la pandemia de #COVID19, hubo momentos en los que las restricciones fueron necesarias y quizá vuelvan a serlo en el futuro. Debido a sus graves repercusiones económicas, sociales y sanitarias en general, los confinamientos deben ser de duración limitada. Son ideales para preparar medidas de salud pública a largo plazo. Durante estos períodos, se anima a los países a sentar las bases para soluciones más sostenibles).

El Consejo mencionó el argumento de Facebook de que el límite de "daño inminente" no se alcanzó, ya que la Organización Mundial de la Salud y "otros expertos sanitarios" le aconsejaron a la empresa "eliminar las afirmaciones que combaten ciertas prácticas de salud, como el distanciamiento social", pero no las afirmaciones en contra de los confinamientos. A pesar de que confirmó que se comunicó con "la autoridad de salud pública nacional de Brasil", Facebook destacó que no tiene en cuenta el contexto local al definir el límite de "daño inminente" para el cumplimiento de la política sobre información errónea y daño.

No obstante, el Consejo consideró que Facebook debió tener presente el contexto local y la situación actual de Brasil al evaluar el riesgo de daño físico inminente. Según destacaron los expertos que el Consejo consultó, así como varios comentarios del público enviados por organizaciones e investigadores de Brasil, la pandemia de COVID-19 ya causó más de 500.000 muertes en el país, uno de los peores índices de muertes por millón de habitantes del mundo. Los expertos consultados y algunos comentarios del público también remarcaron la politización de las medidas para contrarrestar la propagación del COVID-19 en el país.

En vista de la situación y el contexto de Brasil, al Consejo le preocupa que la difusión de información errónea sobre el COVID-19 en el país pueda poner en riesgo la confianza de las personas en la información pública sobre las medidas adecuadas para contrarrestar la pandemia, lo que podría aumentar la posibilidad de que los usuarios adopten comportamientos peligrosos. El Consejo entiende que esto justificaría un enfoque más matizado por parte de Facebook en el país e intensificaría sus iniciativas para contrarrestar la información errónea allí, como el Consejo propone en la Recomendación n.º 2 que figura a continuación. Sin embargo, el Consejo determinó que la publicación no alcanzó el límite de daño inminente, ya que hablaba sobre una medida que las autoridades de salud pública no sugieren incondicionalmente y hacía hincapié en la importancia de implementar otras medidas para contrarrestar la propagación del COVID-19 (incluido el distanciamiento social).

En sus respuestas a las preguntas del Consejo sobre este caso, Facebook reconoció que la publicación cumplía los requisitos para la verificación de datos conforme a la norma comunitaria sobre noticias falsas, pero que los socios de verificación de datos no evaluaron este contenido. El Consejo entiende que es posible que estos socios no logren analizar todo el contenido marcado como información errónea por los sistemas automatizados, los equipos internos o los usuarios de Facebook. Sin embargo, el Consejo señaló que el enfoque de Facebook respecto de la información errónea obvió proporcionar contexto adicional a cierto contenido que podría poner en riesgo la confianza de las personas en la información pública sobre el COVID-19 y podría socavar la eficacia de las medidas que, en determinas circunstancias, podrían ser esenciales. Facebook debe priorizar el envío del contenido que llegue a su conocimiento y parezca incluir información errónea sobre salud compartida por autoridades públicas a los socios de verificación de datos, en especial, durante la pandemia. El Consejo emitió una recomendación en relación con esto en la sección 10. El Consejo también indicó que Facebook antes había definido que "las opiniones y los discursos" de políticos no cumplen los requisitos para la verificación de datos, pero en sus políticas no quedan claros los criterios de elegibilidad para otros usuarios, como páginas o cuentas administradas por instituciones públicas y estatales. El Consejo indicó que el contenido compartido por instituciones públicas y estatales debe ser elegible para la verificación de datos.

8.2 Cumplimiento de los valores de Facebook

El Consejo determinó que la decisión de Facebook de no tomar medidas contra este contenido fue coherente con su valor de "expresión". Si bien el valor de "seguridad" de Facebook es importante, en especial, en el contexto de la pandemia, este contenido no representaba un peligro inminente para el valor de "seguridad" que justificara el desplazamiento de la "expresión".

8.3 Cumplimiento de las responsabilidades de Facebook con los derechos humanos

Libertad de expresión (Artículo 19 del ICCPR)

El Artículo 19, párrafo 2, del ICCPR protege ampliamente "todo tipo" de expresión. El Comité de Derechos Humanos de la ONU destacó que el valor de expresión es particularmente alto cuando están involucradas instituciones públicas o se debaten asuntos de interés público (observación general n.º 34, párrafos 13, 20 y 38). Como institución establecida por ley, el consejo médico es una institución pública que tiene obligaciones respecto de los derechos humanos, incluso la obligación de garantizar la difusión de información confiable y fidedigna sobre asuntos de interés público (A/HRC/44/49, párrafo 44).

El Consejo indicó que, a pesar de que los consejos médicos no tienen autoridad para imponer ciertas medidas, como los confinamientos, cabe señalar que son parte de la administración gubernamental estatal y que podrían influir en las autoridades que deciden la implementación de medidas para contrarrestar la propagación del COVID-19.

El Consejo afirmó que la publicación se relacionaba con un debate más amplio e importante de Brasil sobre las medidas adecuadas para contrarrestar la propagación del COVID-19 en el país. Además, debido a que una página de Facebook de un consejo médico de Brasil compartió la publicación, existe un mayor interés general en sus visualizaciones como institución sobre asuntos de salud pública. El Consejo reconoció la importancia de que expertos profesionales dieran sus perspectivas a la hora de elaborar políticas relacionadas con la salud pública.

El derecho a la libertad de expresión es fundamental e incluye el derecho a recibir información, incluso de parte de entidades gubernamentales (aunque este derecho no es categórico). Si un estado impone las restricciones, deben cumplir los requisitos de legalidad, fin legítimo y necesidad y proporcionalidad (Artículo 19, párrafo 3, del ICCPR). Facebook reconoció sus responsabilidades en cuanto al respeto de las normas internacionales de derechos humanos conforme a los UNGP. De acuerdo con el marco de los UNGP, en el informe del Relator Especial de la ONU sobre la libertad de opinión y expresión, se apeló a las empresas de medios sociales a garantizar que sus reglas de contenido se rijan por los requisitos del Artículo 19, párrafo 3, del ICCPR (para las reglas de contenido sobre desinformación, consultar A/HRC/47/25, párrafo 96; para las reglas de contenido más generales, consultar A/HRC/38/35, párrafos 45 y 70). El Consejo examinó si la eliminación de la publicación estaría justificada por la prueba de tres partes de acuerdo con las responsabilidades de Facebook respecto de los derechos humanos.

I. Legalidad (claridad y accesibilidad de las reglas)

El Artículo 19, párrafo 3, del ICCPR, exige que toda regla que un Estado imponga para limitar la libertad de expresión sea clara, precisa y de acceso público (observación general n.º 34, párrafo 25). Las personas deben contar con suficiente información para determinar si su acceso a la información podría estar limitado y cómo podría estarlo. Para proteger estos derechos, también es importante que los organismos públicos sean capaces de comprender con claridad las reglas que rigen sus comunicaciones en la plataforma y de ajustar su comportamiento en consecuencia. En la observación general n.º 34, también se remarca que las reglas impuestas no pueden conferir una discrecionalidad absoluta para restringir la libertad de expresión a los encargados de su implementación (párrafo 25). Facebook también tiene la responsabilidad de garantizar que sus reglas cumplan con el principio de legalidad (A/HRC/38/35, párrafo 46).

En la decisión del caso 2020-006-FB-FBR, el Consejo determinó que era difícil para los usuarios comprender qué contenido relacionado con información errónea sobre salud está prohibido conforme a las Normas comunitarias de Facebook si se tiene en cuenta la diversidad de reglas pertinentes (incluida la información errónea que contribuye al riesgo de daño inminente conforme a "violencia e incitación"). El Consejo también señaló la falta de definiciones públicas de términos clave, como "información errónea", y concluyó que, debido a esto, la norma comunitaria sobre violencia e incitación es "confusa e inapropiada" cuando se aplica a la información errónea. En relación con esto, en el informe del Relator de la ONU sobre la libertad de expresión, se indicó que el principio de legalidad debe aplicarse en todo enfoque sobre la información errónea, ya que se trata de un concepto extraordinariamente elusivo para definir en el ámbito del derecho, propenso a otorgar a las autoridades ejecutivas excesiva discreción (A/HRC/44/49, párrafo 42). Para abordar estos temas, el Consejo recomendó que Facebook "estableciera una norma comunitaria clara y accesible sobre la información errónea relativa a la salud. De este modo, consolidaría y aclararía las reglas actuales en un solo lugar".

En respuesta a la recomendación del Consejo, Facebook publicó el artículo del servicio de ayuda "Protecciones y actualizaciones de políticas a raíz del COVID-19 y las vacunas", al que se puede acceder desde la política sobre información errónea y daño, en la norma comunitaria sobre violencia e incitación. En este artículo, Facebook menciona todas las políticas pertinentes relativas al COVID-19 y las vacunas correspondientes a varias normas comunitarias y ofrece ejemplos de tipos de contenido que infringen las normas. Este artículo también está disponible en portugués.

Si bien el artículo del servicio de ayuda brinda información útil para que los usuarios comprendan cómo se aplica la política, también agrega varias fuentes de reglas distintas de las Normas comunitarias. Asimismo, el artículo no es lo suficientemente accesible para el público (observación general n.º 34, párrafo 25) si se tiene en cuenta que solo pueden acceder a él las personas que pueden iniciar sesión en Facebook. Además, solo se incluye un enlace a este en la norma comunitaria sobre violencia e incitación, y no en otras Normas comunitarias pertinentes ni en el comunicado sobre el COVID-19 en la introducción a las Normas comunitarias.

El Consejo también reitera la cuestión planteada en la sección 5 anterior, según la cual Facebook no proporciona a los usuarios suficiente información para presentar una declaración ante el Consejo.

II. Fin legítimo

Cualquier restricción que se aplique a la libertad de expresión debe tener un "fin legítimo". Facebook tiene la responsabilidad de garantizar que sus reglas cumplan con el principio de legitimidad (A/HRC/38/35, párrafo 45). El ICCPR enumera los fines legítimos en el Artículo 19, párrafo 3, que incluyen la protección de los derechos de los demás, así como la protección de la salud pública.

III. Necesidad y proporcionalidad

Toda restricción que se aplique a la libertad de expresión debe ser adecuada a fin de cumplir su función de protección; debe ser el instrumento menos invasivo entre aquellos que le permitan cumplir dicha función; debe ser proporcional al interés que se busca proteger (observación general n.º 34, párrafo 34). Facebook tiene la responsabilidad de garantizar que sus reglas respeten los principios de necesidad y proporcionalidad (A/HRC/38/35, párrafo 47).

El Consejo evaluó si era necesario eliminar el contenido para proteger la salud pública y el derecho a la salud, de conformidad con las responsabilidades de Facebook respecto de los derechos humanos. Quien compartió el contenido fue la página de un consejo médico, una parte de la administración gubernamental estatal que podría, a través de la información que comparte, influir en las decisiones de otras autoridades públicas y en el comportamiento de las personas en general.

El Consejo señaló que es importante que Facebook considere si una página o cuenta es administrada por una institución pública, como en este caso, porque esas instituciones no deben realizar, patrocinar, fomentar ni difundir de ningún otro modo declaraciones que saben o deberían saber dentro de lo razonable que son falsas o que manifiestan una imprudencia temeraria respecto de información verificable (informe del Relator Especial de la ONU sobre la libertad de expresión, A/HRC/44/49, párrafo 44; "Joint Declaration on Freedom of Expression and 'Fake News', Disinformation and Propaganda", FOM.GAL/3/17, párrafo 2 [c]). Además, los agentes estatales deben "de acuerdo con sus obligaciones legales nacionales e internacionales, y sus compromisos públicos, asegurarse de difundir información confiable y fidedigna, incluso cuando se trate de asuntos de interés público, como la economía, la salud pública, la seguridad y el medioambiente" (ibíd., párrafo 2 [d]). Esta obligación es especialmente importante cuando la información se relaciona con el derecho a la salud, en particular, durante una pandemia mundial.

Una minoría piensa que la norma citada de la Declaración conjunta no tiene vigencia en el presente caso y que otras autoridades de la legislación internacional de derechos humanos contradicen la definición usada en la Declaración conjunta. La norma de la Declaración conjunta se refiere a la desinformación difundida por instituciones públicas, mientras que, en el presente caso, la decisión califica de forma expresa la declaración impugnada como información errónea. Como se hace hincapié en el informe del Relator Especial, el uso intercambiable de dos conceptos pone en riesgo el derecho a la libertad de expresión (A/HRC/47/25, párrafo 14). "Se entiende por 'desinformación' la información falsa que se difunde de forma intencional para causar daño social grave y por 'información errónea' la difusión de información falsa sin saberlo. Los términos no pueden usarse de forma intercambiable" (párrafo 15). En el presente caso, no se demostró que el usuario, un consejo médico, debería haber sabido dentro de lo razonable que la declaración difundida es falsa. La minoría cree que, si bien la declaración incluye información imprecisa, integralmente, es una opinión relacionada con un hecho, que es legítima en un debate público. A pesar de que expertos y agencias de salud pública de la mayoría del mundo aceptaron ampliamente los confinamientos, su eficacia está sujeta a un debate razonable. Además, aunque el consejo sea parte de la administración pública, no puede considerarse en el presente contexto como agente estatal, ya que sus poderes se limitan a sus miembros y no se trata de una autoridad pública que tenga poder legal para influir en una decisión relativa a un confinamiento ni para concretarla.

La mayoría entiende la perspectiva de la minoría, pero disiente respetuosamente de ella. De acuerdo con las normas anteriores, las autoridades públicas tienen la obligación de verificar la información que proporcionan al público. Esta obligación no desaparece cuando la información falsa difundida no se relaciona directamente con sus deberes legales.

Facebook argumentó que el límite de daño físico inminente no se alcanzó en este caso, ya que autoridades sanitarias, como la Organización Mundial de la Salud y otros expertos, le recomendaron a la empresa que eliminara la información errónea sobre ciertas prácticas, como el distanciamiento social, pero no hicieron lo mismo respecto de los confinamientos. Asimismo, el Consejo indicó que, en este caso, el consejo médico no usó el contenido como fundamento para la implementación de medidas de salud pública que pudieran generar riesgos, ya que el consejo no tiene la autoridad para decidir sobre estos asuntos. Por estos motivos y siguiendo el análisis del Consejo correspondiente a la decisión del caso 2020-006-FB-FBR, el Consejo consideró que la decisión de Facebook de mantener el contenido en la plataforma está justificada, dado que no se alcanzó el límite de daño físico inminente. Sin embargo, como ya se mencionó, el Consejo destacó que la difusión de información errónea sobre salud pública puede afectar la confianza en la información pública y la eficacia de ciertas medidas que, en palabras de la Organización Mundial de la Salud, podrían ser esenciales en ciertos contextos. En estos casos, como se sugirió en el informe del Relator Especial sobre libertad de expresión de la ONU, el daño causado por la información falsa o engañosa puede mitigarse compartiendo información confiable (A/HRC/44/49, párrafo 6). Las medidas alternativas o menos invasivas pueden proporcionar al público más contexto y favorecer el derecho a acceder a información relacionada con salud precisa. En este caso en particular, Facebook debe proporcionar al público más contexto sobre las afirmaciones del Dr. Nabarro y la postura de la Organización Mundial de la Salud sobre los confinamientos mencionadas anteriormente.

El Consejo recordó que, en la decisión del caso 2020-006-FB-FBR, recomendó que Facebook debía considerar medidas menos invasivas que la eliminación de la información errónea que pudiera ocasionar formas de daño físico no inminentes. Estas medidas están disponibles en la norma comunitaria sobre noticias falsas (como se mencionó anteriormente en la sección 8.1). La recomendación del Consejo es que Facebook debe remitir a sus socios de verificación de datos de forma prioritaria el contenido que llegue a su conocimiento y que pertenezca a administraciones gubernamentales estatales normalmente capaces de influir en la opinión pública y las conductas de las personas en torno a la salud, cuando en él se presente una postura pública sobre temas controversiales relacionados con políticas de salud (en particular, en el contexto de una pandemia). El Consejo reconoció que el enfoque de Facebook respecto de la verificación de datos recibió críticas, pero debido a que los verificadores de datos no revisaron esta publicación, este caso no es una ocasión adecuada para considerar esos problemas.

9. Decisión del Consejo asesor de contenido

El Consejo asesor de contenido ratificó la decisión de Facebook de mantener el contenido en la plataforma.

10. Declaraciones de asesoramiento normativo

Implementación de la recomendación del Consejo correspondiente a la decisión del caso 2020-006-FB-FBR

1. Facebook debería llevar a cabo un análisis de proporcionalidad para identificar un conjunto de medidas menos invasivas que la eliminación del contenido. Cuando fuera necesario, se deberían usar medidas menos invasivas en los casos en que el contenido relacionado con el COVID-19 distorsione los consejos de autoridades de salud internacionales y cuando se identifique un posible daño físico que no sea inminente. Las medidas recomendadas incluyen las siguientes: (a) etiquetar el contenido para alertar a los usuarios sobre la naturaleza controversial del contenido de una publicación y proporcionar enlaces a las perspectivas de la Organización Mundial de la Salud y autoridades sanitarias nacionales; (b) generar fricción en las publicaciones para evitar que interactúen con ellas o las compartan, y (c) bajar la calificación para disminuir la visibilidad en la sección de noticias de otros usuarios. Todas estas medidas de aplicación de políticas deberían comunicarse con claridad a todos los usuarios y estar sujetas a apelación.

Priorización de la verificación de datos del contenido marcado como información errónea sobre salud

2. Dado el contexto de la pandemia de COVID-19, Facebook debería realizar ajustes técnicos para priorizar la verificación de datos de posible información errónea sobre salud compartida por autoridades públicas que llegue a conocimiento de la empresa, además de tener en cuenta el contexto local.

Claridad sobre los requisitos para la verificación de datos

3. Facebook debería ofrecer mayor transparencia en la norma comunitaria sobre noticias falsas respecto de cuándo el contenido cumple los requisitos para la verificación de datos, entre otras cosas, especificar si las cuentas de instituciones públicas están sujetas a la verificación de datos.

* Nota de procedimiento:

La preparación de las decisiones del Consejo asesor de contenido está a cargo de paneles conformados por cinco miembros, quienes deben aprobarlas por mayoría. Las decisiones del Consejo no necesariamente representan las opiniones personales de todos los miembros.

En cuanto a la decisión del caso, se encargó una investigación independiente en nombre del Consejo. Un instituto de investigación independiente con sede en la Universidad de Gotemburgo y un equipo conformado por más de 50 científicos sociales de seis continentes, así como 3.200 expertos de diferentes países del mundo, ofrecen sus conocimientos sobre contextos culturales y sociopolíticos.

Volver a Decisiones de casos y opiniones consultivas sobre políticas