Confirmado

Suspensión de la cuenta del expresidente de los EE. UU. Donald Trump

El Consejo sostuvo la decisión de Facebook del 7 de enero de 2021 de restringir el acceso del entonces presidente Donald Trump para publicar contenido en su página de Facebook y su cuenta de Instagram.

Tipo de decisión

Estándar:

Políticas y temas

Tema
Libertad de expresión, Política, Seguridad
Estándar comunitario
Personas y organizaciones peligrosas

Regiones/Países

Ubicación
Estados Unidos

Plataforma

Plataforma
Facebook

Para leer esta decisión en PDF, haz clic aquí.

Resumen del caso

El Consejo sostuvo la decisión de Facebook del 7 de enero de 2021 de restringir el acceso del entonces presidente Donald Trump para publicar contenido en su página de Facebook y su cuenta de Instagram.

No obstante, no se consideró apropiado que Facebook aplicara una suspensión indefinida, ya que se trata de una penalización indeterminada y sin fundamentos normativos. Las penalizaciones que habitualmente impone Facebook incluyen eliminar contenido infractor, aplicar una suspensión por tiempo limitado o inhabilitar de forma definitiva la cuenta o página.

El Consejo insiste en que Facebook revise el asunto a fin de determinar y justificar una respuesta proporcionada que sea coherente con las reglas que se aplican a otros usuarios de la plataforma. Facebook tiene un plazo de seis meses para analizar este asunto a partir de la fecha de esta decisión. Asimismo, el Consejo brindó recomendaciones normativas para que Facebook las aplique al desarrollo de políticas claras, necesarias y proporcionadas que fomenten la seguridad pública y el respeto por la libertad de expresión.

Información sobre el caso

El proceso electoral es una parte fundamental de toda democracia. El 6 de enero de 2021, durante el recuento de votos electorales de 2020, una multitud asaltó el Capitolio en Washington, D. C. Este acto de violencia puso en peligro el proceso constitucional. Cinco personas murieron y muchas otras resultaron heridas durante el hecho. Durante estos acontecimientos, el entonces presidente Donald Trump hizo dos publicaciones.

A las 16:21, hora estándar del este, mientras ocurrían los disturbios, el sr. Trump publicó un video en Facebook e Instagram:

I know your pain. I know you’re hurt. We had an election that was stolen from us. It was a landslide election, and everyone knows it, especially the other side, but you have to go home now. We have to have peace. We have to have law and order. We have to respect our great people in law and order. We don’t want anybody hurt. It’s a very tough period of time. There’s never been a time like this where such a thing happened, where they could take it away from all of us, from me, from you, from our country. This was a fraudulent election, but we can't play into the hands of these people. We have to have peace. So go home. We love you. You're very special. You've seen what happens. You see the way others are treated that are so bad and so evil. I know how you feel. But go home and go home in peace (Sé que les duele. Sé que se sienten heridos. Nos robaron las elecciones. Fue un triunfo aplastante y todos lo saben, en especial los del lado contrario, pero es hora de ir a casa. Debemos tener paz. Debemos demostrar ley y orden. Debemos respetar a nuestra maravillosa gente con ley y orden. No queremos que nadie salga herido. Son tiempos muy difíciles. Nunca hubo otra ocasión como esta, en la que algo así sucediera, en la que hayan podido arrebatárnosla, a mí, a ustedes, al país. Esta fue una elección fraudulenta, pero no podemos actuar de manera que favorezca a estas personas. Debemos tener paz. Así que vayan a casa. Los amamos. Son muy especiales. Ya vieron lo que sucede. Vieron la forma tan vil y malvada en que tratan a otras personas. Sé cómo se sienten. Pero váyanse a casa y háganlo en paz).

A las 17:21, hora estándar del este, Facebook eliminó la publicación porque infringía la norma comunitaria sobre personas y organizaciones peligrosas.

A las 18:07, hora estándar del este, mientras la policía protegía el Capitolio, el sr. Trump publicó una declaración por escrito en Facebook:

These are the things and events that happen when a sacred landslide election victory is so unceremoniously viciously stripped away from great patriots who have been badly unfairly treated for so long. Go home with love in peace. Remember this day forever! (Estas son las cosas y los acontecimientos que pasan cuando una victoria aplastante y sagrada en las elecciones se arrebata de forma tan feroz y abrupta a los grandes patriotas que recibieron un trato terriblemente injusto por tanto tiempo. Vayan a casa con amor y en paz. ¡Recuerden este día siempre!).

A las 18:15, hora estándar del este, Facebook eliminó la publicación porque infringía la norma comunitaria sobre personas y organizaciones peligrosas. También impidió al sr. Trump publicar en Facebook e Instagram durante 24 horas.

El 7 de enero, tras revisar en más detalle la publicación de Trump, sus últimos mensajes fuera de Facebook y otra información sobre la gravedad de los hechos de violencia ocurridos en el Capitolio, Facebook extendió el bloqueo "de forma indefinida y al menos durante las siguientes dos semanas hasta que el traspaso de poderes se haya completado de forma pacífica".

El 20 de enero, con la investidura presidencial del presidente Joe Biden, el sr. Trump culminó su mandato en los Estados Unidos.

El 21 de enero, Facebook anunció que había remitido este caso al Consejo. Facebook quería corroborar si la decisión del 7 de enero de prohibir que el sr. Trump publicara contenido en Facebook e Instagram por tiempo indefinido había sido correcta. La empresa también solicitó recomendaciones sobre suspensiones cuando el usuario es un líder político.

Además de las dos publicaciones del 6 de enero, Facebook detectó anteriormente cinco infracciones de sus Normas comunitarias en contenido orgánico publicado en la página de Facebook de Donald J. Trump, tres de ellas ocurridas en el último año. Si bien se eliminaron las cinco publicaciones infractoras, no se aplicaron sanciones en el nivel de la cuenta.

Conclusiones principales

El Consejo determinó que las dos publicaciones que hizo el sr. Trump el 6 de enero infringían con gravedad las Normas comunitarias de Facebook e Instagram. Las frases "We love you. You’re very special (Los amamos. Son muy especiales) en la primera publicación y "great patriots" (grandes patriotas) y "remember this day forever" (recuerden este día para siempre) en la segunda infringían las reglas de Facebook que prohíben elogiar o apoyar a personas involucradas en actos de violencia.

El Consejo determinó que, al sostener un discurso infundado de fraude electoral y hacer persistentes llamados a la acción, el sr. Trump creó un entorno en el que era posible que hubiera graves riesgos de violencia. En el momento en que el sr. Trump hizo las publicaciones, había un riesgo claro e inmediato de daños, y sus palabras de apoyo para aquellos que participaban en los disturbios legitimaban sus actos de violencia. Como presidente, el sr. Trump tenía un alto nivel de influencia. Sus publicaciones tuvieron un amplio alcance, y llegaron a 35 millones de seguidores en Facebook y 24 millones en Instagram.

Dada la gravedad de las infracciones y el continuo riesgo de violencia, la medida de Facebook de suspender las cuentas del sr. Trump el 6 de enero y extender la penalización el 7 de enero tuvo justificación.

Sin embargo, no se consideró apropiado que Facebook aplicara una suspensión "indefinida".

Facebook no puede excluir a un usuario de la plataforma por tiempo indeterminado, sin criterios que indiquen cuándo se restablecerá la cuenta o si esto ocurrirá.

Al aplicar esta penalización, Facebook no siguió un procedimiento publicado claro. Las suspensiones "indefinidas" no se describen en las políticas de contenido de la empresa. Las penalizaciones que habitualmente impone Facebook incluyen eliminar contenido infractor, aplicar una suspensión por tiempo limitado o inhabilitar de forma definitiva la cuenta o página.

La función de Facebook es definir penalizaciones necesarias y proporcionadas que respondan a infracciones graves de sus políticas de contenido. La función del Consejo es garantizar que las reglas y los procesos de Facebook sean coherentes con sus políticas de contenido, sus valores y los compromisos asumidos con los derechos humanos.

Al aplicar una penalización poco clara y sin fundamento normativo y, luego, remitir este caso para que lo resuelva el Consejo, Facebook buscaba eludir sus responsabilidades. El Consejo rechazó la solicitud de Facebook e insistió en que aplique y justifique una penalización definida.

La decisión del Consejo asesor de contenido

El Consejo asesor de contenido sostuvo la decisión de Facebook de suspender el acceso de Trump para publicar contenido en Facebook e Instagram el 7 de enero de 2021. Sin embargo, como Facebook suspendió las cuentas del sr. Trump "por tiempo indefinido", la empresa debe revaluar esta penalización.

Dentro de los seis meses de haber tomado esta decisión, Facebook debe reexaminar la penalización arbitraria impuesta el 7 de enero y determinar la medida adecuada. Esta penalización debe basarse en la gravedad de la infracción y el potencial de ocasionar daños en el futuro. Asimismo, debe ser coherente con las reglas que aplica Facebook en casos de infracciones graves, que, a su vez, deben ser claras, necesarias y proporcionadas.

Si Facebook decide restaurar las cuentas del sr. Trump, la empresa debería aplicar sus reglas a esa decisión, incluidos los cambios realizados en respuesta a las recomendaciones de políticas por parte del Consejo que figuran a continuación. En esta situación, Facebook debe abordar otras infracciones de forma inmediata y de conformidad con las políticas de contenido que estableció.

Una minoría del Consejo hizo hincapié en que Facebook debería tomar medidas para evitar que se repitan situaciones que afecten de forma negativa los derechos humanos y garantizar que los usuarios que busquen que se restablezcan sus cuentas tras una suspensión reconozcan sus errores y se comprometan a respetar las reglas en el futuro.

Cuando remitió este caso al Consejo, Facebook solicitó específicamente "observaciones o recomendaciones del Consejo sobre suspensiones cuando el usuario es un líder político".

En una declaración de asesoramiento normativo, el Consejo realizó una serie de recomendaciones para guiar las políticas de Facebook respecto de los riesgos graves de daños que generan los líderes políticos y otras figuras influyentes.

El Consejo manifestó que no siempre resulta útil establecer una distinción firme entre líderes políticos y otros usuarios influyentes, y reconoció que otros usuarios con gran cantidad de público también pueden contribuir a riesgos graves de daños.

Si bien deberían aplicarse las mismas reglas a todos los usuarios, es importante el contexto al evaluar la probabilidad y la inminencia de daños. Cuando las publicaciones de usuarios influyentes suponen una alta probabilidad de daños inminentes, Facebook debe actuar y aplicar sus reglas de inmediato. Aunque Facebook explicó que no aplicó su concesión de "interés periodístico" en este caso, el Consejo le solicitó abordar la confusión generalizada que se generó respecto de cómo se toman las decisiones que involucran a usuarios influyentes. El Consejo recalcó que, si se deben tomar medidas urgentes para prevenir un daño significativo, las consideraciones sobre interés periodístico no deberían tener prioridad.

Facebook debería explicar de forma pública las reglas que usa al imponer sanciones en el nivel de la cuenta contra usuarios influyentes. Estas reglas deben garantizar que, cuando Facebook imponga una suspensión por tiempo limitado a la cuenta de un usuario influyente con el fin de reducir el riesgo de daños significativos, evalúe si dicho riesgo disminuyó antes de que finalice la suspensión. Si Facebook determina que el usuario supone un riesgo grave de incitación a la violencia inminente, discriminación u otra acción ilegal en ese momento, se debe imponer otra suspensión por tiempo limitado cuando dicha medida es necesaria para proteger la seguridad pública y proporcional al riesgo.

El Consejo indicó que los jefes de estado y otros altos funcionarios del Gobierno pueden tener más poder para causar daños que otras personas. Si un jefe de estado o alto funcionario del Gobierno publica reiteradamente mensajes que representan un riesgo de daño en virtud de las normas de derechos humanos internacionales, Facebook debe suspender la cuenta durante un tiempo que baste para proteger a las personas de daño inminente. Los períodos de suspensión deben durar lo suficiente para disuadir la mala conducta y pueden, en los casos correspondientes, incluir la eliminación de la cuenta o página.

En otras recomendaciones, el Consejo propuso que Facebook:

  • Remita con rapidez el contenido que incluya un discurso político de usuarios muy influyentes a personal especializado que esté familiarizado con el contexto lingüístico y político. Este personal debe estar libre de sesgos políticos y económicos, así como de influencia no debida.
  • Dedique los recursos y conocimientos adecuados para evaluar los riesgos de daños que suponen las cuentas influyentes en todo el mundo.
  • Brinde más información que permita a los usuarios entender y evaluar el proceso y los criterios para la aplicación de la concesión de interés periodístico, incluido cómo se aplica esto a las cuentas influyentes. La empresa también debe explicar con claridad la lógica, los estándares y los procesos implicados en la revisión comprobatoria, e informar las tasas de error relativas de las determinaciones que se toman por medio de la comprobación, en comparación con los procedimientos de aplicación de políticas habituales.
  • Realice una revisión integral de la posible contribución de Facebook al discurso de fraude electoral y las tensiones exacerbadas que culminaron en los hechos de violencia del 6 de enero en los Estados Unidos. Esta debería ser una reflexión abierta sobre el diseño y las decisiones normativas que tomó Facebook y que podrían permitir que su plataforma se utilice indebidamente.
  • Aclare en su política corporativa de derechos humanos cómo recopila, preserva y, si corresponde, comparte información para colaborar en la investigación y el procesamiento judicial potencial de infracciones graves a las leyes penales, de derechos humanos y humanitarias internacionales.
  • Explique el proceso de faltas y penalizaciones incluido en las Normas comunitarias de Facebook e Instagram en el que basa las restricciones de perfiles, páginas, grupos y cuentas.
  • Incluya la cantidad de restricciones de perfiles, páginas y cuentas en los informes de transparencia, con desgloses de información por país y región.
  • Proporcione a los usuarios información accesible sobre la cantidad de infracciones, faltas y penalizaciones que se evaluaron en su contra, y explique las consecuencias que habrá si se cometen más infracciones en el futuro.
  • Desarrolle y publique una política que rija la respuesta de Facebook ante situaciones nuevas o de crisis en las que los procesos habituales no prevendrían ni evitarían el daño inminente. Esta información debería establecer los parámetros adecuados para dichas acciones, incluido un requisito para revisar su decisión en un período fijo.

* Los resúmenes de casos ofrecen información general sobre los casos y no sientan precedentes.

Decisión del caso completa

En este caso, Facebook pidió al Consejo que responda dos preguntas:

Considerando los valores de Facebook, específicamente su compromiso con la "expresión" y la "seguridad", ¿fue correcta la decisión del 7 de enero de 2021 de prohibir el acceso de Donald J. Trump para publicar contenido en Facebook e Instagram por tiempo indefinido?

Además de la determinación del Consejo de sostener o anular la suspensión indefinida, Facebook agradece que el Consejo proporcione observaciones o recomendaciones sobre suspensiones cuando el usuario es un líder político.

1. Resumen de la decisión

El Consejo sostuvo la decisión de Facebook del 7 de enero de 2021 de restringir el acceso del entonces presidente Donald Trump para publicar contenido en su página de Facebook y su cuenta de Instagram.

No obstante, no se consideró apropiado que Facebook aplicara una suspensión indefinida, ya que se trata de una penalización indeterminada y sin fundamentos normativos. Las penalizaciones que habitualmente impone Facebook incluyen eliminar contenido infractor, aplicar una suspensión por tiempo limitado o inhabilitar de forma definitiva la cuenta o página.

El Consejo insiste en que Facebook revise el asunto a fin de determinar y justificar una respuesta proporcionada que sea coherente con las reglas que se aplican a otros usuarios de la plataforma. Facebook tiene un plazo de seis meses para analizar este asunto a partir de la fecha de esta decisión. Asimismo, el Consejo brindó recomendaciones normativas para que Facebook las aplique al desarrollo de políticas claras, necesarias y proporcionadas que fomenten la seguridad pública y el respeto por la libertad de expresión.

2. Descripción del caso

El proceso electoral es una parte fundamental de toda democracia. Este permite que personas de todo el mundo gobiernen y resuelvan conflictos sociales de manera pacífica. En los Estados Unidos, la Constitución afirma que el presidente se elige por medio del recuento de votos de un colegio electoral. El 6 de enero de 2021, durante el recuento de votos electorales de 2020, una multitud irrumpió en el Capitolio donde se estaban contando los votos electorales y puso en peligro el proceso constitucional. Cinco personas murieron y muchas otras resultaron heridas durante el hecho.

Antes del 6 de enero, el entonces presidente Donald Trump había afirmado sin evidencia que las elecciones presidenciales de noviembre de 2020 habían sido un robo. Los reclamos legales por fraude electoral que presentaron el sr. Trump y otras personas se rechazaron en más de 70 casos y, tras una investigación, quien era en ese entonces el fiscal general indicó que no había habido fraude "en una medida que podría haber generado un resultado diferente en las elecciones". Sin embargo, el sr. Trump siguió realizando esos reclamos infundados, incluso a través de Facebook, y se refirió a una manifestación prevista para el 6 de enero.

  1. El 19 de diciembre de 2020, en la página de Facebook de Trump se publicó lo siguiente: "Peter Navarro releases 36-page report alleging election fraud 'more than sufficient' to swing victory to Trump - A great report by Peter. Statistically impossible to have lost the 2020 Election. Big protest in D.C. on January 6th. Be there, will be wild!" (Peter Navarro publicó un informe de 36 páginas que asegura que el fraude electoral es 'más que suficiente' para adjudicar la victoria a Trump. Excelente informe de Peter. Es estadísticamente imposible que hayamos perdido las elecciones 2020. Multitudinaria manifestación en D. C. el 6 de enero. Los esperamos. ¡Será una locura!).
  2. El 1 de enero de 2021, en la página de Facebook de Trump se publicó lo siguiente: "The BIG Protest Rally in Washington, D.C., will take place at 11.00 A.M. on January 6th. Locational details to follow. StopTheSteal!" (GRAN manifestación de protesta en Washington, D. C., el 6 de enero a las 11:00. Próximamente publicaremos detalles de la ubicación. ¡Detengan el robo!).

El 6 de enero de 2021 por la mañana, el sr. Trump asistió a una manifestación cerca de la Casa Blanca y dio un discurso. Continuó afirmando de manera infundada que había ganado las elecciones y sugirió que el vicepresidente Mike Pence debería anular la victoria del presidente electo Joe Biden, una facultad de la que Pence carecía. Asimismo, afirmó "we will stop the steal" (detendremos el robo) y "we’re going to the Capitol" (vamos al Capitolio).

Muchos de los que asistieron al encuentro marcharon después al Capitolio de los EE. UU., donde se unieron a otros manifestantes que ya estaban allí. Muchas de las personas reunidas atacaron a la seguridad del Capitolio, ingresaron de forma violenta al edificio y provocaron disturbios. El sr. Pence y otros miembros del Congreso corrieron graves riesgos de violencia focalizada. Cinco personas murieron y muchas resultaron heridas.

Durante estos hechos, el sr. Trump publicó un video y una declaración en su página de Facebook (que tenía, al menos, 35 millones de seguidores). El video también se compartió en su cuenta de Instagram (con, al menos, 24 millones de seguidores). En las publicaciones, se afirmaba que habían "stolen" (robado) y "stripped away" (arrebatado) las elecciones 2020. Las publicaciones también elogiaban y apoyaban a las personas que estaban causando disturbios dentro del Capitolio y, a su vez, les pedían que se condujeran pacíficamente. Tanto la página de Facebook como la cuenta de Instagram muestran una tilde azul junto al nombre, lo que indica que Facebook confirmó que la cuenta es la "presencia auténtica de la figura pública" que representa.

En el video de un minuto, publicado a las 16:21, hora estándar del este, mientras ocurrían los disturbios, el sr. Trump decía:

I know your pain. I know you’re hurt. We had an election that was stolen from us. It was a landslide election, and everyone knows it, especially the other side, but you have to go home now. We have to have peace. We have to have law and order. We have to respect our great people in law and order. We don’t want anybody hurt. It’s a very tough period of time. There’s never been a time like this where such a thing happened, where they could take it away from all of us, from me, from you, from our country. This was a fraudulent election, but we can't play into the hands of these people. We have to have peace. So go home. We love you. You're very special. You've seen what happens. You see the way others are treated that are so bad and so evil. I know how you feel. But go home and go home in peace (Sé que les duele. Sé que se sienten heridos. Nos robaron las elecciones. Fue un triunfo aplastante y todos lo saben, en especial los del lado contrario, pero es hora de ir a casa. Debemos tener paz. Debemos demostrar ley y orden. Debemos respetar a nuestra maravillosa gente con ley y orden. No queremos que nadie salga herido. Son tiempos muy difíciles. Nunca hubo otra ocasión como esta, en la que algo así sucediera, en la que hayan podido arrebatárnosla, a mí, a ustedes, al país. Esta fue una elección fraudulenta, pero no podemos actuar de manera que favorezca a estas personas. Debemos tener paz. Así que vayan a casa. Los amamos. Son muy especiales. Ya vieron lo que sucede. Vieron la forma tan vil y malvada en que tratan a otras personas. Sé cómo se sienten. Pero váyanse a casa y háganlo en paz).

A las 17:41, hora estándar del este, Facebook eliminó la publicación porque infringía las Normas comunitarias sobre personas y organizaciones peligrosas.

El sr. Trump publicó la siguiente declaración escrita a las 18:07, hora estándar del este, mientras la policía protegía el Capitolio:

These are the things and events that happen when a sacred landslide election victory is so unceremoniously viciously stripped away from great patriots who have been badly unfairly treated for so long. Go home with love in peace. Remember this day forever! (Estas son las cosas y los acontecimientos que pasan cuando una victoria aplastante y sagrada en las elecciones se arrebata de forma tan feroz y abrupta a los grandes patriotas que recibieron un trato terriblemente injusto por tanto tiempo. Vayan a casa con amor y en paz. ¡Recuerden este día siempre!).

A las 18:15, hora estándar del este, Facebook eliminó esta publicación por infringir la norma comunitaria sobre personas y organizaciones peligrosas e impuso un bloqueo durante 24 horas para que el señor sr. Trump no pudiera publicar en Facebook o Instagram.

El 7 de enero de 2021, después de revisar más en detalle las publicaciones del sr. Trump, sus últimos mensajes fuera de Facebook e información adicional sobre la gravedad de la violencia en el Capitolio, Facebook extendió el bloqueo "de forma indefinida y al menos durante las siguientes dos semanas, hasta que el traspaso de poderes se haya completado de forma pacífica". Facebook afirmó que el sr. Trump "hizo uso de nuestra plataforma para incitar la insurrección violenta contra un gobierno elegido de manera democrática".

Los días posteriores al 6 de enero, algunas de las personas que participaron de los disturbios afirmaron públicamente que lo hicieron por pedido del presidente. El Washington Post citó a un participante (16 de enero de 2021): "I thought I was following my president. . . . He asked us to fly there. He asked us to be there. So I was doing what he asked us to do" (Creía que estaba siguiendo a mi presidente. Él nos convocó. Él nos pidió que fuéramos. Así que hice lo que nos pidió). En un video se ve a un manifestante en las escaleras del Capitolio gritándole a un policía "We were invited here! We were invited by the president of the United States!" (¡Nos invitaron! ¡El presidente de los Estados Unidos nos convocó!).

El Distrito de Columbia declaró emergencia pública el 6 de enero y la prolongó hasta el 21 de enero ese mismo día. El 27 de enero, el Departamento de Seguridad Nacional emitió un boletín del Sistema Nacional de Alerta contra el Terrorismo que advertía sobre un "entorno de violencia exacerbada en los Estados Unidos, que el DHS cree que continuará en las semanas posteriores a la exitosa investidura presidencial". Este afirmaba que "los factores que impulsan la violencia seguirán vigentes durante principios de 2021, y algunas personas [extremistas violentos locales] podrían verse incentivadas por la irrupción violenta en el Capitolio el 6 de enero de 2021 en Washington, D. C., con el objetivo de atacar a funcionarios electos y acometer contra las instalaciones del Gobierno".

Si bien se eliminaron las publicaciones que Facebook consideró que infringían sus políticas de contenido, la página de Facebook y la cuenta de Instagram del sr. Trump siguen siendo de acceso público en ambas plataformas. Ni en la página ni en la cuenta figura aviso alguno que mencione las restricciones que impuso Facebook. El 21 de enero de 2021, Facebook anunció que había remitido el caso al Consejo asesor de contenido.

Además de las dos publicaciones del 6 de enero de 2021, Facebook detectó anteriormente cinco infracciones de sus Normas comunitarias en contenido orgánico publicado en la página de Facebook de Donald J. Trump, tres de ellas ocurridas en el último año. Se eliminaron las cinco publicaciones infractoras, pero no se aplicaron sanciones en el nivel de la cuenta. En respuesta a la pregunta del Consejo sobre si se aplicó alguna falta, Facebook indicó que la página se había penalizado con una falta por una publicación de agosto de 2020 que infringía la política de daño e información errónea sobre el COVID-19. Facebook no explicó por qué otro contenido infractor que había eliminado no generó faltas.

Facebook cuenta con una "concesión de interés periodístico" que permite que contenido que infringe sus políticas permanezca en la plataforma si Facebook lo considera de "valor periodístico y de interés público". Facebook afirmó que "nunca había aplicado la concesión de interés periodístico al contenido publicado por la página de Facebook o la cuenta de Instagram de Trump".

En respuesta a las preguntas del Consejo, Facebook indicó que "hubo 20 elementos de contenido de la página de Facebook y la cuenta de Instagram de Trump que los revisores de contenido o la automatización habían marcado inicialmente por infringir las Normas comunitarias de Facebook, pero que en última instancia se desestimaron.

Facebook explicó al Consejo que aplica un sistema de "comprobación" a algunas cuentas de "alto perfil" para "minimizar el riesgo de errores en la aplicación de políticas". En el caso de estas cuentas, Facebook envía el contenido que considera que infringe sus Normas comunitarias para que se someta a otra revisión interna. Tras este escalamiento, Facebook decide si el contenido es infractor o no. Facebook indicó al Consejo que "nunca tuvo una regla general que fuera más permisiva con el contenido que publican líderes políticos". Si bien se aplican las mismas reglas generales, el sistema de "comprobación" implica que, con algunos usuarios de "alto perfil", se aplican procesos de toma de decisiones diferentes.

3. Autoridad y alcance

El Consejo asesor de contenido tiene la facultad de revisar un amplio conjunto de preguntas que remite Facebook (Artículo 2, sección 1, del acta constitutiva; Artículo 2, sección 2.1, de los estatutos). Las decisiones sobre estas preguntas son vinculantes y pueden incluir declaraciones de asesoramiento con recomendaciones. Estas recomendaciones no son vinculantes, pero Facebook debe responder a ellas (Artículo 3, sección 4 del acta constitutiva). El Consejo es un mecanismo de reclamo independiente que aborda disputas de un modo transparente y basado en principios.

4. Normas pertinentes

En virtud del Acta constitutiva del Consejo asesor de contenido, debe considerar todos los casos en función de las siguientes normas:

I. Políticas de contenido de Facebook:

Tanto Facebook como Instagram cuentan con Normas comunitarias que describen lo que los usuarios no pueden publicar en las plataformas.

La norma comunitaria de Facebook sobre personas y organizaciones peligrosas prohíbe el "contenido que elogie, apoye o represente hechos que Facebook designa como ataques terroristas, hechos de odio, asesinatos en masa o intentos de asesinatos en masa, asesinatos en serie, crímenes de odio y hechos infractores". Asimismo, prohíbe el "contenido que elogie a alguna de las organizaciones o personas mencionadas anteriormente, o los actos que cometan", haciendo referencia a organizaciones criminales y de odio, entre otras.

Las Normas comunitarias de Instagram establecen que "Instagram no es un espacio para apoyar o elogiar el terrorismo, el crimen organizado o los grupos de odio" y proporciona un enlace a la norma comunitaria sobre personas y organizaciones peligrosas.

La norma comunitaria de Facebook sobre violencia e incitación afirma que "se elimina contenido, se inhabilitan cuentas y se colabora con las autoridades cuando se cree que hay riesgo genuino de daño físico o amenazas directas a la seguridad pública". La norma prohíbe específicamente lo siguiente: "declaraciones que apoyen hechos de violencia graves" y "cualquier contenido que incluya declaraciones de intención o apoyo, incitaciones, afirmaciones condicionales o expresiones de deseo de violencia a raíz de un proceso electoral, un registro de votantes o la administración del resultado de una elección". Asimismo, prohíbe "información errónea y rumores que no se pueden verificar que contribuyan al riesgo de violencia o daños físicos inminentes".

Según indican las Normas comunitarias de Instagram, Facebook "elimina contenido que incluye amenazas creíbles" y "prohíbe las amenazas graves de daño a la seguridad pública y personal". Ambas secciones incluyen enlaces a la norma comunitaria sobre violencia e incitación.

Las Condiciones del servicio de Facebook establecen que Facebook "puede suspender o inhabilitar de forma definitiva el acceso" a una cuenta si determina que el usuario infringió "de forma clara, grave o reiterada" sus condiciones o políticas. En la introducción a las Normas comunitarias se indica que las "consecuencias de infringir nuestras Normas comunitarias varían en función de la gravedad de la infracción y del historial de la persona en la plataforma".

Según las Condiciones de uso de Instagram, Facebook puede "negarse a proporcionarte o dejar de proporcionarte la totalidad o una parte del Servicio (incluido cancelar o inhabilitar tu acceso a los Productos de Facebook y los Productos de las empresas de Facebook) inmediatamente para proteger nuestra comunidad o servicios, o bien si supones para nosotros un riesgo o una exposición legal, infringes estas Condiciones de uso o nuestras políticas (incluidas nuestras Normas comunitarias de Instagram)". En las Normas comunitarias de Instagram se indica que "el incumplimiento de estas normas puede provocar la eliminación de contenido, la inhabilitación de la cuenta u otras restricciones".

II. Valores de Facebook:

Facebook sostiene cinco valores detallados en la introducción a las Normas comunitarias que, según afirma, guían lo que está permitido en sus plataformas. Tres de estos valores son la "expresión", la "seguridad" y la "dignidad".

Facebook describe el valor de "expresión" como su deseo de que las "personas puedan hablar abiertamente sobre los temas que les interesan, incluso si otros pueden no estar de acuerdo con ellos o considerarlos cuestionables. [...] Si bien nuestro compromiso con la expresión es fundamental, reconocemos que internet genera nuevas y mayores oportunidades para cometer abusos".

Facebook describe la "seguridad" como el compromiso que asume para "hacer de Facebook un espacio seguro" y afirma que "la expresión que supone una amenaza para las personas puede intimidar, excluir o silenciar a otros, por lo que no está permitida en Facebook".

Para Facebook, el valor de "dignidad" se basa en la creencia de que "todas las personas son dignas y tienen los mismos derechos". Asimismo, afirma que "espera que esas personas respeten la dignidad de los demás y no los acosen ni los degraden".

III. Normas de derechos humanos:

El 16 de marzo de 2021, Facebook anunció su política corporativa de derechos humanos, con la que honra su compromiso con el respeto de los derechos de conformidad con los Principios Rectores sobre las empresas y los derechos humanos de las Naciones Unidas. Estos principios, respaldados por el Consejo de Derechos Humanos de la ONU en 2011, establecen un marco voluntario que encuadra las responsabilidades de las empresas privadas en cuanto a estos derechos. Como empresa mundial que asumió un compromiso con los UNGP, Facebook debe respetar las normas de derechos humanos internacionales en los lugares donde opera. El Consejo asesor de contenido exige que Facebook evalúe su decisión en función de las normas de derechos humanos internacionales que se le aplican.

El Consejo analizó las responsabilidades con los derechos humanos que asumió Facebook en este caso teniendo en cuenta las normas relativas a estos derechos, entre otras:

  • Derecho a la libertad de expresión: Artículos 19 y 20 del Pacto Internacional de Derechos Civiles y Políticos (ICCPR); tal como se interpreta en la observación general n.º 34 del Comité de Derechos Humanos (2011) (observación general n.º 34); el Plan de Acción de Rabat, OHCHR (2012); informe del relator especial de la ONU sobre la libertad de opinión y expresión A/HRC/38/35 (2018); declaración conjunta de expertos internacionales en libertad expresión sobre el COVID-19 (marzo de 2020).
  • Derecho a la vida: Artículo 6 del ICCPR.
  • Derecho a la seguridad personal: Artículo 9, párrafo 1, del ICCPR.
  • Derecho a la no discriminación: Artículos 2 y 26 del ICCPR; Artículos 1 y 4 de la Convención Internacional sobre la Eliminación de todas las Formas de Discriminación Racial (ICERD).
  • Participación en asuntos públicos y el derecho a votar: Artículo 25 del ICCPR.
  • Derecho a remediar: Artículo 2 del ICCPR. observación general n.º 31, Comité de Derechos Humanos (2004) (observación general n.º 31); principio 22 de los UNGP.

5. Declaración del creador de contenido

Cuando Facebook remite un caso al Consejo, este concede a la persona responsable del contenido en cuestión la oportunidad de presentar una declaración. En este caso, el Centro Estadounidense por el Derecho y la Justicia y un administrador de la página presentaron la declaración ante el Consejo en nombre del sr. Trump. En esta declaración se solicita al Consejo "revertir la suspensión indefinida impuesta por Facebook a la cuenta del expresidente de los Estados Unidos Donald Trump".

En la declaración se analizan las publicaciones que se eliminaron de Facebook e Instagram el 6 de enero de 2021, así como el discurso que el sr. Trump pronunció previamente ese mismo día. Esta afirma que las publicaciones "solicitaban a las personas presentes en el lugar y en la zona alrededor del Capitolio que se condujeran de forma pacífica y sin infringir la ley, y que respetaran a las fuerzas policiales" y manifiesta que es "inconcebible que cualquiera de las dos publicaciones se pudieran considerar una amenaza a la seguridad pública o una incitación a la violencia". Asimismo, explica que "queda muy claro que en su discurso no hay llamamiento a la insurrección, incitación a la violencia o amenaza alguna para la seguridad pública" y describe la "total ausencia de un vínculo importante entre el discurso de Trump y la irrupción en el Capitolio".

La declaración también analiza los motivos por los que Facebook impuso las restricciones. Manifiesta que, como "nada de lo que el sr. Trump dijo a los manifestantes podría interpretarse de forma razonable como una amenaza a la seguridad pública", el fundamento en que Facebook basó las restricciones no se puede relacionar con la seguridad. También expone que "todo contenido que se sospeche que afecta la seguridad debe guardar un vínculo directo y evidente con el riesgo real de violencia". Esta declaración también describe que los términos "fight" (lucha) o "fighting" (luchar) utilizados durante el discurso de movilización "guardaban relación con un llamado a la participación cívica y política" y concluye que "esos términos no tenían intención de constituir un llamado a la insurrección violenta o la anarquía, ni ningún observador u oyente razonable podría percibirlo como tal.

La declaración también aborda la "irrupción en el Capitolio". Manifiesta que "todos los partidarios políticos de Trump genuinos respetaron la ley" y que la irrupción "sin dudas se debió a la influencia y, más probablemente, a la incitación de fuerzas externas". Describe un reclamo federal contra miembros de los Oath Keepers e indica que el grupo "no tuvo vínculo alguno con el sr. Trump o su organización política". Luego, manifiesta que los Oath Keepers "aprovecharon la manifestación de Trump y se sumaron al asunto del debate en el Colegio Electoral para sus propios fines".

Asimismo, expresa que la norma comunitaria sobre violencia e incitación "no avala la suspensión de la cuenta de Facebook de Trump" porque las dos publicaciones "fueron un mero llamado a la paz y la seguridad" y "ninguna de las palabras en el discurso del sr. Trump podría interpretarse de forma razonable como una incitación a la violencia o la anarquía si se considera el verdadero el contexto". Menciona, además, la remisión del caso que hace Facebook al Consejo, hace hincapié sobre el "traspaso pacífico de poderes" y afirma que esta "nueva regla ad hoc que garantiza [sic] transiciones gubernamentales pacíficas no solo es excesivamente ambigua, sino que no existió hasta después de los acontecimientos que Facebook usó como justificación".

La declaración expone que el Consejo debería "permitir la intervención de la ley estadounidense en esta apelación" y analiza las normas internacionales que admiten que se restrinja el derecho a la libertad de expresión, y las normas de legalidad, fin legítimo, y necesidad y proporcionalidad, en las que cada elemento se interpreta en referencia a la ley constitucional de los Estados Unidos. La declaración menciona que las afirmaciones hiperbólicas o falsas no son ilegales, así como la importancia de Facebook para el discurso público. Afirma que "tomar decisiones de contenido sobre la base de lo que parece 'razonable' o cómo una 'persona razonable' reaccionaría a dicho contenido no es suficiente", y Facebook debería "considerar elevar mucho más el estándar". Manifiesta que la Corte Suprema exige un escrutinio estricto de las leyes que recargan el discurso político y que Facebook tiene dominio del mercado. Asimismo, analiza las normas constitucionales que abordan la incitación a la violencia. En cuanto al fin legítimo, expresa que preservar la seguridad pública es un fin legítimo, pero que el discurso del sr. Trump no supuso inquietudes relacionadas con la seguridad. En lo que respecta a la necesidad y la proporcionalidad, niega la validez de las restricciones y afirma que las penalizaciones fueron desproporcionadas.

La declaración concluye con sugerencias en las que basar las recomendaciones normativas del Consejo sobre suspensiones cuando el usuario es un líder político. Argumenta que el Consejo "debería permitir que intervengan los principios legales del país que gobierna o gobernaba el líder. También describe varias excepciones a esta consideración en función de evaluaciones del estado de derecho, garantías de derechos, procesos legislativos, procesos de revisión judicial y la existencia de principios legales relevantes en países particulares.

6. Explicación de Facebook sobre su decisión

En cada caso, Facebook brinda al Consejo una explicación de las medidas que toma, y el Consejo formula preguntas a Facebook a fin de aclarar aún más la información que necesita para tomar la decisión. En este caso, Facebook indicó que eliminó dos publicaciones el 6 de enero de 2021 porque infringían la norma comunitaria sobre personas y organizaciones peligrosas. Específicamente, el contenido se eliminó por infringir su "política que prohíbe elogiar, apoyar y representar hechos violentos designados". Facebook también manifestó que el contenido incluía "una infracción de su política sobre personas y organizaciones peligrosas que prohíbe elogiar a personas que participen en actos de violencia organizada". La empresa indicó que sus Normas comunitarias prohíben claramente el contenido que expresa apoyo o elogia a grupos, líderes o personas que participan en actividades como terrorismo, violencia organizada o hechos delictivos, y que, en este caso, hubo un asalto organizado, así como actos de violencia planificados con los que se intentaba causar daños a una persona para intimidar al Gobierno a fin de lograr un fin político.

Facebook expresó que su evaluación reflejaba tanto el contenido de su política como el contexto en el que se realizó la declaración, incluidos los hechos de violencia que se estaban produciendo en el Capitolio. Según su criterio, mientras el sr. Trump en el video decía a las personas "go home in peace" (vayan a casa y en paz), también aludía reiteradamente a que había habido fraude electoral y sugería un propósito común al decir "I know how you feel" (Sé cómo se sienten). Dada la inestabilidad que se vivía en el momento en que hizo estos comentarios y el tenor general de sus palabras, Facebook concluyó en que la frase "We love you. You’re very special" (Los amamos. Son muy especiales) tenía como fin elogiar a las personas que estaban irrumpiendo en el Capitolio sin respetar la ley. Para Facebook, la segunda publicación elogiaba el hecho, ya que el sr. Trump se refería a los participantes de los disturbios en el Capitolio como "great patriots" (grandes patriotas) e instaba "[r]emember this day forever" (recuerden este día para siempre).

Facebook indica que limita con regularidad la funcionalidad de páginas y perfiles de Facebook y cuentas de Instagram que infringen sus políticas de forma grave o reiterada. Si determina que existe un "riesgo grave y urgente para la seguridad", Facebook "va más allá de sus protocolos de aplicación de políticas estándar y toma medidas más contundentes contra usuarios y páginas infractores". En estos casos, la empresa afirma que sus aplicaciones de políticas se basan en las Normas comunitarias de Facebook e Instagram. Manifiesta que "evalúa todas las herramientas de aplicación de políticas disponibles, como bloqueos permanentes, antes de decidir qué medida es la más pertinente según la circunstancia particular. En casos en los que Facebook debe tomar una decisión de emergencia que es de interés general, se empeña por compartir la determinación tomada y la lógica que empleó para ello con el público, con frecuencia a través de una publicación en Newsroom".

Facebook indica que no suele bloquear la función de las páginas para publicar contenido o interactuar con él, pero sí elimina páginas que infringen de forma grave o reiterada las políticas de Facebook. Sin embargo, Facebook afirma que sus protocolos de aplicación de políticas en perfiles, incluido el bloqueo de funciones, también se pueden aplicar a las páginas de Facebook cuando se usan para reflejar la identidad particular de una persona, como es el caso de la página de Donald J. Trump. En este caso, Facebook declaró que, de conformidad con sus protocolos de aplicación de políticas estándar, bloqueó inicialmente la función de publicación de la página de Facebook y de la cuenta de Instagram durante 24 horas. Tras un análisis más específico de la situación que se desarrollaba y de los detalles emergentes sobre la violencia en el Capitolio, Facebook concluyó que el bloqueo de 24 horas no bastaba para abordar "el riesgo de que Trump usara su presencia en Facebook e Instagram para contribuir al escalamiento de la violencia".

Según declara Facebook, mantuvo la suspensión indefinida tras la investidura del sr. Biden, en parte, porque determinó que la violencia relacionada con Trump no había finalizado. Menciona el boletín del Sistema Nacional de Alerta contra el Terrorismo que el Departamento de Seguridad Nacional emitió el 27 de enero, en el que se describía un "entorno de violencia exacerbada en los Estados Unidos, que el DHS cree que continuará en las semanas posteriores a la exitosa investidura presidencial" y se afirmaba que "los factores que impulsan la violencia seguirán vigentes durante principios de 2021, y algunas personas [extremistas violentos locales] podrían verse incentivadas por la irrupción violenta en el Capitolio el 6 de enero de 2021 en Washington, D. C., con el objetivo de atacar a funcionarios electos y acometer contra las instalaciones del Gobierno". Facebook insiste en que, incluso aunque haya disminuido el riesgo de violencia, tal vez sea adecuado bloquear de forma permanente la función de publicación del sr. Trump debido a la gravedad de la infracción ocurrida el 6 de enero, su permanente insistencia en que la elección de Biden fue fraudulenta, su difusión de otra información errónea y el hecho de que ya no es presidente.

Facebook manifiesta que su decisión "se basó en el Artículo 19 del ICCPR y la observación general n.º 34 de la ONU sobre libertad de expresión, que permite que se apliquen restricciones necesarias y proporcionadas a la libertad de expresión en situaciones de emergencia pública que amenazan el bienestar de un país. En este caso, el Distrito de Columbia operaba en función de una declaración de estado de emergencia para proteger el complejo del Capitolio de los Estados Unidos. Facebook afirma que también tuvo en cuenta los seis factores contextuales del Plan de Acción de Rabat sobre la prohibición de la apología del odio nacional, racial o religioso. Expertos respaldados por las Naciones Unidas desarrollaron el Plan de Acción de Rabat, cuyo propósito es guiar a los países cuando se deben abordar casos en los que la apología del odio nacional, racial o religioso que incita a la discriminación, la hostilidad o la violencia es tan grave que es apropiado recurrir a sanciones penales impuestas por el Estado, sin dejar de proteger la libertad de expresión, de conformidad con las obligaciones de los Estados en virtud de los Artículos 19 y 20, párrafo 2, del ICCPR.

Facebook sostiene que los acontecimientos del 6 de enero representaron una amenaza sin precedentes para los procesos democráticos y el sistema constitucional de los Estados Unidos. Si bien Facebook afirma que se esfuerza por actuar de manera proporcionada y responsable al restringir el discurso público, dadas las circunstancias volátiles y sin precedentes, Facebook considera que debe seguir contando con flexibilidad operativa para tomar otras medidas, incluido el bloqueo permanente.

En este caso, el Consejo hizo 46 preguntas a Facebook, y Facebook se rehusó por completo a responder siete de ellas, mientras que respondió otras dos de forma parcial. Las preguntas que Facebook se negó a contestar tenían que ver con cómo la sección de noticias y otras funciones de Facebook afectaron la visibilidad del contenido del sr. Trump, si Facebook hizo, o tiene previsto hacer, una investigación respecto de esas decisiones de contenido en relación con los acontecimientos ocurridos el 6 de enero de 2021 e información sobre contenido infractor de los seguidores de las cuentas del sr. Trump. El Consejo también formuló preguntas relativas a la suspensión de otras figuras políticas y la eliminación de otro contenido, si Facebook había tenido contacto con funcionarios políticos electos u otro personal respecto de la suspensión de las cuentas del sr. Trump y si la suspensión o eliminación de cuentas afecta la capacidad de los anunciantes de dirigir anuncios a las cuentas de seguidores. Facebook determinó que esta información no era necesaria de manera razonable para la toma de decisiones, de conformidad con la intención del Acta constitutiva; no era posible proporcionarla desde el punto de vista técnico; estaba amparada por el privilegio entre abogado y cliente; y no podría ni debería proporcionarse por cuestiones relativas a la legalidad, la privacidad, la seguridad o la protección de datos.

7. Comentarios de terceros

El Consejo asesor de contenido recibió 9.666 comentarios públicos relacionados con este caso. Ochenta de ellos procedían de Asia-Pacífico y Oceanía; siete, del sur y centro de Asia; 136, de Europa; 23, de Latinoamérica y el Caribe; 13, de Oriente Medio y África septentrional; 19, de África subsahariana; y 9.388, de Canadá y los Estados Unidos.

Los comentarios abarcaban los temas que se detallan debajo, que incluyen asuntos sobre los que el Consejo indagó específicamente en su solicitud de comentarios públicos:

  • La suspensión indefinida de las cuentas del sr. Trump, su posible cumplimiento con las responsabilidades de la empresa de respetar la libertad de expresión y los derechos humanos, y si se deberían haber tomado medidas alternativas.
  • Las políticas y prácticas que ejerce Facebook para evaluar el contexto externo a la plataforma al aplicar sus Normas comunitarias, en particular si el contenido puede incitar a la violencia.
  • Asuntos que tienen que ver con la claridad de las reglas de Facebook en lo que respecta a la inhabilitación de cuentas.
  • Las políticas de contenido generales de Facebook respecto de candidatos a un cargo político, funcionarios electos y exfuncionarios, incluida la relevancia de la concesión de "interés periodístico" y el derecho del público a la información.
  • Preocupaciones respecto de la coherencia en la aplicación de las Normas comunitarias de Facebook en función de sesgos políticos.
  • Preocupaciones sobre la aplicación de las Normas comunitarias de Facebook con respecto a las publicaciones anteriores del sr. Trump, incluidas aquellas que podrían haber contribuido a daños contra ciertos grupos de personas y a la difusión de información errónea.
  • Si la expresión del sr. Trump, tanto antes del 6 de enero como ese mismo día, constituyó o no incitación a la violencia.
  • El resultado de las elecciones en los Estados Unidos y la presidencia de Trump.

Si quieres leer los comentarios del público que se enviaron en relación con este caso, haz clic aquí.

8. Análisis del Consejo asesor de contenido

8.1 Cumplimiento de las políticas de contenido

El Consejo está de acuerdo con Facebook en que las dos publicaciones que hizo el sr. Trump el 6 de enero infringían las Normas comunitarias de Facebook e Instagram. La norma comunitaria sobre personas y organizaciones peligrosas de Facebook indica que los usuarios no deberían publicar contenido que "exprese apoyo o elogio de grupos, líderes o personas implicadas en hechos infractores". Facebook designó el asalto al Capitolio como un "acontecimiento infractor" y sostuvo que interpreta que este tipo de hechos incluye hechos "violentos" designados.

En el momento en que se hicieron las publicaciones, se estaban produciendo los hechos de violencia en el Capitolio. En ambas publicaciones, se elogiaba o apoyaba a las personas que participaban del conflicto. Las palabras "We love you. You’re very special" (Los amamos. Son muy especiales) en la primera publicación y "great patriots" (grandes patriotas) y "remember this day forever" (recuerden este día para siempre) en la segunda se interpretan como un acto de elogio o apoyo a las personas implicadas en la violencia y los hechos que ocurrían en el Capitolio ese día.

El Consejo sostuvo que es posible que se hayan infringido las Normas comunitarias en este caso, incluida aquella sobre violencia e incitación. Dado que la decisión de Facebook no se basó en esta norma y otra infracción detectada no afectaría el resultado de este procedimiento, una mayoría del Consejo se abstuvo de emitir una sentencia sobre este fundamento alternativo. La decisión que respalda las restricciones que impuso Facebook en las cuentas del sr. Trump se basa en la infracción de la norma comunitaria sobre personas y organizaciones peligrosas.

Una minoría del Consejo consideró el fundamento adicional y determinó que se había infringido la norma sobre violencia e incitación. La minoría también sostuvo que, si se leen en contexto, las publicaciones que afirman que la elección fue "stolen from us" (un robo) y "so unceremoniously viciously stripped" (se arrebató de forma tan feroz y abrupta), en conjunto con frases que elogian a los manifestantes califican como "llamados a la acción", "apología de la violencia" e "información errónea y rumores no comprobables que contribuyen al riesgo de violencia o daños físicos inminentes", que están prohibidos de conformidad con la norma comunitaria sobre violencia e incitación.

El Consejo determinó que las dos publicaciones infringían las políticas de Facebook y consideró justificada la decisión de Facebook de restringir la cuenta y la página el 6 y el 7 de enero. El usuario elogiaba y apoyaba a las personas que estaban participando en disturbios que tuvieron como consecuencia muertos, legisladores en grave peligro e interrupciones en un proceso democrático clave. Asimismo, en el momento en que se prolongaron estas restricciones al 7 de enero, la situación era fluida y seguía habiendo inquietudes sobre seguridad. Dadas las circunstancias, al restringir el acceso del sr. Trump a Facebook e Instagram el pasado 6 y 7 de enero, se logró el equilibrio adecuado en vista del permanente riesgo de violencia y disturbios. Sin embargo, como se explica en más detalle a continuación, la decisión de Facebook de que dichas restricciones sean "indefinidas" no tiene asidero en las Normas comunitarias e infringe los principios de libertad de expresión.

El Consejo sostuvo que hay poca información pública detallada sobre el sistema de comprobación y la concesión de interés periodístico. Si bien Facebook manifiesta que se aplican las mismas reglas a cuentas comunes y de alto perfil, diferentes procesos pueden conllevar resultados sustanciales distintos. Facebook indicó al Consejo que no aplicó la concesión de interés periodístico a las publicaciones en cuestión en este caso. Lamentablemente, la falta de transparencia respecto de estos procesos de toma de decisiones parece contribuir a las percepciones de que ciertas consideraciones políticas o comerciales tal vez influyan indebidamente en la empresa.

8.2 Cumplimiento de los valores de Facebook

El anterior análisis coincide con los valores de "expresión" y "seguridad" que sostiene Facebook. Por los motivos que figuran en esta opinión, la protección del orden público justificó en este caso la restricción a la libertad de expresión.

Una minoría consideró de particular importancia destacar también la relevancia que tiene la "dignidad". Facebook relaciona la "dignidad" con la igualdad y con la máxima de que las personas no deben "acosar ni degradar" a los demás. Como figura más adelante, la minoría consideró que las publicaciones que el sr. Trump había hecho anteriormente en la plataforma contribuían a la tensión racial y la exclusión, y que este contexto fue clave para entender el impacto del contenido de esta figura. Tras haber analizado este caso por otros motivos, la mayoría no hizo comentarios sobre estas publicaciones.

8.3 Cumplimiento de las responsabilidades de Facebook con los derechos humanos

Las decisiones del Consejo no tienen que ver con las obligaciones con los derechos humanos de los Estados ni con la aplicación de leyes nacionales, sino que deben centrarse en las políticas de contenido de Facebook, sus valores y las responsabilidades que, como empresa, asumió con los derechos humanos. Los Principios Rectores sobre las empresas y los derechos humanos de las Naciones Unidas (UNGP), que Facebook respaldó (consulta la sección 4), establecen que las empresas deben esforzarse a diario para cumplir con estas responsabilidades. Esto incluye evitar ocasionar daños a los derechos humanos o contribuir con ello, en parte mediante la identificación de daños posibles y reales, e iniciativas para prevenirlos o abordarlos (principios 11, 13, 15 y 18 de los UNGP). Estas responsabilidades se extienden a los daños ocasionados por terceros (principio 19 de los UNGP).

Facebook se convirtió en un medio prácticamente indispensable para el discurso político y, en especial, en períodos de elecciones. Su responsabilidad consiste tanto en permitir la expresión política como en evitar riesgos graves para otros derechos humanos. Tal como es el caso de otras plataformas y empresas de medios digitales, Facebook sufrió duras críticas por la distribución de información errónea y la intensificación de material controversial y provocativo. Las responsabilidades que Facebook asumió con los derechos humanos deben entenderse según estas consideraciones que, en ocasiones, entran en conflicto.

El Consejo analizó las responsabilidades de Facebook con los derechos humanos sobre la base de normas internacionales sobre la libertad de expresión y los derechos a la vida, la seguridad y la participación política. El Artículo 19 del ICCPR estipula el derecho a la libertad de expresión. Este manifiesta que "todos tienen derecho a la libertad de expresión; este derecho incluye la libertad de buscar, recibir e impartir información e ideas de todo tipo, independientemente de las fronteras, ya sea de manera oral, escrita o impresa, en forma de expresión artística, o por otros medios". El Consejo no aplica la Primera Enmienda de la Constitución de los Estados Unidos, que no rige la conducta de empresas privadas. No obstante, el Consejo manifestó que, en muchos aspectos relevantes, los principios de libertad de expresión reflejados en la Primera Enmienda son similares o análogos a estos mismos principios que se establecen en el Artículo 19 del ICCPR.

El discurso político está sumamente protegido por leyes de derechos humanos, debido a su importancia para el debate democrático. El Comité de Derechos Humanos de la ONU proporcionó pautas oficiales sobre el Artículo 19 del ICCPR en la observación general n.º 34, que establece que es fundamental que haya libre comunicación de información e ideas sobre temas públicos y políticos entre ciudadanos, candidatos y representantes electos (párrafo 20).

La decisión de Facebook de suspender la página de Facebook y la cuenta de Instagram del sr. Trump no solo tiene implicaciones relacionadas con la libertad de expresión para el mismo Trump, sino también para los derechos de los demás a escuchar a líderes políticos, ya sea que los sigan o no. Si bien las figuras públicas no tienen un mayor derecho a la libertad de expresión que otras personas, restringir su discurso puede perjudicar los derechos de los demás a estar informados y participar en asuntos políticos. Sin embargo, las normas de derechos humanos internacionales esperan que las entidades estatales condenen la violencia (Plan de Acción de Rabat), brinden información precisa sobre temas de interés público y, al mismo tiempo, corrijan la información errónea (declaración conjunta de expertos internacionales en libertad expresión sobre el COVID-19 de 2020).

La legislación internacional permite que se limite la libertad de expresión bajo ciertas condiciones. Las restricciones deben cumplir tres requisitos: las reglas deben ser claras y accesibles, deben tener un fin legítimo y deben ser necesarias y proporcionales al riesgo de daño. El Consejo usa esta prueba de tres partes para analizar las acciones de Facebook cuando la empresa restringe contenido o cuentas. Los principios de la Primera Enmienda en virtud de la legislación de los EE. UU. también insisten en que las restricciones sobre la libertad de expresión impuestas por medio de la acción estatal no pueden ser confusas, deben basarse en motivos gubernamentales importantes y deben delimitarse estrictamente al riesgo de daño.

I. Legalidad (claridad y accesibilidad de las reglas)

En la legislación internacional sobre la libertad de expresión, el principio de legalidad requiere que cualquier regla que se use para limitar la expresión sea clara y accesible. Las personas deben poder entender qué se permite y qué no. Con la misma importancia, las reglas deben ser lo suficientemente claras para guiar a aquellos que toman decisiones sobre la limitación de la expresión, de modo que no confieran una discrecionalidad absoluta que pueda generar su aplicación selectiva. Aquí, estas reglas son las Normas comunitarias de Facebook y las Normas comunitarias de Instagram. Estas políticas tienen como finalidad establecer lo que las personas no pueden publicar y cuándo Facebook puede restringir el acceso a cuentas de Facebook e Instagram.

La claridad de la norma contra el elogio y el apoyo a personas y organizaciones peligrosas deja mucho que desear, tal como lo observó el Consejo en una decisión anterior (caso 2020-005-FB-UA). El relator especial de la ONU sobre la libertad de expresión también expresó preocupación por la falta de claridad de la norma sobre personas y organizaciones peligrosas (A/HRC/38/35, párrafo 26, nota al pie 67). Tal como lo mencionó el Consejo previamente en el caso 2020-003-FB-UA, es posible que algunas veces ciertas expresiones pueden generar preocupaciones por la legalidad, pero aplicadas en un contexto particular, dichas preocupaciones no se justifican. Toda ambigüedad conforme a las condiciones de la norma no implica que sea dudosa su aplicación en las circunstancias de este caso. El asalto al Capitolio que se produjo el 6 de enero entró plenamente dentro de los tipos de acontecimientos dañinos establecidos en la política de Facebook, y las publicaciones del sr. Trump elogiaban y apoyaban a aquellos que estaban involucrados en el mismo momento en que ocurrían los hechos violentos, y mientras los miembros del Congreso solicitaban su ayuda. En relación con estos hechos, las políticas de Facebook brindaron al usuario un aviso adecuado y orientación a aquellos que aplicaron la regla.

Con respecto a las penalizaciones por infracciones, las Normas comunitarias y la información relacionada sobre restricciones de cuentas están publicadas en varias fuentes, incluidas las Condiciones del servicio, la introducción a las Normas comunitarias, la norma comunitaria sobre integridad de la cuenta y autenticidad de identidad, Facebook Newsroom y el servicio de ayuda de Facebook. Como se observó en el caso 2020-006-FB-FBR, el Consejo reitera que la diversidad de reglas aplicables dificulta a los usuarios entender por qué y cuándo Facebook restringe cuentas, y genera preocupaciones relativas a la legalidad.

Si bien el Consejo coincide en que la norma sobre personas y organizaciones peligrosas es lo suficientemente clara dadas las circunstancias de este caso para satisfacer las normas de claridad y ambigüedad de la libertad de expresión, la imposición de Facebook de una restricción "indefinida" es confusa e incierta. Las restricciones "indefinidas" no están descritas en las Normas comunitarias y no queda claro qué normas conducirían a esta penalización o cuáles se emplearán para mantenerla o eliminarla. Facebook no proporcionó información sobre ninguna imposición previa de suspensiones indefinidas en otros casos. El Consejo reconoce la necesidad de que Facebook tenga cierta discreción para suspender cuentas en situaciones urgentes, como las de enero, pero los usuarios no pueden quedar en un estado de incertidumbre por tiempo indefinido.

El Consejo rechaza la solicitud de Facebook de que apoye restricciones indefinidas, impuestas y levantadas sin criterios claros. Los límites adecuados sobre facultades discrecionales son cruciales para distinguir el uso legítimo de la discreción de escenarios posibles de todo el mundo en los que Facebook puede silenciar excesivamente la expresión no vinculada al daño o demorar medidas fundamentales para proteger a las personas.

II. Fin legítimo

El requisito de fin legítimo implica que cualquier medida que restrinja la expresión debe ser por un motivo establecido en el Artículo 19, párrafo 3, del ICCPR, y esta lista de fines es exhaustiva. Los fines legítimos incluyen la protección del orden público, además del respeto de los derechos de los demás, lo que incluye el derecho a la vida, a la seguridad, a participar en elecciones y a respetar e implementar los resultados. Un fin no sería legítimo si se usara como pretexto para suprimir la expresión, por ejemplo, citar los fines de protección de la seguridad o los derechos de los demás para censurar la expresión tan solo porque es desagradable u ofensiva (comentario general n.° 34, párrafos 11, 30, 46, 48). La política de Facebook sobre elogio y apoyo de personas involucradas en "acontecimientos que infringen las normas", violencia o actividades criminales se basó en los fines antes mencionados.

III. Necesidad y proporcionalidad

El requisito de necesidad y proporcionalidad significa que cualquier restricción sobre la expresión debe, entre otras cosas, ser la forma menos invasiva de lograr un fin legítimo (comentario general n.° 34, párrafo 34).

El Consejo cree que, donde sea posible, Facebook debería usar medidas menos restrictivas para abordar el lenguaje potencialmente dañino y proteger los derechos de los demás antes de recurrir a la eliminación de contenido y la restricción de cuentas. Como mínimo, esto significaría desarrollar mecanismos efectivos para evitar intensificar el lenguaje que implica riesgos de violencia inminente, discriminación u otra acción ilegal, donde sea posible y proporcional, en lugar de prohibir la expresión por completo.

Facebook indicó al Consejo que consideró que el "uso reiterado de Facebook y otras plataformas para socavar la confianza en la integridad de las elecciones (lo cual requirió que Facebook aplicara reiteradamente etiquetas auténticas para corregir la información errónea) representó un abuso extraordinario de la plataforma" por parte del sr. Trump. El Consejo buscó una aclaración de parte de Facebook sobre la medida en que las decisiones de diseño de la plataforma, como algoritmos, políticas, procedimientos y funciones técnicas, intensificaron las publicaciones del sr. Trump después de las elecciones y si Facebook había realizado análisis internos acerca de si tales decisiones de diseño podrían haber contribuido a los acontecimientos del 6 de enero. Facebook se negó a responder esas preguntas. Esto dificulta la tarea del Consejo de evaluar si medidas menos severas, tomadas con anticipación, podrían haber sido suficientes para proteger los derechos de otros.

La pregunta crucial es si la decisión de Facebook de restringir el acceso a las cuentas del sr. Trump el 6 y 7 de enero fue necesaria y proporcionada para proteger los derechos de los demás. Para entender el riesgo causado por las publicaciones del 6 de enero, el Consejo evaluó las publicaciones de Facebook e Instagram, así como los comentarios fuera de las plataformas, del sr. Trump desde las elecciones de noviembre. Al sostener un discurso infundado de fraude electoral e incitaciones persistentes, el sr. Trump creó un entorno en el que era posible que hubiera un grave riesgo de violencia. El 6 de enero, las palabras de apoyo del sr. Trump para aquellos involucrados en el asalto legitimaron sus acciones violentas. Si bien los mensajes incluían un pedido aparentemente superficial a que las personas actuaran de forma pacífica, esto fue insuficiente para apaciguar las tensiones y eliminar el riesgo de daño al cual contribuyeron sus declaraciones de apoyo. Fue apropiado que Facebook interpretara las publicaciones del sr. Trump del 6 de enero en el contexto de tensiones cada vez mayores en los Estados Unidos y las declaraciones del sr. Trump en otros medios y en eventos públicos.

Como parte de este análisis, el Consejo recurrió a los seis factores del Plan de Acción de Rabat para evaluar la capacidad del lenguaje de generar un riesgo grave de incitación a la discriminación, la violencia u otra acción ilegal:

  • Contexto: las publicaciones fueron realizadas durante un momento de alta tensión política en función del reclamo infundado de que las elecciones presidenciales de noviembre 2020 habían sido un robo. La campaña de Trump había presentado estos reclamos ante la Corte, pero con poca evidencia o sin ella, y fueron rechazados continuamente. Sin embargo, el sr. Trump siguió realizando estos reclamos en los medios sociales, incluido en Facebook e Instagram, usando su fuerza jurídica como jefe de Estado para darles credibilidad. Alentó a los partidarios a que fueran a la capital de la nación el 6 de enero para "StoptheSteal" (detener el robo), sugiriendo que los acontecimientos serían "wild" (una locura). El 6 de enero, el sr. Trump instó a los partidarios a marchar al Capitolio para impugnar el recuento de los votos electorales. En el momento de las publicaciones, todavía seguía habiendo violencia grave. Cuando las restricciones se extendieron el 7 de enero, la situación siguió siendo inestable. Entre otros indicadores del contexto, el Distrito de Columbia tomó medidas para advertir un mayor riesgo de violencia en torno a los acontecimientos en el Capitolio.
  • Posición del orador: la identidad del sr. Trump como presidente de los Estados Unidos y como líder político dio a las publicaciones que hizo en Facebook e Instagram un mayor grado de influencia. El Consejo considera que, como presidente, el sr. Trump tenía credibilidad y autoridad con los miembros del público, lo que contribuyó a los acontecimientos del 6 de enero. La posición del sr. Trump como jefe de Estado con un alto nivel de confianza no solo infundió una mayor fuerza y credibilidad a sus palabras, sino que también generó el riesgo de que sus seguidores entendieran que podían actuar con impunidad.
  • Intención: el Consejo no puede evaluar las intenciones del sr. Trump de forma concluyente. La posibilidad de que haya violencia vinculada con las declaraciones del sr. Trump era clara, y el Consejo consideró que Trump probablemente sabía o debería haber sabido que esos comunicados implicarían un riesgo de legitimar o fomentar la violencia.
  • Contenido y forma: las dos publicaciones realizadas el 6 de enero elogiaban y apoyaban a los manifestantes, pese a que se les pedía que regresaran a sus casas de forma pacífica. Las publicaciones también reiteraban el reclamo infundado de que las elecciones habían sido un robo. De acuerdo con los informes, algunos manifestantes entendieron que dicha afirmación legitimaba sus acciones. La evidencia aquí muestra que el sr. Trump usó la autoridad comunicativa presidencial para apoyar a los atacantes del Capitolio y como un intento de evitar el recuento legítimo de votos electorales.
  • Extensión y alcance: el sr. Trump tenía muchos seguidores, con al menos 35 millones de cuentas en Facebook y al menos 24 millones de cuentas en Instagram. Y lo más importante es que estas publicaciones en los medios sociales con frecuencia son tomadas y compartidas más ampliamente por canales de medios masivos, así como por partidarios de alto perfil del sr. Trump, con muchos públicos, lo que aumenta en gran medida su alcance.
  • Inminencia de daño: las publicaciones se realizaron durante un período dinámico y volátil de violencia continua. Hubo un claro e inmediato riesgo de daño a la vida, la integridad electoral y la participación política. La violencia en el Capitolio empezó una hora después del asalto organizado a través del uso de Facebook y otros medios sociales. De hecho, incluso mientras el sr. Trump publicaba, los manifestantes embestían los pasillos del Congreso, y los miembros del Congreso, presas del miedo, recurrían a la Casa Blanca y rogaban al presidente que calmara la situación. El asalto interfirió directamente con la capacidad del Congreso de cumplir con su responsabilidad constitucional de contar los votos electorales, lo que retrasó el proceso por varias horas.

Al analizar estos factores, el Consejo concluyó que la infracción en este caso era grave en términos de daños a los derechos humanos. Las restricciones que impuso Facebook sobre las cuentas el 6 de enero y la extensión de dichas restricciones el 7 de enero fueron necesarias y proporcionales.

Para la minoría del Consejo, si bien los acontecimientos del 6 de enero solamente podrían justificar una suspensión por tiempo extendido o una inhabilitación definitiva, el análisis de proporcionalidad también debería basarse en el uso de las plataformas de Facebook de parte del sr. Trump antes de las elecciones presidenciales de noviembre de 2020. En particular, la minoría señaló la publicación del 28 de mayo de 2020, que rezaba "when the looting starts, the shooting starts" (Cuando comience el saqueo, empezará el tiroteo), realizada en el contexto de protestas por justicia racial, además de varias publicaciones que hacían referencia al "China Virus" (virus de China). Facebook se comprometió a respetar el derecho a la no discriminación (Artículo 2, párrafo 1, del ICCPR; Artículo 2 de la ICERD) y, de acuerdo con los requisitos de las restricciones sobre el derecho a la libertad de expresión (Artículo 19, párrafo 3, del ICCPR), a evitar el uso de sus plataformas para defender el odio racial o nacional que constituye una incitación a la hostilidad, la discriminación o la violencia (Artículo 20 del ICCPR, Artículo 4 de la ICERD). La frecuencia, la cantidad y la extensión de los comunicados dañinos deben tenerse en cuenta para el análisis de incitación de Rabat (Plan de Acción de Rabat, párrafo 29), en particular los factores sobre contexto e intención. Según la minoría, este análisis más amplio sería crucial para que Facebook evaluara una penalización proporcional el 7 de enero, que serviría como freno para otros líderes políticos y, si corresponde, como una oportunidad de rehabilitación. Además, si Facebook optó por imponer una suspensión por tiempo limitado, el análisis de riesgo requerido previo al restablecimiento también debería tener en cuenta estos factores. Tras haber analizado este caso por otros motivos, la mayoría no hace comentarios sobre estos aspectos.

9. Decisión del Consejo asesor de contenido

El 6 de enero, la decisión de Facebook de imponer restricciones sobre las cuentas del sr. Trump estaba justificada. Las publicaciones en cuestión infringían las reglas de Facebook e Instagram que prohíben apoyar o elogiar acontecimientos infractores, incluido el asalto que ocurrió en el Capitol. Dada la gravedad de las infracciones y el continuo riesgo de violencia, la medida de Facebook de imponer restricciones sobre las cuentas y de extenderlas el 7 de enero tuvo justificación.

Sin embargo, no fue apropiado que Facebook aplicara una suspensión indefinida.

En este caso, Facebook no siguió un procedimiento claro publicado. Cuando una cuenta de un usuario infringe sus reglas, Facebook suele imponer una suspensión por tiempo limitado o inhabilitarla de forma definitiva. El Consejo determina que Facebook no puede excluir a un usuario de la plataforma por tiempo indeterminado, sin criterios que indiquen cuándo se restablecerá la cuenta o si esto ocurrirá.

La función de Facebook es crear y comunicar penalizaciones necesarias y proporcionales que se apliquen en respuesta a infracciones graves de sus políticas de contenido. La función del Consejo es garantizar que las reglas y los procesos de Facebook sean coherentes con sus políticas de contenido, sus valores y los compromisos asumidos con los derechos humanos. Al aplicar una penalización indeterminada y sin fundamento normativo y, luego, remitir este caso para que lo resuelva el Consejo, Facebook buscaba eludir sus responsabilidades. El Consejo rechazó la solicitud de Facebook e insistió en que aplique y justifique una penalización definida.

Dentro de los seis meses de haber tomado esta decisión, Facebook debe reexaminar la penalización arbitraria impuesta el 7 de enero y elegir la penalización adecuada. Esta penalización debe basarse en la gravedad de la infracción y el potencial de ocasionar daños en el futuro. Asimismo, debe ser coherente con las reglas que aplica Facebook en las infracciones graves, que deben ser, a su vez, claras, necesarias y proporcionadas.

Si Facebook determina que las cuentas del sr. Trump se deberían restablecer, Facebook debería aplicar sus reglas en esa decisión, incluida cualquier modificación realizada conforme a las recomendaciones normativas a continuación. Además, si Facebook determina que regrese a la plataforma, debe abordar otras infracciones de forma inmediata y de conformidad con las políticas de contenido que estableció.

Una minoría cree que es importante indicar algunos criterios básicos que reflejen la evaluación del Consejo de las responsabilidades de Facebook frente a los derechos humanos. En cambio, la mayoría prefiere proporcionar esta orientación como una recomendación normativa. La minoría manifiesta explícitamente que las responsabilidades de Facebook de respetar los derechos humanos incluyen remediar los efectos adversos sobre los derechos humanos a los que contribuyó (principio 22 de los UNGP). Remediar es un componente esencial del marco "proteger, respetar y remediar" de los UNGP, que refleja la legislación internacional en materia de derechos humanos con mayor amplitud (Artículo 2, párrafo 3, del ICCPR, tal y como se interpreta en la observación general n.º 31 del Comité de Derechos Humanos, párrafos 15-18). Para cumplir su responsabilidad de garantizar que no se repitan los efectos adversos, Facebook debe evaluar si el restablecimiento de las cuentas del sr. Trump implicaría un grave riesgo de incitar a la discriminación, la violencia u otras acciones ilegales inminentes. Esta evaluación de riesgo se debería basar en las consideraciones que el Consejo detalló en el análisis de necesidad y proporcionalidad de la sección 8.3.III anterior, incluido el contexto y las condiciones dentro y fuera de Facebook e Instagram. Facebook debería, por ejemplo, estar satisfecho con el hecho de que el sr. Trump haya dejado de hacer reclamos infundados sobre fraude electoral de la manera que justificó la suspensión el 6 de enero. Los procedimientos de aplicación de políticas de Facebook tienen como finalidad ser rehabilitadores, y la minoría cree que esta finalidad se ajusta bien al principio de satisfacción de la legislación de derechos humanos. Una minoría del Consejo hace hincapié en que las reglas de Facebook deberían garantizar que los usuarios que busquen que se restablezcan sus cuentas tras una suspensión reconozcan sus errores y se comprometan a respetar las reglas en el futuro. En este caso, la minoría sugiere que, antes de que se pueda restablecer la cuenta del sr. Trump, Facebook también debe intentar garantizar que se elimine el apoyo o el elogio a aquellos involucrados en las manifestaciones.

10. Declaraciones de asesoramiento normativo

El Consejo reconoce los problemas difíciles que planteó este caso y está agradecido por la gran cantidad de comentarios públicos considerados y comprometidos que recibió.

Cuando remitió este caso al Consejo, Facebook solicitó específicamente "observaciones o recomendaciones del Consejo sobre suspensiones cuando el usuario es un líder político". El Consejo le pidió a Facebook que aclare su interpretación del término "líder político". Facebook explicó que buscó abarcar "funcionarios del Gobierno electos o designados y candidatos que se postulan para próximas elecciones, incluso un breve período después de las elecciones si el candidato no es elegido", pero no todos los organismos estatales. En función del análisis del Consejo de este caso, restringe su orientación a problemas de seguridad pública.

El Consejo cree que no siempre es útil establecer una clara distinción entre líderes políticos y otros usuarios influyentes. Es importante reconocer que otros usuarios con mucho público también pueden contribuir a generar graves riesgos de daño. Deberían aplicarse las mismas reglas a todos los usuarios de la plataforma, pero es importante el contexto al evaluar problemas de causalidad y la probabilidad y la inminencia de daños. Es importante el grado de influencia que un usuario tiene sobre los demás.

Cuando las publicaciones realizadas por usuarios influyentes implican una alta probabilidad de daño inminente, tal como lo determinan las normas de derechos humanos internacionales, Facebook debería tomar medidas para aplicar sus reglas con rapidez. Facebook debe evaluar las publicaciones realizadas por usuarios influyentes en contexto de acuerdo con la forma en que podrían interpretarse, incluso si su mensaje provocador está formulado en un lenguaje diseñado para evitar responsabilidad, por ejemplo, mediante un mensaje superficial que insta a actuar de forma pacífica o legal. Facebook usó los seis factores contextuales del Plan de Acción de Rabat en este caso, y el Consejo considera que es una forma útil de evaluar los riesgos contextuales del lenguaje potencialmente dañino. El Consejo destacó que el tiempo es esencial en tales situaciones, y tomar medidas antes de que los usuarios influyentes puedan causar un daño significativo debería tener prioridad sobre el interés periodístico y otros valores de la comunicación política.

Si bien todos los usuarios deberían estar sujetos a las mismas políticas de contenido, hay factores exclusivos que se deben tener en cuenta al evaluar el discurso de líderes políticos. Los jefes de Estado y otros altos funcionarios del Gobierno pueden tener más poder para causar daño que otras personas. Facebook debería reconocer que las publicaciones realizadas por los jefes de Estado y otros altos funcionarios del Gobierno pueden tener un mayor riesgo de fomentar, legitimar o incentivar la violencia, ya sea porque su alto nivel de confianza infunde mayor fuerza y credibilidad a sus palabras o porque sus seguidores pueden inferir que pueden actuar con impunidad. Al mismo tiempo, es importante proteger los derechos de las personas de escuchar discursos políticos. Sin embargo, si un jefe de Estado o alto funcionario del Gobierno publica reiteradamente mensajes que representan un riesgo de daño en virtud de las normas de derechos humanos internacionales, Facebook debería suspender la cuenta durante un tiempo que baste para proteger a las personas de daño inminente. Los períodos de suspensión deben durar lo suficiente para disuadir la mala conducta y pueden, en los casos correspondientes, incluir la eliminación de la cuenta o página.

Las restricciones sobre la expresión suelen imponerse por disposición u orden de agentes estatales poderosos contra personas que disienten y miembros de la oposición política. Facebook debe resistir la presión de los Gobiernos de silenciar a la oposición política. Al avaluar posibles riesgos, Facebook debería tener especial cuidado de considerar el contexto político relevante. Cuando evalúa el discurso político de usuarios altamente influyentes, Facebook debería escalar de inmediato el proceso de moderación de contenido a personal especializado que esté familiarizado con el contexto lingüístico y político y aislado de injerencias políticas y económicas y de influencias indebidas. Este análisis debe examinar la conducta de los usuarios altamente influyentes fuera de las plataformas de Facebook e Instagram para evaluar de forma adecuada todo el contexto relevante del lenguaje que podría ser dañino. Además, Facebook debería garantizar que dedica los recursos y conocimientos adecuados para evaluar los riesgos de daños que suponen las cuentas influyentes de todo el mundo.

Facebook debería explicar de forma pública las reglas que usa al imponer sanciones en el nivel de la cuenta contra usuarios influyentes. Estas reglas deberían garantizar que, cuando Facebook imponga una suspensión por tiempo limitado a la cuenta de un usuario influyente con el fin de reducir el riesgo de daños significativos, evaluará si dicho riesgo disminuyó antes de que finalice la suspensión. Si Facebook determina que el usuario supone un riesgo grave de incitación a la violencia inminente, discriminación u otra acción ilegal en ese momento, se debe imponer otra suspensión por tiempo limitado cuando dicha medida sea necesaria para proteger la seguridad pública y proporcional al riesgo.

Cuando Facebook implementa procedimientos especiales que se aplican a usuarios influyentes, estos deberían estar bien documentados. No quedaba claro si Facebook aplicó diferentes normas en este caso, y el Consejo recibió muchas preocupaciones sobre la posible aplicación de la concesión de interés periodístico. Es importante que Facebook aborde esta falta de transparencia y la confusión que causó. Facebook debería brindar más información que ayude a los usuarios a entender y evaluar el proceso y los criterios para la aplicación de la concesión de interés periodístico. Facebook debería explicar con claridad cómo se aplica la concesión de interés periodístico a las cuentas influyentes, incluidas las de líderes políticos y otras figuras públicas. Respecto de la revisión comprobatoria, Facebook debería explicar con claridad los fundamentos, las normas y los procesos de revisión, incluidos los criterios para determinar qué páginas y cuentas se seleccionan para inclusión. Facebook debería informar las tasas de error relativas y la coherencia temática de las determinaciones realizadas a través del proceso de comprobación en comparación con procedimientos habituales de aplicación de políticas.

Cuando usuarios influyentes usen la plataforma de Facebook de forma indebida de una manera que cause graves efectos adversos sobre los derechos humanos, Facebook debería realizar una investigación exhaustiva del incidente. Facebook debería evaluar la influencia que tuvo y los cambios que podría implementar para identificar, evitar y mitigar los efectos adversos, así como explicar de qué manera los abordará en el futuro. En relación con este caso, Facebook debería realizar una revisión integral de su posible contribución al discurso de fraude electoral y las tensiones exacerbadas que culminaron en los hechos de violencia del 6 de enero de 2021 en los Estados Unidos. Esta debería ser una reflexión abierta sobre el diseño y las decisiones normativas que tomó Facebook, que podrían permitir que su plataforma se utilice indebidamente. Facebook debería llevar a cabo este proceso de debida diligencia, implementar un plan para actuar en función de sus resultados y comunicar abiertamente cómo aborda los efectos adversos sobre los derechos humanos con los que estuvo relacionado.

En los casos donde los usuarios de Facebook o Instagram puedan haber participado en crímenes atroces o infracciones graves de derechos humanos, así como en actividades de incitación en virtud del Artículo 20 del ICCPR, la eliminación del contenido y la inhabilitación de cuentas, si bien reducen potencialmente el riesgo de daño, también podrían socavar las iniciativas de rendición de cuentas, incluso al eliminar la evidencia. Facebook tiene la responsabilidad de recopilar, preservar y, si corresponde, compartir información para colaborar en la investigación y el posible procesamiento judicial de infracciones graves de leyes penales, de derechos humanos y humanitarias internacionales por parte de autoridades competentes y mecanismos de rendición de cuentas. La política corporativa de derechos humanos de Facebook debería aclarar los protocolos que la empresa aplica al respecto. La política también debería explicar cómo la información que estuvo previamente publicada en la plataforma puede ponerse a disposición de los investigadores que realizan investigaciones de acuerdo con las normas internacionales y las leyes aplicables de protección de datos.

Este caso saca a la luz otras deficiencias de las políticas de Facebook que debería abordar. En particular, el Consejo considera que el sistema de penalización de Facebook no es lo suficientemente claro para los usuarios y no brinda una orientación adecuada para regular el ejercicio de discreción de Facebook. Facebook debería explicar en las Normas comunitarias el proceso de faltas y penalizaciones para restringir perfiles, páginas, grupos y cuentas en Facebook e Instagram de una manera clara, integral y accesible. Estas políticas deberían brindar a los usuarios suficiente información para entender cuándo se imponen las faltas (incluidas las excepciones o concesiones aplicables) y cómo se calculan las penalizaciones. Facebook también debería proporcionar a los usuarios información accesible sobre la cantidad de infracciones, faltas y penalizaciones que se evaluaron en su contra, así como las consecuencias que habrá si se cometen más infracciones en el futuro. En sus informes de transparencia, Facebook debería incluir diversas restricciones de perfiles, páginas y cuentas, incluido el motivo y la manera en que se aplicaron las políticas, con información desglosada por región y país.

Por último, el Consejo le pide a Facebook que desarrolle y publique una política que rija la respuesta de Facebook ante situaciones nuevas o de crisis en las que los procesos habituales no prevendrían ni evitarían el daño inminente. Si bien estas situaciones no siempre se pueden anticipar, la orientación de Facebook debería establecer los parámetros adecuados para dichas acciones, incluido un requisito para revisar su decisión en un período fijo.

* Nota de procedimiento:

La preparación de las decisiones del Consejo asesor de contenido está a cargo de paneles conformados por cinco miembros, quienes deben aprobarlas por mayoría. Las decisiones del Consejo no necesariamente representan las opiniones personales de todos los miembros.

Volver a Decisiones de casos y opiniones consultivas sobre políticas