Anulado
Discurso del general brasileño
22 de Junho de 2023
El Consejo revoca la decisión original de Meta de mantener publicado un vídeo de Facebook en el que se alienta a acudir al Congreso Nacional y al Tribunal Supremo.
Resumen del caso
El Consejo asesor de contenido ha revocado la decisión original de Meta de mantener publicado un vídeo de Facebook, en el que un general brasileño alienta a la población a “hit the streets” (salir a las calles) y “go to the National Congress and the Supreme Court” (acudir al Congreso Nacional y al Tribunal Supremo). Aunque el Consejo reconoce que Meta ha establecido varias medidas de evaluación y mitigación de riesgos durante y tras las elecciones, dado el riesgo potencial existente de que sus plataformas se utilicen para incitar a la violencia en contextos electorales, Meta debería aumentar de forma continua sus esfuerzos para prevenir, mitigar y abordar los resultados adversos. El Consejo recomienda que Meta desarrolle un marco para evaluar las medidas que toma en aras de salvaguardar la integridad de las elecciones y evitar que sus plataformas se usen con el objetivo de promocionar la violencia política.
Información sobre el caso
Las elecciones presidenciales de Brasil de octubre de 2022 tuvieron lugar en un entorno enormemente polarizado en el que se propagaron numerosas afirmaciones de forma coordinada, tanto dentro como fuera de internet, que cuestionaban la legitimidad del proceso electoral. Por ejemplo, se hicieron llamamientos a la intervención militar y a la ocupación de edificios oficiales para detener la transición a un nuevo Gobierno. El elevado riesgo de violencia política no remitió con la toma de posesión del nuevo presidente electo, Luiz Inácio Lula da Silva, el 1 de enero de 2023, dado que los disturbios civiles, las protestas y las acampadas frente a bases militares continuaron.
Dos días después, el 3 de enero de 2023, un usuario de Facebook publicó un vídeo relacionado con las elecciones brasileñas de 2022. El texto, en portugués, hacía un llamamiento a “besiege” (asediar) el Congreso de Brasil como “the last alternative” (la alternativa final). En el vídeo también se muestra parte de un discurso de un destacado general brasileño que aboga por la reelección del expresidente Jair Bolsonaro. En este vídeo, un general uniformado hace un llamamiento a la población para “hit the streets” (salir a las calles) y “go to the National Congress and the Supreme Court” (acudir al Congreso Nacional y al Tribunal Supremo). A continuación aparece una secuencia de imágenes, entre ellas, la de un incendio que arrasa la plaza de los Tres Poderes de Brasilia, donde se encuentran las oficinas presidenciales nacionales, el Congreso y el Tribunal Supremo de Brasil. El texto en portugués superpuesto a la imagen dice: “Come to Brasília! Let’s Storm it! Let’s besiege the three powers” (¡Vamos a Brasilia! ¡Asaltémosla! Asediemos los Tres Poderes). Un texto superpuesto a otra imagen dice: “we demand the source code” (queremos el código fuente), eslogan que los manifestantes han usado para cuestionar la fiabilidad de las máquinas de votación electrónica de Brasil.
El día que se publicó el contenido, un usuario lo denunció por infringir la política sobre violencia e incitación de las Normas comunitarias de Meta, que prohíbe los llamamientos a acceder por la fuerza a lugares de alto riesgo. En total, cuatro usuarios denunciaron el contenido siete veces entre el 3 y el 4 de enero. Tras la primera denuncia, un revisor examinó el contenido y determinó que no infringía las políticas de Meta. El usuario apeló la decisión, pero un segundo revisor la ratificó. Al día siguiente, cinco moderadores diferentes revisaron las seis denuncias restantes, y todos ellos determinaron que la publicación no infringía las políticas de Meta.
El 8 de enero, partidarios del expresidente Jair Bolsonaro irrumpieron en el Congreso Nacional, el Tribunal Supremo y las oficinas presidenciales de la plaza de los Tres Poderes de Brasilia, intimidaron a la policía y causaron graves daños en las instalaciones. El 9 de enero, Meta calificó los disturbios del 8 de enero como un evento infractor conforme a su política sobre personas y organizaciones peligrosas y afirmó que eliminaría el contenido que apoyara o elogiara estas acciones. La empresa también anunció que había designado Brasil como una zona de alto riesgo temporal y había eliminado contenido que hacía un llamamiento a la población para empuñar las armas o asaltar por la fuerza en el Congreso, el Palacio Presidencial y otros edificios federales.
Después de que el Consejo seleccionara este caso, Meta determinó que había cometido un error al decidir en reiteradas ocasiones mantener publicado el contenido en Facebook. El 20 de enero de 2023, cuando el Consejo ya había preseleccionado este caso, Meta eliminó el contenido.
Conclusiones principales
Este caso genera inquietudes respecto a la eficacia de las medidas que Meta ha tomado para salvaguardar la integridad de los procesos electorales, tanto en el contexto de las elecciones generales de 2022 de Brasil como en otros lugares. Aunque cuestionar la integridad de las elecciones se considera generalmente un acto de expresión protegido, en circunstancias determinadas, la propagación de afirmaciones dirigidas a socavar el correcto funcionamiento de los procesos electorales puede generar violencia. En este caso, la intención del orador, el contenido y el alcance del discurso, y la probabilidad de daño inminente resultante del contexto político de Brasil en aquel momento justificaban la eliminación de la publicación.
Para que una publicación se considere infractora de las reglas de Meta por hacer llamamientos a acceder por la fuerza a lugares en los que haya un riesgo elevado, el lugar debe considerarse de alto riesgo y debe estar situado en una zona también designada como de alto riesgo temporal, o en sus alrededores. Dado que la publicación hacía un llamamiento inequívoco a acceder por la fuerza a edificios oficiales situados en la plaza de los Tres Poderes de Brasilia (un lugar de alto riesgo situado en una zona de alto riesgo temporal: Brasil), las decisiones iniciales de Meta de mantener publicado este contenido en un momento de riesgo elevado de violencia política constituyen una desviación clara de sus propias reglas.
El Consejo manifiesta su profunda preocupación por el hecho de que, a pesar de los disturbios civiles que se estaban produciendo en Brasil cuando se publicó el contenido y la amplia proliferación de contenido similar que tuvo lugar durante las semanas y los meses previos a los incidentes del 8 de enero, los moderadores de contenido de Meta evaluaran reiteradamente este contenido como no infractor y no lo remitieran a los equipos de escalado para someterlo a otra revisión. Asimismo, cuando el Consejo solicitó información a Meta sobre afirmaciones específicas relacionadas con las elecciones en sus plataformas durante las elecciones brasileñas, y también en los momentos previos y posteriores, la empresa explicó que no tenía datos sobre la prevalencia de dichas afirmaciones. Finalmente, el contenido de este caso se eliminó después de más de dos semanas, cuando ya se había producido el evento infractor por el que abogaba, y únicamente después de que el Consejo advirtiera del caso a Meta.
En respuesta a una pregunta del Consejo, Meta afirmó no usar métricas específicas para medir el resultado positivo de las acciones que emprende para salvaguardar la integridad de las elecciones. Por lo tanto, el Consejo considera que Meta debería desarrollar un marco que le permita evaluar dichas acciones y elaborar informes públicos sobre este tema. El objetivo de este sistema sería el de dotar a la empresa de datos pertinentes con los que mejorar globalmente su sistema de moderación de contenido y decidir la manera óptima de emplear sus recursos en contextos electorales. Sin este tipo de información, ni el Consejo ni el público pueden evaluar desde una perspectiva más global la eficacia de las medidas que Meta toma para salvaguardar la integridad de estos procesos.
Decisión del Consejo asesor de contenido
El Consejo asesor de contenido revoca la decisión original de Meta de mantener publicado el contenido.
Asimismo, el Consejo recomienda que Meta tome las siguientes medidas:
- Desarrollar un marco que le permita evaluar las medidas que toma para salvaguardar la integridad de las elecciones. Esto incluye crear y difundir métricas para las acciones que obtienen buenos resultados en este ámbito (por ejemplo, las relativas a la aplicación por parte de Meta de sus políticas de contenido y su enfoque en relación con la publicidad).
- Aclarar en su Centro de transparencia que, además del Protocolo de políticas sobre emergencias, la empresa ha publicado otros protocolos con el objetivo de impedir y abordar el riesgo potencial de daños asociado a contextos electorales u otros eventos de alto riesgo.
* Los resúmenes de casos ofrecen información general sobre estos y no sientan precedente alguno.
Decisión completa del caso
1. Resumen de la decisión
El Consejo asesor de contenido revoca la decisión original de Meta de mantener publicado un vídeo de Facebook, en el que un general brasileño alienta a la población a “hit the streets” (salir a las calles) y “go to the National Congress and the Supreme Court” (acudir al Congreso Nacional y al Tribunal Supremo). Tras estos llamamientos, aparece una imagen de la plaza de los Tres Poderes de Brasilia, donde se encuentran estos edificios oficiales, en llamas, con el texto superpuesto “Come to Brasília! Let’s storm it! Let’s besiege the three powers” (¡Vamos a Brasilia! ¡Asaltémosla! Asediemos los Tres Poderes). El Consejo determina que estas afirmaciones constituyen un llamamiento claro e inequívoco a asaltar estos edificios y hacerse con su control, en un contexto en que los partidarios de Bolsonaro rechazaban los resultados electorales y alentaban una intervención militar para detener el curso de la transición entre Gobiernos. Después de que el Consejo preseleccionara esta publicación para su revisión, Meta revocó su decisión original y eliminó el contenido de Facebook.
Este caso aumenta las inquietudes respecto a la eficacia de las medidas que Meta ha tomado para salvaguardar la integridad de los procesos electorales, tanto en el contexto de las elecciones generales de 2022 de Brasil como en otros lugares. Aunque cuestionar la integridad de las elecciones se considera generalmente un acto de expresión protegido, en circunstancias determinadas, la propagación de afirmaciones dentro y fuera de internet dirigidas a socavar el correcto funcionamiento de los procesos electorales, como ha ocurrido en este caso, puede generar violencia fuera de internet. En Brasil, había señales de alarma inequívocas de que dicha violencia podía tener lugar. Aunque el Consejo reconoce que Meta ha establecido varias medidas de evaluación y mitigación de riesgos durante y tras las elecciones, dado el riesgo potencial existente de que sus plataformas se utilicen para incitar a la violencia en contextos electorales, Meta debería aumentar de forma continua sus esfuerzos para prevenir, mitigar y abordar los resultados adversos. Meta debería tomar medidas durante la etapa poselectoral para salvaguardar la integridad de las elecciones y abordar el riesgo de violencia en contextos de transición del poder.
Por lo tanto, el Consejo recomienda que Meta desarrolle un marco que le permita evaluar dichas medidas y elaborar informes públicos sobre este tema. Este marco debería incluir métricas de éxito de los principales aspectos de las medidas que Meta toma para salvaguardar la integridad de las elecciones, lo que permitiría a la empresa no solo identificar y revertir errores, sino también hacer un seguimiento de la eficacia de estas acciones en situaciones críticas. El Consejo también recomienda que Meta difunda con transparencia los distintos protocolos y medidas que ha puesto en marcha para evitar y abordar el riesgo potencial de daños asociado a contextos electorales y otros eventos de alto riesgo, por ejemplo, enumerar y describir dichos protocolos y sus objetivos, así como los puntos de contacto y las divergencias existentes entre ellos. Estos protocolos deben resultar más eficaces, responder a una estructura jerárquica clara y tener asignado al personal adecuado, especialmente en contextos electorales en los que se detecta un riesgo elevado de violencia política. Estas recomendaciones ayudarían a optimizar globalmente el sistema de moderación de contenido de la empresa: Meta podría evitar con mayor eficacia el uso de sus plataformas como herramienta para promocionar la violencia política y también mejoraría su respuesta general a la violencia relacionada con contextos electorales.
2. Descripción y antecedentes del caso
El 3 de enero de 2023, un usuario de Facebook publicó un vídeo relacionado con las elecciones brasileñas de 2022. El texto, en portugués, hacía un llamamiento a “besiege” (asediar) el Congreso de Brasil como “the last alternative” (la alternativa final). En el vídeo, que tiene una duración de 1 minuto y 32 segundos, también se muestra parte de un discurso de un destacado general brasileño que aboga por la reelección del expresidente Jair Bolsonaro. En este vídeo, un general uniformado hace un llamamiento a la población para “hit the streets” (salir a las calles) y “go to the National Congress and the Supreme Court” (acudir al Congreso Nacional y al Tribunal Supremo). A continuación aparece una secuencia de imágenes, entre ellas, la de un incendio que arrasa la plaza de los Tres Poderes de Brasilia, donde se encuentran las oficinas presidenciales nacionales, el Congreso y el Tribunal Supremo de Brasil. El texto en portugués superpuesto a la imagen dice: “Come to Brasília! Let’s Storm it! Let’s besiege the three powers” (¡Vamos a Brasilia! ¡Asaltémosla! Asediemos los Tres Poderes). Un texto superpuesto a otra imagen dice: “we demand the source code” (queremos el código fuente), eslogan que los manifestantes han usado para cuestionar la fiabilidad de las máquinas de votación electrónica de Brasil. El vídeo tiene más de 18 000 reproducciones y no se ha compartido.
Dos días antes de que el contenido se publicara, el adversario electoral de Bolsonaro, Luiz Inácio Lula da Silva, había jurado el cargo de presidente de Brasil tras ganar la segunda vuelta de las elecciones presidenciales el 30 de octubre de 2022, en la que consiguió un 50,9 % de los votos. Antes y después de estas dos citas electorales, y también entre una y otra, hubo un marcado riesgo de violencia política, alentado por acusaciones de fraude electoral inminente que se basaban en la supuesta vulnerabilidad de las máquinas de votación electrónica de Brasil ante posibles hackeos. Antes de las elecciones, el entonces presidente Bolsonaro promovió la desconfianza en el sistema electoral alegando fraude sin aportar evidencias al respecto y afirmando que las máquinas de votación electrónica no eran fiables. Algunos oficiales militares emitieron acusaciones similares de fraude en las elecciones y defendieron el rol del ejército como autoridad arbitral en los conflictos electorales. Se denunciaron varios anuncios políticos que atacaban la legitimidad de las elecciones en las plataformas de Meta, entre otros, publicaciones y vídeos en los que se atacaba a las autoridades judiciales y se promovía un golpe militar. Asimismo, Global Witness publicó un informe sobre Brasil en el que describía cómo Meta aprobaba y publicaba en sus plataformas anuncios políticos que infringían sus propias Normas comunitarias. Al estudiar este tema, se hizo un seguimiento de informes similares de la organización que afectaban a otros países, como Myanmar/Birmania y Kenia.
Tras las elecciones se produjeron disturbios civiles de distinta naturaleza, como protestas, cortes de carreteras y acampadas frente a bases militares a modo de llamamiento para que las Fuerzas Armadas anularan los resultados electorales. Los especialistas consultados por el Consejo han indicado que, en este caso, el vídeo se publicó por primera vez en octubre de 2022, al poco tiempo de darse a conocer los resultados electorales. Contenido similar se mantuvo en plataformas de distintos medios sociales hasta los disturbios del 8 de enero. El 12 de diciembre de 2022, mismo día en que el Tribunal Superior Electoral confirmó la victoria de Lula, un grupo de protestantes pro-Bolsonaro intentaron asaltar la sede de la Policía Federal de Brasilia. Se produjeron varios actos de vandalismo. El 24 de diciembre de 2022, se intentó detonar un artefacto explosivo junto al aeropuerto internacional del país, en Brasilia. El hombre responsable del ataque fue arrestado y confesó que su objetivo era llamar la atención en favor de su causa, el golpe militar.
El elevado riesgo de violencia política en Brasil no remitió con la toma de posesión del presidente electo el 1 de enero de 2023. Los estudios encargados por el Consejo han revelado que las falsas acusaciones relacionadas con las máquinas de votación alcanzaron su máximo pico en las plataformas de Meta tras las vueltas primera y segunda de votación, y, de nuevo, en las semanas subsiguientes a la victoria de Lula. Asimismo, los días previos al 8 de enero, los partidarios de Bolsonaro utilizaron varios eslóganes en clave para promover las protestas en Brasilia, centradas específicamente en los edificios oficiales. Aparentemente, la mayor parte de la organización logística se realizó a través de canales de comunicación distintos de Facebook.
Misiones internacionales de observación de procesos electorales, como la Organización de los Estados Americanos y el Centro Carter, afirmaron que no se detectaron pruebas fehacientes de fraude y que el proceso electoral se llevó a cabo de forma íntegra y justa, a pesar de las presiones de un electorado enormemente polarizado. Asimismo, el Ministerio de Defensa brasileño realizó una observación formal del proceso y no detectó pruebas de irregularidad ni fraude, aunque posteriormente emitió un comunicado en sentido contrario en el que indicaba que las Fuerzas Armadas no descartaban la posibilidad de fraude (en Brasil, este ministerio es responsable de supervisar la labor de las Fuerzas Armadas).
Las tensiones alcanzaron su punto álgido el 8 de enero, cuando partidarios del expresidente Bolsonaro irrumpieron en el Congreso Nacional, el Tribunal Supremo y las oficinas presidenciales de la plaza de los Tres Poderes de Brasilia, tal y como se refiere en el contenido del caso, intimidaron a la policía y causaron graves daños en las instalaciones. Alrededor de 1400 personas fueron arrestadas por participar en los disturbios del 8 de enero, 600 de las cuales todavía permanecen bajo custodia.
A raíz de los eventos del 8 de enero, Naciones Unidas condenó el uso de la violencia, al que calificó como la culminación de la distorsión de los hechos y la incitación a la violencia y el odio continuas por parte de actores políticos, sociales y económicos, que se han dedicado a alimentar un clima de desconfianza, división y destrucción negando los resultados de unas elecciones democráticas. Asimismo, reiteró su compromiso y confianza en las instituciones democráticas de Brasil. El Consejo consultó a especialistas y revisó comentarios públicos. Ambas fuentes coincidían en el efecto perjudicial que habían tenido las acusaciones que anticipaban la dudosa integridad del sistema electoral brasileño a la hora de impulsar la polarización política y promover la violencia política fuera de internet (véase los comentarios públicos de Dangerous Speech Project [PC-11010], LARDEM - Clínica de Direitos Humanos da Pontifícia Universidade Católica do Paraná [PC-11011], Instituto Vero [PC-11015], ModeraLab [PC-11016], Campaign Legal Center [PC-11017], Center for Democracy & Technology [PC-11018], InternetLab [PC-11019] y Coalizão Direitos na Rede [PC-11020]).
El 9 de enero de 2023, Meta calificó los disturbios del 8 de enero como un evento infractor conforme a su política sobre personas y organizaciones peligrosas y afirmó que eliminaría el contenido que apoyara o elogiara estas acciones. La empresa también anunció que, antes de las elecciones, había designado Brasil como una zona de alto riesgo temporal y había eliminado contenido que hacía un llamamiento a la población para empuñar las armas o asaltar por la fuerza en el Congreso, el Palacio Presidencial y otros edificios federales.
El 3 de enero (el mismo día en que se publicó el contenido), un usuario lo denunció por infringir la política sobre violencia e incitación de las Normas comunitarias de Meta, en la que se prohíben los llamamientos a acceder por la fuerza a lugares en los que haya indicios temporales de un riesgo elevado de violencia o daño fuera de internet. En total, cuatro usuarios denunciaron el contenido siete veces entre el 3 y el 4 de enero. Tras la primera denuncia, un moderador revisó manualmente el contenido y determinó que no infringía las políticas de Meta. El usuario apeló la decisión, pero un segundo moderador volvió a revisar el contenido manualmente y la ratificó. Al día siguiente, cinco moderadores diferentes revisaron las seis denuncias restantes, y todos ellos determinaron que la publicación no infringía las políticas de Meta. El contenido no se escaló a especialistas en la materia ni en políticas para llevar a cabo una revisión adicional. En respuesta a una pregunta del Consejo, Meta aclaró que las siete personas que revisaron el contenido residían en Europa, que todos ellos manejaban el portugués con fluidez y que tenían los conocimientos lingüísticos y culturales necesarios para revisar el contenido en este idioma.
Después de que el Consejo seleccionara este caso, Meta determinó que había cometido un error al decidir en reiteradas ocasiones mantener publicado el contenido en Facebook. El 20 de enero de 2023, después de que el Consejo preseleccionara este caso, Meta eliminó el contenido, impuso una falta a la cuenta del creador del contenido y aplicó una limitación de funciones que le impedía crear nuevo contenido durante 24 horas. A pesar de la medida de Meta, el grupo representativo de la sociedad civil Ekō envió al Consejo un comentario público en el que se indicaba, al igual que en otros informes, que quedaba contenido similar publicado en Facebook, incluso después de que el Consejo presentara este caso a Meta (PC-11000).
3. Competencia y ámbito de actuación del Consejo asesor de contenido
El Consejo tiene competencia para revisar la decisión de Meta tras la apelación de la persona que previamente había denunciado el contenido que se mantuvo publicado (artículo 2, apartado 1 del acta constitutiva; artículo 3, apartado 1 de los estatutos). El Consejo puede ratificar o revocar la decisión de Meta (artículo 3, apartado 5 del acta constitutiva), y la decisión que tome será vinculante para la empresa (artículo 4 del acta constitutiva). Meta también debe evaluar la viabilidad de aplicar su decisión respecto a contenido idéntico cuyo contexto sea similar (artículo 4 del acta constitutiva). Las decisiones del Consejo pueden incluir recomendaciones no vinculantes a las que Meta debe responder (artículo 3, apartado 4, y artículo 4 del acta constitutiva). En los casos en los que Meta se compromete a tomar medidas basadas en esas recomendaciones, el Consejo supervisa su implementación.
Cuando el Consejo selecciona casos como este, en los que Meta posteriormente reconoce que ha cometido un error, el Consejo revisa la decisión original para esclarecer los parámetros de la política y los procesos de moderación de contenido que han contribuido a que dicho error se haya producido. A continuación, el Consejo se basa en los procesos y las políticas subyacentes de Meta para abordar los problemas que identifica. Además, trata de emitir recomendaciones para que Meta aplique sus políticas con más precisión y trate a los usuarios de forma más justa en el futuro.
4. Precedentes y pautas
El análisis del Consejo en este caso se basó en las normas y precedentes siguientes:
I. Decisiones del Consejo asesor de contenido:
A continuación se indican algunas de las decisiones previas del Consejo asesor de contenido que resultan pertinentes en este caso:
- “Suspensión de la cuenta del expresidente de EE. UU. Donald Trump” (decisión del caso 2021-001-FB-FBR): el Consejo aprecia que, en contextos electorales, las responsabilidades de Meta en materia de derechos humanos incluyen permitir la libertad de expresión política y, al mismo tiempo, evitar riesgos graves relacionados con otros derechos humanos.
- Bot de Myanmar/Birmania (decisión del caso 2021-007-FB-UA): el Consejo destaca la importancia de proteger el discurso político durante las crisis políticas.
- “Agencia de comunicaciones de Tigré” (decisión del caso 2022-006-FB-MR): el Consejo también hace hincapié en la responsabilidad de Meta de establecer un sistema transparente y fundamentado que permita moderar el contenido en zonas de conflicto, para reducir el riesgo de que sus plataformas se usen como herramienta de incitación a la violencia.
- “Caricaturas de Knin” (decisión del caso 2022-001-FB-UA): el Consejo apremia a Meta a comunicar con mayor claridad cómo escala el contenido a especialistas en las distintas materias.
II.Políticas de contenido de Meta:
Política sobre violencia e incitación de las Normas comunitarias
De conformidad con la política sobre violencia e incitación de las Normas comunitarias, Meta no permite declaraciones de intención o apoyo, llamadas a la acción, manifestaciones de la voluntad de acceder por la fuerza (o de hacerlo en determinadas circunstancias) a lugares (como lugares de culto, instituciones educativas, centros de votación o lugares usados para contar votos o administrar un proceso electoral) en los que haya indicios temporales de un riesgo elevado de violencia o daños fuera de internet. Las bases de esta política están dirigidas a evitar que se produzcan daños en el mundo real que puedan estar relacionados con el contenido que se muestra en las plataformas de Meta, si bien la empresa entiende que las personas suelen expresar desprecio o desacuerdo mediante amenazas o apelaciones a la violencia sin intención real de llevarlas a cabo. Por lo tanto, elimina el contenido cuando cree que existe un riesgo real para la integridad física de las personas o amenazas directas a la seguridad pública. Para distinguir las afirmaciones que constituyen amenazas creíbles, también tiene presente el lenguaje y el contexto.
El análisis del Consejo también se ha basado en los valores de expresión, que Meta describe como primordial, y seguridad.
III. Responsabilidades de Meta en materia de derechos humanos
Los Principios Rectores sobre las Empresas y los Derechos Humanos (PREDH) de la ONU, respaldados por el Consejo de Derechos Humanos de la ONU en 2011, establecen un marco voluntario de responsabilidades de las empresas en relación con estos derechos. En 2021, Meta anunció su Política corporativa de derechos humanos, con la que reafirmó su compromiso con el respeto de estos derechos, de conformidad con los PREDH.
El análisis del Consejo sobre las responsabilidades de Meta en materia de derechos humanos en este caso se basó en las siguientes normas internacionales:
- Derecho a la libertad de opinión y expresión: artículos 19 y 20 del Pacto Internacional de Derechos Civiles y Políticos (PIDCP), observación general n.º 34 del Comité de Derechos Humanos, 2011; artículo de investigación 1/2019 sobre elecciones en la era digital (2019): informes del Relator Especial de la ONU sobre la libertad de opinión y de expresión: A/HRC/38/35 (2018) y A/74/486 (2019); Plan de Acción de Rabat, informe de la Alta Comisionada de las Naciones Unidas para los Derechos Humanos: A/HRC/22/17/Add.4 (2013).
- Derecho de reunión pacífica: artículo 21 del PIDCP; observación general n.º 37 del Comité de Derechos Humanos, 2020.
- Derecho a la vida: artículo 6 del PIDCP.
- Derechos de participación en asuntos públicos y de voto: artículo 25 del PIDCP.
5. Manifestaciones del usuario
En su apelación al Consejo, el usuario que denunció el contenido afirmó que ya había denunciado previamente a Facebook tanto este como un sinfín de vídeos más, y que siempre obtuvo la misma respuesta: que no infringían las Normas comunitarias. Además, vinculó la capacidad latente del contenido para incitar a la violencia con las acciones del pueblo brasileño que no aceptaba los resultados electorales.
6. Manifestaciones de Meta
Cuando el Consejo presentó este caso a Meta, la empresa determinó que su decisión original de mantener publicado el contenido había sido incorrecta. Meta proporcionó al Consejo un extenso análisis del contexto político y social de Brasil durante las elecciones presidenciales y también de los momentos anterior y posterior a ellas para justificar, si bien con retraso, la eliminación del contenido en este caso. Posteriormente, comunicó al Consejo causas probables que podían haber contribuido a su error persistente de aplicación de medidas.
Meta explicó su visión, según la cual varias referencias en el texto y el vídeo a asediar lugares de alto riesgo no alcanzan por separado el nivel del concepto “acceder por la fuerza” descrito en la política [sobre violencia e incitación]. No obstante, la suma de los llamamientos “Come to Brasília! Let’s storm it! Asediemos los tres poderes”, con una imagen de fondo en la que se muestra la plaza de los Tres Poderes en llamas, establece claramente la intención de acceder por la fuerza a estos lugares destacados.
Según Meta, el contenido no cumplía los requisitos para obtener una exención por interés periodístico, aunque reconoció que sus plataformas son espacios importantes de discurso político, especialmente en el marco de procesos electorales. En este caso, el valor de interés público del contenido no superaba el riesgo de daño, por contener un llamamiento específico a la violencia y debido al elevado riesgo de daño fuera de internet existente tras las elecciones presidenciales de Brasil y la toma de posesión de Lula. Meta no halló ningún indicio que le hiciera suponer que el contenido se había compartido para condenar el llamamiento a la violencia ni para generar conciencia en torno a él. La empresa mantiene que su decisión final de eliminar el contenido es coherente con sus valores y sus normas internacionales en materia de derechos humanos.
Para abordar elecciones y otras situaciones de crisis, Meta ha configurado varias medidas de evaluación y mitigación de riesgos que se aplican a través de distintos equipos, ya sea de forma individual o combinadas. Cada medida se aplica con distintos niveles de intensidad, dependiendo de la evaluación de riesgos específica:
- La política sobre priorización de países en relación con la integridad (también conocida como sistema de niveles por riesgo), que aplica el equipo de productos de Meta, ofrece un marco para priorizar las inversiones de recursos de productos a largo plazo. Aunque Meta no considera este proceso como una respuesta adecuada a las crisis a corto plazo, permite evaluar todos los países dos veces al año para detectar riesgos y amenazas emergentes.
- Los centros de operaciones de productos para la integridad (IPOC, por sus siglas en inglés) reúnen a equipos interdisciplinares de la empresa compuestos por especialistas en distintas materias, cuya finalidad es responder en tiempo real a los posibles problemas y tendencias. Los IPOC se configuran para evaluar rápidamente un número elevado de problemas, identificar riesgos y determinar cómo abordarlos en el contexto de una crisis o una situación de alto riesgo. Cuando se dedican específicamente a vigilar procesos electorales, se les denomina Centros de operaciones para las elecciones.
- Los Centros de operaciones para las elecciones supervisan en tiempo real los problemas clave relacionados con estos procesos, por ejemplo, acciones dirigidas a evitar que la población vote, aumento del spam, posibles injerencias extranjeras o informes cuyo contenido infrinja las políticas [de Meta]. También supervisan la cobertura informativa y la actividad relacionada con las elecciones en otras redes sociales y medios tradicionales. Estos centros ofrecen a Meta una visión colectiva y le ayudan a hacer un seguimiento del tipo de contenido que puede hacerse viral para acelerar el tiempo de respuesta de la empresa ante estas amenazas. Entre otras acciones, a la hora de prepararse de cara a un proceso electoral, planifican rigurosamente la situación para anular las posibles amenazas, desde el acoso hasta la supresión del voto, y desarrollan sistemas y procedimientos con antelación para ofrecer una respuesta eficaz.
- Por último, Meta ha adoptado el Protocolo de políticas sobre emergencias, un marco diseñado para desarrollar respuestas de duración limitada específicas de las políticas a crisis emergentes. Meta lo desarrolló en respuesta a una recomendación del Consejo asesor de contenido para el caso “Suspensión de la cuenta del expresidente de EE. UU. Donald Trump”. Conforme a este protocolo, Meta establece tres categorías de crisis y, en función de la categoría aplicable, adopta una serie determinada de medidas para mitigar los riesgos. Por ejemplo, se activa una crisis de categoría 1 cuando se produce un aumento de la actividad militar o de las fuerzas y cuerpos de seguridad, o cuando se planifican elecciones de alto riesgo o eventos que pueden suponer un foco de tensión.
El Centro de operaciones para las elecciones cubrió las elecciones generales brasileñas de 2022 en varios momentos entre septiembre y noviembre de ese mismo año, entre ellos, durante la primera y la segunda vuelta de la votación. No obstante, no se estableció ningún IPOC cuando se publicó el contenido el 3 de enero de 2023. Meta designó los “disturbios poselectorales” como situación de emergencia en virtud del Protocolo de políticas sobre emergencias a fin de poder evaluar cuál era la mejor opción para mitigar los riesgos que planteaba el contenido.
En respuesta a una pregunta del Consejo sobre las tendencias digitales en las plataformas de Meta durante las elecciones brasileñas y en los momentos previos y posteriores, la empresa afirmó que, al prepararse para las elecciones y trabajar en su plan de respuesta, varios equipos identificaron tendencias de contenido relacionadas con este proceso y las incorporaron a su estrategia de mitigación de riesgos. Entre estas tendencias, figuraban: (i) riesgos asociados con la incitación a la violencia o la difusión de amenazas violentas; (ii) información errónea, e (iii) integridad empresarial (por ejemplo, riesgos asociados con el posible abuso de contenido publicitario perjudicial o intentos de realizar campañas de forma que permita manipular o corromper el debate público). Meta afirmó que estos resultados, entre otros factores, le ofrecieron información de utilidad para tomar diversas medidas de mitigación relacionadas con productos y políticas. Sin embargo, la empresa no tiene datos de prevalencia aplicables a afirmaciones específicas (sobre fraude electoral, llamamientos a acudir a Brasilia, asaltar por la fuerza edificios oficiales o en defensa de una intervención militar, etc.), dado que, por lo general, sus sistemas de aplicación de políticas están configurados para supervisar y hacer un seguimiento a partir de las infracciones cometidas a este respecto.
El Consejo planteó por escrito 15 preguntas a Meta, 5 de ellas a modo de seguimiento de una presentación oral sobre el funcionamiento del Centro de operaciones para las elecciones. Las preguntas estaban relacionadas con: recursos normativos disponibles para abordar el comportamiento coordinado en las plataformas de Meta; riesgos identificados antes de las elecciones brasileñas de 2022; la relación existente entre el Centro de operaciones para las elecciones en Brasil y el Protocolo de políticas sobre emergencias; cómo Meta traza la línea que permite distinguir la organización política legítima de las acciones coordinadas perjudiciales; tendencias digitales en las plataformas de Meta en Brasil durante las elecciones, y también en los momentos previos y posteriores, y las capacidades lingüísticas de los moderadores de contenido que revisaron el contenido del caso.
Meta contestó a 13 preguntas y dejó 2 sin respuesta, una sobre la relación existente entre la información errónea y la publicidad política, y otra sobre el número de eliminaciones de páginas y cuentas realizadas mientras el Centro de operaciones para las elecciones de Brasil de 2022 estuvo operativo. Asimismo, Meta informó al Consejo de que, además de las varias retiradas de contenido que difundió públicamente, no tiene disponibles otros datos de carácter general sobre la moderación de contenido que se llevó a cabo en el contexto de las elecciones brasileñas de 2022 para compartirlos con el Consejo. También explicó que no evalúa su propio rendimiento en contextos electorales con un conjunto concreto de métricas de éxito y puntos de referencia. Además, transmitió la necesidad de priorizar sus recursos para responder a las preguntas del Consejo y añadió que le resultaba imposible proporcionar los datos solicitados en el plazo pertinente a la resolución del caso.
7. Comentarios públicos
El Consejo asesor de contenido ha recibido 18 comentarios públicos pertinentes para este caso: 11 procedían de Latinoamérica y el Caribe; 3, de Estados Unidos y Canadá; 2 ,de Oriente Medio y África septentrional; 1, de Asia-Pacífico y Oceanía; y 1, de Asia central y meridional. Asimismo, el Consejo organizó una mesa redonda con partes interesadas de Brasil y Latinoamérica sobre moderación de contenido y transiciones políticas en febrero de 2023.
Se realizaron aportaciones sobre los siguientes temas: la acumulación de afirmaciones perjudiciales sobre fraude electoral y llamamientos a un golpe militar en las plataformas de medios sociales durante las elecciones de Brasil de 2022, y también en los momentos anteriores y posteriores; desinformación electoral; medidas de Meta para salvaguardar la integridad de las elecciones; responsabilidad de Meta de proteger los derechos de los usuarios en contextos de transición democrática del poder; la relación existente entre el negacionismo electoral y la violencia política, y la importancia del conocimiento sobre el contexto político local de los revisores de contenido.
Los comentarios públicos recibidos en relación con este caso se pueden consultar aquí.
8. Análisis del Consejo asesor de contenido
El Consejo analizó si este contenido debía eliminarse teniendo en cuenta las políticas de contenido, las responsabilidades en materia de derechos humanos y los valores de Meta. Se seleccionó este caso porque permite al Consejo evaluar cómo distingue Meta en sus plataformas la organización pacífica de la incitación a la violencia o la coordinación de acciones violentas, especialmente en contextos de transición del poder. Asimismo, ofrece al Consejo la oportunidad de examinar las medidas que aplica Meta para salvaguardar la integridad de las elecciones desde una perspectiva general y, en el contexto de Brasil, también de forma específica, teniendo en cuenta que los periodos poselectorales son un momento crucial para analizar la integridad de las elecciones y garantizar que se respeten los resultados legítimamente obtenidos. Por lo tanto, el Consejo determina que las medidas que Meta aplica para salvaguardar la integridad de las elecciones deberían cubrir tanto los procesos electorales en sí mismos como el periodo posterior, ya que sigue siendo un momento vulnerable a la manipulación, la información electoral errónea y las amenazas de violencia. Por sus características, este caso entra dentro de la prioridad estratégica “Elecciones y espacio cívico” del Consejo.
8.1. Cumplimiento de las políticas de contenido de Meta
I. Reglas de contenido
Violencia e incitación
El Consejo determina que el contenido de este caso infringe la prohibición de contenido que haga un llamamiento a acceder por la fuerza a ciertos lugares de alto riesgo, descrita en la política sobre violencia e incitación de las Normas comunitarias. Asimismo considera que, aunque el valor de expresión de Meta resulta especialmente pertinente en el contexto de procesos electorales, en este caso es necesario eliminar el contenido para priorizar el valor de seguridad de la empresa.
Para que se considere que se ha cruzado el límite de la política que permite identificar los llamamientos a acceder por la fuerza a lugares de alto riesgo, debe reconocerse doblemente la circunstancia de alto riesgo: el lugar debe considerarse de alto riesgo y, además, debe estar situado en una zona también designada como de alto riesgo temporal, o en sus alrededores. Las instrucciones específicas de Meta para los revisores de contenido indican eliminar las llamadas a la acción, las declaraciones de intención o apoyo, y las manifestaciones de la voluntad de acceder por la fuerza a lugares de alto riesgo situados en zonas designadas de alto riesgo temporal.
Meta define un lugar de alto riesgo como aquel que está sometido a un riesgo elevado, ya sea de forma permanente o temporal, dada la probabilidad existente de que se convierta en objeto de violencia. Entre los lugares de alto riesgo permanente, se encuentran los centros de trabajo o residencia de personas de alto riesgo o de sus familiares (por ejemplo, oficinas centrales de agencias de noticias, centros médicos, laboratorios, comisarías, dependencias gubernamentales, etc.); instalaciones utilizadas en elecciones locales, regionales o nacionales como centros de empadronamiento, colegios electorales, instalaciones de recuento de votos (bibliotecas locales, edificios oficiales, centros sociales o comunitarios, etc.), o lugares habilitados para tareas administrativas en contextos electorales. Según Meta, el Congreso Nacional, el Tribunal Supremo y las oficinas presidenciales de Brasil deben considerarse lugares de alto riesgo permanente por tratarse de lugares de trabajo o residencia de personas de alto riesgo o de sus familiares.
La consideración adicional de zona de alto riesgo temporal para un área más amplia o los alrededores de los lugares de alto riesgo se aplica a cualquier lugar designado [por Meta como tal] de forma temporal, durante un periodo limitado. La designación de estas zonas puede basarse en diversos factores, por ejemplo: si se han producido en ellas actos de violencia de gravedad alta en el transcurso de protestas en los últimos siete días; si existen pruebas de un aumento de la violencia en estos lugares asociada a disturbios civiles o decisiones judiciales controvertidas; si se indica en evaluaciones de las autoridades, informes internos de seguridad o por parte de socios de confianza que en estos lugares existe una probabilidad elevada de que se produzcan actos violentos inminentes; si existen pruebas de protestas activas o planificadas en el lugar, cuyos organizadores hayan realizado llamamientos para usar armas o llevarlas a dichos actos, y si los equipos internos consideran que los riesgos de seguridad superan el impacto potencial del valor de expresión en relación con la autodefensa y la autodeterminación. Cuando se designa una zona de alto riesgo temporal, se comunica a los equipos internos de Meta. Aunque esta designación tiene carácter temporal, la empresa concede extensiones en casos determinados. Según Meta, cuando se designa una zona de alto riesgo temporal, se realiza una revisión proactiva del contenido antes de que los usuarios [lo] denuncien.
En las elecciones de 2022, Meta designó Brasil en su totalidad como zona de alto riesgo temporal. Esta designación se estableció inicialmente el 1 de septiembre de 2022 al detectarse en una evaluación de Meta un aumento en el riesgo de violencia asociado con los disturbios civiles en curso y en relación con las elecciones. Posteriormente, se concedió una extensión para abarcar las elecciones de octubre de ese mismo año y el periodo posterior, hasta el 22 de febrero de 2023. La designación continuaba activa cuando se publicó el contenido del caso.
Según Meta, ambas designaciones deben estar activas para que se considere que un contenido determinado ha infringido la política, condición que se cumplió en el caso de esta publicación. Meta señala que este doble requisito ayuda a evitar la eliminación masiva de convocatorias de protestas para retirar únicamente el contenido que presenta un riesgo elevado de generar violencia.
Teniendo en cuenta lo anteriormente expuesto, el Consejo considera que las decisiones iniciales de Meta de mantener publicado el contenido en un momento de riesgo elevado de violencia política constituyen una desviación clara de sus propias normas, dado que la publicación hacía un llamamiento inequívoco a acceder por la fuerza a edificios oficiales situados en la plaza de los Tres Poderes de Brasilia (un lugar de alto riesgo situado en una zona de alto riesgo temporal, Brasil).
II. Aplicación de medidas
Según Meta, siete moderadores que tenían los conocimientos lingüísticos y culturales necesarios revisaron manualmente el contenido. Meta no requiere que los revisores especializados en la aplicación de normas a gran escala registren los motivos que fundamentan sus decisiones. Cuando el Consejo seleccionó este caso, los equipos internos de Meta lo analizaron e identificaron tres causas probables que pudieron haber favorecido el error reiterado en la aplicación de medidas: (1) que los revisores no hubieran comprendido la intención del usuario (un llamamiento a la acción), probablemente debido a la falta de puntuación del contenido, y lo interpretaran erróneamente como un comentario neutral sobre el evento; (2) que los revisores tomaran una decisión equivocada (a pesar de que se les habían proporcionado normas correctas) debido a las numerosas actualizaciones realizadas acerca de cómo gestionar el contenido relacionado con eventos de alto riesgo de varias fuentes, o (3) que los revisores no hubieran detectado la infracción en el vídeo.
Las causas 1 y 3 sugieren que los moderadores no revisaron el contenido con la debida atención ni examinaron el vídeo en su totalidad, ya que la posibilidad de infracción de las políticas de Meta era evidente. No obstante, Meta no ha ofrecido ninguna explicación respecto a por qué el contenido no se escaló a especialistas en la materia y en políticas para someterlo a un análisis más detallado. El contenido no se escaló a pesar de proceder de un país que, en el momento en que se publicó y denunció, se había designado zona de alto riesgo temporal conforme a una disposición de la política, que solo se activa cuando se aplica esta consideración. Asimismo, tampoco se escaló pese al contexto global de Brasil, tanto dentro como fuera de internet (véase el apartado 2).
Meta ya había indicado al Consejo que los revisores de contenido no siempre pueden ver los vídeos en su totalidad. Sin embargo, en situaciones de riesgo elevado de violencia para las que se han activado recursos normativos específicos, el Consejo esperaría que se hubiera indicado a los revisores la necesidad de ver los vídeos en su totalidad y escalar el contenido potencialmente infractor.
Respecto a la causa 2, aunque Meta afirma comunicar las designaciones de zonas de alto riesgo temporal a los revisores especializados en la aplicación de normas a gran escala, reconoce posibles carencias a la hora de divulgar esta y otras medidas de mitigación de riesgos específicas de los contextos electorales. La armonización de este tipo de información permite a los revisores detectar, eliminar o escalar contenido problemático, como el vídeo de este caso. El hecho de que se aplicaran distintas medidas de mitigación y evaluación en Brasil al mismo tiempo expone la posible necesidad de articular mejor estas soluciones y de disponer de una estructura jerárquica clara para que las acciones que lleva a cabo la empresa dirigidas a salvaguardar la integridad de las elecciones resulten más eficaces.
A pesar de la decisión final de Meta de retirar el contenido, el Consejo manifiesta su profunda preocupación por el hecho de que, teniendo en cuenta los disturbios civiles que se estaban produciendo en Brasil cuando se publicó el contenido y la amplia proliferación de contenido similar que tuvo lugar durante las semanas y los meses previos a los incidentes del 8 de enero, los moderadores de la empresa evaluaran reiteradamente este contenido como no infractor y no lo remitieran a los equipos de escalado para someterlo a otra revisión. Esta preocupación se ve agravada por el hecho de que, cuando el Consejo solicitó información a Meta sobre afirmaciones específicas relacionadas con las elecciones en sus plataformas durante las elecciones brasileñas, y también en los momentos previos y posteriores, la empresa explicó que no tenía los datos de prevalencia pertinentes (véase el apartado 6). Finalmente, el contenido de este caso se eliminó después de más de dos semanas, cuando ya se había producido el evento infractor por el que abogaba, y únicamente después de que el Consejo advirtiera del caso a Meta.
Meta conocía el riesgo elevado de violencia en Brasil, lo que quedó patente al aplicar distintas medidas de evaluación de riesgos al publicarse el contenido (así como en los momentos previos y posteriores), y cuando así se lo reconoció al Consejo y decidió eliminar finalmente el contenido. Aun así, los revisores de la empresa aplicaron incorrectamente las Normas comunitarias (concretamente, la disposición de la política sobre violencia e incitación de dichas normas relativa a la designación de zonas de alto riesgo temporal) en varias ocasiones. El hecho de que el contenido no se escalara hasta que el Consejo lo seleccionó, a pesar del riesgo evidente de posibles infracciones, y de que hubiera contenido similar circulando en Facebook en ese momento (véanse los apartados 2 y 8.2) indica que, muy probablemente, los canales de escalado no resultan claros ni eficaces (véase el caso “Caricaturas de Knin”). También demuestra que es necesario que Meta mejore sus medidas de seguridad relativas a procesos electorales. Como el Consejo ha manifestado en decisiones anteriores, es indispensable que los revisores especializados en la aplicación de normas a gran escala dispongan de los conocimientos lingüísticos y contextuales necesarios, así como de las herramientas y los canales adecuados, que les permitan escalar el contenido potencialmente infractor en caso necesario.
III. Transparencia
El Consejo reconoce que Meta tomó medidas sustanciales para salvaguardar la integridad de las elecciones de Brasil de 2022. En agosto de ese mismo año, cuando se inició formalmente la campaña electoral, Meta anunció públicamente las acciones que emprendería en el país con motivo de las elecciones. La empresa colaboró con el Tribunal Superior Electoral brasileño para añadir a las publicaciones de Facebook e Instagram relacionadas con el proceso electoral una etiqueta, que dirigía a los ciudadanos a información fiable del sitio web de la Justicia Electoral. Según Meta, esta solución multiplicó por diez el número de visitas al sitio web. Esta colaboración también permitió al Tribunal Superior Electoral denunciar directamente a Meta contenido potencialmente infractor. Meta organizó sesiones de formación para funcionarios electorales por todo Brasil para explicar sus Normas comunitarias y cómo se aborda el problema de la información errónea en Facebook e Instagram, y prohibió la publicidad de pago que pusiera en cuestión la legitimidad de las futuras elecciones. Además, implementó un límite de reenvío en WhatsApp que solo permitía reenviar mensajes a un solo grupo cada vez. Por último, Meta indicó el número de piezas de contenido que había eliminado en virtud de varias políticas de sus Normas comunitarias (por ejemplo, sobre violencia e incitación, lenguaje que incita al odio, y bullying y acoso) y la cantidad total de clics realizados en las etiquetas electorales que dirigían a los usuarios a información fiable sobre las elecciones de Brasil.
Sin embargo, cuando el Consejo preguntó por las medidas aplicadas para salvaguardar la integridad de las elecciones en el contexto de los procesos electorales de Brasil de 2022, Meta afirmó que, aparte de los datos sobre las retiradas de contenido, las visualizaciones y los clics en etiquetas electorales, no utiliza métricas específicas para medir globalmente la utilidad de las medidas referidas. El Consejo también ha señalado que, a partir de la información que Meta ha divulgado en su Centro de transparencia y los datos que le ha facilitado, no queda totalmente claro si la empresa aplica sus distintos protocolos y medidas de evaluación de riesgos (véase el apartado 6 anterior) individual o simultáneamente. Meta debería aclarar los puntos de contacto entre los distintos protocolos y explicar mejor las divergencias existentes entre ellos y cómo se aplican exactamente las políticas de contenido a las que afectan.
El Consejo recibió varios comentarios públicos (Ekō [PC-11000], Dangerous Speech Project [PC-11010], ModeraLab [PC-11016], Campaign Legal Center [PC-11017], InternetLab [PC-11019] y Coalizão Direitos na Rede [PC-11020]) que afirmaban que las medidas de la empresa para salvaguardar la integridad de las elecciones en Brasil resultaron insuficientes. Aunque el Consejo es consciente del reto que supone la moderación de contenido a gran escala, Meta tiene una responsabilidad aún mayor de prevenir, mitigar y abordar los posibles menoscabos de los derechos humanos en contextos electorales y de alto riesgo de distinta naturaleza, lo que hace necesario que la empresa establezca medidas de contención eficaces para estos casos. El error de aplicación de medidas de este caso no parece ser un incidente aislado. Según Ekō (PC-11000), se mantuvo publicado contenido similar en Facebook incluso después de los disturbios del 8 de enero.
Se precisa más transparencia para evaluar si las medidas de Meta resultan adecuadas y suficientes en contextos electorales. La falta de datos disponibles para su revisión por parte del Consejo socavó la capacidad de este de evaluar de forma adecuada si los errores de aplicación de medidas de este caso, así como las preocupaciones manifestadas por las distintas partes interesadas, son sintomáticos de un problema sistémico que afecta a las prácticas de aplicación de medidas y las políticas de la empresa. Asimismo, esta circunstancia ha afectado a la capacidad del Consejo para emitir recomendaciones más específicas sobre cómo Meta puede mejorar globalmente y en mayor medida las medidas que aplica para salvaguardar la integridad de las elecciones.
Los datos que Meta divulga actualmente, en particular los relacionados con las retiradas de contenido, no ofrecen una visión completa de los resultados que obtienen las medidas referidas en mercados concretos. Por ejemplo, no reflejan la precisión con la que se aplican políticas importantes en contextos electorales, como la relativa a violencia e incitación de sus Normas comunitarias, ni el porcentaje de anuncios políticos que Meta aprueba en un primer momento y, posteriormente, se consideran infractores de las políticas de la empresa. La realización de auditorías estadísticas con métricas como las mencionadas no solo permitiría a Meta revertir sus errores, sino también hacer un seguimiento de lo eficaces que resultan sus medidas en los momentos en que son más necesarias.
Sin este tipo de información, ni el Consejo ni el público pueden evaluar desde una perspectiva más global la eficacia de las medidas que Meta toma para salvaguardar la integridad de estos procesos. Este aspecto es importante si se tiene en cuenta que muchos incidentes de violencia política a menudo derivan de disputas relacionadas con las elecciones (o se incrementan debido a dichos conflictos) si el contenido perjudicial se mantiene publicado online antes de que se produzcan actos de violencia fuera de internet o de forma simultánea a ellos (véanse “Bot de Myanmar/Birmania” [2021-007-FB-UA]”, “Agencia de comunicaciones de Tigré” [2022-006-FB-MR]” y “Suspensión de la cuenta del expresidente de EE. UU. Donald Trump” [2021-001-FB-FBR]).
Por lo tanto, el Consejo considera que Meta debería desarrollar un marco que le permita evaluar dichas acciones y elaborar informes públicos sobre este tema. El objetivo de este sistema sería el de dotar a la empresa de datos pertinentes con los que mejorar globalmente su sistema de moderación de contenido y decidir la manera óptima de emplear sus recursos en contextos electorales. Asimismo, debería ayudar a Meta a optimizar eficazmente el conocimiento local y a identificar y evaluar de forma coordinada las campañas (dentro y fuera de internet) dirigidas a menoscabar los procesos democráticos. Igualmente, debería resultar útil a Meta para establecer canales permanentes que le permitan recibir comentarios, así como para determinar las medidas que se deben adoptar en aquellos casos en los que la violencia política persiste después de que los procesos electorales concluyan formalmente. Por último, el Consejo señala que, tal y como se ha explicado anteriormente, la articulación entre los distintos protocolos y medidas de evaluación de riesgos de Meta, por citar algunos, los IPOC, la política sobre priorización de países en relación con la integridad y el Protocolo de políticas sobre emergencias (véase el apartado 6 anterior), debe revisarse y explicarse mejor al público en contextos relacionados con procesos electorales.
8.2. Cumplimiento de las responsabilidades de Meta en materia de derechos humanos
Libertad de expresión (artículo 19 del PIDCP)
El derecho a la libertad de opinión y expresión constituye un eje fundamental de las sociedades democráticas, así como una garantía de libertad y legitimidad en procesos electorales y de un discurso político y público pertinente y representativo (informe del Relator Especial de la ONU sobre la libertad de expresión, artículo de investigación 1/2019, párrafo 2). En el artículo 19 del PIDCP se establece una amplia protección para la libertad de expresión, especialmente cuando atañe al discurso político. Si un Estado impone restricciones sobre la libertad de expresión, estas deben cumplir los requisitos de legalidad, fin legítimo, y necesidad y proporcionalidad (artículo 19 del PIDCP, párrafo 3). Estos requisitos reciben habitualmente el nombre de “prueba de tres partes”. El Consejo aplica este marco para interpretar los compromisos voluntarios de Meta en materia de derechos humanos.
I. Legalidad (claridad y accesibilidad de las reglas)
El principio de legalidad conforme a la legislación internacional de derechos humanos requiere que cualquier regla que limite la expresión sea clara y de acceso público (observación general n.º 34, párrafo 25). En referencia a las reglas de las empresas de medios sociales, el Relator Especial de la ONU sobre la libertad de expresión ha indicado que deben ser claras y específicas (A/HRC/38/35, párrafo 46). Las personas que usan las plataformas de Meta deben ser capaces de acceder a las reglas y entenderlas, y los revisores de contenido deben tener pautas claras para su aplicación.
El Consejo determina que, en relación con los hechos de este caso, la prohibición que Meta establece sobre el contenido que incluye llamamientos a acceder por la fuerza a ciertos lugares de alto riesgo está claramente indicada, al igual que las condiciones exactas en las que debe aplicarse. Tanto los usuarios como los revisores podrían considerar fácilmente el contenido del caso como infractor, especialmente en el contexto de los disturbios civiles de Brasil. Por lo tanto, el Consejo considera que se cumple el requisito de legalidad.
II. Fin legítimo
Las restricciones que se apliquen a la libertad de expresión (artículo 19 del PIDCP) deben tener como objetivo un fin legítimo. La política sobre violencia e incitación procura evitar posibles daños fuera de internet eliminando el contenido que representa un riesgo real de daño físico o amenazas directas contra la seguridad pública. El fin legítimo de esta política es el de proteger los derechos de terceros, como el derecho a la vida (artículo 6 del PIDCP), el orden público y la seguridad nacional (artículo 19 del PIDCP, párrafo 3). Asimismo, en contextos electorales tiene el fin legítimo de proteger el derecho de voto y participación en asuntos públicos de terceros (artículo 25 del PIDCP).
III. Necesidad y proporcionalidad
El principio de necesidad y proporcionalidad dispone que las restricciones que se apliquen a la libertad de expresión deben ser adecuadas para desempeñar su función protectora; deben ser el instrumento menos perturbador de los que permitan conseguir el resultado deseado, y deben guardar proporción con el interés que precisa protección (observación general n.º 34, párrafos 33 y 34). Al igual que en casos anteriores relacionados con la incitación a la violencia, el Consejo determina que los seis factores del Plan de Acción de Rabat de la ONU resultan pertinentes para determinar la necesidad y la proporcionalidad de la restricción (véase, por ejemplo, el caso Suspensión de la cuenta del expresidente de EE. UU. Donald Trump).
El Consejo reconoce que, en muchos entornos políticos, desafiar la integridad de las elecciones o el sistema electoral obedece al ejercicio legítimo del derecho de libertad de expresión y protesta de las personas, incluso en el contexto de incidentes aislados de violencia. Dado el mensaje político de estos actos, disfrutan de un nivel superior de protección (observación general n.º 37, párrafos 19 y 32). No obstante, el Consejo señala que esta consideración no es aplicable en el caso que nos ocupa. Existe una línea divisoria entre el discurso político protegido y la incitación a la violencia dirigida a revocar resultados de elecciones populares legítimas. De conformidad con los factores señalados en el Plan de Acción de Rabat, en este caso se alcanzó claramente el umbral que permite restringir el derecho de libertad de expresión. El Consejo determina que se dan varios elementos en el contenido del caso que es preciso analizar: los llamamientos a “besiege” (asediar) el Congreso de Brasil como “the last alternative” (la alternativa final) y a “storm” (asaltar) los “three powers” (tres poderes); el llamamiento que muestra el vídeo por parte de un destacado general brasileño para “hit the streets” (salir a las calles) y “go to the National Congress… [and the] Supreme Court” (acudir al Congreso Nacional… [y al] Tribunal Supremo); la imagen de fondo de los edificios oficiales federales en llamas, y la demanda de “the source code” (el código fuente). En el contexto más amplio de Brasil, donde los partidarios de Bolsonaro rechazaban los resultados electorales y abogaban por un golpe militar, todos estos elementos constituyen un llamamiento inequívoco a invadir edificios oficiales y tomarlos bajo control. La intención del orador, el contenido y el alcance del discurso, y la probabilidad de daño inminente resultante del contexto político de Brasil en aquel momento justificaban la eliminación de la publicación.
El contenido se publicó en un contexto de alto riesgo de violencia política, en el que se propagaban llamamientos a las Fuerzas Armadas para anular los resultados electorales y se utilizaban eslóganes en clave para promover protestas centradas específicamente en edificios oficiales de Brasilia (véase el apartado 2). A la hora de estudiar este caso, el Consejo tuvo en cuenta la información que recibió a este respecto a través de varios comentarios públicos (entre otros, de ITS Rio – Modera Lab [PC-11016], Coalizão Direitos na Rede [PC-11020], InternetLab [PC-11019] y Ekō [PC-11000]). Todos señalaban la amplia circulación por los medios sociales de contenido similar en el periodo previo a los eventos del 8 de enero, y destacaban la inminencia de los asaltos a los edificios de la plaza de los Tres Poderes y las demandas al Ejército para que interviniera y diera un golpe militar por parte de los partidarios de Bolsonaro.
Considerando lo anteriormente expuesto, El Consejo determina que la eliminación del contenido es coherente con las responsabilidades de Meta en materia de derechos humanos. Dicha eliminación constituye una respuesta necesaria y proporcionada para proteger el derecho a la vida de las personas (entre ellas, los empleados públicos) y el orden público en Brasil. Asimismo, la eliminación de este tipo de contenido y otras piezas similares era una medida necesaria y proporcionada para proteger el derecho de los brasileños a votar y participar en asuntos públicos, en un contexto en el que se intentaba socavar la transición democrática del poder.
El Consejo considera que Meta podrá abordar mejor el error persistente de sus sistemas de revisión (que no identificaron la infracción en el vídeo, no escalaron el contenido para someterlo a una revisión adicional ni sopesaron eliminarlo dada su gravedad de forma adecuada) si aplica las recomendaciones que se indican a continuación. Aunque la empresa ha dado pasos en la dirección correcta para mejorar las medidas dirigidas a salvaguardar la integridad de las elecciones en Brasil aplicadas, no han sido suficientes para abordar el posible uso indebido de sus plataformas en el contexto de campañas coordinadas similares a las que tuvieron lugar en dicho país. En este caso, el contenido que se mantuvo publicado y se difundió ampliamente era una muestra típica de información errónea e instigadora que, conforme a las denuncias recibidas, estuvo circulando por las plataformas de Meta en Brasil en ese momento. Asimismo, justifica las reclamaciones que señalan el potencial movilizador que han tenido las cuentas influyentes en las plataformas de Meta para promocionar la violencia. Tal y como se afirma en los comentarios públicos recibidos por el Consejo (véanse Instituto Vero [PC-11015], ModeraLab [PC-11016], InternetLab [PC-11019] e Instituto de Referência em Internet e Sociedade [PC-11021]), la revisión y posible eliminación de contenidos individuales de las plataformas de Meta resulta insuficiente y escasamente eficaz cuando dichos contenidos forman parte de una acción organizada y coordinada, dirigida a menoscabar los procesos democráticos. Las medidas aplicadas para salvaguardar la integridad de las elecciones y los protocolos de emergencia deben abordar estas tendencias digitales más globales.
8.3. Contenido idéntico con contexto paralelo
El Consejo manifiesta su preocupación por la proliferación de contenido similar al analizado en los meses previos a los disturbios del 8 de enero en Brasil. Debido al error recurrente de Meta debido al cual no se llegó a identificar como infractor el contenido que nos ocupa, el Consejo observará especialmente cómo aplica la empresa su decisión al contenido idéntico con contexto paralelo que continúa publicado en sus plataformas (a excepción de aquellos casos en los que se comparta para generar conciencia en torno al discurso del general y los llamamientos a asaltar los edificios de la plaza de los Tres Poderes de Brasilia).
9. Decisión del Consejo asesor de contenido
El Consejo asesor de contenido revoca la decisión original de Meta de conservar el contenido.
10. Recomendaciones
A. Aplicación de medidas
- Meta debería desarrollar un marco que le permita evaluar las medidas que toma para salvaguardar la integridad de las elecciones. Esto incluye crear y difundir métricas para las acciones que obtienen buenos resultados en este ámbito (por ejemplo, las relativas a la aplicación por parte de Meta de sus políticas de contenido y su enfoque en relación con la publicidad). El Consejo considerará que se ha aplicado esta recomendación cuando Meta desarrolle dicho marco (y describa las métricas referidas y sus correspondientes objetivos), lo divulgue a través de su Centro de transparencia, empiece a publicar informes específicos de países y comunique públicamente cualquier cambio que realice en las medidas que aplica para salvaguardar la integridad de las elecciones con motivo de esta evaluación.
B. Transparencia
- Meta debería aclarar en su Centro de transparencia que, además del Protocolo de políticas sobre emergencias, ha publicado otros protocolos con el objetivo de impedir y abordar el riesgo potencial de daños asociado a contextos electorales u otros eventos de alto riesgo. Además de enumerar y describir dichos protocolos, la empresa también debería señalar sus objetivos, así como los puntos de contacto y las divergencias existentes entre ellos. El Consejo considerará que se ha aplicado esta recomendación cuando Meta publique la información referida en su Centro de transparencia.
* Nota procedimental:
Las decisiones del Consejo asesor de contenido se preparan a través de comités constituidos por cinco miembros y deben recibir la aprobación de la mayoría de dicha institución. Las decisiones emitidas no reflejan necesariamente las opiniones personales de todos los miembros.
En lo que respecta específicamente a la decisión de este caso, se ha llevado a cabo una investigación independiente por encargo del Consejo. El Consejo recibió asistencia de un centro de investigación independiente en la Universidad de Gotemburgo que recurrió a un equipo de más de 50 sociólogos en seis continentes y más de 3200 especialistas de países de todo el mundo. El Consejo también ha recibido asesoramiento de la empresa Duco Advisors, una consultora especializada en cuestiones relacionadas con la geopolítica, la confianza, la seguridad y la tecnología. Asimismo, se estudiaron análisis de Memetica, una organización dedicada a la elaboración de estudios de código abierto sobre tendencias en los medios sociales. La empresa Lionbridge Technologies, LLC, con especialistas en más de 350 idiomas que trabajan en 5000 ciudades diferentes, ha aportado las competencias en materia lingüística.
Voltar para Decisões de Casos e Pareceres Consultivos sobre Políticas