Decisión de casos múltiples
Procedimientos de votación de la Comisión Electoral de Australia
9 de mayo de 2024
El Consejo asesor de contenido ratificó las decisiones de Meta de eliminar dos publicaciones independientes de Facebook que incluían la misma captura de pantalla con información que la Comisión Electoral de Australia había publicado en X de cada al referéndum para incluir la voz indígena en el Parlamento.
2 casos incluidos en el paquete
FB-0TGD816L
Caso sobre organización de actos dañinos y promoción de la delincuencia en Facebook
FB-8ZQ78FZG
Caso sobre organización de actos dañinos y promoción de la delincuencia en Facebook
Resumen
El Consejo asesor de contenido ratificó las decisiones de Meta de eliminar dos publicaciones independientes de Facebook que incluían la misma captura de pantalla con información que la Comisión Electoral de Australia (AEC) había publicado en X de cara al referéndum para incluir la voz indígena en el Parlamento. Ambas publicaciones infringían la regla de la norma comunitaria sobre organización de actos dañinos y promoción de la delincuencia que prohíbe el contenido que incita a participar ilegalmente en un proceso electoral. Estos casos demuestran cómo la información fuera de contexto puede afectar el derecho a votar de las personas. El Consejo recomienda que Meta explique con mayor claridad sus reglas relacionadas con fraudes en un proceso de censo o elecciones, para lo que debería proporcionar su definición de "votación ilegal".
Información de los casos
El 14 de octubre de 2023, Australia llevó a cabo su referéndum para incluir la voz indígena en el Parlamento. Días antes, un usuario de Facebook publicó en un grupo una captura de pantalla de una publicación que la cuenta oficial de la AEC había hecho en X. La información que se mostraban incluía lo siguiente: "If someone votes at two different polling places within their electorate, and places their formal vote in the ballot box at each polling place, their vote is counted" (Si alguien vota en dos centros de votación diferentes dentro del electorado e inserta su voto en la urna en cada centro, ambos votos se cuentan). Además, en otro comentario que tomó el usuario del mismo hilo de X se explica que la confidencialidad del voto impide que la AEC "knowing which ballot paper belongs to which person" (sepa qué voto pertenece a cada persona), a la vez que afirma a las personas que "the number of double votes received is incredibly low" (el número de votos duplicados recibidos es increíblemente bajo). Sin embargo, la captura de pantalla no muestra toda la información compartida por la AEC, incluido el hecho de que votar varias veces es un delito en Australia. La descripción de la publicación incitaba a "vote early, vote often, and vote NO" (votar temprano, votar varias veces, votar NO).
Una segunda publicación compartida por otro usuario de Facebook incluía la misma captura de pantalla, pero con texto superpuesto con la misma afirmación: "so you can vote Multiple times. They are setting us up for a ‘Rigging’ … smash the voting centres … it’s a NO, NO, NO, NO, NO" (entonces, se puede votar varias veces... están tramando un 'fraude'... destruyan los centros de votación. Definitivamente es un NO, NO, NO, NO, NO).
Mediante el referéndum, se les preguntaba a los australianos si estaban de acuerdo en que se enmiende la Constitución para propiciar mayor participación en el Parlamento a los aborígenes e isleños del estrecho de Torres.
Votar es obligatorio en Australia; de hecho, la AEC informó que, desde 1924, la participación en cada elección y referéndum es de aproximadamente el 90%. Votar varias veces es ilegal y constituye un tipo de fraude electoral.
Luego de que los sistemas automatizados de Meta detectaran ambas publicaciones, los revisores las eliminaron por infringir la política de organización de actos dañinos y promoción de la delincuencia de Meta. Ambos usuarios apelaron la decisión.
Conclusiones principales
El Consejo determinó que ambas publicaciones infringían la regla de la política de organización de actos dañinos y promoción de la delincuencia que prohíbe el contenido que "apoya la participación ilegal en un proceso de elección o censo, así como aquel que comunica una intención explícita de hacerlo o proporciona instrucciones para ello". En el primer caso, la frase "vote often" (votar varias veces) en conjunto con la información de la AEC sobre el recuento de varios votos, constituye una clara incitación a participar en una votación ilegal. Votar dos veces es un tipo de "votación ilegal", conforme a las pautas internas de Meta. En el segundo caso, el uso de la frase "smash the voting centres" (destruyan los centros de votación), junto con el resto del texto superpuesto, se puede interpretar como una apología a desbordar los centros electorales con múltiples votos. Ninguna de las publicaciones se beneficia de las excepciones de la política que se aplican cuando el contexto es periodístico, humorístico, satírico, de repudio o de concientización. Específicamente, respecto de generar conciencia, las publicaciones no recaen dentro de esta excepción porque van más allá de debatir la publicación de la AEC en X, sino que sacan la información de contexto para dar a entender que la AEC afirma que se permite votar más de una vez.
Evitar que los usuarios inciten a otras personas a participar en un fraude electoral corresponde al fin legítimo de proteger el derecho a votar. El Consejo considera que el discurso político es un componente fundamental de los procesos democráticos. En estos casos, ambos usuarios participan de forma directa en el debate público que suscitó el referéndum, pero su incitación a que los demás se impliquen en actividades ilegales repercute en los derechos políticos de los habitantes de Australia, en particular en el derecho a votar. Si bien las incitaciones a "vote NO" (votar NO) constituyen discurso político protegido, las frases "vote often" (votar varias veces) y "smash the voting centres" (destruyan los centros de votación) son un asunto diferente. Para el Consejo, Meta estuvo bien en proteger los procesos democráticos evitando que se intente cometer un fraude electoral a través de sus plataformas, dados los frecuentes reclamos que afirman que el Referéndum de la Voz es un fraude.
El Consejo reconoce los esfuerzos de Meta en el Referéndum de la Voz. La empresa identificó de forma proactiva contenido potencialmente infractor en virtud de las reglas relativas a la interferencia electoral de las normas comunitarias sobre organización de actos dañinos y promoción de la delincuencia y sobre información errónea. Las frases "double vote" (voto duplicado) y "vote multiple times" (votar varias veces) fueron las palabras clave que activaron el sistema de detección basado en palabras clave de la empresa en este caso. Según Meta, el sistema se adapta a los contextos locales. En función de la información compartida, el Consejo manifestó que este tipo de iniciativas deberían llevarse a cabo de manera coherente en todo el mundo, en países en los que se celebran elecciones, aunque se insta a Meta a desarrollar métricas de éxito para evaluar qué tan efectiva es la detección basada en palabras clave.
Por último, el Consejo considera que las reglas de dominio público que figuran en la norma comunitaria sobre organización de actos dañinos y promoción de la delincuencia no son lo suficientemente claras, ya que no incluyen la información disponible para los revisores en las pautas internas de Meta, principalmente la definición de la empresa de la frase "votación ilegal". Dado que es fundamental que los usuarios puedan debatir asuntos de interés público relacionados con acontecimientos democráticos en medios sociales, Meta debe informar con claridad las reglas a los usuarios.
La decisión del Consejo asesor de contenido
El Consejo asesor de contenido ratificó las decisiones de Meta de eliminar el contenido en ambos casos.
El Consejo le recomendó a Meta:
- Incorporar su definición del término "votación ilegal" en el texto público de la disposición de la política de organización de actos dañinos y promoción de la delincuencia que prohíbe el contenido "que apoye la participación ilegal en un proceso de elección o censo, así como aquel que comunica una intención explícita de hacerlo o proporciona instrucciones para ello, excepto en un contexto para generar conciencia, repudiar el hecho, informar, o en contextos humorísticos o satíricos".
* Los resúmenes de casos ofrecen información general sobre los casos y no sientan precedentes.
Decisión del caso completa
1. Resumen de la decisión
El Consejo asesor de contenido ratificó las decisiones de Meta de eliminar dos publicaciones independientes de Facebook que incluían la captura de pantalla de una publicación que había realizado la Comisión Electoral de Australia (AEC) en X, antes conocido como Twitter. Las capturas de pantalla de la AEC publicadas por los usuarios de Facebook incluían el siguiente texto: "If someone votes at two different polling places within their electorate, and places their formal vote in the ballot box at each polling place, their vote is counted" (Si alguien vota en dos centros de votación diferentes dentro del electorado e inserta su voto en la urna en cada centro, ambos votos se cuentan). En la primera publicación de Facebook, la captura de pantalla iba acompañada de un texto que decía "vote early, vote often, and vote NO" (votar temprano, votar varias veces, votar NO). En la segunda publicación de Facebook, la captura de pantalla incluía superposiciones de texto que decían lo siguiente: "so you can vote multiple times … they are setting us up for a ‘rigging’ … smash the voting centres … it’s a No, No, No, No, No" (entonces, se puede votar varias veces... están tramando un 'fraude'... destruyan los centros de votación... definitivamente es un no, no, no, no, no). El texto también incluía un emoji de "pare" seguido por las palabras "Australian Electoral Commission" (Comisión Electoral de Australia).
Para el Consejo, ambas publicaciones infringían la norma comunitaria sobre organización de actos dañinos y promoción de la delincuencia, que prohíbe el contenido "que apoya la participación ilegal en un proceso de elección o censo, así como aquel que comunica una intención explícita de hacerlo o proporciona instrucciones para ello, excepto en un contexto para generar conciencia, repudiar el hecho, informar, o en contextos humorísticos o satíricos". El Consejo considera que no se aplica ninguna de las excepciones.
Estos casos ponen de manifiesto preocupaciones más acuciantes en torno a compartir información sin contexto durante la ejecución de un proceso democrático, como las elecciones o la votación de un referéndum, lo que puede repercutir en el derecho de las personas a votar. El Consejo recomienda que Meta explique con mayor claridad sus líneas normativas relacionadas con fraudes en un proceso de censo o elecciones en virtud de la norma comunitaria sobre organización de actos dañinos y promoción de la delincuencia, a fin de aclarar qué constituye "participación ilegal en un proceso de elección o censo".
2. Descripción y contexto del caso
El 14 de octubre de 2023, Australia llevó a cabo su referéndum para incluir la voz indígena en el Parlamento (de aquí en adelante, denominado "Referéndum de la Voz"). Días antes de la votación, un usuario de Facebook de un grupo del que es administrador publicó la captura de pantalla de una publicación de X de la cuenta oficial de la Comisión Electoral de Australia (AEC). La publicación de la AEC en X incluía el siguiente texto: "If someone votes at two different polling places within their electorate, and places their formal vote in the ballot box at each polling place, their vote is counted" (Si alguien vota en dos centros de votación diferentes dentro del electorado e inserta su voto en la urna en cada centro, ambos votos se cuentan). La captura de pantalla también muestra otro comentario del mismo hilo en X en el que se explica que la confidencialidad del voto impide que la AEC "knowing which ballot paper belongs to which person" (sepa qué voto pertenece a cada persona), a la vez que se asegura a las personas que "the number of double votes received is incredibly low" (el número de votos duplicados recibidos es increíblemente bajo). Sin embargo, la captura de pantalla no muestra toda la información compartida por la AEC, como el hecho de que votar varias veces es un delito en Australia. La primera publicación de Facebook iba acompañada del siguiente texto: "vote early, vote often, and vote NO" (votar temprano, votar varias veces, votar NO).
Un día después, otro usuario de Facebook publicó en su perfil la misma captura de pantalla de la publicación de la AEC en X. Esta incluía texto superpuesto que decía: "so you can vote Multiple times. They are setting us up for a ‘Rigging’ … smash the voting centres … it’s a NO, NO, NO, NO, NO" (entonces, se puede votar varias veces... están tramando un 'fraude'... destruyan los centros de votación. Definitivamente es un NO, NO, NO, NO, NO). El texto también incluía un emoji de "pare" seguido por las palabras "Australian Electoral Commission" (Comisión Electoral de Australia).
Meta detectó de manera proactiva ambas publicaciones. Las frases "double vote" (voto duplicado) y "vote multiple times" (votar varias veces) fueron las palabras clave que activaron la "iniciativa de detección basada en palabras clave" de la empresa en este caso. El enfoque de esta detección consta de un procedimiento sistemático que implementó Meta para identificar de forma proactiva "contenido potencialmente infractor, incluido, sin limitación, contenido relacionado con interferencia electoral o censal". Ambas publicaciones se remitieron a la cola de revisión manual automáticamente. Tras la revisión manual, ambas se eliminaron por infringir la política de organización de actos dañinos y promoción de la delincuencia. Meta aplicó también una falta estándar y una restricción de funciones de 30 días al perfil de ambos usuarios, que no les permitía publicar o comentar en grupos de Facebook, crear nuevos grupos o unirse a salas de Messenger.
El Consejo destacó el siguiente contexto en cuanto a la decisión que tomó en estos casos:
Mediante el Referéndum de la Voz, se solicitaba a la población que votara si consideraba que la Constitución de Australia debería enmendarse para que se reconozca a los pueblos originarios de Australia "mediante el establecimiento de un organismo denominado Voz de los Aborígenes y los Isleños del Estrecho de Torres", para que estos "tengan representación en el Parlamento y el Gobierno Ejecutivo de la Commonwealth en asuntos que atañen a los pueblos aborígenes y los isleños del estrecho de Torres". Los antecedentes relevantes respecto al Referéndum de la Voz incluyen el hecho de que los aborígenes y los isleños del estrecho de Torres en Australia se encuentran entre los grupos más desfavorecidos en el ámbito social y económico del país; entre ellos hay altos niveles de desempleo, poca participación en educación superior, precarización de la salud ( tanto mental como física), expectativa de vida extremadamente baja en comparación con otros australianos y altos niveles de encarcelación. Estos pueblos sufren discriminación, y la violencia de género y policial los afecta de manera desproporcionada.
El primer ministro Anthony Albanese realizó una campaña a favor de la enmienda constitucional (en respaldo del "Sí"), mientras que la principal coalición opositora de Australia llevó a cabo una campaña en contra (en favor del "No"). La propuesta obtuvo el rechazo nacional y de una mayoría en los seis estados, por lo que no logró la doble mayoría necesaria para enmendar la Constitución australiana.
Es obligatorio votar en Australia, y la AEC informó que, desde 1924, la participación en cada elección y referéndum es de aproximadamente el 90%. Votar varias veces se considera un tipo de fraude electoral tanto a nivel estatal como federal, conforme lo estipula la Ley Electoral de la Commonwealth de 1918 y la Referendum (Machinery Provisions) Act 1984. En respuesta a las denuncias de votos duplicados en el Referéndum de la Voz, la AEC publicó un hilo extenso en X, donde señalaba que es "poco frecuente" que la gente vote varias veces y detallaba las medidas que implementa para evitar esta práctica. La AEC explica en su sitio web que, para detectar votos duplicados, se envían a cada centro de votación listas idénticas certificadas de todos los votantes de una división. Cuando a los votantes se les entrega un conjunto de boletas electorales, se tacha su nombre de la lista en el punto de entrega. Si el votante acude a otro punto de entrega para emitir otro voto ordinario, de nuevo se tachará su nombre de la otra copia de la lista certificada correspondiente a esa división para indicar que a esa persona se le proporcionaron boletas electorales. Inmediatamente después del día de las elecciones, cada lista certificada idéntica de cada división se revisa para detectar instancias en las que un nombre se marcó varias veces. La AEC, luego, investiga y escribe a cada votante del que se sospecha que votó varias veces. La respuesta conduce a que el problema se resuelva por motivos como "error oficial en la votación" o mediante explicaciones que indican que hubo "dificultades de alfabetismo o relacionadas con el idioma" o que la persona era un "adulto mayor que se confundió o votó más de una vez porque olvidó que ya lo había hecho". Cuando no se pueden resolver casos, la AEC los investiga en más detalle y los puede remitir a la Policía Federal Australiana para que los analice.
En 2019, la AEC declaró que el asunto de los votos múltiples era "un problema muy pequeño", ya que, del 91,9% de la participación, solo un 0,03% correspondía a votos múltiples y la mayoría de estas instancias se debían a errores que cometían los votantes, que eran adultos mayores, tenían problemas de alfabetización o comprendían muy poco el proceso electoral. La AEC reiteró la "insignificante" frecuencia con que ocurre este problema en Australia en el comentario público que envió al Consejo. Según la AEC, se remitieron a la Policía Federal Australiana solo 13 casos de presuntos votos múltiples de un total de 15,5 millones de votos para que se investiguen más a fondo en el contexto de las elecciones federales de 2022 (PC-25006; consulta también PC-25007).
Conforme a los expertos a los que consultó el Consejo, hubo frecuentes denuncias que afirmaban que el Referéndum de la Voz era un fraude; algunas publicaciones incluían los hashtags #StopTheSteal (dejen de robar) y #RiggedReferendum (referéndum fraudulento). Informes periodísticos destacaron asimismo que era frecuente que se hablara de fraude en el contexto del Referéndum de la Voz. En función de las herramientas de supervisión de medios sociales implementadas por los expertos a los que consultó el Consejo, a febrero de 2024, las capturas de pantalla de las publicaciones de la AEC en X se habían compartido en las plataformas de Meta más de 475 veces, habían recibido miles de reacciones y se habían visualizado al menos 30.000 veces.
3. Autoridad y alcance del Consejo asesor de contenido
El Consejo tiene la facultad para revisar la decisión de Meta tras una apelación de la persona cuyo contenido se eliminó (artículo 2, sección 1, del acta constitutiva; artículo 3, sección 1, de los estatutos).
El Consejo puede mantener o revertir la decisión de Meta (artículo 3, sección 5, del acta constitutiva), y la decisión que tome será vinculante para la empresa (artículo 4 del acta constitutiva). Meta también debe evaluar la viabilidad de aplicar su decisión con respecto a contenido idéntico cuyo contexto sea similar (artículo 4 del acta constitutiva). Las decisiones del Consejo pueden incluir recomendaciones no vinculantes a las que Meta debe responder (artículo 3, sección 4, y artículo 4 del acta constitutiva). Cuando Meta se compromete a tomar medidas respecto de las recomendaciones, el Consejo supervisa su implementación. Si el Consejo identifica casos que generan inquietudes similares, es posible que los asigne a un panel juntos para que se realice una deliberación simultánea. Se tomará una decisión vinculante respecto de cada elemento de contenido.
4. Fuentes de autoridad y pautas
El análisis del Consejo en estos casos se basó en las siguientes normas y precedentes:
I. Decisiones del Consejo asesor de contenido
II. Políticas de contenido de Meta
Según las bases de la política de organización de actos dañinos y promoción de la delincuencia de Meta, se pretende "prevenir y evitar daños en la vida real, y la imitación de dicho comportamiento" prohibiendo el contenido que "facilite, organice, promueva o admita determinadas actividades criminales o dañinas dirigidas a personas, negocios, propiedades o animales". La política prohíbe que los usuarios publiquen contenido que "apoya la participación ilegal en un proceso de elección o censo, así como comunicar una intención explícita de hacerlo o proporcionar instrucciones para ello, a menos que se comparta en contextos de repudio, informativos, humorísticos o satíricos, o para generar conciencia".
También hay tipos de contenido que generan interferencias electorales o censales que se pueden eliminar en virtud de la política, siempre que haya contexto adicional que justifique esta medida. Entre ellos está la "incitación a una interferencia coordinada que afectaría la capacidad de una persona de participar en un censo o una elección oficiales", así como amenazas de "asistir a un centro electoral con el propósito de supervisar o controlar la actividad de los votantes o funcionarios electorales si se combina con una referencia de intimidación".
La política de violencia e incitación de Meta busca evitar "daños en el mundo real" que puedan relacionarse con contenido publicado en las plataformas de Meta. Esta prohíbe "amenazas de violencia que podría conducir a la muerte (u otras formas de violencia de gravedad alta)", así como "amenazas de portar armas o de llevarlas a cierto lugar, o de ingresar en un lugar por la fuerza", como "centros de votación o lugares usados para contar votos o administrar un proceso electoral". También prohíbe amenazas de violencia "relacionadas con el acto de votar, el registro de votantes o la administración o los resultados de las elecciones, aunque no haya un objetivo concreto.
La política de información errónea de Meta define cómo la empresa aborda las diferentes categorías de información errónea. En virtud de una de estas categorías, "en un esfuerzo por fomentar la integridad de las elecciones y los censos, Meta elimina información errónea que tiene probabilidades de contribuir de manera directa al riesgo de interferencia con la capacidad de las personas de participar en dichos procesos [políticos]". Eso incluye "información errónea sobre quiénes pueden votar, los requisitos para votar, si se contabilizará un voto y qué datos o materiales se deben proporcionar para votar".
III. Responsabilidades de Meta con los derechos humanos
Los Principios Rectores sobre las Empresas y los Derechos Humanos de la ONU (UNGP), respaldados por el Consejo de Derechos Humanos de la ONU en 2011, establecen un marco voluntario que encuadra las responsabilidades de las empresas privadas en cuanto a estos derechos. En 2021, Meta anunció su Política corporativa de derechos humanos, en la que reafirmó su compromiso con el respeto de los derechos humanos de conformidad con los UNGP. El análisis del Consejo sobre las responsabilidades de Meta en cuanto a los derechos humanos en este caso se basó en las siguientes normas internacionales:
- Derecho a la libertad de expresión: Artículo 19 del Pacto Internacional de Derechos Civiles y Políticos (ICCPR); observación general n.º 34 del Comité de Derechos Humanos (2011); informes del Relator Especial de la ONU sobre la libertad de opinión y expresión: A/HRC/38/35 (2018) y A/74/486 (2019).
- Derecho a votar y participar en asuntos públicos: artículo 25 del ICCPR; observación general n.º 25 del Comité de Derechos Humanos, 1996.
5. Respuestas del usuario
En sus declaraciones ante el Consejo, ambos usuarios afirmaron que simplemente compartían información que había publicado la AEC. El usuario que realizó la segunda publicación afirmó, además, que esta servía para "advertir a los demás" de que "podría haber fraude en las elecciones" si se permitía votar varias veces, ya que la gente "no necesita mostrar una identificación" para que se tache su nombre de la lista.
6. Respuestas de Meta
Meta determinó que ambas publicaciones infringían la línea normativa que prohíbe "apoyar la participación ilegal en un proceso de elección o censo, así como comunicar una intención explícita de hacerlo o proporcionar instrucciones para ello", incluida en la norma comunitaria sobre organización de actos dañinos y promoción de la delincuencia. En función de las pautas internas que Meta ofrece a los revisores de contenido, las políticas de interferencia electoral se aplican tanto a las elecciones como a los "referéndums oficiales que organiza una autoridad nacional designada". El término "votación ilegal" incluye, "sin limitación", lo siguiente: "(a) votar dos veces; (b) falsificar información electoral para votar en un lugar donde no reúnes los requisitos; (c) falsificar tu elegibilidad para votar; y (d) robar boletas electorales".
Con respecto a la primera publicación, Meta destacó que la frase "votar varias veces" "generalmente se entiende como votar más de una vez en una elección". La empresa determinó también que la frase no tenía como fin ser humorística o satírica, ya que el usuario incitaba a la gente a votar "NO", que, según entiende Meta, constituye un intento grave de fomentar la preferencia política del usuario. Asimismo, la empresa indicó al Consejo que, al revisar contenido sobre elecciones a gran escala, no siempre es posible determinar la intención del usuario que publica contenido posiblemente satírico.
Respecto de la segunda publicación, Meta determinó que la frase "destruyan los centros de votación" infringe las normas. La empresa explicó que la incitación del usuario "podría interpretarse como una instigación a inundar las elecciones de votos duplicados", lo cual está prohibido en función de la disposición normativa de la política de organización de actos dañinos y promoción de la delincuencia que prohíbe "respaldar... la participación ilegal en un proceso electoral o censal".
Según Meta, si se interpreta de forma literal como una incitación a destruir los centros electorales, la frase infringiría la política de violencia e incitación, dado que esta prohíbe: (i) amenazas de violencia de gravedad alta contra un edificio que provocaría muerte o lesiones graves de personas presentes en el lugar; y (ii) amenazas de violencia "relacionadas con la votación, el registro de votantes o la administración o el resultado de las elecciones, aunque no haya un blanco". En función de las pautas internas que Meta brinda a los revisores de contenido, las amenazas contra lugares deben proferirse en "términos explícitos", como "reventar", "quemar", "disparar", y también se deben emplear términos genéricos como "ataque", "emboscada" y "destruir" para que cierto contenido se considere infractor en virtud de esta política.
Meta publicó las iniciativas de integridad de la empresa en relación con el Referéndum de la Voz en una publicación de blog en julio de 2023. Asimismo, Meta informó al Consejo que había conformado un equipo interfuncional para empezar a prepararse para el referéndum que se celebraría en abril de 2023. El equipo estaba formado por equipos con sede en Asia-Pacífico, conforme a la práctica estándar durante elecciones nacionales. Meta también organizó un centro de operaciones de productos relativos a la integridad (IPOC) durante la última semana de campaña antes de la votación para que se centrara en el referéndum durante un período de posible escalada de tensiones. El IPOC incluía otros equipos de operaciones cuya labor era responder con rapidez ante escalamientos y riesgos críticos que surgían en el período previo al día de la votación. Meta no aplicó el Protocolo de la política de crisis, así como tampoco otros instrumentos normativos en el Referéndum de la Voz.
Meta destacó, además, la "iniciativa en curso basada en palabras clave" de la empresa, que identifica y pone en cola de forma automática contenido potencialmente infractor que incluye palabras clave, ya sea en forma de texto o imágenes, como capturas de pantalla, para que se someta a revisión por medio de un "canal digital especializado que busca palabras clave específicas". Meta le indicó al Consejo que la lista incluye muchas palabras y frases que desarrollaron los equipos regionales y de información errónea de Meta. La función principal que desempeña este sistema de detección basado en palabras clave es "garantizar la integridad" de las elecciones y referéndums "identificando sistemáticamente y revisando de forma manual contenido relevante". El sistema de detección basado en palabras clave se activó en este caso gracias al IPOC virtual establecido para el Referéndum de la Voz. Meta implementa esta iniciativa en todo el mundo. No se limita a ciertos países o regiones, sino que se adapta a los contextos locales. Según Meta, la lista de palabras clave es "dinámica", está sujeta a cambios y es "específica conforme a la naturaleza de cada evento".
La iniciativa busca aplicar de manera activa las siguientes áreas de las Normas comunitarias de Meta: (i) la política de organización de actos dañinos y promoción de la delincuencia que aborda "fraudes en un proceso de censo o elecciones, incluidas ofertas para comprar o vender votos a cambio de regalos en efectivo y afirmaciones que respaldan la participación ilegal en procesos electorales o censales, o que brindan instrucciones para ello"; y (ii) la política de información errónea que se centra en la interferencia electoral o censal, incluida la "información errónea sobre fechas, horas, lugares o métodos de elecciones o censos, calificaciones de votantes, recuento de votos y material de votación necesario". El sistema de votación basado en palabras clave aplicado al Referéndum de Voz no se diseñó para imponer activamente otras políticas de contenido relativas a elecciones o censos, como aquellas que se aplican en virtud de la norma comunitaria sobre violencia e incitación. No obstante, si el contenido que marca el sistema infringe otras normas comunitarias, también se somete a otras políticas mediante revisión manual.
Respecto del contenido en este caso, las frases "double vote" (voto duplicado) y "vote multiple times" (votar varias veces) fueron las palabras clave que activaron el sistema de detección de Meta. El término "double vote" no se utilizó de manera directa en las publicaciones de Facebook, sino que aparecía en la captura de pantalla de la publicación que la AEC había hecho en X. Todo contenido con estas palabras clave, ya sea en forma de texto o imágenes, como capturas de pantalla, "se marca y se pone en cola de manera automática para someterse a una revisión manual, a fin de supervisar el discurso relacionado con la supresión del voto".
El Consejo le hizo 12 preguntas a Meta por escrito. Las preguntas tenían que ver con las políticas de contenido relativas a la interferencia electoral, el sistema de detección basado en palabras clave y los protocolos que Meta adoptó para moderar el contenido relacionado con el Referéndum de la Voz. Meta respondió todas las preguntas.
7. Comentarios del público
El Consejo asesor de contenido recibió cinco comentarios del público dentro de los plazos de presentación. Tres de los comentarios provinieron de Asia-Pacífico y Oceanía (todos de Australia), uno de los Estados Unidos y Canadá, y uno de Europa. Para leer los comentarios del público enviados con consentimiento de publicación, haz clic aquí.
Los comentarios versaban sobre los siguientes temas: el contexto histórico social que condujo a que se organizara el Referéndum de la Voz, la historia de fraudes electorales en Australia, la difusión de información errónea y sin contexto durante el Referéndum de la Voz, y las políticas de contenido y las prácticas de aplicación de políticas de Meta respecto de la información errónea de forma más general.
8. Análisis del Consejo asesor de contenido
El Consejo examinó si estas publicaciones debían eliminarse a la luz de las políticas de contenido, las responsabilidades en materia de derechos humanos y los valores de Meta. Asimismo, el Consejo evaluó las implicaciones de este caso para el enfoque más general de Meta en cuanto a la gobernanza de contenido.
El Consejo seleccionó estos casos para examinar las políticas de moderación de contenido y las prácticas de aplicación de políticas de Meta en relación con información de votación engañosa o sin contexto y fraude electoral, en vista de la cantidad histórica de elecciones que habrá en 2024. Estos casos se enmarcan dentro de la prioridad estratégica del Consejo en materia de elecciones y espacio cívico.
8.1 Cumplimiento de las políticas de contenido de Meta
I. Reglas de contenido
Para el Consejo, ambas publicaciones infringían la política de organización de actos dañinos y promoción de la delincuencia, que prohíbe respaldar la participación ilegal en un proceso electoral o censal. La frase "vote often" en la primera publicación, en conjunto con la publicación de la AEC en X sobre el recuento de votos duplicados, es una incitación clara para llevar a cabo esta práctica. Conforme a las pautas internas que Meta brinda a los revisores de contenido, "votar dos veces" es una forma de "votación ilegal".
La segunda publicación también infringe la política de organización de actos dañinos y promoción de la delincuencia. Incluía una captura de pantalla de la publicación de X y el texto superpuesto: "so you can vote multiple times". También instaba a las personas a "destruir los centros de votación". El usuario, sencillamente, podría estar expresando su enojo con la AEC por permitir presuntamente que las personas "voten varias veces". No obstante, cuando se lee junto con el resto del texto superpuesto en la captura de pantalla que afirmaba que la AEC permitía emitir varios votos y la acusaba de tramar un "fraude", se puede interpretar de manera razonable como una incitación a desbordar los centros electorales con múltiples votos. En el contexto de las elecciones australianas, en las que votar es obligatorio y la participación es de más del 90%, el llamamiento de la población para que vote constituye una interpretación poco probable de "destruir los centros de votación", en especial si dicho llamamiento es una afirmación que indica que la gente "puede votar varias veces". Esto queda aún más en evidencia tras la solicitud del usuario para que la gente vote varias veces que "No" ("NO, NO, NO, NO, NO"). Si se lee de manera integral y en el contexto de las elecciones en Australia, la publicación constituye una incitación a votar dos veces, lo que se considera "votación ilegal" y está prohibido conforme a la política de organización de actos dañinos y promoción de la delincuencia.
El Consejo reconoce que, si bien existe la posibilidad de que las publicaciones se hayan hecho con fines satíricos, dicha intención no es explícita. El Consejo no considera que las publicaciones fueran implícitamente satíricas dado el texto de las descripciones y el texto superpuesto en las imágenes. Aunque el nivel de certidumbre en el llamado a la acción es diferente en ambas publicaciones, cada una de ellas incluye una petición para que la gente vote varias veces, es decir, vote "ilegalmente". Debido a los riesgos asociados con los intentos de fraude en contextos electorales, el Consejo considera que la excepción de Meta que admite el humor o la sátira debe aplicarse, en dichas circunstancias, solo al contenido que es explícitamente humorístico. Por lo tanto, ninguna de estas publicaciones reúne los requisitos para esta excepción.
Las publicaciones no califican para que se les aplique la excepción para generar conciencia en virtud de la política de organización de actos dañinos y promoción de la delincuencia. Las capturas de pantalla y gran parte del contenido generado por el usuario se diseñaron para llamar la atención ante la posibilidad de fraude, según la declaración de la AEC. Sin embargo, no se limitaron a debatir las publicaciones de la AEC en X, sino que fueron más allá y motivaron activamente a otras personas a participar ilegalmente en el Referéndum de la Voz, es decir, a emitir varios votos. Las publicaciones no incluyen el contexto adicional que proporciona la AEC, en ese mismo hilo de X, que indica que votar varias veces es un delito en Australia. Por ende, más que generar conciencia respecto de la posibilidad de que se vote varias veces, ambas publicaciones sacan de contexto el comunicado de la AEC e insinúan que esta afirma que se puede votar más de una vez.
A diferencia de Meta, el Consejo no considera que se pueda hacer una lectura más literal de la palabra "destruir" (que se refiere a la destrucción de edificios) en este caso, dada la falta de señales que apunten en esa dirección (p. ej., en el contexto de un conflicto o tensiones exacerbadas con circulación generalizada de contenido que incita directamente a la violencia). Por lo tanto, el Consejo concluye que la segunda publicación no infringe la política de violencia e incitación de Meta.
El Consejo también evaluó ambos contenidos en relación con la política de información errónea de Meta, ya que se sacó de contexto el comunicado de la AEC. No obstante, el Consejo concluyó que la norma comunitaria sobre organización de actos dañinos y promoción de la delincuencia es la política que se debe aplicar en este caso porque ambos usuarios motivan a los demás a participar en un fraude electoral.
II. Aplicación de políticas
El Consejo reconoce las iniciativas de integridad que Meta llevó a cabo con el Referéndum de la Voz, incluido el sistema de detección basado en palabras clave que adoptó la empresa. La empresa explicó que el sistema se implementó para identificar de forma proactiva contenido potencialmente infractor en virtud de las reglas relativas a la interferencia electoral de las normas comunitarias sobre organización de actos dañinos y promoción de la delincuencia y sobre información errónea. Según Meta, este sistema se adapta a los contextos locales e incluye términos específicos de cada mercado. En función de la información que Meta compartió con el Consejo respecto de cómo funciona la iniciativa, el Consejo valora que dicho sistema se haya implementado y parezca haber funcionado en este caso. Iniciativas de esta naturaleza deben aplicarse de forma coherente en el mundo, en todos los países en los que se celebren elecciones y otros procesos democráticos. Asimismo, el Consejo cree que esta iniciativa debe abarcar políticas relativas a la interferencia electoral y de otro tipo relacionadas en virtud de la norma comunitaria sobre violencia e incitación.
Dadas las limitaciones de los enfoques basados en palabras clave en cuanto a la detección de contenido dañino, el Consejo seguirá evaluando la eficacia del sistema de Meta en otros casos relacionados con elecciones. En este aspecto, el Consejo insta a Meta a desarrollar métricas de éxito para evaluar qué tan efectivo es el sistema de detección basado en palabras clave, junto con otras iniciativas de integridad de las elecciones, para identificar contenido potencialmente infractor en políticas relevantes para las elecciones. Esto concuerda con la recomendación del Consejo en la decisión del caso Discurso del general brasileño, en la que instaba a Meta a "desarrollar un marco que le permita evaluar las iniciativas de integridad de las elecciones".
8.2 Cumplimiento de las responsabilidades de Meta en materia de derechos humanos
Libertad de expresión (artículo 19 del ICCPR)
El artículo 19 del Pacto Internacional de Derechos Civiles y Políticos (ICCPR) brinda amplia protección de "todo tipo" de expresión. Este derecho incluye la "libertad de buscar, recibir y difundir información e ideas de toda índole". El Comité de Derechos Humanos de la ONU destacó que el valor de expresión es particularmente alto cuando se debaten temas políticos, candidatos y representantes electos (observación general n.º 34, párrafo 13). Esto incluye la expresión que es "sumamente ofensiva", que critica a las instituciones públicas y las opiniones que pueden ser erróneas (observación general n.º 34, párrafos 11, 38 y 49).
El Comité de Derechos Humanos de la ONU destacó que la libertad de expresión es fundamental para los asuntos públicos y el ejercicio efectivo del derecho de voto (observación general n.º 34, párrafo 20). El Comité señala, además, que la libre comunicación de información e ideas acerca de las cuestiones públicas y políticas entre los ciudadanos es indispensable para garantizar el pleno ejercicio de los derechos de participación en asuntos públicos y el derecho a votar, conforme al artículo 25 del ICCPR (observación general n.º 25, párrafo 25). En este caso, ambos usuarios abordaban el tema del referéndum, un asunto de interés público, para compartir sus opiniones sobre lo que debería ocurrir y, por ende, participaban de manera directa en el debate público que suscitó el proceso del referéndum.
Si un Estado impone restricciones sobre la libertad de expresión, estas deben cumplir los requisitos de legalidad, fin legítimo y necesidad y proporcionalidad (artículo 19, párrafo 3, del ICCPR). Se suele hacer referencia a estos requisitos como "prueba de tres partes". El Consejo usa este marco para interpretar los compromisos voluntarios de Meta con los derechos humanos, tanto respecto de la decisión sobre el contenido en particular en revisión como de lo que esto pone de manifiesto acerca del enfoque más amplio de la empresa en relación con la gestión del contenido. Como ocurrió en casos anteriores (p. ej., Armenios en Azerbaiyán, Video de prisioneros de guerra armenios), el Consejo coincide con la Relatora Especial de la ONU sobre libertad de expresión en que, si bien las empresas no tienen las obligaciones de los Gobiernos, su impacto es tal que las obliga a evaluar el mismo tipo de cuestiones sobre la protección del derecho a la libertad de expresión de sus usuarios ( A/74/486, párrafo 41). Al hacerlo, el Consejo intenta entender cómo se diferencian las responsabilidades de una empresa de medios sociales privada de las de un gobierno que implementa sus propias obligaciones en materia de derechos humanos.
I. Legalidad (claridad y accesibilidad de las reglas)
Las reglas que restringen la expresión deben definirse y comunicarse con claridad, tanto a quienes las aplican como a quienes deben acatarlas (observación general n.º 25, párrafo 25). Los usuarios deben poder predecir las consecuencias de publicar contenido en Facebook e Instagram. La Relatora Especial de la ONU sobre libertad de expresión destacó la necesidad de "claridad y especificidad" en las políticas de moderación de contenido ( A/HRC/38/35, párrafo 46).
El texto público de la norma comunitaria sobre organización de actos dañinos y promoción de la delincuencia no es lo suficientemente claro para el usuario. Dado lo importante que es que los usuarios usen los medios sociales para debatir cuestiones de interés público en el contexto de acontecimientos democráticos, Meta debe asegurarse de que se les informe con claridad qué reglas se aplican. De este modo, podrán anticipar si el contenido que están por publicar es potencialmente infractor. En este aspecto, el Consejo determinó que la explicación incluida en las pautas internas respecto de lo que constituye "votación ilegal" debe incorporarse a la norma comunitaria sobre organización de actos dañinos y promoción de la delincuencia que es de dominio público.
II. Fin legítimo
Las restricciones de la libertad de expresión deben tener un fin legítimo (artículo 19, párrafo 3, del ICCPR), incluida la protección del "orden público" y de los "derechos de otras personas".
La política de organización de actos dañinos y promoción de la delincuencia tiene como fin "prevenir y evitar daños en la vida real, y la imitación de dicho comportamiento" eliminando el contenido que "facilite, organice, promueva o admita determinadas actividades criminales o dañinas".
Proteger el derecho a votar y a participar en asuntos públicos es un fin que la política de organización de actos dañinos y promoción de la delincuencia puede perseguir de forma legítima, en especial en un contexto de elecciones (artículo 25 del ICCPR). Para el Consejo, evitar que los usuarios inciten a otras personas a participar en un fraude electoral corresponde al fin legítimo de proteger el derecho a votar. La observación general n.º 25 sobre el derecho a votar estipula que "debe haber un escrutinio de los votos y un proceso de recuento independientes" a fin de que "los electores tengan confianza en la seguridad de la votación y del recuento de los votos" (párrafo 20). Asimismo, se debe aplicar "el principio de un voto por persona", que significa que "el voto de un elector debe tener igual valor que el de otro" (párrafo 21). El Consejo señaló también que la política permite preservar el "orden público", ya que protege los centros electorales y los procesos democráticos de la interferencia de los votantes, de manera más general.
III. Necesidad y proporcionalidad
En virtud del artículo 19, párrafo 3, del ICCPR, los principios de necesidad y proporcionalidad exigen que las restricciones que se apliquen a la expresión "deben ser adecuadas a fin de cumplir su función de protección y deben ser proporcionales al interés que se busca proteger" ( observación general n.º 34, párrafo 34). Como parte de sus responsabilidades en materia de derechos humanos, las empresas de medios sociales deben considerar diversas respuestas posibles ante un contenido problemático más allá de la eliminación para garantizar que las restricciones se delimiten estrictamente (A/74/486, párrafo 51).
El Consejo considera que la eliminación de ambas publicaciones de Facebook por parte de Meta cumple con los requisitos de necesidad y proporcionalidad. El Consejo manifestó que el contenido se publicó días antes del referéndum que marcaría un acontecimiento constitucional importantísimo en Australia, en especial para la comunidad aborigen y los isleños del estrecho de Torres. Por un lado, el discurso político es un componente indispensable de los procesos democráticos y ambos usuarios participaban del debate público al que dio lugar el referéndum. Por otro lado, la incitación de los usuarios a que los demás se impliquen en actividades ilegales en el contexto de dicho referéndum repercute en los derechos políticos de los habitantes de Australia, en particular en el derecho a votar y a participar en asuntos públicos.
Si se aplican estas normas al contenido en este caso, los llamamientos a "votar NO" en ambas publicaciones constituyen, claramente, discurso político protegido. No obstante, la frase "vote often" en la primera publicación y la frase "smash the voting centres" en la segunda son un asunto diferente, dado que motivan activamente a otras personas a participar de manera ilegal en el Referéndum de la Voz emitiendo varios votos, conforme se explica en más detalle en la sección 8.1 anterior. Los expertos a los que consultó el Consejo señalaron que eran frecuentes las afirmaciones que indicaban que hubo fraude en el referéndum, mientras que los informes periodísticos destacaban que las denuncias de fraude eran habituales. Por ello, para el Consejo, Meta estuvo bien en proteger los procesos democráticos evitando que se intente cometer un fraude electoral a través de sus plataformas ( observación general n.º 25). La circulación de contenido relacionado con fraudes electorales puede suponer un riesgo para la integridad de los procesos electorales. No obstante, una minoría en el Consejo determinó que eliminar la publicación que insta a las personas a "destruir los centros de votación" no pasa la prueba de necesidad y proporcionalidad, dado que Meta no logra establecer una "conexión directa e inmediata entre la expresión y la amenaza" (observación general n.º 34, párrafo 35). Para esta minoría, dado el hecho de que el llamado del usuario para que las personas "destruyan los centros de votación" es una incitación ambigua a que voten varias veces, no habría una conexión directa ni inmediata con la amenaza de fraude electoral.
El Consejo considera que el enfoque de Meta respecto de la claridad que se espera de los usuarios al aplicar las excepciones es acertado para evaluar si el contenido se compartió a modo de repudio, para generar conciencia, para difundir información o en un contexto de humor o sátira. No había indicios claros en las publicaciones que el Consejo sometió a análisis que indicaran que las frases "vote often" y "smash the voting centres" fueran retóricas, en lugar de incitar firmemente a votar varias veces, acción que pone en riesgo la integridad del Referéndum de la Voz. Por ende, eliminarlas a ambas fue una respuesta necesaria y proporcionada por parte de Meta.
Asimismo, una minoría en el Consejo no está convencida de que la eliminación del contenido es el método menos invasivo que Meta tiene a su disposición para abordar el discurso relativo al fraude electoral; asimismo, determinó que, como Meta no pudo demostrar lo contrario, esta medida no satisface el requisito de necesidad y proporcionalidad. El Relator Especial indicó que "así como los Estados deben evaluar si una limitación de la libertad de expresión es el enfoque menos restrictivo, también las empresas deben hacer ese tipo de evaluación. En la evaluación, las empresas deben asumir la carga de demostrar públicamente la necesidad y proporcionalidad" ( A/74/486, párrafo 51). Para esta minoría, Meta debería haber demostrado públicamente por qué eliminar dichas publicaciones es el medio menos invasivo de las muchas herramientas con las que cuenta para evitar daños a corto plazo, como fraudes electorales. Si no puede brindar dicha justificación, Meta debe ser transparente en cuanto a reconocer que las reglas que aplica al discurso parten de las normas de derechos humanos de la ONU y brindar una justificación pública que lo avale. La minoría considera que el Consejo estaría en la posición de considerar la justificación pública de Meta, lo que daría lugar a un diálogo público sin arriesgarse a distorsionar las normas de derechos humanos de la ONU existentes.
9. Decisión del Consejo asesor de contenido
El Consejo asesor de contenido ratificó las decisiones de Meta de eliminar ambos contenidos.
10. Recomendaciones
Política de contenido
1. Para garantizar que los usuarios sepan con certeza los tipos de contenido que se prohíben en función de la sección "Fraude censal o electoral" de la norma comunitaria sobre organización de actos dañinos y promoción de la delincuencia, Meta debe incorporar su definición del término "votación ilegal" en el texto público de la disposición de la política que prohíbe el contenido "que apoye la participación ilegal en un proceso de elección o censo, así como aquel que comunica una intención explícita de hacerlo o proporciona instrucciones para ello, excepto en un contexto para generar conciencia, repudiar el hecho, informar, o en contextos humorísticos o satíricos".
El Consejo considerará implementada esta recomendación cuando Meta actualice su norma comunitaria sobre organización de actos dañinos y promoción de la delincuencia pública para reflejar este cambio.
* Nota de procedimiento:
La preparación de las decisiones del Consejo asesor de contenido está a cargo de paneles conformados por cinco miembros, quienes deben aprobarlas por mayoría. Las decisiones del Consejo no necesariamente representan las opiniones personales de todos los miembros.
En cuanto a la decisión del caso, se encargó una investigación independiente en nombre del Consejo. El Consejo recibió asistencia de Duco Advisors, una empresa asesora dedicada a la intersección de geopolítica, confianza, seguridad y tecnología. Memetica, una organización que participa en investigaciones de código abierto sobre tendencias en los medios sociales, también proporcionó análisis.
Volver a Decisiones de casos y opiniones consultivas sobre políticas