Decisão de múltiplos casos

Reglas de votación de la Comisión Electoral Australiana

El Consejo asesor de contenido ha sostenido la decisión de Meta de suprimir dos publicaciones de Facebook independientes que incluían la misma captura de pantalla, con información que la Comisión Electoral de Australia había publicado en X antes de la celebración de un referéndum sobre la inclusión de representantes de los pueblos indígenas en el Parlamento.

2 casos incluídos neste pacote

Mantido

FB-0TGD816L

Caso sobre coordinación de daños y publicidad de delincuencia en Facebook

Plataforma
Facebook
विषय
Elecciones,Gobiernos,Información errónea
Padrão
Organización de actos dañinos y fomento de actividades delictivas
Localização
Australia
Date
Publicado em 9 de Maio de 2024
Mantido

FB-8ZQ78FZG

Caso sobre coordinación de daños y publicidad de delincuencia en Facebook

Plataforma
Facebook
विषय
Elecciones,Gobiernos,Información errónea
Padrão
Organización de actos dañinos y fomento de actividades delictivas
Localização
Australia
Date
Publicado em 9 de Maio de 2024

Resumen

El Consejo asesor de contenido ha sostenido la decisión de Meta de suprimir dos publicaciones de Facebook independientes que incluían la misma captura de pantalla, con información que la Comisión Electoral de Australia (“AEC”, por sus siglas en inglés) había publicado en X antes de la celebración del referéndum para la inclusión de representantes de los pueblos indígenas en el Parlamento. Ambas publicaciones infringían la regla de la norma comunitaria sobre organización de actos nocivos y fomento de actividades delictivas, que prohíbe el contenido que incita a participar ilegalmente en un proceso electoral. Estos casos ponen de manifiesto cómo puede afectar la información que se saca de contexto al derecho al voto de las personas. El Consejo recomienda que Meta explique con mayor claridad sus reglas sobre fraudes relacionados con el censo o los votantes, para lo que debería hacer pública su definición de “votación ilegal”.

Información de los casos

El 14 de octubre de 2023, Australia celebró un referéndum sobre la inclusión de representantes de los pueblos indígenas en el Parlamento. Días antes, un usuario de Facebook publicó en un grupo una captura de pantalla de una publicación de la cuenta oficial de la AEC en la red social X, que incluía lo siguiente: “Si alguien deposita su voto formal en dos colegios electorales diferentes de su circunscripción, ambos se contabilizan”. Asimismo, en otro comentario que el usuario había tomado del mismo hilo de X, se explicaba que el sufragio secreto impide a la AEC “saber qué papeleta pertenece a cada persona”, y se aseguraba que “el número de votos dobles recibidos es increíblemente bajo”. Sin embargo, las capturas de pantalla no muestran toda la información que la AEC había compartido, por ejemplo, que el hecho de votar varias veces constituye un delito. La descripción de la publicación incitaba a “vote early, vote often, and vote NO” (“vota temprano, vota varias veces y vota NO”).

Una segunda publicación que otro usuario de Facebook compartió incluía la misma captura de pantalla, pero con texto superpuesto con la misma afirmación: “so you can vote Multiple times. They are setting us up for a ‘Rigging’ … smash the voting centres … it’s a NO, NO, NO, NO, NO" (“se puede votar varias veces… se está gestando un 'amaño'… reventemos los centros de votación… definitivamente es un NO, NO, NO, NO, NO”).

La finalidad del referéndum era preguntar a los australianos si estaban de acuerdo con que se enmendase la Constitución para conceder una mayor representación en el Parlamento de los pueblos aborígenes e isleños del estrecho de Torres.

Votar es obligatorio en Australia. Según registros de la AEC, la participación en cada elección y referéndum ha sido de aproximadamente el 90 % desde 1924. Votar varias veces es ilegal y constituye un fraude electoral.

Después de que los sistemas automatizados de Meta detectaran ambas publicaciones, los revisores las suprimieron por infringir la política sobre organización de actos nocivos y fomento de actividades delictivas de Meta. Ambos usuarios apelaron la decisión.

Conclusiones principales

El Consejo ha determinado que ambas publicaciones infringían la regla de la política sobre organización de actos nocivos y fomento de actividades delictivas que prohíbe el contenido que “aboga por la participación ilegal en un proceso electoral o censal, o que manifiesta una intención explícita de hacerlo o que proporciona instrucciones para ello”. En el primer caso, la combinación de “vote often” (“vota varias veces”) y la información de la AEC sobre el recuento de varios votos constituye una incitación clara a participar en una votación ilegal. Votar dos veces es un tipo de “votación ilegal” de acuerdo con las pautas internas de Meta. En el segundo caso, la combinación de “smash the voting centres” (“reventemos los centros de votación”) y el resto del texto superpuesto se puede interpretar como un llamamiento a desbordar los centros electorales con varios votos. Ninguna de las publicaciones puede acogerse a las excepciones de la política que se aplican cuando el contexto es periodístico, humorístico, satírico, de repudio o de concienciación. Concretamente en cuanto a crear conciencia, a las publicaciones no se les puede aplicar esta excepción porque van más allá de debatir la publicación de la AEC en X, dado que sacan la información de contexto para dar a entender que la AEC afirma que se permite votar más de una vez.

Evitar que los usuarios inciten a otros a participar en fraudes electorales corresponde al fin legítimo de proteger el derecho al voto. El Consejo considera que el discurso político es un componente fundamental de los procesos democráticos. En los casos planteados, ambos usuarios participaban de forma directa en el debate público que suscitó el referéndum, pero su incitación a que los demás se implicasen en actividades ilegales repercutía en los derechos políticos de los habitantes de Australia, especialmente en el derecho a votar. Si bien las incitaciones a “vote NO” (“vota NO”) constituyen un discurso político protegido, las frases “vote often” (“vota varias veces”) y “smash the voting centres” (“reventemos los centros de votación”) son una cuestión diferente. Para el Consejo, Meta actuó correctamente al proteger los procesos democráticos evitando que se intentara cometer un fraude electoral a través de sus plataformas, dados los frecuentes reclamos que afirmaban que el referéndum australiano estaba amañado.

El Consejo reconoce los esfuerzos de Meta en cuanto al referéndum sobre la voz de los indígenas. La empresa identificó de forma proactiva contenido potencialmente infractor en virtud de las reglas relativas a la injerencia electoral de las normas comunitarias sobre organización de actos nocivos y fomento de actividades delictivas e información errónea. Las frases “double vote” (“voto doble”) y “vote multiple times” (“votar varias veces”) fueron las palabras clave que activaron el sistema de detección basado en palabras clave de la empresa en este caso. Según Meta, el sistema se adapta a los contextos locales. Según la información compartida, el Consejo ha manifestado que este tipo de iniciativas deberían llevarse a cabo de manera coherente en todo el mundo, en países en los que se celebren elecciones, aunque insta a Meta a desarrollar métricas de éxito para evaluar la efectividad de la detección basada en palabras clave.

Por último, el Consejo considera que las reglas de dominio público que figuran en la norma comunitaria sobre organización de actos nocivos y fomento de actividades delictivas no son lo suficientemente claras, ya que no incluyen la información de la que disponen los revisores en las pautas internas de Meta, concretamente la definición de la empresa de la frase “votación ilegal”. Dado que es fundamental que los usuarios puedan debatir asuntos de interés público relacionados con acontecimientos democráticos en los medios sociales, Meta debe informar con claridad de las reglas a los usuarios.

Decisión del Consejo asesor de contenido

El Consejo asesor de contenido sostiene la decisión de Meta de suprimir el contenido.

El Consejo recomienda que Meta tome las medidas siguientes:

  • Incorporar su definición del término “votación ilegal” al texto público de la política sobre organización de actos nocivos y fomento de actividades delictivas, que prohíbe el contenido “que abogue por la participación ilegal en un proceso electoral o censal, o que manifieste una intención explícita de hacerlo o proporcione instrucciones para ello, excepto si su objetivo es concienciar, repudiar, informar, o si tiene una intención humorística o satírica”.

* Los resúmenes de casos ofrecen información general sobre estos y no sientan precedente alguno.

Decisión completa del caso

1. Resumen de la decisión

El Consejo asesor de contenido sostiene la decisión de Meta de suprimir dos publicaciones independientes de Facebook que incluían la captura de pantalla de una publicación que había realizado la Comisión Electoral de Australia (AEC) en X, conocido anteriormente como Twitter. Las capturas de pantalla de la AEC publicadas por los usuarios de Facebook incluían el texto siguiente: “Si alguien deposita su voto formal en dos colegios electorales diferentes de su circunscripción, ambos se contabilizan”. En la primera publicación de Facebook, la captura de pantalla iba acompañada del texto “vote early, vote often, and vote NO” (“vota temprano, vota varias veces y vota NO”). En la segunda publicación de Facebook, la captura de pantalla incluía superposiciones de texto que decían lo siguiente: “so you can vote multiple times … they are setting us up for a ‘rigging’ … smash the voting centres … it’s a No, No, No, No, No" (“se puede votar varias veces… se está gestando un 'amaño'… reventemos los centros de votación… definitivamente es un NO, NO, NO, NO, NO”). El texto también incluía el emoticono de “stop”, al que seguían las palabras “Australian Electoral Commission” (“Comisión Electoral de Australia”).

Para el Consejo, ambas publicaciones infringían la norma comunitaria sobre organización de actos nocivos y fomento de actividades delictivas, que prohíbe el contenido “que abogue por la participación ilegal en un proceso electoral o censal, o que manifieste una intención explícita de hacerlo o proporcione instrucciones para ello, excepto si su objetivo es concienciar, repudiar, informar, o si tiene una intención humorística o satírica”. El Consejo considera que no son aplicables ninguna de las excepciones.

Estos casos ponen sobre la mesa preocupaciones más acuciantes en torno a compartir información sin contexto durante procesos democráticos, como las elecciones o la votación de un referéndum, lo que puede repercutir en el derecho de las personas a votar. El Consejo recomienda que Meta explique con mayor claridad sus líneas normativas relacionadas con fraudes en procesos electorales o censales en virtud de la norma comunitaria sobre organización de actos nocivos y fomento de actividades delictivas, a fin de aclarar qué constituye una “participación ilegal en un proceso electoral o censal”.

2. Descripción y antecedentes del caso

El 14 de octubre de 2023, Australia celebró un referéndum sobre la inclusión de representantes de los pueblos indígenas en el Parlamento (en adelante, el “Referéndum sobre la voz de los indígenas”). Días antes de la votación, un usuario de Facebook que es administrador de un grupo publicó la captura de pantalla de una publicación de X de la cuenta oficial de la Comisión Electoral de Australia (AEC). El texto de la publicación de la AEC en X era el siguiente: “Si alguien deposita su voto formal en dos colegios electorales diferentes de su circunscripción, ambos se contabilizan”. En la captura también podía verse otro comentario del mismo hilo de X, en el que se explicaba que el sufragio secreto impide a la AEC “saber qué papeleta pertenece a cada persona” y que aseguraba que “el número de votos dobles recibidos es increíblemente bajo”. Sin embargo, la captura de pantalla no mostraba toda la información que la AEC había compartido, como el hecho de que votar varias veces es un delito en Australia. La primera publicación de Facebook iba acompañada del siguiente texto: “vote early, vote often, and vote NO” (“vota temprano, vota varias veces y vota NO”).

Un día después, otro usuario de Facebook publicó en su perfil la misma captura de pantalla de la publicación de la AEC en X. Esta incluía el texto superpuesto “so you can vote Multiple times. They are setting us up for a ‘Rigging’ … smash the voting centres … it’s a NO, NO, NO, NO, NO” (“se puede votar varias veces… se está gestando un 'amaño'… reventemos los centros de votación… definitivamente es un NO, NO, NO, NO, NO”). El texto también incluía el emoticono de “stop”, al que seguían las palabras “Australian Electoral Commission” (“Comisión Electoral de Australia”).

Meta detectó de manera proactiva ambas publicaciones. En este caso, las palabras clave que activaron la “iniciativa de detección basada en palabras clave” de la empresa en este caso fueron “double vote” (“voto doble”) y “vote multiple times” (“votar varias veces”). El enfoque de este tipo de detección se basa en un procedimiento sistemático que Meta ha implementado para identificar de forma proactiva “contenido potencialmente infractor, incluido, entre otros, el contenido relacionado con la injerencia electoral o censal”. Ambas publicaciones se enviaron a la cola de revisión manual automáticamente. Una vez finalizado dicho proceso, las publicaciones se suprimieron por infringir la política sobre organización de actos nocivos y fomento de actividades delictivas. Meta aplicó también al perfil de ambos usuarios una falta estándar y una restricción de acceso a funciones durante 30 días, lo que les impedía publicar o comentar en grupos de Facebook, crear nuevos grupos o unirse a salas de Messenger.

El Consejo ha tenido en cuenta los siguientes aspectos contextuales a la hora de tomar una decisión respecto a los casos:

El objeto del Referéndum sobre la voz de los indígenas era pedir a la población que votara si la Constitución de Australia debía enmendarse para que se reconozca a los pueblos originarios del país “mediante la creación de un organismo denominado Voz de los Aborígenes y los Isleños del Estrecho de Torres”, para que estos “tengan representación en el Parlamento y en el Gobierno Ejecutivo de la Commonwealth en asuntos que atañen a los pueblos aborígenes y los isleños del estrecho de Torres”. Los antecedentes pertinentes respecto al Referéndum sobre la voz de los indígenas incluyen el hecho de que los aborígenes y los isleños del estrecho de Torres se encuentran entre los grupos más desfavorecidos en el ámbito social y económico de Australia. Entre este grupo se dan altos niveles de desempleo, una baja participación en estudios superiores, una salud deficiente (tanto física como mental), una expectativa de vida considerablemente más baja en comparación con otros australianos y un alto índice de detenciones. Estos pueblos sufren discriminación, y la violencia de género y policial los afecta de una manera desproporcionada.

El primer ministro Anthony Albanese hizo campaña a favor de la enmienda constitucional (es decir, en apoyo del “Sí”), mientras que la principal coalición opositora de Australia se posicionó en (por lo tanto, en apoyo del “No”). La propuesta recibió el rechazo nacional, y por mayoría en los seis estados australiano, por lo que no logró la doble mayoría necesaria para enmendar la Constitución.

Votar es obligatorio en Australia, y la AEC ha informado de que, desde 1924, la participación en cada proceso electoral y referéndum ha sido de aproximadamente el 90 %. Votar varias veces se considera un tipo de fraude electoral tanto a nivel estatal como federal, de acuerdo con lo que establecen la Ley electoral de la Commonwealth de 1918 y la Ley de referéndums (Normas sobre mecanismos) de 1984. La AEC publicó un extenso hilo en X en respuesta a las denuncias de votos duplicados en el Referéndum sobre la voz de los indígenas, en el que señalaba que es “muy poco frecuente” que la gente vote varias veces y detallaba las medidas que aplica para evitar esta práctica. La AEC indica en su sitio web que, para detectar votos duplicados, cada centro de votación recibe listas certificadas idénticas de todos los votantes de una división. Cuando a estos se les entrega un conjunto de papeletas electorales, su nombre se tacha de la lista en el punto de entrega. Si un votante acude a otro punto de entrega para emitir otro voto ordinario, de nuevo se tachará su nombre de la otra copia de la lista certificada correspondiente a esa división para indicar que a esa persona se le han proporcionado papeletas electorales. Inmediatamente después del día de las elecciones, se revisan todas las listas certificadas idénticas de cada división para detectar posibles casos en los que un nombre se haya marcado varias veces. Posteriormente, la AEC investiga el asunto y escribe a cada votante del que se sospeche que ha votado más de una vez. Cuando se recibe la respuesta, el problema suele resolverse por motivos como “error del responsable de la mesa electoral” o mediante explicaciones que indican que hubo “dificultades causadas porque la persona era analfabeta o tenía dificultades lingüísticas”, o que la persona en cuestión era un “anciana y se equivocó o votó más de una vez porque había olvidado que ya lo había hecho”. Cuando algún caso no se puede resolver, la AEC los investiga en profundidad, y puede llegar a remitirlos a la Policía Federal Australiana para que los analice.

En 2019, la AEC declaró que el asunto de los votos múltiples era “un problema muy pequeño”, ya que, del 91,9 % de la participación electoral, solo un 0,03 % correspondía a votos múltiples, y la mayoría de ellos se debían a errores que cometían los votantes, que eran personas mayores, analfabetas o tenían pocos conocimientos de cómo funcionaba el proceso electoral. En su comentario público remitido al Consejo, la AEC reiteró la “insignificante” frecuencia con la que ocurre este problema en Australia. Según la Comisión, solo se remitieron a la Policía Federal Australiana 13 casos de presuntos votos múltiples de un total de 15,5 millones de votos con la finalidad de que se investigasen más a fondo en el contexto de las elecciones federales de 2022 (PC-25006; consulta también PC-25007).

Según los expertos con los que consultó el Consejo, las afirmaciones de que el Referéndum sobre la voz de los indígenas estaba amañado fueron frecuentes, y que algunas publicaciones incluían los hashtags #StopTheSteal (#BastaDeRobos) y #RiggedReferendum (#ReferéndumAmañado). Los medios informativos también destacaron que era habitual que se hablara de fraude en el contexto del Referéndum sobre la voz de los indígenas. De acuerdo con las herramientas de supervisión de medios sociales implementadas por los expertos con los que consultó el Consejo, a febrero de 2024, las capturas de pantalla de las publicaciones de la AEC en X se habían compartido más de 475 veces, habían recibido miles de reacciones y se habían visualizado al menos 30 000 veces en las plataformas de Meta.

3. Competencia y ámbito de actuación del Consejo asesor de contenido

El Consejo tiene potestad para revisar la decisión de Meta tras la apelación de la persona cuyo contenido se haya suprimido (acta constitutiva, artículo 2, apartado 1; estatutos, artículo 3, apartado 1).

El Consejo puede sostener o revocar la decisión de Meta (artículo 3, apartado 5 del acta constitutiva), y la decisión que tome será vinculante para la empresa (artículo 4 del acta constitutiva). Meta también debería evaluar la viabilidad de aplicar su decisión respecto a contenido idéntico cuyo contexto sea similar (artículo 4 del acta constitutiva). Las decisiones del Consejo pueden incluir recomendaciones no vinculantes a las que Meta debe responder (artículo 3, apartado 4, y artículo 4 del acta constitutiva). En los casos en los que Meta se compromete a tomar medidas basadas en esas recomendaciones, el Consejo supervisa su implementación. Si el Consejo identifica casos que generan inquietudes similares, se los puede asignar a un mismo panel para que delibere sobre ellos de manera conjunta. Se tomará una decisión vinculante en relación con cada elemento de contenido.

4. Precedentes y pautas

El análisis del Consejo en estos casos se basó en las normas y precedentes siguientes:

I. Decisiones del Consejo asesor de contenido

II. Políticas de contenido de Meta

Según sus bases, la política sobre organización de actos nocivos y fomento de actividades delictivas pretende “impedir que se produzcan daños fuera de internet y conductas de imitación”, motivo por el cual no se permite que las personas “faciliten, organicen ni fomenten determinadas actividades delictivas o perjudiciales cuyo objetivo sean terceros, empresas, propiedades o animales, ni que emitan afirmaciones en las que confiesen haber llevado a cabo dichas actividades”. Asimismo, la política prohíbe a los usuarios publicar contenido que “abogue por la participación ilegal en un proceso electoral o censal, o que manifieste una intención explícita de hacerlo o proporcione instrucciones para ello, excepto si su objetivo es concienciar, repudiar, informar, o si tiene una intención humorística o satírica”.

También existen tipos de contenido que generan injerencia electoral o censal y que se pueden suprimir conforme a la política, siempre que se disponga de contexto adicional que justifique la aplicación de esta medida. Entre ellos está la “incitación a una injerencia coordinada que afectaría a la capacidad de las personas de participar en un proceso censal o electoral oficial” y las “amenazas de asistir a un centro de votación con el propósito de vigilar o controlar la actividad de los votantes o los responsables de las mesas electorales si incluyen referencias a una posible intimidación”.

La política sobre violencia e incitación de Meta busca evitar que se produzcan “daños en el mundo real” que puedan estar relacionados con el contenido publicado en las plataformas de Meta. Esta prohíbe las “amenazas que puedan provocar la muerte de personas (u otras formas de violencia de gravedad alta)” y las “amenazas de tomar las armas, de llevar armas a un determinado lugar o de acceder por la fuerza a ciertos lugares”, como “centros de votación o lugares en los que se haga un recuento de votos o se supervisen procesos electorales”. La política también prohíbe las amenazas de violencia “que tienen que ver con el acto de votar, el registro de votantes o la gestión o los resultados de unas elecciones, aunque no exista un objetivo concreto”.

La política sobre información errónea de Meta establece de qué forma aborda la empresa las diferentes categorías de información errónea. En relación con una de estas categorías y “en un esfuerzo por fomentar la integridad de los procesos electorales y censales”, Meta suprime la “información errónea que tiene probabilidades de contribuir directamente al riesgo de injerencia con respecto a la capacidad de las personas de participar en esos procesos [políticos]”, por ejemplo, la “información errónea sobre quién puede votar, cuáles son los requisitos para hacerlo, en qué circunstancias se contará o no un voto y qué datos o materiales se deben proporcionar para votar”.

III. Responsabilidades de Meta en materia de derechos humanos

Los Principios Rectores sobre las Empresas y los Derechos Humanos (PREDH) de la ONU, respaldados por el Consejo de Derechos Humanos de la ONU en 2011, establecen un marco voluntario de responsabilidades de las empresas privadas en relación con estos derechos. En 2021, Meta anunció su Política corporativa de derechos humanos, con la que reafirmó su compromiso con el respeto de los derechos humanos de conformidad con los PREDH. El análisis del Consejo sobre las responsabilidades de Meta en materia de derechos humanos en este caso se basó en las siguientes normas internacionales:

  • Derecho a la libertad de expresión: artículo 19 del Pacto Internacional de Derechos Civiles y Políticos (PIDCP); Observación general n.º 34 del Comité de Derechos Humanos (2011); informes del Relator Especial de la ONU sobre la libertad de opinión y de expresión: A/HRC/38/35 (2018) y A/74/486 (2019).
  • Derechos a la participación en asuntos públicos y a votar en ellos: artículo 25 del PIDCP. Observación general n.º 25 del Comité de Derechos Humanos (1996).

5. Manifestaciones del usuario

En sus declaraciones ante el Consejo, ambos usuarios manifestaron que simplemente compartían la información que la AEC había publicado. El autor de la segunda publicación afirmó, además, que esta servía para “advertir a los demás” de que “podría haber fraude en las elecciones” si se permitía votar varias veces, ya que la gente “no necesita mostrar un documento de identificación” para que se tache su nombre de la lista.

6. Manifestaciones de Meta

Meta determinó que ambas publicaciones infringían la línea normativa que prohíbe “abogar por la participación ilegal en un proceso electoral o censal, o manifestar una intención explícita de hacerlo o proporcionar instrucciones para ello”, incluida en la norma comunitaria sobre organización de actos nocivos y fomento de actividades delictivas. Según las pautas internas que Meta ofrece a los revisores de contenido, las políticas sobre injerencia electoral se aplican tanto a las elecciones como a los “referéndums oficiales que organiza una autoridad nacional designada”. El término “votación ilegal” incluye, “entre otros”, lo siguiente: “(a) votar dos veces; (b) falsificar información electoral para votar en un lugar que no te corresponde; (c) falsear los datos que acreditan tu derecho a votar, y (d) robar papeletas electorales”.

Con respecto a la primera publicación, Meta destacó que la frase “vote often” (“vota varias veces”) “suele entenderse como votar más de una vez en unas elecciones”. La empresa determinó también que la frase no tenía una intención humorística o satírica, ya que el usuario incitaba a la gente a votar “NO”, que, según entiende Meta, constituye un intento grave de fomentar la preferencia política del usuario. Asimismo, la empresa indicó al Consejo que, al revisar contenido sobre elecciones a gran escala, no siempre es posible determinar la intención del usuario que publica contenido potencialmente satírico.

En cuanto a la segunda publicación, Meta concluyó que la frase “reventemos los centros de votación” infringía las normas. La empresa explicó que la incitación del usuario “podría interpretarse como una instigación a introducir un gran volumen de votos dobles en las elecciones”, lo cual está prohibido conforme a la línea normativa de la política sobre organización de actos nocivos y fomento de actividades delictivas, que prohíbe que “se abogue por… participar ilegalmente en un proceso electoral o censal”.

Según Meta, si se interpreta de forma literal como una incitación a reventar los centros electorales, la frase infringiría la política sobre violencia e incitación, dado que esta prohíbe: (i) las amenazas de violencia de gravedad alta contra un edificio que provocaría la muerte o lesiones graves a los presentes en el lugar, y (ii) las amenazas de violencia “relacionadas con el acto de votar, el registro de votantes o la gestión o los resultados de unas elecciones, aunque no exista un objetivo concreto”. Según las pautas internas que Meta brinda a los revisores de contenido, las amenazas contra lugares deben proferirse en “términos explícitos”, como “volar”, “quemar”, “disparar”, y también se deben emplear términos genéricos como “atacar”, “emboscar” y “destruir” para que un cierto contenido se considere infractor en virtud de esta política.

Meta publicó sus iniciativas en materia de integridad en relación con el Referéndum sobre la voz de los indígenas en una publicación en el blog en julio de 2023. Además, la empresa informó al Consejo de que había creado un equipo interfuncional para empezar a prepararse para el referéndum que se celebraría en abril de 2023. El equipo estaba formado por equipos con sede en Asia-Pacífico, de acuerdo con las prácticas habituales que se siguen durante unas elecciones nacionales. Por otra parte, Meta organizó un centro de operaciones de productos relacionados con la integridad (“IPOC”, por sus siglas en inglés) durante la última semana de campaña antes de la votación para prestar una especial atención al referéndum durante un periodo de posible escalada de tensiones. En el IPOC participaban otros equipos de operaciones, cuya labor consistía en responder con rapidez ante la escalada de las tensiones y los riesgos críticos que surgieron en el periodo previo al día de la votación. Meta no aplicó el Protocolo de políticas durante crisis, ni tampoco otros instrumentos normativos en el caso del Referéndum sobre la voz de los indígenas.

Meta destacó, además, su “iniciativa basada en la detección de palabras clave”, que identifica y pone en cola automáticamente el contenido potencialmente infractor que incluye palabras clave, ya sea en forma de texto o imágenes, como capturas de pantalla, para someterlo a revisión por medio de un “canal digital especializado que busca palabras clave específicas. Meta hizo saber al Consejo que la lista incluye muchas palabras y frases desarrolladas por los equipos regionales y de información errónea de Meta. La función principal que desempeña este sistema de detección es “garantizar la integridad” de las elecciones y los referéndums “mediante la identificación sistemática y la revisión manual de contenido pertinente”. Este sistema se activó en este caso gracias al IPOC virtual establecido para el Referéndum sobre la voz de los indígenas. Meta implementa esta iniciativa globalmente, por lo que no se limita a ciertos países o regiones, sino que se adapta a los contextos locales. Según Meta, la lista de palabras clave es “dinámica”, está sujeta a cambios y es “exclusiva en función de la naturaleza de cada evento”.

Esta iniciativa busca aplicar activamente las siguientes áreas de las Normas comunitarias de Meta: (i) la política de organización de actos nocivos y fomento de actividades delictivas que aborda “los fraudes en procesos electorales o censales, lo que incluye ofertas para comprar o vender votos a cambio de dinero en efectivo y afirmaciones que abogan por la participación ilegal en procesos electorales o censales, o que brindan instrucciones para ello”, y (ii) la política de información errónea que se centra en la injerencia electoral o censal, incluida la “información errónea sobre fechas, horarios, lugares o métodos de elecciones o censos, cualificaciones de votantes, recuento de votos y material de votación necesario”. El sistema de votación basado en palabras clave aplicado al Referéndum sobre la voz de los indígenas no se diseñó para aplicar activamente otras políticas de contenido relativas a elecciones o censos, como aquellas que se aplican en virtud de la norma comunitaria sobre violencia e incitación. No obstante, si el contenido que marca el sistema infringe otras normas comunitarias, también se le aplican otras políticas mediante revisión manual.

Respecto del contenido en este caso concreto, “double vote” (“voto doble”) y “vote multiple times” (“votar varias veces”) fueron las palabras clave que activaron el sistema de detección de Meta. El término “double vote” no se utilizó de manera directa en las publicaciones de Facebook, sino que aparecía en la captura de pantalla de la publicación de la AEC en X. Todo contenido que incluya estas palabras clave, ya sea en forma de texto o de imágenes como capturas de pantalla, “se marca y se pone en cola automáticamente para someterlo a una revisión manual, con el propósito de supervisar el discurso relacionado con la supresión del voto”.

El Consejo planteó a Meta por escrito 12 preguntas que tenían que ver con las políticas de contenido relativas a la injerencia electoral, el sistema de detección basado en palabras clave y los protocolos que Meta adoptó para moderar el contenido relacionado con el Referéndum sobre la voz de los indígenas. Meta ha respondido a todas las preguntas.

7. Comentarios públicos

El Consejo asesor de contenido recibió cinco comentarios públicos dentro de los plazos habilitados a tal efecto. Tres de los comentarios provinieron de Asia-Pacífico y Oceanía (todos de Australia), uno de Estados Unidos y Canadá, y uno de Europa. Los comentarios enviados con consentimiento de publicación pueden leerse aquí.

Los comentarios versaban sobre los siguientes temas: el contexto histórico y social que condujo a la organización del Referéndum sobre la voz de los indígenas, el historial de fraudes electorales en Australia, la difusión de información errónea y descontextualizada durante el referéndum y las políticas de contenido y las prácticas de aplicación de políticas de Meta con respecto a la información errónea de forma más general.

8. Análisis del Consejo asesor de contenido

El Consejo analizó si estas publicaciones debían suprimirse teniendo en cuenta las políticas de contenido, las responsabilidades en materia de derechos humanos y los valores de Meta. Asimismo, el Consejo evaluó las implicaciones de este caso en el enfoque general de Meta en cuanto a la gobernanza en estrategia de contenidos.

El Consejo seleccionó estos casos para analizar las políticas de moderación de contenido y las prácticas de aplicación de políticas Meta en materia de información electoral falsa o engañosa y fraude electoral, dado el número histórico de elecciones en 2024. Estos casos se enmarcan dentro de la prioridad estratégica del Consejo sobre elecciones y espacio cívico.

8.1 Cumplimiento de las políticas de contenido de Meta

I. Reglas de contenido

En opinión del Consejo, ambas publicaciones infringían la política sobre organización de actos nocivos y fomento de actividades delictivas, que prohíbe abogar por la participación ilegal en un proceso electoral o censal. El hecho de compartir la frase “vote often” (“vota varias veces”) de la primera publicación junto con la publicación de la AEC en X sobre el recuento de votos duplicados constituye una incitación clara a llevar a cabo esta práctica. Conforme a las pautas internas que Meta brinda a los revisores de contenido, “votar dos veces” es una forma de “votación ilegal”.

La segunda publicación también infringe la política sobre organización de actos nocivos y fomento de actividades delictivas, ya que incluía una captura de pantalla de la publicación de X y el texto superpuesto “so you can vote multiple times” e instaba a las personas a “smash the voting centres” (“reventemos los centros de votación”). El usuario, sencillamente, podría estar expresando su frustración con la AEC por permitir presuntamente que las personas “voten varias veces”. Sin embargo, cuando se lee junto con el resto del texto superpuesto en la captura de pantalla que afirmaba que la AEC permitía emitir varios votos y la acusaba de tramar un “amaño”, se puede interpretar razonablemente como una incitación a desbordar los centros electorales con varios votos. En el contexto de las elecciones australianas, en las que votar es obligatorio y la participación es de más del 90 %, el llamamiento a la población para que vote una vez constituye una interpretación poco probable de “smash the voting centres” (“reventar los centros de votación”), sobre todo si dicho llamamiento viene después de la afirmación de que la gente “can vote multiple times” (“puede votar varias veces”). Esto queda aún más en evidencia tras la petición del usuario de que la gente vote varias veces que “No” (“NO, NO, NO, NO, NO”). Si se lee como un todo y se tiene en cuenta el contexto de las elecciones en Australia, la publicación constituye una incitación a votar dos veces, lo que se considera una “votación ilegal” y está prohibido conforme a la política sobre organización de actos nocivos y fomento de actividades delictivas.

El Consejo reconoce que, si bien existe la posibilidad de que las publicaciones tengan una intención satírica, esta no es explícita, y no considera que las publicaciones fueran implícitamente satíricas, dado el texto de las descripciones y el texto superpuesto en las imágenes. Aunque el grado de certeza en la llamada a la acción es diferente en ambas publicaciones, ambas incluyen una petición para que la gente vote varias veces, es decir, para que vote “ilegalmente”. Debido a los riesgos asociados con los intentos de fraude en contextos electorales, el Consejo considera que, en dichas circunstancias, la excepción de Meta que admite el humor o la sátira debe aplicarse solo al contenido que es explícitamente humorístico. Por lo tanto, ninguna de estas publicaciones reúne los requisitos para que se le aplique esta excepción.

Las publicaciones no reúnen los requisitos para acogerse a la excepción para concienciar en virtud de la política sobre organización de actos nocivos y fomento de actividades delictivas. La finalidad de las capturas de pantalla y gran parte del contenido generado era llamar la atención ante la posibilidad de fraude electoral, según la declaración de la AEC. Sin embargo, los autores no se limitaron a debatir las publicaciones de la AEC en X, sino que fueron más allá y motivaron activamente a otras personas a participar ilegalmente en el Referéndum sobre la voz de los indígenas, es decir, a emitir varios votos. Las publicaciones no incluyen el contexto adicional que proporciona la AEC en ese mismo hilo de X, que informa de que votar varias veces es un delito en Australia. Por ende, más que generar conciencia respecto de la posibilidad de que se vote varias veces, ambas publicaciones sacan de contexto el comunicado de la AEC e insinúan que esta afirma que se puede votar más de una vez.

A diferencia de Meta, el Consejo no considera que en este caso se pueda hacer una lectura más literal de la palabra “smash” (“reventar”), en el sentido de destruir edificios), dada la falta de indicios que apunten en esa dirección (p. ej., en el contexto de un conflicto o escalada de tensiones con circulación generalizada de contenido que incita directamente a la violencia). Por lo tanto, el Consejo concluye que la segunda publicación no infringe la política sobre violencia e incitación de Meta.

Este órgano también evaluó ambos contenidos en relación con la política sobre información errónea de Meta, ya que el comunicado de la AEC se sacó de contexto. No obstante, el Consejo llegó a la conclusión de que la norma comunitaria sobre organización de actos nocivos y fomento de actividades delictivas es la política que se debe aplicar en este caso porque ambos usuarios motivan a los demás a participar en un fraude electoral.

II. Aplicación de medidas

El Consejo reconoce las iniciativas de integridad que Meta implementó con motivo del Referéndum sobre la voz de los indígenas, entre las que se incluye el sistema de detección basado en palabras clave. La empresa explicó que dicho sistema se implementó con objeto de identificar de forma proactiva el contenido potencialmente infractor de acuerdo con las líneas normativas relativas a la injerencia electoral de las normas comunitarias sobre organización de actos nocivos y fomento de actividades delictivas y sobre información errónea. Según Meta, este sistema se adapta a los contextos locales e incluye términos específicos de cada mercado. Teniendo en cuenta la información que Meta compartió con el Consejo acerca de cómo funciona la iniciativa, el Consejo valora que se haya implementado dicho sistema y parece haber funcionado en este caso. Iniciativas de esta naturaleza deben aplicarse de forma coherente globalmente, en todos los países en los que se celebren elecciones y otros procesos democráticos. Asimismo, el Consejo opina que esta iniciativa debe incluir políticas relativas a las injerencias electorales y de otro tipo relacionadas en virtud de la norma comunitaria sobre violencia e incitación.

Dadas las limitaciones de los enfoques basados en palabras clave en lo referente a la detección de contenido dañino, el Consejo seguirá evaluando la eficacia del sistema de Meta en otros casos relacionados con elecciones. En este aspecto, el Consejo insta a Meta a desarrollar métricas de éxito para evaluar la efectividad del sistema de detección basado en palabras clave, junto con otras iniciativas de integridad de las elecciones, con el fin de identificar contenido potencialmente infractor en políticas pertinentes para las elecciones. Esto concuerda con la recomendación del Consejo en la decisión del caso Discurso del general brasileño, en la que instaba a Meta a “desarrollar un marco que le permita evaluar las iniciativas de integridad de las elecciones”.

8.2. Cumplimiento de las responsabilidades de Meta en materia de derechos humanos

Libertad de expresión (artículo 19 del PIDCP)

El artículo 19 del Pacto Internacional de Derechos Civiles y Políticos (PIDCP) contempla una amplia protección de “todo tipo” de expresión. Este derecho incluye “la libertad de buscar, recibir y difundir información e ideas de toda índole”. El Comité de Derechos Humanos de la ONU ha destacado que el valor de libertad de expresión es especialmente alto cuando se debate acerca de temas políticos, candidatos y representantes electos (Observación general n.º 34, párrafo 13). Esto incluye la expresión que es “sumamente ofensiva”, que critica a las instituciones públicas y las opiniones que pueden ser erróneas (Observación general n.º 34, párrafos 11, 38 y 49).

El Comité de Derechos Humanos de la ONU ha subrayado que la libertad de expresión es fundamental para los asuntos públicos y el ejercicio efectivo del derecho al voto (Observación general n.º 34, párrafo 20). Este órgano señala, además, que la libre comunicación de información e ideas acerca de las cuestiones públicas y políticas entre los ciudadanos es indispensable para garantizar el pleno ejercicio de los derechos de participación en asuntos públicos y el derecho al voto, conforme al artículo 25 del PIDCP (Observación general n.º 25, párrafo 25). En este caso, ambos usuarios abordaban el tema del referéndum, un asunto de interés público, para compartir sus opiniones sobre lo que debería ocurrir y, por lo tanto, participaban directamente en el debate público que suscitó el proceso del referéndum.

Si un Estado impone restricciones sobre la libertad de expresión, estas deben cumplir los requisitos de legalidad, fin legítimo y necesidad y proporcionalidad (artículo 19, párrafo 3 del PIDCP). Estos requisitos reciben habitualmente el nombre de “prueba de tres partes”. El Consejo usa este marco para interpretar los compromisos voluntarios de Meta en materia de derechos humanos, tanto respecto de la decisión sobre el contenido concreto sometido a revisión como de lo que esto pone de manifiesto acerca del enfoque global de la empresa en relación con la gobernanza en estrategia de contenidos. Como ya ha indicado en casos anteriores (por ejemplo, Armenios en Azerbaiyán y Vídeo de prisioneros de guerra armenios), el Consejo coincide con la Relatora Especial de la ONU sobre libertad de expresión en que “las empresas no tienen las obligaciones de los gobiernos, pero su repercusión es de un tipo que les obliga a evaluar el mismo tipo de cuestiones sobre la protección del derecho de sus usuarios a la libertad de expresión” (A/74/486, párrafo 41). De este modo, el Consejo intenta ser consciente de las diferencias existentes entre las responsabilidades en materia de derechos humanos de una empresa de medios sociales privada y las de un Gobierno que cumple sus obligaciones en materia de derechos humanos.

I. Legalidad (claridad y accesibilidad de las reglas)

Las reglas que restringen la libertad de expresión deben definirse y comunicarse con claridad, tanto a quienes las aplican como a quienes deben acatarlas (Observación general n.º 25, párrafo 25). Los usuarios deben poder predecir las consecuencias de publicar contenido en Facebook e Instagram. El Relator Especial de la ONU sobre libertad de expresión destacó la necesidad de “claridad y concreción” en las políticas de moderación de contenido ( A/HRC/38/35, párrafo 46).

El texto público de la norma comunitaria sobre organización de actos nocivos y fomento de actividades delictivas no es lo suficientemente claro para el usuario. Dado lo importante que es que los usuarios puedan usar los medios sociales para debatir cuestiones de interés público en un contexto de acontecimientos democráticos, Meta debe asegurarse de que se les informe con claridad acerca de qué reglas se aplican para que puedan saber de antemano si el contenido que van a publicar es potencialmente infractor. En este aspecto, el Consejo ha determinado que la explicación incluida en las pautas internas respecto de lo que constituye una “votación ilegal” debe incorporarse a la norma comunitaria sobre organización de actos nocivos y fomento de actividades delictivas que es de dominio público.

II. Fin legítimo

Las restricciones de la libertad de expresión deben perseguir un fin legítimo (artículo 19, párrafo 3 del PIDCP), como la protección del “orden público” y de los “derechos de otras personas”.

La política sobre organización de actos nocivos y fomento de actividades delictivas tiene como fin “impedir que se produzcan daños fuera de internet y conductas de imitación” mediante la supresión del contenido que "facilite, organice o fomente determinadas actividades delictivas o perjudiciales, o que emita afirmaciones en las que confiese haber llevado a cabo dichas actividades”.

Proteger el derecho al voto y a la participación en asuntos públicos es un fin que la política sobre organización de actos nocivos y fomento de actividades delictivas puede perseguir de forma legítima, en especial en el contexto de unas elecciones (artículo 25 del PIDCP). Para el Consejo, evitar que los usuarios inciten a otras personas a participar en un fraude electoral corresponde al fin legítimo de proteger el derecho al voto. La Observación general n.º 25 sobre el derecho al voto establece que “debe haber un escrutinio de los votos y un proceso de recuento independientes” a fin de que “los electores tengan confianza en la seguridad de la votación y del recuento de los votos” (párrafo 20). Asimismo, se debe aplicar “el principio de un voto por persona”, que significa que “el voto de un elector debe tener igual valor que el de otro” (párrafo 21). El Consejo ha señalado también que la política permite mantener el “orden público”, ya que protege los centros electorales y los procesos democráticos de la injerencia de los votantes, de manera más general.

III. Necesidad y proporcionalidad

En virtud del artículo 19, párrafo 3 del PIDCP, los principios de necesidad y proporcionalidad exigen que las restricciones que se apliquen a la libertad de expresión “deben ser adecuadas a fin de cumplir su función de protección, y deben ser proporcionales al interés que se pretende proteger” ( Observación general n.º 34, párrafo 34). Como parte de sus responsabilidades en materia de derechos humanos, las empresas de medios sociales deben evaluar diversas respuestas posibles ante contenido problemático, no solo su eliminación, para garantizar que las restricciones se apliquen de la manera más individualizada posible (A/74/486, párrafo 51).

El Consejo considera que la supresión del contenido de Facebook por parte de Meta cumple los requisitos de necesidad y proporcionalidad, y manifiesta que se publicó días antes de un referéndum que marcaría un acontecimiento constitucional importantísimo en Australia, en especial para la comunidad aborigen y los isleños del estrecho de Torres. Por un lado, el discurso político es un componente indispensable de los procesos democráticos y ambos usuarios participaban del debate público al que dio lugar el referéndum. Por otro lado, la incitación de los usuarios a que los demás participen en actividades ilegales en el contexto de dicho referéndum afecta a los derechos políticos de los habitantes de Australia, en particular al derecho al voto y a la participación en asuntos públicos.

Si se aplican estas normas al contenido de este caso, los llamamientos a “vote NO” (“vota NO”) en ambas publicaciones constituyen claramente discurso político protegido. No obstante, la frase “vote often” (“vota varias veces”) de la primera publicación y la frase “smash the voting centres” (“reventemos los centros de votación”) de la segunda son un tema aparte, dado que motivan activamente a otras personas a participar de manera ilegal en el Referéndum sobre la voz de los indígenas emitiendo varios votos, según se explica en más detalle en el apartado 8.1 anterior. Los expertos con los que consultó el Consejo señalaron que eran frecuentes las afirmaciones que indicaban que hubo fraude en el referéndum, mientras que los medios informativos destacaron que las denuncias de fraude eran habituales. Teniendo esto en cuenta, en opinión del Consejo, Meta actuó bien al proteger los procesos democráticos evitando que se intentara cometer un fraude electoral a través de sus plataformas (Observación general n.º 25). La circulación de contenido relacionado con fraudes electorales puede suponer un riesgo para la integridad de los procesos de votación. Sin embargo, una minoría del Consejo determinó que suprimir la publicación que instaba a las personas a “smash the voting centres” (“reventemos los centros de votación”) no pasa la prueba de necesidad y proporcionalidad, dado que Meta no logra establecer una “conexión directa e inmediata entre la libertad de expresión y la amenaza (Observación general n.º 34, párrafo 35). Para esta minoría, si se considera que el hecho de que la llamada del usuario “smash the voting centres” (“reventemos los centros de votación”) es una incitación ambigua a que voten varias veces, no habría una conexión directa ni inmediata con la amenaza de fraude electoral.

El Consejo opina que el enfoque de Meta respecto de la claridad que se espera de los usuarios al aplicar las excepciones es acertado para evaluar si el contenido se compartió con intención de repudiar, concienciar, difundir información o con intención humorística o satírica. No había indicios claros en las publicaciones que el Consejo sometió a análisis que hicieran pensar que las frases “vote often” (“vota varias veces”) y “smash the voting centres” (“reventemos los centros de votación”) fueran retóricas, en lugar de incitar firmemente a votar varias veces, acto que pone en peligro la integridad del Referéndum sobre la voz de los indígenas. Por lo tanto, suprimirlas ambas fue una respuesta necesaria y proporcionada por parte de Meta.

Asimismo, una minoría del Consejo no está convencida de que la supresión del contenido sea el método menos invasivo que Meta tiene a su disposición para abordar el discurso relativo al fraude electoral. También considera que, como la empresa no pudo demostrar lo contrario, esta medida no satisface el requisito de necesidad y proporcionalidad. El Relator Especial indicó que “así como los Estados deben evaluar si una limitación de la libertad de expresión es el enfoque menos restrictivo, también las empresas deben hacer ese tipo de evaluación. En la evaluación, las empresas deben asumir la carga de demostrar públicamente la necesidad y proporcionalidad […]” ( A/74/486, párrafo 51). En opinión de esta minoría, Meta debería haber demostrado públicamente por qué suprimir dichas publicaciones era el modo menos invasivo de las muchas herramientas con las que cuenta para evitar daños a corto plazo, como los fraudes electorales. Si no puede presentar dicha justificación, la empresa debe ser transparente en cuanto a reconocer que las reglas que aplica al discurso parten de las normas de derechos humanos de la ONU y brindar una justificación pública que lo avale. Dicha minoría considera que el Consejo estaría en disposición de considerar la justificación pública de Meta, lo que daría lugar a un diálogo público sin el riesgo de distorsionar las normas de derechos humanos de la ONU existentes.

9. Decisión del Consejo asesor de contenido

El Consejo asesor de contenido sostiene la decisión de Meta de retirar ambas piezas de contenido.

10. Recomendaciones

Política de contenido

1. Para garantizar que los usuarios sepan con certeza qué tipos de contenido se prohíben en función del apartado “Fraude electoral” de la norma comunitaria sobre organización de actos nocivos y fomento de las actividades delictivas, Meta debe incorporar su definición del término “votación ilegal” en el texto público de la política, que prohíbe el contenido “que abogue por la participación ilegal en un proceso electoral o censal, o que manifieste una intención explícita de hacerlo o proporcione instrucciones para ello, excepto si su objetivo es concienciar, repudiar, informar, o si tiene una intención humorística o satírica”.

El Consejo considerará implementada esta recomendación cuando Meta actualice su norma comunitaria sobre organización de actos nocivos y fomento de actividades delictivas para reflejar este cambio.

* Nota procedimental:

Las decisiones del Consejo asesor de contenido se preparan a través de comités constituidos por cinco miembros y deben recibir la aprobación de la mayoría de dicha institución. Las decisiones emitidas no reflejan necesariamente las opiniones personales de todos los miembros.

Para alcanzar la decisión de este caso, se encargó una investigación independiente a nombre del Consejo, que ha recibido asesoramiento de la empresa Duco Advisors, una consultora especializada en cuestiones relacionadas con la geopolítica, la confianza, la seguridad y la tecnología. Memetica, una organización dedicada a la elaboración de estudios de código abierto sobre tendencias en los medios sociales, también ha proporcionado análisis.

Voltar para Decisões de Casos e Pareceres Consultivos sobre Políticas