Anulado

Dibujos animados de Knin

El Consejo asesor de contenido anuló la decisión original de Meta de dejar en Facebook una publicación en la que se representaba a personas de la etnia serbia como ratas.

Tipo de decisión

Estándar:

Políticas y temas

Tema
Discriminación, Libertad de expresión, Raza y etnia
Estándar comunitario
Lenguaje que incita al odio

Regiones/Países

Ubicación
Croacia

Plataforma

Plataforma
Facebook

Esta decisión también está disponible en serbio y en croata.

Да бисте прочитали ову одлуку на српском језику, кликните овде.

Da biste ovu odluku pročitali na hrvatskom, kliknite ovdje.

Resumen del caso

El Consejo asesor de contenido anuló la decisión original de Meta de dejar en Facebook una publicación en la que se representaba a personas de la etnia serbia como ratas. Si bien Meta, en última instancia, eliminó la publicación por infringir su política sobre lenguaje que incita al odio, previamente, unos 40 moderadores habían determinado que el contenido no infringía esta política. Esto sugiere que los moderadores interpretaron de manera sistemática que, conforme a la política sobre lenguaje que incita al odio, era necesario identificar una comparación explícita, y no implícita, entre las personas de la etnia serbia y las ratas para poder precisar que existía una infracción.

Información sobre el caso

En diciembre de 2021, una página pública de Facebook publicó una versión editada del dibujo animado de Disney "El flautista de Hamelín", con un texto en croata que Meta tradujo al inglés como "The Player from Čavoglave and the rats from Knin" (El flautista de Čavoglave y las ratas de Knin).

En el video, se mostraba una ciudad infestada de ratas. Mientras que la ciudad del dibujo animado original se llama "Hamelín", la ciudad del video editado llevaba el nombre de la ciudad croata de "Knin". El narrador relataba que las ratas querían vivir en un "país exclusivo de ratas", así que empezaron a amenazar y a perseguir a las personas que habitaban la ciudad.

El narrador continuaba diciendo que, cuando las ratas tomaron el mando de la ciudad, apareció un flautista del pueblo croata de Čavoglave. Luego de tocar una melodía con su "flauta mágica", las ratas comenzaron a cantar "su canción favorita" y siguieron al flautista que las llevó fuera de la ciudad. La letra de la canción conmemoraba a Momčilo Dujić, un sacerdote ortodoxo serbio que fue líder de las fuerzas de resistencia serbias durante la Segunda Guerra Mundial.

El flautista agrupó a las ratas en un tractor que luego desapareció. El narrador concluía diciendo que las ratas "desaparecieron para siempre de esas tierras" y que "todos vivieron felices para siempre".

El contenido de este caso tuvo más de 380.000 reproducciones. A pesar de que los usuarios reportaron el contenido 397 veces, Meta no lo eliminó. Luego de que se apelara el caso ante el Consejo, Meta llevó a cabo otra revisión manual y determinó, nuevamente, que el contenido no infringía sus políticas.

En enero de 2022, cuando el Consejo reconoció que el caso ameritaba una revisión completa, Meta definió que, si bien la publicación no infringía la letra de su política sobre lenguaje que incita al odio, sí infringía su espíritu, por lo que eliminó la publicación de Facebook. Más tarde, al esbozar una explicación de su decisión para presentar al Consejo, Meta cambió de idea nuevamente y concluyó que la publicación infringía la letra de la política sobre lenguaje que incita al odio y que todas las revisiones anteriores estaban equivocadas.

Aunque Meta informó a los 397 usuarios que reportaron la publicación su decisión inicial según la cual el contenido no infringía sus políticas, la empresa no comunicó a estos usuarios que, luego, revirtió su decisión.

Conclusiones principales

El Consejo determinó que el contenido de este caso infringe las normas comunitarias sobre lenguaje que incita al odio y violencia e incitación de Facebook.

La política sobre lenguaje que incita al odio prohíbe los ataques contra personas sobre la base de características protegidas, incluida la etnia. El contenido de este caso, que compara la etnia serbia con ratas y celebra hechos pasados de tratos discriminatorios, es deshumanizante y ofensivo.

Si bien en la publicación no se mencionaba explícitamente a la etnia serbia, las referencias históricas del contenido dejaban claro que las ratas eliminadas de la ciudad representaban a este grupo. El reemplazo del nombre "Hamelín" por la ciudad croata de "Knin", la identificación del flautista con el pueblo croata de Čavoglave (una referencia a la canción antiserbia "Bojna Čavoglave" de la banda "Thompson", cuyo cantante líder es de Čavoglave) y la imagen de las ratas huyendo en tractores son todas referencias a la "Operación Tormenta" del ejército croata. Según consta, esta operación de 1995 tuvo como consecuencia el desalojo, la ejecución y la desaparición forzosa de ciudadanos de la etnia serbia. De acuerdo con los comentarios de la publicación, esta conexión era evidente para las personas que veían el contenido.

Al Consejo le preocupa que unos 40 moderadores que hablan croata hayan considerado que el contenido no infringía la norma comunitaria sobre lenguaje que incita al odio de Facebook. Esto sugiere que los revisores interpretaron de manera sistemática que, conforme a la política, era necesario detectar una comparación explícita entre la etnia serbia y las ratas para poder determinar que existía una infracción.

El Consejo también precisó que este contenido infringe la norma comunitaria sobre violencia e incitación de Facebook. El Consejo discrepó de la evaluación de Meta en la que la empresa indicó que el contenido constituía una incitación a la expulsión sin violencia. Al aludir a los hechos de la "Operación Tormenta", la publicación tenía la intención de recordarles a las personas un conflicto pasado e incluía una amenaza violenta. En el dibujo animado se celebraba la eliminación violenta de la población de la etnia serbia de Knin, por lo que podría generar un clima en el que las personas se sintieran justificadas a atacar a este grupo.

Una pregunta importante que surge de este caso es por qué Meta concluyó que el contenido no infringía sus políticas, a pesar de haberse revisado tantas veces. El hecho de que el contenido no se haya enviado a equipos especializados de Meta para que lo evaluaran antes de que llegara al Consejo demuestra que los procesos de la empresa para escalar contenido no cuentan con la claridad y la eficacia necesarias. Por lo tanto, el Consejo instó a Meta a proporcionar más información sobre cómo escala el contenido.

La decisión del Consejo asesor de contenido

El Consejo asesor de contenido anuló la decisión original de Meta de conservar el contenido.

En su opinión de asesoramiento normativo, el Consejo asesor de contenido recomendó a Meta hacer lo siguiente:

  • Aclarar la norma comunitaria sobre lenguaje que incita al odio y las pautas provistas a los revisores, y explicar que la política prohíbe incluso las referencias implícitas a los grupos protegidos, cuando hubiera una referencia razonablemente comprensible.
  • De acuerdo con el compromiso que Meta asumió tras el caso del cinturón de abalorios (2021-012-FB-UA), el Consejo recomendó a Meta notificar a todos los usuarios que reportaron cierto contenido cuando, en una revisión posterior, cambie su resolución inicial. Meta también debería divulgar los resultados de cualquier experimento en que evalúe la viabilidad de comunicar este cambio al público.

* Los resúmenes de casos ofrecen información general sobre los casos y no sientan precedentes.

Decisión del caso completa

1. Resumen de la decisión

El Consejo asesor de contenido anuló la decisión original de Meta de conservar el contenido en Facebook. Después de más de 390 reportes de usuarios que solicitaban eliminar este contenido y la revisión adicional del contenido por parte de Meta cuando el Consejo seleccionó el caso, Meta determinó que este contenido no era infractor. No obstante, al elaborar la explicación de su decisión para presentar ante el Consejo, Meta revirtió su postura, expresó que esto había sido un "error del sistema de aplicación de políticas" y eliminó el contenido por infringir la política sobre lenguaje que incita al odio. El Consejo especificó que el contenido infringe las normas comunitarias sobre lenguaje que incita al odio y violencia e incitación de Meta. Precisó que la política sobre lenguaje que incita al odio, en lo que respecta a la comparación de personas con animales, se aplica al contenido en que se hace referencia a grupos a través de alusiones implícitas a características protegidas. En este caso, en el contenido, se comparaba a los serbios con ratas. El Consejo también determinó que la eliminación del contenido es coherente con los valores y las responsabilidades de Meta con los derechos humanos.

2. Descripción del caso y contexto

A principios de diciembre de 2021, una página pública de Facebook que se autodefinía como un portal de noticias de Croacia publicó un video con un texto en croata. Meta tradujo el texto como "The Player from Čavoglave and the rats from Knin" (El flautista de Čavoglave y las ratas de Knin). El video era una versión editada del dibujo animado de Disney "El flautista de Hamelín". Duraba dos minutos y diez segundos, y tenía una voz en off en croata superpuesta con la palabra "pretjerivač", que hacía referencia a la plataforma online croata del mismo nombre.

En el video, aparecía una ciudad infestada de ratas. Mientras que la ciudad del dibujo animado original de Disney se llama "Hamelín", la ciudad del video editado llevaba el nombre de la ciudad croata de "Knin". Al comienzo del video, un narrador describía cómo las ratas y los seres humanos habían vivido en la ciudad real de Knin durante muchos años. El narrador continuaba relatando que las ratas querían vivir en un "país exclusivo de ratas", así que empezaron a amenazar y a perseguir a las personas que habitaban la ciudad. Luego, explicaba que, cuando las ratas quedaron al mando de la ciudad, apareció un flautista del pueblo croata de Čavoglave. En un principio, las ratas no tomaron en serio al flautista y continuaron con la "gran embestida de las ratas". Pero, cuando el flautista empezó a tocar una melodía con su "flauta mágica", las ratas, cautivadas por la melodía, comenzaron a cantar "su canción favorita" y siguieron al flautista que las llevó fuera de la ciudad. Meta tradujo la letra de la canción que cantaban las ratas de la siguiente manera: "What is that thing shining on Dinara, Dujić's cockade on his head [...] Freedom will rise from Dinara, it will be brought by Momčilo the warlord" (¿Qué es lo que brilla en Dinara? La escarapela de Dujić en su cabeza [...] La libertad emergerá de Dinara y la traerá el comandante Momčilo). Luego, el video mostraba a las personas de la ciudad cerrando el portón detrás del flautista y de las ratas. El video terminaba cuando el flautista agrupaba a las ratas en un tractor que desaparecía. El narrador concluía que, una vez que el flautista atrajo a todas las ratas al "tractor mágico", las ratas "desaparecieron para siempre de estas tierras" y "todos vivieron felices para siempre".

El siguiente contexto histórico fáctico es pertinente para la decisión del Consejo. Croacia declaró su independencia de la República Federal Socialista de Yugoslavia el 25 de junio de 1991. La parte restante del Estado de Yugoslavia (que luego se llamaría República Federal de Yugoslavia), conformada principalmente por la etnia serbia, aunque también había muchos grupos étnicos minoritarios, incluidos los croatas, usó sus fuerzas armadas para intentar evitar la secesión. La guerra consiguiente, que duró hasta 1995, tuvo consecuencias extremadamente brutales para ambas partes, incluido el desalojo forzoso de más de 200.000 personas de etnia serbia de Croacia (informe de Human Rights Watch, Croacia, agosto de 1996). El grupo minoritario de la etnia serbia que residía en Croacia, con el apoyo del Ejército Popular Yugoslavo, se opuso a la independencia croata y, entre otras medidas, estableció una entidad similar a un Estado conocida como República Serbia de Krajina (RSK). Knin se convirtió en la capital de RSK. Durante este período, se expulsó a muchos croatas de Knin. En 1995, las Fuerzas Armadas de Croacia volvieron a ocupar Knin en una operación militar llamada "Operación Tormenta". Esta fue la última batalla sustancial de la guerra. Debido a que algunos serbios huyeron en tractores, las referencias a los tractores pueden usarse para humillar y amenazar a los serbios.

Čavoglave es un pueblo de Croacia, cerca de Knin, conocido como el lugar de nacimiento del compositor y vocalista líder de la banda Thompson. La banda croata se hizo popular durante la Guerra de la Independencia de Croacia por su canción antiserbia "Bojna Čavoglave", que sigue estando disponible online. En la canción, que se agregó al video y tiene imágenes violentas, se celebra la recuperación de Knin durante la Operación Tormenta. Al flautista que condujo a las ratas fuera de Knin en el dibujo animado se lo identificó como el "flautista de Čavoglave". La melodía y la letra que las ratas del dibujo animado cantaban también tenían significados específicos. La letra proviene de una canción llamada "What is that thing that shines above Dinara" (¿Qué es lo que brilla en Dinara?), que conmemora el pasado serbio y a Momčilo Dujić, un sacerdote ortodoxo serbio que fue líder de las fuerzas de resistencia serbias durante la Segunda Guerra Mundial.

La página que compartió el contenido tiene más de 50.000 seguidores. El contenido tuvo más de 380.000 reproducciones, se compartió más de 540 veces y recibió más de 2.400 reacciones y más de 1.200 comentarios. La mayor parte de los usuarios que reaccionaron al contenido, que lo comentaron o que lo compartieron tenían cuentas en Croacia. Entre los comentarios en croata, hubo enunciados traducidos por Meta del siguiente modo: "Hate is a disease" (El odio es una enfermedad) y "Are you thinking how much damage you are doing with this and similar stupidities to your Croatian people who live in Serbia?" (¿Se dan cuenta de todo el daño que causan con esta y otras estupideces similares a los croatas que viven en Serbia?).

Los usuarios reportaron el contenido 397 veces, pero Meta no lo eliminó. Entre los usuarios que reportaron la publicación, 362 lo hicieron por lenguaje que incita al odio. Varios usuarios apelaron la decisión de conservar el contenido ante el Consejo. Esta decisión se basa en la apelación que uno de esos usuarios presentó, quien, aparentemente, tiene su cuenta en Serbia. Un sistema automatizado rechazó el reporte del usuario de modo automático. Este sistema resuelve reportes de casos que revisores de Meta ya examinaron y consideraron no infractores una determinada cantidad de veces, a fin de no volver a revisar el mismo contenido. Varios revisores evaluaron el contenido de este caso como no infractor antes de que se accionara la decisión automática. Es decir, a pesar de que un sistema automatizado revisó el reporte del usuario que generó esta apelación, reportes anteriores del mismo contenido se sometieron a revisiones manuales, en las que se decidió que el contenido no era infractor.

Después de que el usuario que reportó el contenido apelara la decisión de Meta de no tomar ninguna medida ante el Consejo, se realizó otra revisión manual en virtud de la apelación y se determinó nuevamente que el contenido no infringía las políticas de Meta. Meta agregó que, en total, unos 40 revisores determinaron que el contenido no era infractor y que ningún revisor escaló el contenido. La mayoría de estas revisiones manuales se llevaron a cabo en la etapa correspondiente a la apelación. Meta agregó que todos los revisores que evaluaron el contenido hablaban croata.

Cuando el Consejo asesor de contenido incluyó este caso en la preselección que envió a Meta para confirmar la elegibilidad desde el punto de vista legal para llevar a cabo una revisión completa, Meta no cambió la evaluación que había realizado del contenido (suele hacerlo en esta etapa). A fines de enero de 2022, cuando el Consejo designó que el caso se sometiera a una revisión completa, el equipo de políticas de contenido de Meta volvió a analizarlo. En ese punto, Meta determinó que la publicación que incluía el dibujo animado de Knin no infringía la letra de la política sobre lenguaje que incita al odio, pero que sí infringía su espíritu, por lo que decidió eliminarla de Facebook. Meta explicó que una decisión basada en el espíritu de la política se toma cuando, según la sección de las bases de la política correspondiente a una de las normas comunitarias, es claro que con la política se pretende abordar una situación dada que el texto de la política en sí no aborda directamente. En dichas circunstancias, podemos, de todos modos, eliminar el contenido mediante una decisión basada en el espíritu de la política. Más tarde, al esbozar sus fundamentos para presentar al Consejo, Meta cambió de idea nuevamente y, esta vez, concluyó que la publicación infringía la letra de la política sobre lenguaje que incita al odio y que todas las revisiones anteriores estaban equivocadas.

De acuerdo con Meta, a los 397 usuarios que reportaron el contenido solo se les informó sobre las resoluciones iniciales de Meta, según las cuales el contenido no infringía las políticas de Meta. Nunca se les notificó que luego Meta cambió su decisión y eliminó el contenido. Meta explicó que, debido a limitaciones técnicas y de recursos, no notificaba a los usuarios cuando el contenido reportado se evaluaba inicialmente como no infractor y se conservaba, y más tarde, en otra evaluación, se determinaba que era infractor y se lo eliminaba.

3. Autoridad y alcance del Consejo asesor de contenido

El Consejo tiene la autoridad para revisar la decisión de Meta tras la apelación del usuario que reportó el contenido que posteriormente se conservó en la plataforma (artículo 2, sección 1, del acta constitutiva; Artículo 3, sección 1, de los estatutos). El Consejo puede mantener o revertir la decisión de Meta (Artículo 3, sección 5, del acta constitutiva), y la decisión que tome será vinculante para la empresa (Artículo 4 del acta constitutiva). Meta también debe evaluar la viabilidad de aplicar su decisión con respecto a contenido idéntico cuyo contexto sea similar (Artículo 4 del acta constitutiva). Las decisiones del Consejo podrían incluir declaraciones de asesoramiento normativo con recomendaciones no vinculantes a las que Meta debe responder (Artículo 3, sección 4, Artículo 4 del acta constitutiva).

4. Fuentes de autoridad

El Consejo asesor de contenido consideró las siguientes fuentes de autoridad:

I. Decisiones del Consejo asesor de contenido

Algunas de las decisiones del Consejo asesor de contenido más relevantes son las siguientes:

  • Decisión del caso 2021-002-FB-UA ("Zwarte Piet"): en este caso, la mayoría de los miembros del Consejo destacaron que moderar el contenido con el objetivo de abordar los daños acumulativos que ocasiona el lenguaje que incita al odio, incluso cuando la expresión no incita a la violencia o la discriminación directamente, puede ser coherente con las responsabilidades de Facebook con los derechos humanos en determinadas circunstancias. El Consejo también precisó que si se hubiera intervenido de un modo más moderado, por ejemplo, con etiquetas, pantallas de advertencia u otras medidas para reducir la difusión, no habría habido una protección adecuada contra los efectos acumulativos que supone permitir contenido de esta naturaleza en la plataforma.
  • Decisión del caso 2020-003-FB-UA ("Armenios en Azerbaiyán"): en el contexto de lenguaje que hacía referencia a un grupo sobre la base de la nacionalidad durante una época de conflicto, el Consejo destacó que si se permite su publicación, la acumulación de este tipo de contenido puede llegar a generar un entorno donde es más probable que se lleven a cabo actos de discriminación y violencia.
  • Decisión del caso 2021-011-FB-UA ("Insultos de Sudáfrica"): el Consejo definió que es coherente con las responsabilidades de Meta respecto de los derechos humanos prohibir determinadas expresiones discriminatorias, incluso sin la necesidad de que la expresión en cuestión incite a actos violentos o discriminatorios.

II. Políticas de contenido de Meta:

En las bases de la política de la norma comunitaria sobre lenguaje que incita al odio de Facebook, se afirma que no se permite dicho lenguaje en la plataforma porque crea un entorno de intimidación y exclusión, y en algunos casos, puede incitar a la violencia fuera de internet. En la norma comunitaria, se define el lenguaje que incita al odio como un ataque directo contra personas sobre la base de características protegidas, incluida la raza, la etnia o la nacionalidad. Meta prohíbe el contenido que se refiere a una persona o a un grupo de personas en función de características protegidas mediante lenguaje o imágenes deshumanizantes en forma de comparaciones, generalizaciones o afirmaciones basadas en comportamientos no aptas (de forma escrita o visual) en relación con lo siguiente: animales que culturalmente se perciben como inferiores desde el punto de vista intelectual o físico. Meta también prohíbe la exclusión en forma de incitaciones, declaraciones de intención, defensa o apoyo, o declaraciones de aspiraciones o condiciones, lo que se define como exclusión explícita, es decir, actos como expulsar a determinados grupos o indicarles que no tienen permiso.

En las bases de la política correspondientes a la norma comunitaria sobre violencia e incitación de Facebook, se indica que Meta procura evitar que se produzcan daños fuera de internet que puedan estar relacionados con Facebook y que restringe la libertad de expresión cuando cree que existe riesgo real de que se produzcan daños físicos o amenazas directas a la seguridad pública. Específicamente, Meta prohíbe las declaraciones cifradas en las que el método para infligir violencia o daños no se expresa claramente, pero existe una amenaza velada o implícita, incluidos los casos en que el contenido tiene referencias a incidentes de violencia históricos.

III. Valores de Meta:

Los valores de Meta se detallan en la introducción a las Normas comunitarias de Facebook. El valor de "expresión" se describe como fundamental.

  • Nuestras Normas comunitarias siempre apuntaron a crear un espacio donde las personas puedan expresarse y dar a conocer su opinión. Queremos que las personas puedan hablar abiertamente sobre los temas que les importan, incluso si otros no están de acuerdo o los consideran objetables.

Meta limita la "expresión" en favor de otros cuatro valores, y dos de ellos son relevantes en este caso:

  • "Seguridad": nos comprometemos a hacer de Facebook un lugar seguro. La expresión que supone una amenaza para las personas puede intimidar, excluir o silenciar a otros, por lo que no está permitida en Facebook.
  • "Dignidad": creemos que todas las personas son dignas y tienen los mismos derechos. Esperamos que las personas respeten la dignidad de los demás y no los acosen ni los degraden.

IV. Normas internacionales sobre derechos humanos

Los Principios Rectores sobre las Empresas y los Derechos Humanos de la ONU (UNGP), respaldados por el Consejo de Derechos Humanos de la ONU en 2011, establecen un marco voluntario que encuadra las responsabilidades de las empresas relacionadas con estos derechos. En 2021, Meta anunció su Política corporativa de derechos humanos, con la que reafirmó su compromiso con el respeto de los derechos humanos de conformidad con los UNGP. El análisis del Consejo sobre las responsabilidades de Meta respecto de los derechos humanos en este caso se basó en las siguientes normas de derechos humanos:

  • Libertad de expresión: Artículo 19 del Pacto Internacional de Derechos Civiles y Políticos (ICCPR); observación general n.º 34 del Comité de Derechos Humanos (2011); informe del Relator Especial de la ONU sobre lenguaje que incita al odio, A/74/486 (2019); informe del Relator Especial de la ONU sobre moderación de contenido online, A/HRC/38/35 (2018).
  • Igualdad y no discriminación: Artículo 2, párrafo 1, y Artículo 26 del ICCPR; Artículos 2 y 5 de la Convención Internacional sobre la Eliminación de todas las Formas de Discriminación Racial (ICERD); recomendación general n.º 35, Comité para la Eliminación de la Discriminación Racial (CERD/C/GC/35, 2013).
  • Responsabilidades de las empresas: informe "Empresas, derechos humanos y regiones afectadas por conflictos: hacia el aumento de las medidas" del Grupo de Trabajo sobre la cuestión de los derechos humanos y las empresas transnacionales y otras empresas de la ONU (A/75/212).

5. Respuestas del usuario

El usuario que reportó el contenido, y presentó la apelación al Consejo en croata, afirmó que el flautista simboliza al Ejército de Croacia, que en 1995 lideró la expulsión de los serbios que vivían en Croacia, representados en este caso como ratas. De acuerdo con este usuario, Meta no evaluó el video de forma adecuada. Expresó que el contenido representa lenguaje que incita al odio relacionado con la etnia y que fomenta el odio basado en la etnia y la religión en los Balcanes. También indicó que este y muchos otros portales croatas durante algún tiempo se dedicaron a alimentar la intolerancia étnica entre dos pueblos que aún no llegaron a sanar por completo las heridas de la guerra a la que se hace referencia en el video.

Cuando se le notificó al usuario que había publicado el contenido que el Consejo había seleccionado este caso, se lo invitó a proporcionar una declaración. Uno de los administradores respondió que solo era socio comercial de la página.

6. Respuestas de Meta

En los fundamentos que Meta proporcionó al Consejo, la empresa describió el proceso de revisión que llevó a cabo para tomar esta decisión, pero se centró en explicar los motivos por los que la eliminación final del contenido estaba justificada conforme a la política sobre lenguaje que incita al odio. Luego de reiterados reportes, numerosos revisores definieron que el contenido no era infractor. La empresa no cambió de parecer hasta que el Consejo asesor de contenido seleccionó el caso. Luego, Meta determinó que el contenido no infringía la letra de la política sobre lenguaje que incita al odio, sino que tomó la decisión de eliminar el contenido con base en el "espíritu de la política". En este punto, el Consejo le informó a Meta que había seleccionado el contenido para que se le realizara una revisión completa. Luego, Meta volvió a cambiar de parecer y, esta vez, concluyó que el contenido infringía la letra de la política. Específicamente, indicó que infringía la parte de la política en que se prohíbe el contenido que se refiere a miembros de un grupo protegido e incluye lenguaje o imágenes deshumanizantes en forma de comparaciones, generalizaciones o afirmaciones basadas en comportamientos no aptas (de forma escrita o visual) en relación con animales que culturalmente se perciben como inferiores desde el punto de vista intelectual o físico. En esta resolución revisada, Meta señaló que el contenido era infractor porque incluía un ataque directo contra los serbios que vivían en Knin al compararlos con ratas.

Meta explicó que su resolución anterior, según la cual el contenido solo infringía el "espíritu" de la política sobre lenguaje que incita al odio, se había basado en que, supuestamente, el texto de la política no prohibía ataques contra grupos sobre la base de una característica protegida que se identificara de forma implícita. Luego de una nueva revisión de este razonamiento, Meta concluyó que es más preciso decir que el texto de la política también prohíbe los ataques que identifican de forma implícita una característica protegida.

Meta alegó que la eliminación final fue coherente con sus valores de "dignidad" y "seguridad", que en este caso tuvieron más peso que el valor de "expresión". De acuerdo con Meta, las comparaciones deshumanizantes de personas con animales que culturalmente se perciben como inferiores podrían contribuir al trato desfavorable y perjudicial en la integración social, la política pública y otros procesos con impacto social en el nivel institucional o cultural a través de discriminación implícita o explícita, o violencia explícita. Meta agregó que, dados los antecedentes de tensiones relacionadas con la etnia y discriminación permanente contra la etnia serbia en Croacia, el video podría contribuir a un riesgo de daño fuera de internet. En este sentido, Meta hizo referencia a la decisión que tomó el Consejo en el caso de "Zwarte Piet".

Meta también señaló que la eliminación fue coherente con las normas internacionales de derechos humanos. Según Meta, se podía acceder fácilmente a su política en el sitio web del Centro de transparencia de Meta. Además, la decisión de eliminar el contenido fue legítima para proteger los derechos de otras personas contra la discriminación. Por último, Meta alegó que su decisión de eliminar el contenido fue necesaria y proporcionada porque el contenido no les permite a los usuarios conectarse libremente con los demás sin sentir que se los ataca a raíz de su identidad y porque no había medidas menos invasivas disponibles para limitar este contenido que no fueran la eliminación.

El Consejo también le preguntó Meta si este contenido infringía la norma comunitaria sobre violencia e incitación. Meta respondió que no porque el contenido no incluía amenazas o declaraciones de intención de cometer actos violentos contra la etnia serbia y que la exclusión o expulsión sin violencia no constituye una amenaza violenta. De acuerdo con Meta, para que el contenido se eliminara conforme a esta política, se hubiera necesitado una conexión más evidente que vinculara las ratas del video con el desalojo violento y forzoso de los serbios.

7. Comentarios del público

El Consejo asesor de contenido recibió dos comentarios del público relacionados con este caso. Uno de los comentarios provino de Asia-Pacífico y Oceanía, y el otro de Europa. Los comentarios enviados se referían a los siguientes temas: si el contenido debía conservarse en la plataforma, si la comparación de los serbios con ratas infringía la política sobre lenguaje que incita al odio de Meta, y sugerencias sobre cómo aplicar las reglas de contenido en Facebook de forma más eficaz.

Si quieres leer los comentarios del público que se enviaron en relación con este caso, haz clic aquí.

8. Análisis del Consejo asesor de contenido

El Consejo analizó la pregunta de si este contenido debería restaurarse tomando como base tres perspectivas: las políticas de contenido de Meta, los valores de la empresa y sus responsabilidades con los derechos humanos.

8.1 Cumplimiento de las políticas de contenido de Meta

El Consejo determinó que el contenido de este caso infringe la norma comunitaria sobre lenguaje que incita al odio. Además, infringe la norma sobre violencia e incitación.

Lenguaje que incita al odio

La política sobre lenguaje que incita al odio prohíbe los ataques contra personas sobre la base de características protegidas, incluida la etnia. En este caso, el grupo atacado son las personas de etnia serbia que viven en Croacia, específicamente, en Knin, y se hizo referencia a ellas sobre la base de su etnia. Si bien el texto y el video no mencionan a la etnia serbia como tal, el contenido del video en su contexto histórico, el reemplazo del nombre "Hamelín" por "Knin", la letra de la canción que se usó en el video, la identificación del flautista con Čavoglave y, por lo tanto, con la canción de Thompson sobre la Operación Tormenta, y el uso de la imagen del tractor son referencias inequívocas a las personas serbias que residen en Knin. Se describe a los serbios como ratas que deben eliminarse de la ciudad. De acuerdo con los comentarios de la publicación y con los muchos reportes de usuarios, esta conexión era sumamente evidente para las personas que veían el contenido.

El contenido incluye dos "ataques" conforme a la definición de ese término en la política sobre lenguaje que incita al odio. En primer lugar, en la política sobre lenguaje que incita al odio se prohíben las comparaciones con animales que culturalmente se perciben como inferiores desde el punto de vista físico o intelectual. En las Normas de implementación internas de Meta, que son pautas que se proporcionan a los revisores de contenido, se especifica que las comparaciones con "plagas" están prohibidas conforme a esta política. En el video se incluye una comparación visual de los serbios con ratas. Esto constituye una comparación deshumanizante que infringe la política sobre lenguaje que incita al odio y las Normas de implementación internas.

El Consejo determinó que la política sobre lenguaje que incita al odio de Meta prohíbe las comparaciones implícitas como las que aparecen en este contenido.

Meta explicó que las decisiones anteriores de no eliminar el contenido se habían basadoen que, supuestamente, la letra de la política no aplicaba a las referencias implícitas a características protegidas. El Consejo no está de acuerdo con esta suposición. La letra de la política prohíbe los ataques basados en características protegidas, independientemente de si las referencias a esas características son explícitas o implícitas. En la norma sobre lenguaje que incita al odio, se indica que las comparaciones pueden aparecer de forma escrita o visual, como un video, y el texto de la norma no exige que las referencias a los grupos atacados sean explícitas. Si bien esta lectura de la política es coherente con su texto y con sus bases, en la política no se formula con claridad que las referencias implícitas también están incluidas.

En segundo lugar, el contenido apoya la expulsión de los serbios de Knin. En las bases de la norma sobre lenguaje que incita al odio, se define un ataque como lenguaje violento o deshumanizante, estereotipos dañinos, declaraciones de inferioridad, expresiones de desprecio, repulsión o rechazo, insultos, o incitaciones a la exclusión o segregación. De acuerdo con la parte de la norma comunitaria sobre lenguaje que incita al odio aplicada en este caso, "exclusión explícita" significa apoyar cosas como expulsar a determinados grupos o indicarles que no tienen permiso. En el video de este caso, se celebraba un incidente histórico en el que se expulsó forzosamente a la etnia serbia de Knin, y en el contenido se señaló que los habitantes de la ciudad estuvieron mucho mejor después de que se fueron las ratas. Este video apoya la depuración étnica, por lo que infringe la norma sobre lenguaje que incita al odio.

Violencia e incitación

La política sobre violencia e incitación prohíbe el contenido que amenaza a otros al hacer referencia a incidentes de violencia históricos reconocidos. El texto y el video incluían referencias a la "Operación Tormenta", es decir, la operación militar de 1995 que, según consta, tuvo como consecuencia el desalojo, la ejecución y la desaparición de ciudadanos de la etnia serbia. En el video, la ciudad se llamaba Knin y las ratas huyeron en tractores: ambas referencias a la Operación Tormenta. Según los comentarios de la publicación, no había duda de que estas eran referencias evidentes a la etnia serbia y croata.

El video podría generar un ambiente en el que las personas se sientan justificadas a atacar a la etnia serbia. La publicación se elaboró para recordarles a las personas un conflicto pasado y para reavivar un conflicto étnico, con el objetivo de deshacerse de la pequeña minoría de etnia serbia que aún permanece en la zona de Knin (sobre revisionismo histórico y nacionalismo radical en Croacia, consulta "Fifth Opinion on Croatia" [2021] del Comité Asesor del Consejo de Europa para el Convenio marco para la protección de las minorías nacionales; sobre el lenguaje que incita al odio online contra la etnia serbia, consulta el párrafo 30 del informe de la Comisión Europea contra el Racismo y la Intolerancia de 2018). De acuerdo con la política de Facebook, cuando una amenaza está "velada", se requiere más contexto para asegurar el cumplimiento. Dicho contexto está presente en esta publicación.

El Consejo disintió de la evaluación de Meta en la que la empresa afirmó que el contenido no incluía amenazas o declaraciones de intención de cometer actos violentos, y que las incitaciones a la exclusión o expulsión sin que se especifiquen los medios de violencia no pueden constituir una amenaza violenta. La expulsión forzosa de personas es un acto de violencia. El uso de la historia del Flautista de Hamelín no promueve la eliminación pacífica, sino que constituye una referencia clara a incidentes de violencia históricos conocidos, en particular, mediante la imagen del tractor.

Como se evidenció a través de los usuarios que reportaron esta publicación y los comentarios del público, ante los ojos de los observadores, las ratas del dibujo animado representaban a la población de la etnia serbia de la zona de Knin, incluidas aquellas personas que permanecieron allí. El dibujo animado sin duda celebra su eliminación. En el contexto de la historia del Flautista de Hamelín, se persuade a las ratas para que dejen Knin con una flauta mágica, en lugar de obligarlas por la fuerza, pero la referencia al tractor alude a la eliminación forzosa real que se conoce ampliamente en relación con el país. El tractor es una metáfora, pero es posible realizar amenazas mediante metáforas con la misma eficacia que se realizan a través de afirmaciones directas.

Proceso de revisión de Meta

El Consejo tiene un interés particular en averiguar por qué la empresa concluyó que el contenido no era infractor tantas veces. Hubiera sido útil que Meta se enfocara en esto desde el principio, en lugar de hacer hincapié en por qué su decisión revisada de eliminar la publicación era correcta. Si la empresa quiere reducir la cantidad de contenido infractor en su plataforma, debe aprovechar la selección de casos de errores del sistema de aplicación de políticas del Consejo como una oportunidad para analizar los motivos de sus equivocaciones.

El Consejo destacó la complejidad que implica evaluar casos como este y la dificultad que supone aplicar las Normas comunitarias de Facebook teniendo en cuenta el contexto, en especial, si se considera el volumen de contenido que los revisores evalúan cada día. Debido a estos desafíos, el Consejo cree que es importante que Meta mejore las instrucciones que proporciona a los revisores, así como las secuencias y procesos necesarios para el escalamiento. Entendemos por "escalamiento" el acto por el que revisores envían un caso a equipos especializados de Meta, que luego evalúan el contenido.

De acuerdo con las bases que Meta proporciona para evitar la subjetividad y lograr una mayor coherencia en el cumplimiento de normas, se les indica a los revisores que apliquen la letra de la política y no que evalúan la intención. Si bien la objetividad y la coherencia son objetivos legítimos, al Consejo le preocupa que las instrucciones que se proporcionan a los revisores, al parecer, tuvieron como consecuencia que unos 40 revisores calificaran de forma incorrecta contenido como no infractor y que ningún revisor llegara a la decisión que Meta finalmente creyó ser la correcta, que es la eliminación.

Se supone que la posibilidad de escalar contenido conlleva mejores resultados en casos difíciles. En la revisión de la etapa de escalamiento, se puede evaluar la intención, y hay mejores herramientas disponibles para considerar el contexto. Este contenido se reportó 397 veces, tuvo un alcance muy grande, generó cuestionamientos relacionados con la política, exigía contexto para su evaluación e involucró material de una plataforma online croata que, de acuerdo con expertos a quienes el Consejo consultó, anteriormente fue asunto de debate público y parlamentario en lo que respecta a la libertad de expresión en un contexto de sátira. No obstante, ningún revisor escaló el contenido. Meta le indicó al Consejo que anima a los revisores a escalar contenido que es tendencia y a hacerlo cuando tienen dudas. Meta definió el contenido que es tendencia como aquel que se repite muchas veces junto con el tipo de acción asociada con el contenido (p. ej., daño potencial o riesgo para la comunidad). El hecho de que no se haya escalado el contenido antes de la selección del Consejo indica que los procesos de escalamiento no cuentan con la claridad y la eficacia necesarias. El no haber realizado un escalamiento fue una falla sistemática.

Un factor que quizá haya impedido el escalamiento del contenido en este caso es que Meta no proporciona a los revisores, según la medida de la necesidad, límites claros para determinar cuándo el contenido es "tendencia". Otro factor que pudo haber contribuido a que los revisores no identificaran el contenido como "tendencia", y por lo tanto no lo escalaran, es el sistema de revisión automatizado que Meta usó en este caso. Meta explicó que, si luego de un período dado, según una cierta cantidad de decisiones tomadas se determina que el contenido no es infractor, se comienza a usar automatización para evitar volver a revisar el mismo contenido.

Al Consejo le preocupan los procesos de escalamiento de Meta, y señaló que la empresa debe proporcionar más información sobre estos. Debe examinar si se necesitan otros procesos para escalar contenido y si el sistema automatizado que se usó en este caso impide que se escale el contenido que es viral y que se reporta con frecuencia.

El caso también puso de manifiesto fallas en el proceso de reporte y apelación de Meta. Al Consejo le preocupa que Meta no notifique a los usuarios cuando la empresa cambia su decisión en un caso. Si determinado contenido inicialmente se evalúa como no infractor y se conserva en la plataforma, pero más tarde se vuelve a evaluar y se determina que es infractor y se elimina, se debe comunicar la nueva decisión al usuario que lo reportó.

8.2 Cumplimiento de los valores de Meta

El Consejo determinó que la eliminación del contenido es coherente con los valores de "expresión", "dignidad" y "seguridad" de Meta.

El Consejo reconoce que la "expresión" es un valor de suma importancia para Meta, pero la empresa admite que se limite dicho valor a fin de prevenir abusos y otras formas de daños virtuales y en la vida real. Aquellos a quienes se haga referencia mediante estereotipos negativos y deshumanizantes también podrían ver su "expresión" afectada, ya que su uso podría tener el poder de silenciarlos e inhibir su participación en Facebook e Instagram. Si permite que se compartan publicaciones de esa índole, Meta podría contribuir a un entorno discriminatorio.

El Consejo considera que los valores de "dignidad" y "seguridad" tienen una importancia sustitutiva en este caso. Respecto de esto, el Consejo señaló el aumento constante de casos de violencia física contra las personas de etnia serbia que viven en Croacia ("Fifth Opinion on Croatia" del Consejo de Europa [2021], párrafo 116). Esto justificó la decisión de moderar la "expresión" del usuario en favor de la "expresión", la "dignidad" y la "seguridad" de otras personas.

8.3 Cumplimiento de las responsabilidades de Meta con los derechos humanos

El Consejo concluyó que la eliminación de la publicación de la plataforma es coherente con las responsabilidades de Meta como empresa con los derechos humanos. Meta se comprometió a respetar los derechos humanos de conformidad con los Principios Rectores sobre las Empresas y los Derechos Humanos de la ONU (UNGP). En su Política corporativa de derechos humanos, se dispone que esto incluye el Pacto Internacional de Derechos Civiles y Políticos (ICCPR).

Libertad de expresión (Artículo 19 del ICCPR)

El alcance del derecho a la libertad de expresión es amplio. En el párrafo 2 del Artículo 19 del ICCPR, se concede mayor protección a la libertad de expresión en cuanto a temas políticos y debates sobre afirmaciones históricas (observación general n.º 34, párrafos 20 y 49). El Artículo 19 del ICCPR exige que, si un Estado impone restricciones sobre la libertad de expresión, estas deben cumplir los requisitos de legalidad, fin legítimo y necesidad y proporcionalidad (Artículo 19, párrafo 3, del ICCPR). El Relator Especial de la ONU sobre la libertad de expresión animó a las empresas de medios sociales a basarse en estos principios al moderar la expresión en el entorno online.

I. Legalidad (claridad y accesibilidad de las reglas)

El principio de legalidad exige que cualquier regla que los Estados usen para limitar la expresión sea clara y accesible (observación general n.º 34, párrafo 25). En la norma sobre legalidad, también se exige que las reglas que restringen la expresión no pueden conferir una discrecionalidad absoluta para restringir la libertad de expresión a los encargados de su implementación y proporcionen suficientes pautas para aquellos que están a cargo de su implementación, de manera que puedan definir qué tipos de expresión pueden restringirse de forma adecuada y cuáles no (ibidem). Las personas deben contar con suficiente información para saber en qué casos es posible que se apliquen restricciones a su libertad de expresión y de qué forma, a fin de poder ajustar su comportamiento según la situación. Traducido al marco de las reglas de contenido de Meta para Facebook, los usuarios deben ser capaces de comprender qué está permitido y qué está prohibido, y los revisores deben contar con pautas claras respecto de cómo aplicar estas normas.

El Consejo determinó que la norma comunitaria sobre lenguaje que incita al odio prohíbe hacer referencia implícitamente a grupos sobre la base de características protegidas. Esto es válido tanto para las comparaciones deshumanizantes con animales como para las declaraciones en favor o apoyo de la exclusión. Los errores que ocurrieron en este caso demuestran que el texto de la política y las pautas que se proporcionan a los revisores no son lo suficientemente claros.

En el caso, unos 40 revisores decidieron que el contenido no infringía la norma comunitaria sobre lenguaje que incita al odio. Antes de la resolución final de Meta, ningún revisor había determinado que el contenido fuera infractor. Esto indica que los revisores interpretaron de manera sistemática que, conforme a la política, era necesario detectar una comparación explícita entre la etnia serbia y las ratas para poder determinar que existía una infracción. La empresa primero le informó al Consejo que el espíritu de la política prohibía las comparaciones implícitas con los animales y, más tarde, que la letra de la política abarcaba las comparaciones implícitas. La confusión a lo largo de este proceso pone de manifiesto que se necesita mayor claridad en la política y en las pautas para su implementación.

II. Fin legítimo

El Consejo previamente reconoció que las normas comunitarias sobre lenguaje que incita al odio y violencia e incitación procuran el fin legítimo de proteger los derechos de los demás. Esos derechos incluyen los derechos a la igualdad y a la no discriminación (Artículo 2, párrafo 1, del ICCPR; Artículos 2 y 5 de la ICERD) y a ejercer su libertad de expresión en la plataforma sin sufrir acoso ni amenazas (Artículo 19 del ICCPR).

III. Necesidad y proporcionalidad

Para que las restricciones que se apliquen a la libertad de expresión se consideren necesarias y proporcionadas, esas restricciones deben ser adecuadas a fin de cumplir su función de protección, deben ser el instrumento menos invasivo entre aquellos que permitan cumplir dicha función, deben ser proporcionadas al interés que se busca proteger (observación general n.º 34, párrafo 34). El Relator Especial sobre la libertad de expresión también destacó que, en los medios sociales, la magnitud y la complejidad de la lucha contra las expresiones de odio plantean desafíos a largo plazo (A/HRC/38/35, párrafo 28). No obstante, de acuerdo con el Relator Especial, las empresas deben demostrar la necesidad y proporcionalidad de cualquier medida que tomen respecto de cierto contenido (como eliminaciones o suspensiones de cuentas). Además, se les exige a las empresas evaluar el mismo tipo de cuestiones sobre la protección del derecho a la libertad de expresión de sus usuarios (ibidem, párrafo 41).

La norma comunitaria sobre lenguaje que incita al odio de Facebook prohíbe algunas formas específicas de expresiones discriminatorias, como la comparación con animales y la incitación a la exclusión, sin necesidad de que la expresión en cuestión incite a actos violentos o discriminatorios. El Consejo, con base en las pautas del Relator Especial de la ONU, previamente explicó que, a pesar de que esas prohibiciones generarían controversia si un Gobierno las impusiera en un nivel más amplio, en particular, si se aplicaran a través de sanciones penales o civiles, Facebook puede regular expresiones como esas si demuestra la necesidad y la proporcionalidad de la medida (consulta la decisión sobre "insultos de Sudáfrica").

El contenido de este caso, que compara la etnia serbia con ratas y celebra hechos pasados de tratos discriminatorios, es deshumanizante y ofensivo. El Consejo hubiera llegado a una conclusión similar sobre cualquier contenido que hiciera referencia a un grupo étnico de este modo, en especial, en una región con antecedentes recientes de conflictos étnicos. El Consejo indicó que la eliminación de este contenido de la plataforma fue necesaria para abordar los graves daños que plantea el lenguaje que incita al odio referido a la etnia.

El Consejo consideró los factores del Plan de Acción de Rabat (Plan de Acción de Rabat, OHCHR, A/HRC/22/17/Anexo 4, 2013) como guía para su análisis, sin perder de vista las diferencias entre las obligaciones legales internacionales de los Estados y las responsabilidades respecto de los derechos humanos de las empresas .Meta tiene la responsabilidad de intentar prevenir o mitigar las consecuencias negativas sobre los derechos humanos que guarden un vínculo directo con sus operaciones, productos o servicios (principio 13 de los UNGP). En su análisis, el Consejo hizo hincapié en el contexto social y político, la intención, el contenido y la forma del discurso, y la extensión de su difusión.

Respecto del contexto, se relaciona con una región en la que recientemente hubo conflictos étnicos y con el trasfondo de lenguaje que incita al odio e incidentes de discriminación online vinculados con grupos étnicos minoritarios que residen en Croacia (consulta el apartado sobre violencia e incitación de la sección 8.1). Procura incitar odio basado en la etnia, y esto podría contribuir a que las personas realicen acciones discriminatorias. La forma de la expresión y su enorme alcance también son importantes. Al video lo compartió un administrador de una página que, de acuerdo con informes de expertos que el Consejo recibió, es un portal de noticias de Croacia reconocido por su postura antiserbia. La forma del video con dibujos animados puede resultar especialmente dañina porque es muy atractiva. Tuvo un amplio alcance. Si bien alguna otra persona creó el video, es probable que la popularidad de la página (que tiene más de 50.000 seguidores) haya aumentado el alcance del video, en especial, porque incluye las reproducciones de la página y sus seguidores. El contenido tuvo más de 380.000 reproducciones, se compartió más de 540 veces y recibió más de 2.400 reacciones y más de 1.200 comentarios.

En la decisión sobre "insultos de Sudáfrica", el Consejo definió que es coherente con las responsabilidades de Meta respecto de los derechos humanos prohibir determinadas expresiones discriminatorias, incluso sin la necesidad de que la expresión en cuestión incite a actos violentos o discriminatorios. El Consejo señaló que el Artículo 20, párrafo 2, del ICCPR, según se interpreta en el Plan de Acción de Rabat, exige que exista un daño inminente para que se pueda justificar cualquier restricción a la libertad de expresión. El Consejo no cree que esta publicación pudiera generar un daño inminente. Sin embargo, Meta puede, de forma legítima, eliminar de Facebook las publicaciones que fomenten la violencia de un modo menos inmediato. Esto está justificado, ya que las responsabilidades de Meta como empresa con los derechos humanos son diferentes de las obligaciones de los Estados respecto de los derechos humanos. Meta puede aplicar normas menos estrictas a la hora de eliminar contenido de su plataforma, en comparación con aquellas que son válidas para los Estados que imponen sanciones penales o civiles.

En este caso, la representación de los serbios como ratas y la incitación a su exclusión, junto con las referencias a actos históricos de violencia, afectan los derechos a la igualdad y a la no discriminación de aquellos a quienes se hizo alusión. Esto justifica la eliminación de la publicación. Muchos miembros del Consejo también creyeron que el contenido perjudicó la libertad de expresión de otras personas que usan la plataforma, ya que contribuyó a la creación de un entorno en el que algunos usuarios pudieron sentirse amenazados.

El Consejo determinó que la eliminación del contenido de la plataforma es una medida necesaria y proporcionada. Si se hubiera intervenido de un modo más moderado, por ejemplo, con etiquetas, pantallas de advertencia u otras medidas para reducir la difusión, no habría habido una protección adecuada contra los efectos acumulativos que supone permitir contenido de esta naturaleza en la plataforma (un análisis similar está disponible en el caso sobre la"Representación de Zwarte Piet").

9. Decisión del Consejo asesor de contenido

El Consejo asesor de contenido anuló la decisión original de Meta de conservar el contenido y exigió que se eliminara la publicación.

10. Declaraciones de asesoramiento normativo

Política de contenido

1. Meta debe aclarar la norma comunitaria sobre lenguaje que incita al odio y las pautas provistas a los revisores, y explicar que la política prohíbe incluso las referencias implícitas a los grupos protegidos cuando hubiera una referencia razonablemente comprensible. El Consejo considerará que se implementó esta recomendación cuando Meta haya actualizado sus Normas comunitarias y las Normas de implementación interna para los revisores con esta revisión.

Aplicación

2. De acuerdo con el compromiso que Meta asumió tras el caso del cinturón de abalorios (2021-012-FB-UA), el Consejo recomendó a Meta notificar a todos los usuarios que reportaron cierto contenido cuando, en una revisión posterior, cambie su resolución inicial. Meta también debería divulgar los resultados de cualquier experimento en que evalúe la viabilidad de comunicar este cambio al público. El Consejo considerará que se implementó esta recomendación cuando Meta comparta con el Consejo información relativa a experimentos pertinentes y, en última instancia, la notificación sobre la actualización, y confirme que haya comenzado a realizarse en todos los idiomas.

* Nota de procedimiento:

La preparación de las decisiones del Consejo asesor de contenido está a cargo de paneles conformados por cinco miembros, quienes deben aprobarlas por mayoría. Las decisiones del Consejo no necesariamente representan las opiniones personales de todos los miembros.

En cuanto a la decisión del caso, se encargó una investigación independiente en nombre del Consejo. Un instituto de investigación independiente con sede en la Universidad de Gotemburgo y un equipo conformado por más de 50 científicos sociales de seis continentes, así como 3.200 expertos de diferentes países del mundo. El Consejo también recibió asesoramiento de Duco Advisors, una empresa asesora dedicada a la intersección de geopolítica, confianza, seguridad y tecnología. La empresa Lionbridge Technologies, LLC, con especialistas en más de 350 idiomas que trabajan en 5.000 ciudades diferentes, se encargó de las competencias en materia lingüística.

Volver a Decisiones de casos y opiniones consultivas sobre políticas