Confirmado
Comentarios de un político sobre cambios demográficos
12 de marzo de 2024
El Consejo asesor de contenido ratificó la decisión de Meta de mantener publicado un clip de video en el que el político francés Éric Zemmour debate los cambios demográficos en Europa y África.
Resumen
El Consejo asesor de contenido ratificó la decisión de Meta de mantener publicado un clip de video en el que el político francés Éric Zemmour debate los cambios demográficos en Europa y África. El contenido no infringe la norma comunitaria sobre lenguaje que incita al odio porque no hay un ataque directo en función de características protegidas, como raza, origen étnico o nacional. La mayoría en el Consejo afirma que conservar el contenido es coherente con las responsabilidades de Meta en materia de derechos humanos. Sin embargo, el Consejo recomienda que Meta aclare públicamente cómo distingue debates relacionados con la inmigración de lenguaje dañino, incluidas teorías conspirativas basadas en odio y ataques contra personas en función de su estatus migratorio.
Información sobre el caso
En julio de 2023, un usuario que administra la página oficial de Facebook de Éric Zemmour publicó un clip de video en el que el político francés debate los cambios demográficos en Europa y África. El clip es parte de una entrevista más extensa con el político. En el video, Zemmour expresa: "Desde el comienzo del siglo XX, hubo una explosión de la población en África". Continúa diciendo que, mientras que la población europea se mantuvo en la cifra más o menos estable de 400 millones, la población africana ascendió a 1.500 millones, "por lo que hubo un cambio en el equilibrio de poder". La descripción en francés de la publicación afirma que, en la década de 1900, "cuando había cuatro europeos por cada africano, [Europa] colonizó África", y ahora "hay cuatro africanos por cada europeo y África coloniza Europa". La página de Facebook de Zemmour tiene aproximadamente 300.000 seguidores, mientras que esta publicación se visualizó alrededor de 40.000 veces a enero de 2024.
Zemmour debió enfrentar diversos procedimientos judiciales, con más de una condena en Francia por incitar al odio racial y hacer comentarios raciales insultantes sobre los musulmanes, los africanos y las personas de la comunidad negra. Se postuló a la presidencia en 2022, pero no pasó de la primera vuelta. El eje de su campaña electoral es la teoría del gran reemplazo, que argumenta que la población blanca europea está siendo intencionalmente reemplazada tanto étnica como culturalmente por la inmigración y el crecimiento de comunidades minoritarias. Los expertos en lingüística mencionaron que la teoría y los términos asociados con ella "incitan al racismo, el odio y la violencia contra los inmigrantes y los europeos no blancos, y contra los musulmanes específicamente". El video de la publicación no menciona específicamente la teoría.
Dos usuarios reportaron el contenido por infringir la política de lenguaje que incita al odio de Meta, pero como no se les dio prioridad de revisión a los reportes en 48 horas, ambos se cerraron automáticamente. Los sistemas automatizados de Meta priorizan los informes conforme a la gravedad de la infracción prevista, la viralidad del contenido (cantidad de visualizaciones) y la probabilidad de que haya infracción. Uno de los usuarios apeló entonces ante Meta, tras lo cual los revisores de la empresa decidieron que no infringía las reglas de Meta. El usuario entonces apeló al Consejo.
Conclusiones principales
La mayoría en el Consejo concluye que el contenido no infringe la norma comunitaria sobre lenguaje que incita al odio de Meta. El clip de video incluye un ejemplo de expresión protegida (aunque controversial) de la opinión respecto de la inmigración, pero no incluye incitación a la violencia, ni tampoco emplea lenguaje deshumanizante o de odio contra grupos vulnerables. Si bien Zemmour fue procesado por usar lenguaje que incita al odio en el pasado y en el video se tocan temas que guardan semejanza con la teoría del gran reemplazo, estos hechos no justifican la eliminación de una publicación que no infringe las normas de Meta.
Para que hubiera constituido una infracción, la publicación debería haber incluido un "ataque directo", es decir, debería haber incitado específicamente a la "exclusión y segregación" de un grupo con "características protegidas". Como los comentarios de Zemmour no incluyen un ataque directo, y no hay una incitación explícita a excluir a un grupo de Europa, como tampoco una declaración sobre los africanos equivalente a un estereotipo dañino, una difamación u otro tipo de ataque directo, no infringen las reglas de lenguaje que incita al odio de Meta. Las bases de la política también dejan en claro que Meta permite "comentarios o críticas sobre políticas migratorias", aunque lo que no se dice públicamente es que la empresa permite la incitación a la exclusión cuando se debate este tipo de políticas.
No obstante, al Consejo le preocupa que Meta no considere a la población africana como un grupo con características protegidas, dado que las políticas de Meta y las leyes de derechos humanos internacionales valoran el origen nacional, la raza y la religión como características protegidas. Se menciona la población africana en el contenido y, en este video, se usa en representación de los africanos no blancos.
El Consejo también consideró la relevancia de la política de personas y organizaciones peligrosas para este caso. Sin embargo, la mayoría considera que la publicación no infringe esta política porque no hay suficientes elementos para revisarla como parte de una red de conspiración que induce a la violencia más general. Meta define estas redes como agentes no estatales que comparten la misma declaración de principios, promueven teorías no fundamentadas que afirman que los problemas sociales y políticos se deben a complots secretos de personas poderosas, y se vinculan directamente a un patrón de daño en la vida real.
Una minoría en el Consejo determinó que el enfoque de Meta respecto del contenido que difunde teorías conspirativas dañinas no es coherente con los objetivos de las políticas que diseñó para prevenir un entorno de exclusión que afecta a minorías protegidas, tanto online como offline. En virtud de estas políticas, el contenido que incluye cierta narrativa de conspiración se modera para proteger a grupos minoritarios en riesgo. Si bien estos miembros del Consejo creen que debería permitirse la crítica hacia asuntos como la inmigración, es precisamente por la relevancia del debate con base empírica en torno a este tema que la difusión de teorías conspirativas de este tipo, como la teoría del gran reemplazo, puede resultar dañina. El principal desafío de las empresas de medios sociales no son los elementos individuales de determinado contenido, sino los efectos combinados que este produce cuando se comparte a gran escala y velocidad. Por lo tanto, Meta debe reformular sus políticas, de modo que aquellos que promueven teorías conspirativas que ocasionan daños online y en la vida real no usen indebidamente sus servicios.
Meta emprendió investigaciones respecto de una disposición normativa que podría abordar las teorías conspirativas basadas en odio, pero determinó que esto, en última instancia, conduciría a la eliminación excesiva del discurso político. Al Consejo le preocupa la falta de información que Meta compartió sobre este proceso.
La decisión del Consejo asesor de contenido
El Consejo asesor de contenido ratificó la decisión de Meta de conservar la publicación.
El Consejo le recomendó a Meta:
- Brindar más detalles sobre el texto de su norma comunitaria sobre lenguaje que incita al odio para indicar cómo distingue los debates relacionados con la inmigración del lenguaje que incita al odio dirigido contra personas en función de su estatus migratorio. Esto incluye explicar cómo la empresa gestiona contenido que difunde teorías conspirativas basadas en odio, de modo que los usuarios entiendan cómo Meta protege el discurso político sobre inmigración y, al mismo tiempo, aborda los posibles daños en la vida real que suponen estas teorías.
* Los resúmenes de casos ofrecen información general sobre los casos y no sientan precedentes.
Decisión del caso completa
1.Resumen de la decisión
El Consejo asesor de contenido ratificó la decisión de Meta de conservar una publicación en la página de Facebook oficial del político francés Éric Zemmour, que muestra el video de una entrevista en la que Zemmour debate los cambios demográficos en Europa y África. El Consejo considera que el contenido no infringe la norma comunitaria sobre lenguaje que incita al odio de Meta porque no ataca de manera directa a personas sobre la base de características protegidas, como raza, origen étnico o nacional. La mayoría en el Consejo afirma que la decisión de Meta de conservar el contenido en Facebook es coherente con sus responsabilidades en materia de derechos humanos. Una minoría en el Consejo considera que las políticas de Meta son inadecuadas para que la empresa cumpla con sus responsabilidades en materia de derechos humanos que implican abordar la amenaza significativa que suponen las teorías conspirativas dañinas que generan exclusión, como la teoría del gran reemplazo. El Consejo recomienda que Meta aclare públicamente cómo gestiona el contenido que difunde teorías conspirativas basadas en odio, dada la necesidad de proteger el discurso sobre la inmigración y, al mismo tiempo, abordar los daños en la vida real que pueden ocasionar dichas teorías.
2. Descripción y contexto del caso
El 7 de julio de 2023, un usuario publicó un video en la página de Facebook verificada oficial del político francés Éric Zemmour. En el video, que es un clip de 50 segundos de una entrevista más extensa en francés, Zemmour debate los cambios demográficos en Europa y África. El usuario que publicó el video era administrador de la página, que tiene alrededor de 300.000 seguidores. Zemmour se presentó como candidato a presidente en las elecciones francesas de 2022 y obtuvo alrededor del 7% de los votos en la primera vuelta, pero no avanzó a la siguiente instancia. Antes de postularse, Zemmour era columnista habitual en Le Figaro y otros periódicos, así como un comentarista de TV sin pelos en la lengua, famoso por sus provocaciones relativas al Islam, la inmigración y las mujeres. Como se explica en más detalle debajo, estuvo implicado en diversos procedimientos judiciales, en algunos de los cuales fue condenado a causa de estos comentarios. Si bien Meta no consideró que el usuario que publicó el video fuera una figura pública, la empresa sí percibe a Zemmour como tal.
En el video, Zemmour expresa: "Desde el comienzo del siglo XX, hubo una explosión de la población en África". Dice que, mientras que la población europea se mantuvo en la cifra más o menos estable de 400 millones, la población africana ascendió a 1.500 millones, "por lo que hubo un cambio en el equilibrio de poder". El texto en francés repite las declaraciones del video y afirma que, en la década de 1900, "cuando había cuatro europeos por cada africano, [Europa] colonizó África", y ahora "hay cuatro africanos por cada europeo y África coloniza Europa". Estas cifras se comparan con cifras disponibles en los organismos de las Naciones Unidas que figuran debajo. Asimismo, la postura de la mayoría en el Consejo respecto de estas cifras se describe con mayor detalle en la sección 8.2 más adelante.
Cuando el Consejo anunció este caso el 28 de noviembre de 2023, el contenido se había visualizado aproximadamente 20.000 veces. A enero de 2024, se había visualizado unas 40.000 veces y obtuvo menos de 1.000 reacciones, la mayoría de las cuales eran "Me gusta", seguidas de "Me encanta" y "Me divierte".
El 9 de julio de 2023, dos usuarios reportaron por separado el contenido por infringir la política de lenguaje que incita al odio de Meta. La empresa cerró automáticamente ambos reportes porque no se priorizaron para revisión en un plazo de 48 horas. Meta explicó que los reportes se priorizan de manera dinámica para revisión en función de factores como la gravedad de la infracción prevista, la viralidad del contenido (cantidad de visualizaciones que tuvo) y la probabilidad de que infrinja las políticas de la empresa. El contenido no se eliminó, sino que permaneció en la plataforma.
El 11 de julio de 2023, la primera persona que reportó el contenido apeló la decisión de Meta. Un revisor evaluó la apelación y sostuvo la decisión original de Meta de conservar el contenido. El usuario entonces presentó una apelación ante el Consejo asesor de contenido.
Diez días antes de que se publicara el contenido, Francia se vio envuelta en una ola de disturbios y manifestaciones violentas generalizadas tras el asesinato del adolescente francés de 17 años Nahel Merzouk, de descendencia marroquí y argelina, a quien dos policías dispararon a quemarropa en un suburbio de París el 27 de junio 2023. Las manifestaciones, que seguían vigentes cuando se publicó el contenido, eran en contra de la violencia policial y la discriminación racial sistemática que se percibe de las fuerzas del orden en Francia. Estas manifestaciones eran las más recientes de una larga serie de protestas contra la violencia policial que, según se afirma, suele tener como blanco a inmigrantes de origen africano y otras comunidades marginalizadas de Francia.
De acuerdo con la Comisión Europea contra el Racismo y la Intolerancia (ECRI), las principales víctimas del racismo en Francia son los inmigrantes, en especial los de origen africano y sus descendientes. En 2022, el Comité para la Eliminación de la Discriminación Racial (CERD) instó a Francia a redoblar sus esfuerzos para prevenir y combatir de manera efectiva el lenguaje que incita al odio sobre la base de la raza y afirmó que "pese a los esfuerzos del partido estatal… al Comité le sigue preocupando la persistencia y el alcance del discurso racista y discriminatorio, en especial en los medios de comunicación e internet". También le "preocupan los comentarios racistas de algunos líderes políticos con respecto a determinadas minorías étnicas, en particular romaníes, itinerantes, personas africanas y afrodescendientes, personas de origen árabe y extranjeros" (CERD/C/FRA/CO/22-23, párrafo 11).
Según un informe de 1999 del Departamento de Asuntos Económicos y Sociales de las Naciones Unidas, la población estimada de África en el año 1900 era de 133 millones. Datos de las Naciones Unidas en 2022 estimaban que, en 2021, la población africana era de aproximadamente 1.400 millones de personas. También proyecta que, para el año 2050, esta cifra podría aproximarse a los 2.500 millones. Según el mismo informe de 1999, la población de Europa en 1900 era de aproximadamente 408 millones de personas. El Departamento de Asuntos Económicos y Sociales de las Naciones Unidas estima que la población de Europa en 2021 era de alrededor de 745 millones y se reducirá aproximadamente a 716 millones para 2050.
En Francia, como en muchas partes del mundo, la llegada de grandes cantidades de migrantes de otros países se transformó en uno de los temas centrales del debate político. Para septiembre de 2023, se alojaban en Francia aproximadamente 700.000 refugiados y solicitantes de asilo, lo que transforma al país en el tercero con mayor densidad migratoria de la Unión Europea. Mientras el Consejo revisaba este caso, en Francia se desarrollaban manifestaciones masivas y se mantenía un acalorado debate público sobre inmigración, en medio de la promulgación parlamentaria de una nueva ley migratoria que, entre otras cosas, establece cupos migratorios y refuerza las normas en torno a la reunificación familiar y el acceso a beneficios sociales. Zemmour y su partido participaron muy activamente en estos debates en respaldo de restricciones migratorias.
En los últimos años, Zemmour debió someterse a diversos procedimientos legales y los tribunales de Francia lo condenaron varias veces por incitar al odio racial y hacer comentarios racistas insultantes, como declaraciones sobre los musulmanes, los africanos, las personas negras y la comunidad LGBTQIA+. Zemmour fue condenado por incitación al odio racial por comentarios que hizo en la televisión en 2011 en los que afirmaba que "la mayoría de los traficantes son negros o árabes. Es un hecho". Más recientemente, en 2020, un tribunal declaró a Zemmour culpable de incitación al odio racial y le impuso una multa de 10.000 euros por afirmar que los niños migrantes son "ladrones, asesinos, violadores. Es lo que son. Deberíamos enviarlos de regreso a su país". Agotó su derecho a apelación en otro caso en el que el tribunal correccional lo condenó y multó por incitar a la discriminación y al odio basado en la religión contra la comunidad francomusulmana. La condena se basó en las declaraciones que hizo en un programa de televisión en 2016, en las que afirmaba que a los musulmanes deberían "darles a elegir entre el Islam y Francia" y que "hemos experimentado una invasión, una colonización (...) es también una lucha para islamizar un territorio que no pertenece al Islam, una tierra que no está islamizada". En diciembre de 2022, el Tribunal Europeo de Derechos Humanos sostuvo que la condena no infringía el derecho a la libertad de expresión de Zemmour.
Si bien el contenido en este caso no menciona explícitamente la teoría del gran reemplazo, el concepto es el eje de la ideología política de Zemmour yse reflejó intensamente en su campaña presidencial, durante la cual prometía que, si ganaba, crearía un "Ministerio de expulsión de inmigrantes". También manifestaba que "enviaría de regreso a millones" de extranjeros en el plazo de cinco años. Según una investigación independiente que encargó el Consejo, realizada por expertos en teorías conspirativas y política francesa, tendencias en medios sociales y lingüística, quienes proponen la teoría del gran reemplazo argumentan que las poblaciones europeas blancas están siendo intencionalmente reemplazadas tanto a nivel étnico como cultural por inmigrantes y el crecimiento de comunidades minoritarias. Esta teoría insiste en que la inmigración contemporánea de personas no blancas (y predominantemente musulmanas) procedentes de países no europeos (principalmente de África y Asia) a Europa es una especie de guerra demográfica. Los expertos del Consejo destacan que no se debate de forma objetiva la inmigración y su aumento. Por el contrario, lo que marca la teoría del gran reemplazo como conspiratoria es la insistencia de que existe un complot o una conspiración reales para atraer a personas no blancas a Europa para que reemplacen o reduzcan la proporción de población blanca. Los expertos en lingüística a los que consultó el Consejo explicaron que la teoría del gran reemplazo y los términos asociados con ella "incitan al racismo, el odio y la violencia contra los inmigrantes y los europeos no blancos, y contra los musulmanes específicamente". Un informe de la Radicalization Awareness Network de la Unión Europea señala que varios agresores solitarios de alto perfil en Europa en los últimos años eligieron sus blancos basándose en el sentimiento antisemita, antimusulmán y antimigratorio en general que difunden las personas que respaldan la teoría del gran reemplazo. La investigación que encomendó el Consejo también indicó que la teoría había inspirado un sinfín de incidentes violentos en todo el mundo en los últimos años, incluidos el tiroteo masivo en Christchurch, Nueva Zelanda, que acabó con la vida de 51 musulmanes.
Una minoría en el Consejo también consideró como contexto importante el hecho de que, en el último año, aumentaron las manifestaciones violentas de la extrema derecha. Tras el fatal apuñalamiento de un adolescente durante una reunión festiva el 18 de noviembre en Crépol, una comunidad rural de Francia, activistas y partidos de derecha dirigieron manifestaciones violentas en las que los manifestantes se enfrentaron físicamente con la policía. Estos argumentan que la culpa fue de los inmigrantes y las minorías, pese al hecho de que, de las nueve personas arrestadas en relación con el apuñalamiento, ocho eran francesas y una, italiana. El ministro del interior Gérald Darmanin dijo que los miembros de las milicias "buscan atacar a árabes, personas con diferente color de piel, y hablan de su nostalgia por el Tercer Reich". La política del Partido Verde francés Sandrine Rousseau comparó estas manifestaciones con ratonnades, término en francés para describir la violencia física contra una minoría étnica o un grupo social, predominantemente contra personas procedentes de África del Norte. La ratonnade más notoria, a menudo asociada con la popularización del término, ocurrió el 17 de octubre de 1961 durante las manifestaciones pacíficas de argelinos en las que 200 de ellos fueron asesinados durante un estallido de violencia policial. Desde entonces, la palabra se usa reiteradamente en diferentes contextos en Francia. Por ejemplo, en diciembre de 2022, políticos franceses se unieron a usuarios de los medios sociales para denunciar la violencia callejera, que comparaban conratonnades luego del partido que disputaron Francia y Marruecos en la Copa Mundial.
3. Autoridad y alcance del Consejo asesor de contenido
El Consejo tiene la autoridad para revisar la decisión de Meta tras la apelación de la persona que previamente reportó el contenido que se conservó en la plataforma (artículo 2, sección 1, del acta constitutiva; artículo 3, sección 1, de los estatutos).
El Consejo puede ratificar o revertir la decisión de Meta (artículo 3, sección 5, del acta constitutiva), y la decisión que tome será vinculante para la empresa (artículo 4 del acta constitutiva). Meta también debe evaluar la viabilidad de aplicar la decisión del Consejo con respecto a contenido idéntico cuyo contexto sea similar (Artículo 4 del acta constitutiva). Las decisiones del Consejo pueden incluir recomendaciones no vinculantes a las que Meta debe responder (artículo 3, sección 4, y artículo 4 del acta constitutiva). Cuando Meta se compromete a tomar medidas respecto de las recomendaciones, el Consejo supervisa su implementación.
4.Fuentes de autoridad y pautas
El análisis del Consejo en este caso se basó en las siguientes normas y precedentes:
I.Decisiones del Consejo asesor de contenido
- Negación del Holocausto
- Violencia en una comunidad del estado de Odisha de la India
- Dibujo animado de Knin
- Publicación compartida de Al Jazeera
- Suspensión de la cuenta del expresidente de los EE. UU. Donald Trump
- Representación de Zwarte Piet
II.Políticas de contenido de Meta
Lenguaje que incita al odio
Las bases de la norma comunitaria sobre lenguaje que incita al odio explican que el lenguaje que incita al odio, que se define como un ataque directo contra personas sobre la base de características protegidas, no se permite en la plataforma "porque crea un entorno de intimidación y exclusión, y en algunos casos, puede incitar a la violencia en la vida real". La política enumera como características protegidas, entre otras, la raza, el origen étnico, el origen nacional y las creencias religiosas. La política explica que los "ataques se dividen en dos niveles de gravedad"; el nivel 1 es el más grave. El fundamento de la norma comunitaria sobre lenguaje que incita al odio también explica que la política "protege a refugiados, migrantes, inmigrantes y solicitantes de asilo de la mayoría de los ataques graves", pero Meta permite "comentarios y críticas relacionados con las políticas de inmigración". Las pautas internas que Meta brinda a los moderadores de contenido se explayan en este sentido y explican que el estatus de migrante, inmigrante, refugiado y solicitante de asilo se considera una característica cuasiprotegida. Esto significa que Meta los protege de ataques de nivel 1, pero no de ataques de nivel 2 en virtud de la política de lenguaje que incita al odio.
La política, que anteriormente tenía tres niveles de ataque diferentes, pero ahora solo tiene dos, en la actualidad prohíbe como ataque de nivel 2, entre otros tipos de contenido, la "exclusión en forma de incitaciones, declaraciones de intención, defensa o apoyo, o declaraciones aspiracionales o condicionales, en las que se incluyen lo siguiente: [...] exclusión explícita, es decir, actos como expulsar a determinados grupos o indicarles que no están permitidos". Meta rechazó la solicitud del Consejo de publicar más información sobre las pautas internas que ofrece a los revisores de contenido en este punto.
En una publicación de 2017 en Newsroom titulada "Hard Questions: Who Should Decide What Is Hate Speech in an Online Global Community?", cuyo enlace figura en la parte inferior de las bases de la norma comunitaria sobre lenguaje que incita al odio con el texto "Obtén más información sobre nuestro enfoque respecto del lenguaje que incita al odio", Meta reconoció que los debates normativos sobre la inmigración suelen convertirse en un "debate sobre lenguaje que incita al odio, ya que ambos extremos adoptan un lenguaje incendiario". La empresa afirmó que, tras revisar las publicaciones en Facebook sobre el debate de la inmigración en todo el mundo, "decidió desarrollar nuevas pautas para eliminar las incitaciones a la violencia contra migrantes y las referencias deshumanizantes sobre ellos, por ejemplo, compararlos con animales, suciedad o basura". Sin embargo, la empresa sigue permitiendo que "las personas expresen sus opiniones sobre la inmigración en sí", dado que "se compromete profundamente a garantizar que Facebook siga siendo un espacio para el debate legítimo".
Personas y organizaciones peligrosas
Las bases de la norma comunitaria sobre personas y organizaciones peligrosas indican que Meta no permite la presencia en la plataforma de ninguna organización o persona que proclame un objetivo violento o participe en acciones de esta naturaleza. También explica que Meta evalúa estas entidades en "función de su comportamiento tanto online como offline, principalmente, sus vínculos con la violencia".
La norma comunitaria sobre personas y organizaciones peligrosas explica que Meta prohíbe la presencia de redes de conspiración que inducen a la violencia, que actualmente se definen como agentes no estatales que: (i) "se identifican mediante un nombre, una declaración de misión, un símbolo o un léxico compartido"; (ii) "promueven teorías infundadas que intentan explicar las causas últimas de importantes problemas, hechos y circunstancias sociales y políticos con afirmaciones de complots secretos de dos o más actores poderosos"; (iii) defendieron explícitamente o se vincularon directamente a un patrón de daño físico offline por parte de adherentes motivados por el deseo de llamar la atención o reparar los supuestos daños identificados en las teorías infundadas promovidas por la red".
El análisis del Consejo de las políticas de contenido también se basó en el compromiso que Meta asumió con la expresión, a la cual la empresa describe como "fundamental", y con los valores de seguridad y dignidad.
III. Responsabilidades de Meta con los derechos humanos
Los Principios Rectores sobre las Empresas y los Derechos Humanos de la ONU (UNGP), respaldados por el Consejo de Derechos Humanos de la ONU en 2011, establecen un marco voluntario que encuadra las responsabilidades de las empresas privadas en cuanto a estos derechos. En 2021, Meta anunció su Política corporativa de derechos humanos, en la que reafirmó su compromiso con el respeto de los derechos humanos de conformidad con los UNGP. El análisis del Consejo sobre las responsabilidades de Meta en cuanto a los derechos humanos en este caso se basó en las siguientes normas internacionales:
- Derecho a la libertad de expresión: artículo 19 del Pacto Internacional de Derechos Civiles y Políticos (ICCPR); artículo 20, párrafo 2 del ICCPR, observación general n.º 34 del Comité de Derechos Humanos, 2011; informes de la Relatora Especial de la ONU (UNSR) sobre la libertad de opinión y expresión: A/HRC/38/35 (2018) y A/74/486 (2019).
- Igualdad y no discriminación: artículo 2, párrafo 1, y artículo 26 del ICCPR; artículo 2 de la Convención Internacional sobre la Eliminación de todas las Formas de Discriminación Racial (ICERD); Asamblea General de la ONU, resolución A/RES/73/195.
- Derecho a la vida: artículo 6 del ICCPR.
5. Respuestas del usuario
Como parte de su apelación al Consejo, el usuario que reportó el contenido y apeló la decisión de Meta de conservarlo envió un comentario al Consejo, que decía que Zemmour explica tanto la colonización como la inmigración en términos de sobrepoblación únicamente, lo que el usuario clasifica como "noticia falsa".
6. Respuestas de Meta
Luego de que el Consejo seleccionara este caso, Meta revisó la publicación de conformidad con la política de lenguaje que incita al odio con la colaboración de expertos en el tema y determinó que tomó la decisión correcta de conservar el contenido. Meta no proporcionó más información sobre el campo o el área de conocimiento específicos de los expertos que realizaron esta revisión adicional. Meta enfatizó que, para que cierto contenido se considere infractor, la política exige que haya un grupo con características protegidas y un ataque directo, y que las declaraciones sobre los cambios en la población y la colonización carecen de esos elementos. Para Meta, la afirmación que indica que un grupo "está colonizando" un lugar no entraña un ataque en sí, siempre que no equivalga a una incitación a la exclusión; asimismo, destacó que "quiere permitir que los ciudadanos debatan las leyes y políticas de su país, siempre y cuando ese debate no constituya un ataque contra grupos vulnerables que pueden estar sujetos a dichas leyes". Por último, Meta explicó que el contenido no identifica a un grupo con características protegidas porque Zemmour se refiere a "África", un continente junto con los países que lo conforman, y que la "política de lenguaje que incita al odio no protege a países o instituciones contra ataques".
Meta se negó a develar información confidencial relacionada con su proceso de desarrollo de políticas sobre teorías conspirativas dañinas. En lugar de ello, Meta afirmó: "Consideramos opciones normativas específicas para el contenido que incluye teorías conspirativas que no infringen, de otro modo, nuestras políticas actuales. No obstante, concluimos que, por el momento, implementar cualquiera de las opciones significaría arriesgarnos a eliminar una cantidad importante de discurso político".
El Consejo le hizo a Meta ocho preguntas por escrito. Las preguntas abarcaban el desarrollo de políticas de Meta en relación con la teoría del gran reemplazo; la capacidad de aplicación de varias disposiciones de la política de personas y organizaciones peligrosas; el historial de infracciones de la página de Facebook y del usuario que hizo la publicación. Meta respondió seis de las preguntas del Consejo, pero en dos de ellas no brindó una respuesta satisfactoria. Luego de que Meta no brindara suficientes detalles en respuesta a la pregunta inicial del Consejo sobre el desarrollo de políticas que contemplen la teoría del gran reemplazo, el Consejo le hizo una pregunta de seguimiento, que Meta respondió, pero no con información lo suficientemente exhaustiva.
7.Comentarios del público
El Consejo asesor de contenido recibió 15 comentarios del público. Siete de los comentarios procedían de los Estados Unidos y Canadá, tres de Europa, dos de Asia central y meridional, uno de Oriente Medio y África septentrional, uno de Asia-Pacífico y Oceanía, y uno de África subsahariana. Este total incluye comentarios del público que estuvieron duplicados o se enviaron con consentimiento para publicarse, pero no cumplían las condiciones del Consejo para su publicación. Los comentarios del público pueden enviarse al Consejo con o sin consentimiento de publicación, y con o sin consentimiento de atribución (es decir, de forma anónima).
Los comentarios abarcaban principalmente dos temas. En primer lugar, varios comentarios hacían énfasis en que eliminar contenido en revisión en ese caso se equipara a la censura y podría incluso "conducir a un aumento en la ira de los ciudadanos que sienten que nadie escuchará sus opiniones" (PC-22009). En segundo lugar, dos organizaciones enviaron comentarios que señalaban el impacto negativo en la vida real que tiene este tipo de contenido y, en especial, la teoría del gran reemplazo. Ambos comentarios argumentaban que existe un vínculo entre la masacre de Christchurch y la teoría (PC-22013, Digital Rights Foundation; PC-22014, Global Project Against Hate and Extremism).
Si quieres leer los comentarios del público que se enviaron en relación con este caso, haz clic aquí.
8.Análisis del Consejo asesor de contenido
El Consejo analizó las políticas de contenido, las responsabilidades en materia de derechos humanos y los valores de Meta para determinar si el contenido en este caso debía eliminarse. Asimismo, el Consejo evaluó las implicaciones de este caso para el enfoque más general de Meta en cuanto a la gobernanza de contenido.
El Consejo seleccionó este caso como una oportunidad para revisar el enfoque de Meta respecto del contenido que ataca a migrantes en el contexto de una creciente retórica mundial antimigración y los candentes debates públicos sobre las políticas migratorias, en especial teniendo en cuenta las dificultades asociadas con distinguir, a gran escala, el contenido dañino del discurso político que aborda el tema de estas políticas.
8.1 Cumplimiento de las políticas de contenido de Meta
El Consejo concluyó en que el contenido no infringe las políticas de Meta. Por ende, se considera correcta la decisión de Meta de conservarlo en Facebook. Una minoría en el Consejo considera, sin embargo, que las políticas de Meta deberían distinguir con claridad incluso las críticas más severas a las políticas migratorias del discurso que entraña teorías conspirativas que son dañinas para grupos con características protegidas.
I.Reglas de contenido
Lenguaje que incita al odio
La mayoría en el Consejo concluye que el contenido en este caso no infringe la norma comunitaria sobre lenguaje que incita al odio de Meta y, de hecho, constituye un ejemplo de expresión protegida, aunque controversial, de una opinión sobre el tema de la inmigración. El clip de 50 segundos de la entrevista de Zemmour que publicó el usuario no incluye una incitación a la violencia, ni se emplea en él lenguaje deshumanizante o de odio en referencia a grupos vulnerables. El hecho de que Zemmour haya sido procesado y condenado en el pasado por usar lenguaje que incita al odio o que los temas que se abordan en la publicación guardan semejanza con aquellos de la teoría del gran reemplazo, que muchos creen que suscita la violencia contra migrantes y miembros de grupos minoritarios, no es una justificación apropiada para eliminar una publicación que no infringe las normas de Meta. La política exige que el contenido presente dos elementos para que se considere infractor: (i) un "ataque directo" y (ii) un grupo con "características protegidas" al cual va dirigido el ataque. Meta define "ataques directos", entre otros tipos de discurso, como "exclusión o segregación en forma de incitaciones", conforme lo explica en más detalle en la sección 4 arriba. Asimismo, las bases de la política dejan claro que Meta permite "comentarios o críticas sobre políticas migratorias".
Para la mayoría, los comentarios de Zemmour en el video se centran principalmente en información demográfica que presenta sobre África, Europa y la "colonización". El video incluye, entre otras afirmaciones, las declaraciones "Se revirtió el equilibrio de poder" y "Ahora hay cuatro africanos por cada Europeo, ¿qué ocurre entonces? África coloniza Europa y, en particular, Francia". Los comentarios de Zemmour no contienen un ataque directo y, de hecho, él no menciona la "teoría del gran reemplazo" ni hace referencia directa a ella. No hay una incitación explícita a excluir a un grupo de Europa, como tampoco declaraciones sobre los africanos que equivalgan a estereotipos dañinos, difamación u otro ataque directo. No obstante, al Consejo le preocupa que Meta no considere a la población africana como un grupo con características protegidas, dado que las políticas de Meta y las leyes de derechos humanos internacionales valoran el origen nacional, la raza y la religión como características protegidas. Se menciona a los africanos en el contenido. África es un conjunto de naciones, por lo que el término "africanos" se refiere a las personas que residen en países de África. En segundo lugar, en el contexto de los comentarios anteriores de Zemmour y los debates sobre inmigración en Francia, el término "africanos" se usa como indicador de africanos no blancos, en particular de la comunidad negra y musulmana.
Personas y organizaciones peligrosas
La mayoría en el Consejo concluyó también que el contenido no infringe la política de personas y organizaciones peligrosas de Meta, dada la falta de elementos necesarios para evaluar este contenido particular como parte de una red de conspiración que induce a la violencia más amplia.
Conforme se explica en la sección 6 anterior, Meta consideró opciones normativas específicas para el contenido que incluye teorías conspirativas que no infringe, de otro modo, ninguna política, pero concluyo en que, por el momento, implementar cualquiera de las opciones significaría arriesgarse a eliminar una cantidad importante de discurso político. El Consejo expresó su preocupación sobre la falta de información de Meta en respuesta a las preguntas del Consejo sobre este proceso de desarrollo de políticas. El Consejo señala que la empresa no proporcionó información específica sobre la investigación que realizó, los datos que recopiló, el alcance de la divulgación, los tipos de expertos a los que consultó y las diferentes opciones normativas que analizó. Al Consejo también le preocupa que Meta decida no compartir con el público información sobre el proceso de desarrollo de políticas y sus resultados.
Una minoría en el Consejo comprende que, pese a que el contenido ataca de forma implícita a varios grupos que reúnen diversas características protegidas (personas negras, árabes o musulmanes), conforme a la redacción actual, las reglas incluidas en las políticas de personas y organizaciones peligrosas de Meta no prohíben contenido como este. El hecho de que la publicación solo repita las partes más "aceptables" de la teoría del gran reemplazo no es, sin embargo, decisivo. En la decisión del Consejo en el caso Suspensión de la cuenta del expresidente de los EE. UU. Donald Trump, el Consejo destacó que Meta "debe evaluar las publicaciones realizadas por usuarios influyentes en contexto de acuerdo con la forma en que podrían interpretarse, incluso si su mensaje provocador está formulado en un lenguaje diseñado para evitar responsabilidad".
Sin embargo, como se explicará en más detalle en la sección 8.3, para una minoría en el Consejo, el enfoque de Meta respecto del contenido que difunde teorías conspirativas dañinas, como la teoría del gran reemplazo, no es coherente con los objetivos de las diferentes políticas que diseñó la empresa para prevenir que se genere un entorno de intimidación y exclusión que expone a minorías protegidas a daños online o en la vida real. Si bien una minoría en el Consejo concuerda firmemente en que las políticas de Meta deben permitir las críticas y el debate de todos los temas (incluida la inmigración) que son relevantes en una sociedad democrática, dichas políticas también deben establecer límites claros para prevenir la difusión de ataques implícitos y explícitos contra grupos vulnerables, teniendo en cuenta el daño en la vida real que suponen ciertas narrativas conspirativas, como la teoría del gran reemplazo.
II. Transparencia
Meta brinda cierta información sobre cómo gestiona el contenido relacionado con la inmigración en su Centro de transparencia en virtud de la norma comunitaria sobre lenguaje que incita al odio, donde la empresa explica que los refugiados, los migrantes, los inmigrantes y los solicitantes de asilo se encuentran protegidos contra los ataques más graves. Meta brinda detalles adicionales en una publicación de 2017 en Newsroom, cuyo enlace figura en las bases de la política de lenguaje que incita al odio. Sin embargo, la empresa no explica de manera explícita cómo se encarga del contenido relacionado con la teoría del gran reemplazo. La publicación de 2017 cuenta con información relevante para el tema, pero no se actualizó tras el proceso de desarrollo de políticas de 2021 que se menciona en la sección 6 anterior. Meta tampoco explica de manera explícita en su política de dominio público que se permiten las incitaciones a la exclusión en el contexto del debate sobre inmigración. Tampoco queda claro cómo se abordan los ataques implícitos o velados.
8.2 Cumplimiento de las responsabilidades de Meta en materia de derechos humanos
La mayoría en el Consejo afirma que mantener el contenido es coherente con las responsabilidades de Meta en materia de derechos humanos. Una minoría considera que, para actuar de forma coherente con sus responsabilidades en materia de derechos humanos, Meta debe reformular sus políticas, de modo que aquellas personas que promueven teorías conspirativas que ocasionan daños online y en la vida real no usen indebidamente sus servicios.
Libertad de expresión (artículo 19 del ICCPR)
El artículo 19 del ICCPR brinda mayor protección al derecho a la libertad de expresión, lo que comprende la "libertad de buscar, recibir y difundir informaciones e ideas de toda índole", incluidos el "discurso político" y comentarios sobre "asuntos públicos" (observación general n.º 34, párrafo 11). El Comité de Derechos Humanos indicó que el alcance de este derecho "llega incluso a expresiones que puedan considerarse profundamente ofensivas, aunque esta expresión solo puede limitarse de conformidad con lo dispuesto en el párrafo 3 del artículo 19 y en el artículo 20" para proteger los derechos o la reputación de otras personas o prohibir la incitación a la discriminación, la hostilidad o la violencia (observación general n.º 34, párrafo 11).
En el contexto de los debates públicos respecto de la inmigración, la Asamblea General de la ONU señaló su compromiso de "proteger la libertad de expresión de conformidad con el derecho internacional, reconociendo que el debate abierto y libre contribuye a la comprensión cabal de todos los aspectos de la migración". Se compromete además a "promover, en colaboración con todos los sectores de la sociedad, un discurso público abierto y con base empírica sobre la migración y los migrantes que genere una percepción más realista, humana y constructiva a este respecto" (A/RES/73/195, párrafo 33). La inmigración y las políticas en torno a esta, asuntos muy debatidos y sumamente relevantes para los procesos políticos no solo en Francia, sino en todo el mundo, son temas legítimos de debate en las plataformas de Meta. Para la mayoría, prohibir este tipo de discurso en las plataformas de Meta constituiría una clara infracción de la libertad de expresión y sentaría un precedente peligroso debido a las posibles implicaciones que tendría para el debate público. Para una minoría en el Consejo, es precisamente por la relevancia que tiene para una sociedad democrática un debate abierto y con base empírica sobre la inmigración que la difusión de teorías conspirativas, como la teoría del gran reemplazo, en plataformas de medios sociales puede resultar dañina. Conforme lo indicó el Institute for Strategic Dialogue, los métodos que se utilizan para transmitir la teoría "incluyen memes racistas dehumanizantes, datos demográficos distorsionados y engañosos, y uso de ciencia desacreditada".
Si un Estado impone restricciones sobre la libertad de expresión, estas deben cumplir los requisitos de legalidad, fin legítimo y necesidad y proporcionalidad (artículo 19, párrafo 3, del ICCPR). Se suele hacer referencia a estos requisitos como "prueba de tres partes". El Consejo usa este marco para interpretar los compromisos voluntarios de Meta con los derechos humanos, tanto respecto de la decisión sobre el contenido en particular en revisión como de lo que esto pone de manifiesto acerca del enfoque más amplio de la empresa en relación con la gestión del contenido. Como indicó la Relatora Especial de la ONU sobre libertad de expresión, "las empresas no tienen las obligaciones de los gobiernos, pero sus efectos son de un tipo que les obliga a evaluar el mismo tipo de cuestiones sobre la protección del derecho de sus usuarios a la libertad de expresión" ( A/74/486, párrafo 41).
I. Legalidad (claridad y accesibilidad de las reglas)
El principio de legalidad exige que las reglas que limitan la expresión sean accesibles y claras, y estén formuladas con precisión suficiente para que una persona pueda regular su comportamiento de conformidad con ellas (observación general n.º 34, párrafo 25). Asimismo, estas reglas "no pueden conferir una discrecionalidad absoluta para restringir la libertad de expresión a los encargados de su implementación" y deben "proporcionar suficientes pautas para aquellos que están a cargo de su implementación, de manera que puedan definir qué tipos de expresión pueden restringirse de forma adecuada y cuáles no" (ibidem). En referencia a las reglas que regulan el discurso online, la Relatora Especial de la ONU sobre la libertad de expresión dijo que deben ser claras y específicas ( A/HRC/38/35, párrafo 46). Las personas que usan las plataformas de Meta deben ser capaces de acceder a las reglas y entenderlas, y los revisores de contenido deben tener pautas claras para su aplicación.
Ninguna de las políticas actuales de Meta prohíbe "de forma específica y clara" el contenido en este caso. Para la mayoría en el Consejo, un usuario común que lee la norma comunitaria sobre lenguaje que incita al odio o la publicación de blog "Hard Questions" de 2017 de Meta (cuyo enlace figura en la norma comunitaria) probablemente entendería que solo se eliminarían los ataques más graves contra migrantes e inmigrantes, ya que Meta indica claramente que desea permitir los comentarios y las críticas sobre las políticas migratorias en la plataforma. La mayoría en el Consejo considera que este compromiso concuerda con las responsabilidades de Meta en materia de derechos humanos. Para una minoría, la política de lenguaje que incita al odio busca prevenir que se geste un entorno de exclusión o segregación, que las teorías conspirativas basadas en odio, como la teoría del gran reemplazo, contribuyen a fomentar. Dado que el contenido que apela a dichas teorías generalmente suele tener como blanco a grupos vulnerables y minoritarios, y constituye un ataque a su dignidad, un usuario común podría esperar protección contra este tipo de contenido en virtud de la política de lenguaje que incita al odio de Meta.
La política de personas y organizaciones peligrosas actual de Meta no cuenta con disposiciones que prohíban el contenido en este caso. Para la mayoría, incluso si Meta prohíbe de forma específica y clara el contenido que gira en torno a la teoría del gran reemplazo en sus plataformas, en este caso, la publicación no llega a mencionar la teoría ni se explaya en relación con elementos de esta de modos que se podrían considerar conspirativos y dañinos. La publicación no alega que los flujos migratorios de grupos específicos de personas hacia Europa forman parte de un complot secreto de agentes con agendas ocultas.
II.Fin legítimo
Cualquier restricción sobre la libertad de expresión debe procurar al menos uno de los fines legítimos mencionados en el ICCPR, entre ellos, proteger los "derechos de los demás". El término "derechos" incluye derechos humanos, según se reconocen en el Pacto y, de forma más general, en la legislación internacional de derechos humanos ( observación general n.º 34, párrafo 28).
En varias decisiones, el Consejo determinó que la política de lenguaje que incita al odio de Meta, cuyo objetivo es proteger a las personas del daño que ocasiona el lenguaje que incita al odio, persigue un fin legítimo amparado por las leyes internacionales de derechos humanos (consulta el caso Dibujo animado de Knin). Protege el derecho a la vida (artículo 6, párrafo 1, del ICCPR), así como los derechos de igualdad y no discriminación, incluso sobre la base de raza, origen étnico o nacional (artículo 2, párrafo 1, del ICCPR; artículo 2 del ICERD). El Consejo había determinado anteriormente que la política de personas y organizaciones peligrosas de Meta pretende prevenir e interrumpir el daño en el mundo real sobre la base del fin legítimo de proteger los derechos de otras personas (consulta la decisión del caso Publicación compartida de Al Jazeera). Por otro lado, el Consejo manifestó reiteradamente que restringir la expresión únicamente para evitar la ofensa no es un fin legítimo (consulta el caso Representación de Zwarte Piet que cita el informe A/74/486, párrafo 24, de la Relatora Especial de la ONU y el caso Suspensión de la cuenta del expresidente de los EE. UU. Donald Trump), ya que la legislación internacional de derechos humanos concede mucho valor a la libertad de expresión (observación general n.º 34, párrafo 38).
III. Necesidad y proporcionalidad
El principio de necesidad y proporcionalidad dispone que las restricciones que se apliquen a la libertad de expresión "deben ser adecuadas para desempeñar su función protectora; deben ser el instrumento menos perturbador de los que permitan conseguir el resultado deseado, y deben guardar proporción con el interés que debe protegerse" (observación general n.º 34, párrafo 34). La naturaleza y el alcance de las respuestas disponibles para una empresa como Meta son diferentes de aquellas disponibles para un Estado, y generalmente representan infracciones más leves de los derechos que, por ejemplo, las sanciones penales. Como parte de sus responsabilidades en materia de derechos humanos, las empresas de medios sociales deben considerar diversas respuestas posibles ante un contenido problemático más allá de la eliminación para garantizar que las restricciones se delimiten estrictamente (A/74/486, párrafo 51).
Al evaluar los riesgos que presenta el contenido potencialmente violento, el Consejo se guía por la prueba de seis factores descrita en el Plan de Acción de Rabat, que aborda la incitación a la hostilidad, la discriminación o la violencia (OHCHR, A/HRC/22/17/Anexo 4, 2013). La prueba considera el contexto, el orador, la intención, el contenido y la forma, la medida en la que se difundió la expresión y la probabilidad de daño inminente.
Para la mayoría en el Consejo, eliminar el contenido en este caso no era una medida necesaria ni proporcionada. La prueba del Plan de Acción de Rabat destaca el contenido y la forma del discurso como "elementos críticos de incitación". En el contenido en revisión en este caso, los comentarios de Zemmour, conforme se reproducen en el clip de 50 segundos que publicó el usuario, no incluyen referencias a elementos conspiratorios de la teoría del gran reemplazo, y el video no contiene elementos incendiarios, como imágenes violentas o de incitación. Los comentarios y la descripción tampoco incluyen incitaciones directas a la violencia y la exclusión. La mayoría cree que excluir contenido controversial desde el punto de vista político en función de las declaraciones que hizo el orador en otros espacios infringiría la libertad de expresión. Esta mayoría considera que las cifras que cita Zemmour son solo un poco exageradas. También señala que el tema principal de las declaraciones de Zemmour en el video es la inmigración, quizá uno de los asuntos políticos más importantes de la actualidad.
Para una minoría de miembros del Consejo, el contenido en este caso no infringe las políticas actuales de Meta (consulta la sección 8.1). Sin embargo, la empresa diseñó un conjunto de políticas cuyo objetivo es prevenir que se genere un entorno de exclusión e intimidación que afecta a minorías protegidas (y perjudica la expresión de grupos excluidos) no solo online, sino también offline. En virtud de estas políticas, se moderan las narrativas antisemitas y relacionadas con la supremacía blanca, así como el contenido procedente de redes de conspiración que inducen a la violencia. Eliminar dicho contenido es coherente con las responsabilidades de Meta en materia de derechos humanos. Como se explica en la sección 2 anterior, la teoría del gran reemplazo afirma que hay un complot intencional para reemplazar a las poblaciones blancas de Europa por poblaciones migrantes procedentes principalmente de África y Asia. La difusión de narrativas relacionadas con la teoría del gran reemplazo contribuyó a la incitación del racismo, el odio y la violencia contra inmigrantes, europeos no blancos y musulmanes. Una minoría en el Consejo hace hincapié en que no se trata solo de una idea abstracta o una opinión controversial, sino de la típica teoría conspirativa que conduce a daños tanto en el plano digital como en la vida real. Sin duda alguna, contribuye a la creación de una atmósfera de exclusión e intimidación que perjudica a ciertas minorías. La evidencia del daño que produce la circulación global o acumulativa, a gran escala y velocidad de contenido antisemita en las plataformas de Meta, conforme se analiza en el caso Negación del Holocausto, es similar a la evidencia del daño que produce la teoría del gran reemplazo, según se indica en la sección 2. Por estos motivos, una minoría determina que la decisión de Meta de proteger a ciertos grupos minoritarios amenazados de la exclusión y la discriminación que suscitan las narrativas conspirativas, pero dejar sin protección a otros en una situación de riesgo similar, es incoherente con el principio de no discriminación y con los valores de Meta de seguridad y dignidad. Una minoría en el Consejo no encontró un motivo convincente para diferenciar el enfoque de Meta respecto de la teoría del gran reemplazo del enfoque que aplica en relación con las demás narrativas conspirativas antes mencionadas, que Meta modera de conformidad con sus responsabilidades en materia de derechos humanos.
En relación con lo anterior, para una minoría en el Consejo, el mayor desafío que enfrentan las empresas de medios sociales no es un contenido individual particular, sino la acumulación de contenido dañino que se comparte a gran escala y a mucha velocidad. El Consejo explicó que moderar el contenido con el objetivo de abordar los daños acumulativos que ocasiona el lenguaje que incita al odio, incluso cuando la expresión no incita a la violencia o la discriminación directamente, puede ser coherente con las responsabilidades de Meta en materia de derechos humanos en determinadas circunstancias (consulta las decisiones de los casos Representación de Zwarte Piet y Violencia en una comunidad del estado de Odisha de la India). En 2022, el CERD expresó su preocupación respecto de "la persistencia y el alcance del discurso racista y discriminatorio [en Francia], en especial en los medios de comunicación e internet". Para una minoría, la acumulación de contenido relacionado con la teoría del gran reemplazo "crea un entorno en el que hay más probabilidades de tolerar actos de violencia y de que se replique la discriminación en la sociedad" (consulta las decisiones de los casos Representación de Zwarte Piet y Violencia en una comunidad del estado de Odisha de la India). Una minoría destacó que, conforme a los UNGP, las empresas deben prestar especial atención a las consecuencias concretas sobre los derechos humanos de las personas pertenecientes a grupos y poblaciones expuestos a un mayor riesgo de vulnerabilidad y de marginación (UNGP, principios 18 y 20). De acuerdo con lo indicado en la sección 2 anterior, las principales víctimas del racismo en Francia son los inmigrantes, en especial los de origen africano y sus descendientes. En una entrevista realizada en 2023, el Director General de Seguridad Interna de Francia compartió su creencia de que los grupos extremistas, incluidos aquellos que piensan que deben tomar medidas para detener el "gran reemplazo", representan una amenaza grave para el país.
Pese a que Meta indicó que moderar contenido relacionado con teorías conspirativas supondría el riesgo de eliminar "una cantidad inaceptable de discurso político", una minoría en el Consejo señala que la empresa no proporcionó evidencia ni datos que respalden esa afirmación. Asimismo, Meta no explicó por qué este es el caso del contenido relacionado con la teoría del gran reemplazo, pero no, por ejemplo, del contenido antisemita o relativo a la supremacía blanca, dado que se podría interpretar también como contenido que difunde teorías conspirativas. Tomando en cuenta los motivos expuestos antes, para una minoría, Meta debe revisar sus políticas para abordar contenido que promueve la teoría del gran reemplazo, a menos que cuente con evidencia suficiente: (i) para descartar el daño que ocasiona la difusión de este tipo de contenido, como se indicó en esta decisión, o (ii) para demostrar que el impacto que la moderación de este tipo de contenido tendría en el discurso político protegido sería desproporcionado. Para brindar una respuesta proporcionada, entre otras opciones, Meta podría crear una política solo de escalamiento que permita eliminar contenido que respalde abiertamente la teoría del gran reemplazo, sin perjudicar el discurso político protegido, o designar a personas que se vinculen explícitamente con esta teoría como parte de una red de conspiración que induce a la violencia en virtud de la política de personas y organizaciones peligrosas de Meta.
La mayoría se muestra escéptica respecto de que se pueda elaborar una política por la cual este contenido se consideraría infractor, que pudiera satisfacer las exigencias de legalidad, necesidad y proporcionalidad, en particular dado que no figura la frase "gran reemplazo" ni ninguna variación de esta en el contenido. Todo intento de eliminar dicho contenido, incluso si se toma como una referencia cifrada, daría lugar a la eliminación de grandes cantidades de expresiones políticas protegidas. El contenido que se encuentra protegido superficialmente tampoco debería "asumirse culpable por asociación" debido a la identidad del orador o su afinidad con ideologías de odio.
9. Decisión del Consejo asesor de contenido
El Consejo asesor de contenido ratificó la decisión de Meta de mantener el contenido.
10. Recomendaciones
Transparencia
1. Meta debe brindar más detalles sobre el texto de su norma comunitaria sobre lenguaje que incita al odio para indicar cómo distingue los debates relacionados con la inmigración del lenguaje que incita al odio dirigido contra personas en función de su estatus migratorio. Esto incluye explicar cómo la empresa gestiona el contenido que difunde teorías conspirativas basadas en odio. Esta medida es necesaria para que los usuarios entiendan cómo Meta protege el discurso político sobre la inmigración y, al mismo tiempo, aborda los posibles daños en la vida real que acarrean las teorías conspirativas basadas en odio.
El Consejo considerará implementada esta recomendación cuando Meta publique una actualización en la que explique cómo aborda los debates sobre inmigración en el contexto de la teoría del gran reemplazo, y proporcione enlaces prominentes a dicha actualización en el Centro de transparencia.
* Nota de procedimiento:
La preparación de las decisiones del Consejo asesor de contenido está a cargo de paneles conformados por cinco miembros, quienes deben aprobarlas por mayoría. Las decisiones del Consejo no necesariamente representan las opiniones personales de todos los miembros.
En cuanto a la decisión del caso, se encargó una investigación independiente en nombre del Consejo. El Consejo también recibió asistencia de Duco Advisors, una empresa asesora dedicada a la intersección de geopolítica, confianza, seguridad y tecnología. Memetica, una organización que participa en investigaciones de código abierto sobre tendencias en los medios sociales, también proporcionó análisis. Lionbridge Technologies, LLC, con especialistas en más de 350 idiomas que trabajan en 5.000 ciudades diferentes, se encargó de las competencias en materia lingüística.
Volver a Decisiones de casos y opiniones consultivas sobre políticas