Las decisiones de gran alcance protegen la libertad de expresión y abordan los daños
23 de abril de 2025
Hoy, el Consejo asesor de contenido publicó las decisiones correspondientes a once casos derivados de apelaciones de usuarios de tres continentes. Estas son las primeras decisiones que reflejan los cambios en las políticas y en la aplicación de las normas que Meta anunció el 7 de enero de 2025. Como en todas las resoluciones, nos guía el compromiso con la libertad de expresión en línea y la convicción de que Meta tiene la responsabilidad de abordar los daños que se producen en la vida real como consecuencia del uso de las plataformas. Asimismo, enfatizamos la necesidad de mayor transparencia, coherencia y equidad en el enfoque de Meta con respecto a la moderación de contenido.
Estas decisiones abordan cuestiones relacionadas con la libertad de expresión en contextos de identidad de género, imágenes del apartheid, discursos contra la inmigración, odio hacia personas con discapacidades, supresión de voces LGBTQIA+ y los disturbios en el Reino Unido de 2024. El Consejo deliberó acerca de asuntos complejos, muchos de los cuales implican la Política sobre conductas que incitan al odio de Meta (anteriormente denominada lenguaje que incita al odio). En estas resoluciones, confirmamos que los discursos controvertidos pueden y deben permanecer en la plataforma, a la vez que concluimos que Meta debe eliminar los contenidos cuando exista una conexión sustancial con daños tangibles.
Más de mil personas y organizaciones de cinco continentes aportaron sus opiniones sobre los casos mediante comentarios públicos, lo que permitió complementar las perspectivas de los 21 miembros del Consejo, quienes provienen de diversas regiones y contextos. Esta diversidad refleja la composición de la base de usuarios de Meta, ya que el 95 % de las personas que utilizan los servicios se encuentran fuera de los Estados Unidos.
Al capturar los desafíos en evolución para la libertad de expresión en línea, estas decisiones demuestran por qué la protección de la expresión sigue siendo fundamental. Este compromiso trasciende las divisiones políticas. Dada la importancia de los temas abordados, esperamos que las decisiones y las recomendaciones contribuyan a un intercambio más sólido y abierto que convierta a Meta en responsable ante sus usuarios.
Resultados de los casos que se presentaron hoy
Los usuarios de las plataformas de Meta presentaron ante el Consejo 11 casos, que seleccionaron debido a que se relacionan con temas significativos de libertad de expresión y permiten explorar los límites de las políticas y las prácticas de aplicación de normas de Meta. El Consejo aplica un umbral elevado para restringir la libertad de expresión, en concordancia con el marco de los derechos humanos internacionales. Las opiniones mayoritarias y minoritarias presentes en varias de estas decisiones reflejan la complejidad de armonizar un fuerte compromiso con la libertad de expresión con una preocupación efectiva por otros derechos humanos, así como las diferencias razonables que pueden surgir de una deliberación y un debate informados.
- En los casos que se relacionan con videos sobre debates de identidad de género, la mayoría de los miembros del Consejo respaldó la decisión de Meta de permitir dos publicaciones que abordaban el acceso de personas transgénero a baños y su participación en eventos deportivos en Estados Unidos. A pesar del carácter provocador de las publicaciones, que usaban identificaciones de género erróneas hacia personas trans, lo cual podría resultar ofensivo para muchas personas, la mayoría de los miembros del Consejo consideró que se trataba de asuntos de interés público y que no incitaban a violencia ni discriminación inminentes y probables.
- En otros casos, el Consejo evaluó dos publicaciones con imágenes relacionadas con el apartheid, incluida la antigua bandera nacional de Sudáfrica. La mayoría respaldó la decisión de Meta de mantenerlas en Facebook. Aunque todos los miembros del Consejo reconocieron que dicha bandera es un símbolo del apartheid sudafricano y que evoca recuerdos dolorosos, la mayoría consideró que eliminarla no constituiría el medio menos intrusivo para abordar daños De hecho, a pesar de que se identificó una infracción conforme a una norma relativa a "ideologías de odio", el Consejo indicó que, conforme a estándares internacionales de libertad de expresión, estas publicaciones debían permanecer disponibles, y recomendó, además, mayor claridad en esta norma comunitaria.
- En dos casos de discurso contra la inmigración en Polonia y Alemania, la mayoría de los miembros del Consejo anuló la decisión de Meta, y solicitó la eliminación de contenidos que incluían insultos racistas y generalizaciones que retrataban a los inmigrantes como depredadores sexuales. Los miembros del Consejo consideraron que estos contenidos contribuían a un mayor riesgo de discriminación y violencia contra los inmigrantes, especialmente en un clima político ya polarizado en torno a las elecciones, en las que la migración era un tema central.
Para estos tres conjuntos de casos, que abarcan seis publicaciones, las opiniones minoritarias reflejan la diversidad del Consejo y las distintas perspectivas sobre cómo proteger mejor los derechos humanos en línea. Estas diferencias de opinión sobre cuál es la respuesta más adecuada a las cuestiones más complejas de la libertad de expresión son fundamentales para el diseño del Consejo, y en cada decisión se explican abiertamente los motivos que sustentan el resultado.
- El anuncio de hoy también incluye decisiones unánimes sobre tres publicaciones relacionadas con los disturbios en el Reino Unido durante el verano de 2024. En cada una, se incitaba a la violencia contra inmigrantes y musulmanes durante la semana de disturbios generalizados en el Reino Unido, por lo que el Consejo anuló la decisión de Meta y exigió que las publicaciones fueran retiradas de Facebook, dada la probabilidad significativa de que incitaran a más disturbios y violencia de forma inminente. En estos casos, un análisis detallado de cómo Meta aplicó las políticas de contenido durante una crisis reveló deficiencias en su capacidad para evaluar adecuadamente formas visuales de incitación basadas en desinformación e información errónea de propagación viral.–
- Además de estas decisiones estándar, el Consejo publicó dos decisiones sumarias, que abordan casos reveladores de errores del sistema del cumplimiento de normas de Meta. En el primer caso, Meta eliminó incorrectamente un video de un artista drag al interpretar erróneamente que contenía un insulto prohibido, cuando en realidad el término se utilizó en un contexto autorreferencial permitido expresamente por las políticas. El Consejo destacó que eliminaciones erróneas como esta no solo afectan la libertad de expresión, sino que también pueden perjudicar los medios de vida de las personas afectadas. En el segundo caso, el Consejo identificó un ejemplo flagrante de discurso deshumanizante hacia personas con discapacidad, lo cual generó preocupaciones sobre las fallas del sistema de aplicación de normas de Meta para detectar este tipo de publicaciones.
Respuestas a los cambios más recientes en Meta
Si bien los cambios realizados en las políticas que Meta anunció el 7 de enero no afectaron los resultados de los casos publicados el día de hoy, las recomendaciones incluidas en nuestras decisiones sí responden a algunos de dichos cambios.
En nuestras decisiones, expresamos preocupación porque los cambios realizados en las políticas y su implementación, anunciados por Meta el 7 de enero de 2025, se comunicaron de forma apresurada, sin cumplir con los procedimientos habituales y sin proporcionar información pública sobre si la empresa llevó a cabo alguna evaluación previa de derechos humanos.
El Consejo insta a Meta a cumplir con el compromiso público de defender los Principios Rectores de las Naciones Unidas sobre las Empresas y los Derechos Humanos, incluida la interacción con las partes interesadas que pudieran verse afectadas. Dado que estos cambios se implementan a nivel global, el Consejo subraya que es esencial que Meta identifique y aborde los impactos negativos sobre los derechos humanos que puedan derivarse de estos. Esto debe incluir una evaluación sobre si la reducción en la dependencia de la detección automatizada de infracciones a las políticas podría generar consecuencias desiguales a nivel mundial, en particular en países que atraviesan o han atravesado recientemente crisis, como conflictos armados.
Hoy, el Consejo emitió 17 recomendaciones relacionadas con los cambios del 7 de enero, así como con las políticas y sistemas de aplicación de normas de Meta. Se debe instar a Meta a hacer lo siguiente:
- Evaluar cómo las actualizaciones del 7 de enero a la Política sobre conductas que incitan al odio podrían afectar los derechos humanos, sobre todo en relación con países de la mayoría mundial, personas LGBTQIA+, incluso menores, y personas inmigrantes. Informar al Consejo cada seis meses sobre el progreso y publicar un informe público a la brevedad.
- Mejorar la forma en que aplica la política contra el bullying y el acoso, en particular aquellas normas que requieren que los propios usuarios denuncien el contenido.
- Aclarar las referencias a ideologías de odio no permitidas en virtud de la política sobre personas y organizaciones peligrosas.
- Evaluar continuamente la eficacia de las notas de la comunidad en comparación con los verificadores externos de hechos, especialmente en contextos donde la rápida difusión de la información errónea representa riesgos para la seguridad pública.
- Mejorar la detección de incitación a la violencia a través de imágenes visuales, mediante una orientación más clara para los revisores.
Meta debe asumir responsabilidad
Durante casi cinco años, nuestras decisiones influyeron en las políticas de contenido y prácticas de aplicación de normas de Meta, lo que generó una mayor protección para el discurso político, la cobertura periodística, la concienciación social y la expresión cultural y artística. Gracias a la labor del Consejo, el discurso público sobre asuntos políticos y sociales, desde la inmigración hasta el aborto o la crítica a los estados y líderes, sigue teniendo lugar en las plataformas de Meta. Los casos impulsaron a Meta a ser más transparente respecto a cómo maneja la presión gubernamental para eliminar contenido. Al reconocer los riesgos crecientes que supone para los procesos democráticos la censura de discursos por parte de las plataformas, el Consejo priorizó los casos que permiten a las personas ejercer su derecho a participar en elecciones y protestas, especialmente en países donde el espacio cívico se encuentra en retroceso.
Además, las recomendaciones, dieron lugar a que Meta incorpore herramientas que permiten a las personas comprender mejor las normas y evitar que su contenido sea eliminado injustamente. Asimismo, estas recomendaciones impulsaron la implementación de alternativas a la eliminación de contenido, como pantallas de advertencia y etiquetas de “información sobre IA” para indicar cuándo el contenido se generó mediante inteligencia artificial. Estas soluciones empoderan a los usuarios y reducen las cargas sobre su libertad de expresión.
De cara al futuro, el Consejo continuará seleccionando casos que aborden algunos de los problemas más complejos y significativos en la moderación de contenido a nivel global. Actualmente, el Consejo mantiene conversaciones con Meta y tiene disposición para aceptar una solicitud de opinión consultiva sobre políticas con el fin de contribuir a definir el enfoque de la empresa en cuanto a la verificación de hechos fuera de los Estados Unidos. Como único organismo global que proporciona supervisión independiente sobre la moderación de contenido de Meta, el Consejo se encuentra en una posición única para asumir esta función e interpretar cómo los cambios en la plataforma pueden afectar la libertad de expresión y otros derechos humanos de sus usuarios en distintas regiones y comunidades alrededor del mundo.
Videos para el debate en torno a la identidad de género
(2024-046-FB-UA, 2024-047-IG-UA)
En dos publicaciones que incluyen videos donde se confronta a una mujer transgénero por utilizar un baño de mujeres y donde una atleta transgénero gana una carrera de velocidad, la mayoría de los miembros del Consejo respaldó la decisión de Meta de mantener dicho contenido en la plataforma. El Consejo observa que el debate público sobre políticas relativas a los derechos y la inclusión de personas transgénero está permitido, y que los puntos de vista ofensivos se encuentran protegidos por el derecho internacional de los derechos humanos en materia de libertad de expresión. En estos casos, la mayoría de los miembros del Consejo consideró que no existía una conexión suficiente entre la restricción de las publicaciones y la prevención de daños a personas transgénero, ya que ninguna de ellas generaba un riesgo probable o inminente de incitación a la violencia. Las publicaciones tampoco constituían acoso ni intimidación. El acceso de mujeres y niñas transgénero a baños femeninos y su participación en deportes son temas que siguen siendo objeto de debate público, el cual involucra diversas preocupaciones en materia de derechos humanos. Es adecuado que se exija un umbral elevado para suprimir este tipo de discurso. Más allá del contenido en estos casos, el Consejo emitió recomendaciones para abordar los posibles efectos negativos que las revisiones del 7 de enero de 2025 a la política, ahora denominada de Política sobre conductas que incitan al odio, podrían tener sobre personas LGBTQIA+, incluyendo menores de edad.
Haga clic aquí para obtener la decisión completa.
Para leer un resumen de los comentarios públicos de estos casos, haga clic aquí.
Publicaciones que muestran la bandera de la época del apartheid en Sudáfrica
(2025-001-FB-UA, 2025-002-FB-UA)
Tras la revisión de dos publicaciones en Facebook que contenían imágenes de la bandera que se utilizaba en Sudáfrica entre 1928 y 1994, la mayoría de los miembros del Consejo respaldó la decisión de Meta de mantenerlas publicadas. Los miembros del Consejo reconocen las consecuencias duraderas y el legado del apartheid en Sudáfrica. Sin embargo, estas dos publicaciones no promueven de forma explícita la exclusión ni la segregación, ni pueden interpretarse como un llamado a la violencia ni a la discriminación. La deliberación sobre estos casos también dio lugar a recomendaciones para mejorar el lenguaje conflictivo presente en la política sobre personas y organizaciones peligrosas.
Haga clic aquí para obtener la decisión completa.
Para leer un resumen de los comentarios públicos de estos casos, haga clic aquí.
Críticas a inmigrantes y a las políticas migratorias de la UE
(2025-003-FB-UA, 2025-004-FB-UA)
La mayoría de los miembros del Consejo determinó que dos publicaciones relacionadas con la inmigración, publicadas en Facebook antes de las elecciones del Parlamento Europeo de junio de 2024, infringen la Política sobre conductas que incitan al odio, y que Meta debe eliminarlas. El Consejo reconoce que el derecho a la libre expresión es fundamental al evaluar debates y comentarios políticos. Sin embargo, el contenido de estas dos publicaciones contribuyó al aumento del riesgo de violencia y discriminación en el contexto de una campaña electoral en la que la inmigración era un tema central y el sentimiento contra la inmigración se encontraba en ascenso. Para la mayoría de los miembros, su eliminación es necesaria y proporcional. Una publicación que realizó un partido político polaco utiliza intencionadamente lenguaje racista para capitalizar el sentimiento contra la inmigración. La otra publicación generaliza a las personas inmigrantes, calificándolas como "violadores en grupo", una afirmación que, al repetirse, fomenta el miedo y el odio.
Haga clic aquí para obtener la decisión completa.
Para leer un resumen de los comentarios públicos de estos casos, haga clic aquí.
Publicaciones de apoyo a los disturbios del Reino Unido
(2025-009-FB-UA, 2025-010-FB-AU, 2025-011-FB-UA)
Tras examinar tres publicaciones diferentes compartidas durante los disturbios en el Reino Unido durante el verano de 2024, el Consejo anuló las decisiones originales de Meta de mantenerlas disponibles en Facebook. Cada una de las publicaciones generaba un riesgo de daño probable e inminente. Deberían haberse eliminado. El contenido se publicó durante un periodo de ira colectiva y violencia creciente, alimentado por información errónea y noticias falsas en las redes sociales. El sentimiento contra la comunidad musulmana y contra la inmigración se trasladó a las calles. Meta activó el Protocolo sobre política de crisis (Crisis Policy PRotogol, CPP) como respuesta a los disturbios, y posteriormente, identificó al Reino Unido como una zona de alto riesgo el 6 de agosto. Estas medidas llegaron demasiado tarde. Para entonces, las tres publicaciones ya se encontraban disponibles. El Consejo manifiesta su preocupación por la lentitud de Meta en la aplicación de medidas de emergencia y señala que debieron haberse adoptado con mayor celeridad para frenar la amplificación de contenido perjudicial.
Haga clic aquí para obtener la decisión completa.
Para leer un resumen de los comentarios públicos de estos casos, haga clic aquí.
Uso de términos reapropiados en el arte drag
(2025-013-IG-UA)
Haga clic aquí para obtener las decisiones sumarias.
Comentario dirigido a personas con síndrome de Down
(2025-014-FB-UA)
Haga clic aquí para obtener las decisiones sumarias.