Confirmado

Insultos de Sudáfrica

El Consejo asesor de contenido ratificó la decisión de Facebook de eliminar una publicación que se refería a la sociedad sudafricana conforme a la norma comunitaria sobre lenguaje que incita al odio.

Tipo de decisión

Estándar:

Políticas y temas

Tema
Comunidades marginadas, Gobiernos, Política
Estándar comunitario
Lenguaje que incita al odio

Regiones/Países

Ubicación
Sudáfrica

Plataforma

Plataforma
Facebook

Archivos adjuntos

Public Comments 2021-011-FB-UA

Resumen del caso

El Consejo asesor de contenido ratificó la decisión de Facebook de eliminar una publicación que se refería a la sociedad sudafricana conforme a la norma comunitaria sobre lenguaje que incita al odio. El Consejo determinó que la publicación contenía un insulto que, en el contexto de Sudáfrica, resultaba degradante, excluía a un grupo y era dañino para las personas a las que iba dirigido.

Información sobre el caso

En mayo de 2021, un usuario de Facebook hizo una publicación en inglés en un grupo público que, según su descripción, se centraba en promover la apertura mental. La foto del perfil de Facebook del usuario y la foto del banner muestran a una persona de la comunidad negra. La publicación hablaba sobre el "multirracismo" en Sudáfrica y señalaba que la pobreza y la cantidad de personas sin hogar y sin tierra aumentaron en la población negra del país desde 1994.

La publicación indicaba que las personas blancas poseen y controlan la mayor parte de la riqueza, y que las personas negras ricas quizá son propietarias de algunas empresas, pero no tienen el control de ellas. También afirmaba que si "you think" (piensas) que compartir la comunidad local, el idioma y las escuelas con personas blancas te convierte en un "deputy-white" (representante blanco), entonces "you need to have your head examined" (deberías hacerte analizar la cabeza). La publicación concluía con el siguiente texto: "[y]ou are" a "sophisticated slave", "a clever black", "n goeie kaffir" or "House nigger" (eres un "esclavo sofisticado", un "negro inteligente", un "goeie kaffir" o un "negro doméstico"). En adelante, estos términos se redactarán "k***ir" y "n***ro".

Conclusiones principales

Facebook eliminó el contenido conforme a la norma comunitaria sobre lenguaje que incita al odio por infringir su política que prohíbe el uso de insultos dirigidos a personas con base en su raza, etnia o nacionalidad. La empresa mencionó que tanto "k***ir" como "n***ro" se encuentran en la lista de insultos prohibidos de Facebook en el mercado subsahariano.

El Consejo consideró que la eliminación del contenido es coherente con las Normas comunitarias de Facebook. El Consejo evaluó los comentarios del público y las investigaciones de expertos, y determinó que ambos términos se usan de manera discriminatoria, y que "k***ir" en particular es una palabra dañina con fuertes connotaciones de odio en el contexto de Sudáfrica.

El Consejo acordó con Facebook que el contenido no se publicó a modo de repudio ni para generar conciencia sobre el uso del término "k***ir", ni tampoco lo empleaba de manera autorreferencial o con fines de motivación. Por tal motivo, no se aplicó ninguna excepción a la norma comunitaria sobre lenguaje que incita al odio de la empresa en este caso.

Si bien en la publicación del usuario se debatía sobre los problemas políticos y socioeconómicos relevantes y complejos que se viven en Sudáfrica, el usuario llevaba la crítica al plano racial usando la terminología más grave posible en el país.

En el contexto de Sudáfrica, el insulto "k***ir" es degradante, excluye a un grupo y es dañino para las personas a las que va dirigido. En particular en un país que aún carga con el legado del apartheid, Facebook debe tomar el uso de insultos raciales en la plataforma con seriedad.

El Consejo aboga por una mayor transparencia en torno a la lista de insultos de Facebook. La empresa debe proporcionar más información sobre la lista, lo que incluye cómo se aplica en diferentes mercados y por qué sigue siendo confidencial.

El Consejo también instó a Facebook a mejorar la equidad de los procesos a la hora de aplicar la política sobre lenguaje que incita al odio y realizó la recomendación que figura más adelante. De este modo, los usuarios entenderán mejor por qué Facebook eliminó su contenido y podrán cambiar su comportamiento en el futuro.

La decisión del Consejo asesor de contenido

El Consejo ratificó la decisión de Facebook de eliminar la publicación.

En una declaración de asesoramiento normativo, el Consejo recomienda que Facebook:

  • Notifique a los usuarios acerca de la regla específica incluida en la norma sobre lenguaje que incita al odio que infringieron en el idioma en el que usan Facebook, según la recomendación en la decisión del caso 2020-003-FB-UA (Armenios en Azerbaiyán) y del caso 2021-002-FB-UA (Representación de Zwarte Piet). En este caso, por ejemplo, se debería haber notificado al usuario que infringió la orden que prohíbe el uso de insultos. El Consejo también señaló la respuesta de Facebook a la recomendación n.º 2 en la decisión del caso 2021-002-FB-UA, que describe un nuevo clasificador con el que debería poder notificar a los usuarios de Facebook que hablan inglés que su contenido infringió la regla sobre insultos. El Consejo espera que Facebook brinde información que confirme la implementación de este clasificador en el caso de los usuarios que hablan inglés, así como datos sobre el plazo para realizar dicha implementación en el caso de los usuarios que hablan otros idiomas.

* Los resúmenes de casos ofrecen información general sobre los casos y no sientan precedentes.

Decisión del caso completa

1. Resumen de la decisión

El Consejo asesor de contenido ratificó la decisión de Facebook de eliminar una publicación que se refería a la sociedad sudafricana conforme a la norma comunitaria sobre lenguaje que incita al odio que prohíbe el uso de insultos.

2. Descripción del caso

En mayo de 2021, un usuario de Facebook hizo una publicación en inglés en un grupo público que, según su descripción, se centraba en promover la apertura mental. La foto del perfil de Facebook del usuario y la foto del banner muestran a una persona de la comunidad negra. La publicación hablaba sobre el "multirracismo" en Sudáfrica y señalaba que la pobreza y la cantidad de personas sin hogar y sin tierra aumentaron en la población negra del país desde 1994. La publicación indicaba que las personas blancas poseen y controlan la mayor parte de la riqueza, y que las personas negras ricas quizá son propietarias de algunas empresas, pero no tienen el control de ellas. También afirmaba que si "you think" (piensas) que compartir la comunidad local, el idioma y las escuelas con personas blancas te convierte en un "deputy-white" (representante blanco), entonces "you need to have your head examined" (deberías hacerte analizar la cabeza). La publicación concluía con el siguiente texto: "[y]ou are" a "sophisticated slave", "a clever black", "n goeie kaffir" or "House nigger" (eres un "esclavo sofisticado", un "negro inteligente", un "goeie kaffir" o un "negro doméstico"). En adelante, estos términos se redactarán "k***ir" y "n***ro".

La publicación tuvo más de 1.000 visualizaciones, y generó menos de cinco comentarios y más de diez reacciones. Se compartió más de 40 veces. Un usuario de Facebook reportó la publicación por infringir la norma comunitaria sobre lenguaje que incita al odio de Facebook. Según Facebook, el usuario que publicó el contenido, el usuario que lo reportó y "todos los usuarios que reaccionaron a este, lo comentaron o compartieron" tienen cuentas ubicadas en Sudáfrica.

La publicación permaneció en la plataforma aproximadamente un día. Tras la revisión de un moderador, Facebook eliminó la publicación conforme a su política sobre lenguaje que incita al odio. La norma comunitaria sobre lenguaje que incita al odio de Facebook prohíbe el contenido que "describe o señala negativamente a personas mediante insultos, donde el término 'insulto' se define como palabras que son inherentemente ofensivas y que se usan como etiquetas ofensivas" sobre la base de su raza, etnia o nacionalidad. Facebook manifestó que, si bien la prohibición contra los insultos es de aplicación mundial, la designación de insultos en su lista de insultos interna se define según cada mercado. Tanto "k***ir" como "n***ro" se encuentran en la lista de insultos prohibidos de Facebook en el mercado subsahariano.

Facebook notificó al usuario que su publicación infringía la norma sobre lenguaje que incita al odio de la empresa. En el aviso que se le envió al usuario, Facebook explicaba que esta norma prohíbe, por ejemplo, el lenguaje que incita al odio, los insultos y las afirmaciones sobre el coronavirus. El usuario apeló la decisión de Facebook y, tras una segunda revisión a cargo de un moderador, Facebook confirmó que la publicación infringía las normas. Luego, el usuario presentó una apelación ante el Consejo asesor de contenido.

3. Autoridad y alcance

El Consejo tiene la facultad para revisar la decisión de Facebook tras una apelación del usuario cuya publicación se eliminó (Artículo 2, sección 1, del acta constitutiva; Artículo 2, sección 2.1, de los estatutos). El Consejo puede ratificar o revertir esa decisión, y la acción que realice será vinculante para Facebook (Artículo 3, sección 5, del acta constitutiva). Las decisiones del Consejo pueden incluir declaraciones de asesoramiento normativo con recomendaciones no vinculantes a las que Facebook debe responder (Artículo 3, sección 4, del acta constitutiva). El Consejo es un mecanismo de reclamo independiente que aborda disputas de un modo transparente y basado en principios.

4. Normas pertinentes

El Consejo asesor de contenido consideró las siguientes normas en su decisión:

I. Normas comunitarias de Facebook

Las Normas comunitarias de Facebook definen el lenguaje que incita al odio como un ataque directo a personas según lo que llamamos características protegidas, por ejemplo, raza, etnia, nacionalidad, religión, orientación sexual, casta, sexo, género, identidad de género y discapacidad o enfermedad grave. En virtud del "nivel 3", el contenido prohibido incluye aquel que "describe o señala negativamente a personas mediante insultos, que se definen como palabras inherentemente ofensivas que se usan como etiquetas peyorativas relacionadas con las características que se mencionaron antes".

II. Valores de Facebook

Los valores de Facebook se detallan en la introducción a las Normas comunitarias. El valor de "expresión" se describe como fundamental.

Nuestras Normas comunitarias siempre apuntaron a crear un espacio donde las personas puedan expresarse y dar a conocer su opinión. [...] Queremos que las personas puedan hablar abiertamente sobre los temas que les importan, incluso si otros no están de acuerdo o los consideran objetables.

Facebook limita la "expresión" en favor de otros cuatro valores, y dos de ellos son relevantes en este caso:

Seguridad: nos comprometemos a hacer de Facebook un lugar seguro. La expresión que supone una amenaza para las personas puede intimidar, excluir o silenciar a otros, por lo que no está permitida en Facebook.

"Dignidad" : creemos que todas las personas son dignas y tienen los mismos derechos. Esperamos que esas personas respeten la dignidad de los demás y no los acosen ni los degraden.

III. Normas de derechos humanos

Los Principios Rectores sobre las Empresas y los Derechos Humanos de la ONU (UNGP), respaldados por el Consejo de Derechos Humanos de la ONU en 2011, establecen un marco voluntario que encuadra las responsabilidades de las empresas privadas en cuanto a estos derechos. En 2021, Facebook anunció su Política corporativa de derechos humanos, con la que reafirmó su compromiso con el respeto de los derechos humanos de conformidad con los UNGP. El análisis del Consejo en este caso se basó en las siguientes normas de derechos humanos:

  • Libertad de expresión: Artículo 19 del Pacto Internacional de Derechos Civiles y Políticos (ICCPR); observación general n.º 34 del Comité de Derechos Humanos (2011); Artículo 5 de la Convención Internacional sobre la Eliminación de todas las Formas de Discriminación Racial (ICERD); informe del Relator Especial de la ONU sobre lenguaje que incita al odio, A/74/486 (2019); informe del Relator Especial de la ONU sobre moderación de contenido online, A/HRC/38/35 (2018).
  • Igualdad y no discriminación: Artículo 2, párrafo 1, y Artículo 26 del ICCPR; Artículo 2 de la ICERD; recomendación general n.º 35, Comité para la Eliminación de la Discriminación Racial (2013).

5. Declaración del usuario

En la apelación que presentó ante el Consejo, el usuario indicó que se debe permitir que las personas compartan distintas opiniones en la plataforma y "participen en un debate civil y saludable". El usuario también afirmó que "no escribió sobre ningún grupo para generar odio en torno a él ni para que sus miembros fueran maltratados de ningún modo por miembros de otro grupo". Argumentó que su publicación, por el contrario, "incitaba a los miembros de cierto grupo a hacer introspección y reevaluar sus prioridades y actitudes". También expresó que no hay nada en la publicación ni "en su espíritu o intención" que promueva el lenguaje que incita al odio, y que es desafortunado que Facebook no pueda decirle qué parte de la publicación incluye lenguaje que incita al odio.

6. Explicación de la decisión de Facebook

Facebook eliminó el contenido conforme a la norma comunitaria sobre lenguaje que incita al odio, específicamente por infringir su política que prohíbe el uso de insultos dirigidos a personas con base en su raza, etnia o nacionalidad. En el argumento de su decisión, Facebook manifestó que prohíbe el contenido que incluye insultos, que son palabras inherentemente ofensivas que se utilizan como etiquetas insultantes, a menos que el usuario demuestre con claridad que "lo compartió a modo de repudio, para iniciar un debate o generar conciencia acerca del insulto, o bien de manera autorreferencial o con fines de motivación". Facebook señaló que estas excepciones no se aplican en este caso.

Facebook expuso que la publicación apelaba a "negros inteligentes" y que esta frase "se usó para criticar a los sudafricanos negros a quienes se percibe como excesivamente ansiosos por reflejar una inteligencia notable". Facebook también hizo hincapié en que la publicación incluía los términos "k***ir" y "n***ro", que figuran en su lista confidencial de insultos prohibidos. Según Facebook, la palabra "k***ir" se considera el "epíteto sudafricano con mayor connotación negativa" que las personas blancas del país han usado históricamente como "término despectivo para referirse a las personas negras". Facebook agregó que "la comunidad negra nunca reivindicó este término". Asimismo, manifestó que la palabra "n***ro" también es "altamente ofensiva en Sudáfrica", pero que "la comunidad negra sí la reivindicó para que se utilice en sentido positivo".

Facebook también expresó que, como parte del proceso que se lleva a cabo para determinar si una palabra o frase constituye un insulto, se debe contar con las recomendaciones de partes interesadas internas o externas. Facebook especificó que había consultado recientemente con partes interesadas que confirmaron la necesidad de aplicar la excepción de la política sobre lenguaje que incita al odio, que admite el uso de insultos de "manera autorreferencial o con fines de motivación". Según Facebook, las partes externas en general estuvieron de acuerdo en que es importante "permitir que las personas usen un insulto reivindicado a modo de motivación", pero también es fundamental que Facebook no "adivine, decida o averigüe si un usuario pertenece a un grupo con características protegidas" para determinar si el uso de un insulto infringe sus políticas. En su respuesta ante el Consejo, Facebook confirmó que entre las partes externas había siete expertos u organizaciones de Norteamérica, 16 de Europa, 30 de Oriente Medio, dos de África, seis de Latinoamérica y uno de la región Asia-Pacífico/India.

Facebook concluyó que, pese a que la foto del perfil del usuario muestra a una persona de la comunidad negra, el usuario "no se identifica a sí mismo con los insultos ni manifiesta que estos deberían reconsiderarse o reivindicarse". Según Facebook, "los insultos incluidos en esta publicación se usan de un modo ofensivo para atacar" a las personas de la comunidad negra que viven entre personas blancas. Por lo tanto, Facebook expresó que la eliminación de la publicación fue coherente con su norma comunitaria sobre lenguaje que incita al odio.

Facebook también alegó que la eliminación fue coherente con sus valores de "dignidad" y "seguridad", que en este caso tuvieron más peso que el valor de "expresión". Según Facebook, los insultos de la publicación se usaron "para atacar a otras personas de una manera dañina y no ética que atenta contra los valores de Facebook". En este sentido, Facebook hizo referencia a la decisión del caso 2020-003-FB-UA que tomó el Consejo.

Facebook declaró que su decisión fue coherente con las normas internacionales de derechos humanos. Manifestó que su decisión cumplió con los requisitos de la legislación internacional de derechos humanos que indican que las restricciones a la libertad de expresión respetan los principios de legalidad, fin legítimo y necesidad y proporcionalidad. De acuerdo con Facebook, se podía "acceder con facilidad" a su política en las Normas comunitarias, y "las palabras elegidas por el usuario estaban sin duda entre los insultos prohibidos". Asimismo, la decisión de eliminar el contenido fue legítima para proteger "los derechos de otras personas contra daños y discriminación", y se tomó de conformidad con el requisito del Artículo 20, párrafo 2, del ICCPR que prohíbe el discurso que apoya "el odio basado en la nacionalidad, la raza o las creencias religiosas y que constituye incitación a la discriminación, la hostilidad o la violencia". Por último, Facebook argumentó que su decisión de eliminar el contenido fue "necesaria y proporcionada para limitar el daño" contra miembros de la comunidad negra y "para evitar que otras personas vean lenguaje que incita al odio", e hizo referencia a las recomendaciones para reducir el lenguaje que incita al odio online de The Israel Democracy Institute y Yad Veshem, y al ensayo de Richard Delgado "Words That Wound: A Tort Action for Racial Insults, Epithets, and Name-Calling".

7. Comentarios de terceros

El Consejo asesor de contenido recibió seis comentarios del público relacionados con este caso. Tres de los comentarios procedían de África subsahariana, en especial de Sudáfrica; uno de Oriente Medio y África del Norte; uno de Asia-Pacífico y Oceanía; y uno de Canadá y los Estados Unidos. El Consejo recibió comentarios de partes interesadas, incluidas instituciones académicas y organizaciones de sociedad civil que se ocupan de la libertad de expresión y el lenguaje que incita al odio en Sudáfrica.

Los comentarios presentados abarcaban temas como el análisis de los términos "negros inteligentes", "n***ro" y "k***ir"; si los términos "n***ro" y "k***ir" califican como lenguaje que incita al odio; la identidad del usuario y de la persona que lo reportó, y el impacto que esta tuvo en la percepción de la publicación; y la capacidad de aplicación de excepciones a la política sobre lenguaje que incita al odio de Facebook.

Si quieres leer los comentarios del público que se enviaron en relación con este caso, haz clic aquí.

8. Análisis del Consejo asesor de contenido

El Consejo analizó la pregunta de si este contenido debería restaurarse tomando como base tres perspectivas: las Normas comunitarias de Facebook, los valores de la empresa y sus responsabilidades con los derechos humanos.

8.1. Cumplimiento de las Normas comunitarias

El Consejo consideró que la eliminación del contenido es coherente con las Normas comunitarias de Facebook. El uso del término "k***ir" en la publicación del usuario infringe la norma comunitaria sobre lenguaje que incita al odio y no se puede aplicar la excepción a la política.

La norma comunitaria sobre lenguaje que incita al odio prohíbe los ataques basados en características protegidas. Esto incluye "contenido que describe o señala negativamente a personas mediante insultos, que se definen como palabras inherentemente ofensivas usadas como etiquetas insultantes relacionadas con las características que mencionamos al principio". Facebook considera que "k***ir" y "n***ro" son insultos racistas. El Consejo evaluó los comentarios del público y las investigaciones de expertos, y determinó que ambos insultos se usan de manera discriminatoria, y que "k***ir" en particular es una palabra dañina con fuertes connotaciones de odio en el contexto de Sudáfrica.

Internet es una red internacional y el contenido que los usuarios publican en Facebook en un contexto puede circular y ocasionar daños en otro. Al mismo tiempo, la lista de insultos confidencial de Facebook se divide por mercados, ya que se reconoce que las palabras tienen diferentes significados y pueden tener variadas repercusiones en algunas situaciones. El Consejo indicó que ya había abordado en otra ocasión el uso del término "kafir" en la decisión del caso 2020-007-FB-FBR, en la que ordenó que se restableciera el contenido. En esa oportunidad, Facebook no había tratado el término como insulto, sino que le había atribuido el significado de "no creyentes" dirigido a un grupo de víctimas de presuntas "amenazas veladas", de conformidad con la política sobre violencia e incitación. El término escrito una sola letra "f", que se utilizó en el caso de la India, tiene el mismo origen en árabe que el que tiene el término con dos "f" en Sudáfrica. Esto demuestra lo difícil que es para Facebook aplicar una prohibición global a ciertas palabras en todo el mundo, cuando dos términos similares o idénticos en un mismo idioma o en idiomas diferentes pueden tener distintos significados y suponer diversos riesgos según el uso contextual.

Para el Consejo, la publicación iba dirigida a un grupo de sudafricanos negros. Asimismo, el Consejo expone que la crítica del usuario mencionaba los presuntos privilegios y el supuesto estatus económico, educativo y profesional de este grupo. En su declaración ante el Consejo, el usuario indicó que no atacaba a personas ni incitaba al odio o la discriminación contra ellas sobre la base de la raza. Para algunos miembros del Consejo, este argumento resultó convincente. No obstante, el usuario eligió los términos más extremos posible en Sudáfrica para llevar la crítica al ámbito de la raza. El uso del término "k***ir", con el prefijo "bueno" en afrikáans, tiene una asociación histórica clara de mucho peso en Sudáfrica. El Consejo determina que el uso del término "k***ir" en este contexto no se puede separar de su significado dañino y discriminatorio.

Facebook le comentó al Consejo que revisa su lista de insultos cada año. Respecto de la designación de "k***ir" en la lista, Facebook afirmó que, en 2019, consultó con organizaciones de sociedad civil de Sudáfrica. En esa reunión, las partes interesadas explicaron a Facebook que "k***ir" se usa para denigrar a las personas negras y tratarlas como inferiores y dignas de lástima". Para cumplir con sus responsabilidades para con los derechos humanos en el desarrollo y la revisión de las políticas, incluida la lista de insultos, Facebook debe consultar con los grupos posiblemente afectados y otras partes interesadas relevantes, incluidos expertos en derechos humanos.

Facebook aplica cuatro excepciones a su política sobre insultos que se incluyen en las bases de la norma comunitaria sobre lenguaje que incita al odio: "Somos conscientes de que, a veces, las personas comparten contenido que incluye lenguaje que incita al odio emitido por otra persona con la intención de repudiarlo o concientizar a los demás. En otros casos, el lenguaje que, de otra manera, infringiría nuestras normas se puede usar de forma autorreferencial o con fines de motivación". La mayoría del Consejo opina que las excepciones que hace Facebook no se aplican en este caso. La razón es que el contenido no repudiaba el uso del término "k***ir", no generaba conciencia al respecto ni buscaba servir como motivación. Asimismo, el Consejo determinó que este contenido no era autorreferencial, pese a que algunos miembros consideraban que se debería haber aplicado la excepción porque expresa una crítica contra algunos miembros privilegiados del grupo en cuestión. Sin embargo, para el Consejo, no hay nada en la publicación que sugiera que el usuario se considera parte del grupo atacado. Además, los términos "tú" y "tu" en la publicación marcan una distancia entre el usuario y dicho grupo.

Por lo tanto, el Consejo cree que Facebook actuó de conformidad con su norma comunitaria sobre lenguaje que incita al odio al decidir eliminar este contenido.

8.2 Cumplimiento de los valores de Facebook

El Consejo reconoce que la "expresión" es el valor más importante de Facebook y que Facebook quiere que los usuarios de la plataforma se expresen libremente. Sin embargo, los valores de Facebook también incluyen "dignidad" y "seguridad".

El Consejo destaca la particular importancia del valor de "expresión" para el discurso político sobre igualdad racial y socioeconómica en Sudáfrica. Los debates sobre la distribución de la riqueza, la división racial y la desigualdad tienen mucha relevancia, en especial en una sociedad que muchos afirman que atraviesa una transición del apartheid a un entorno de mayor igualdad. La "expresión" de las personas víctimas de insultos puede verse afectada, ya que un insulto tiene el poder de acallarlas e inhibir su participación en Facebook.

El Consejo también considera que los valores de "dignidad" y "seguridad" tienen fundamental importancia en este contexto. El Consejo determinó que el insulto "k***ir" en el contexto de Sudáfrica puede ser degradante, excluir a un grupo y dañar a las personas a las que va dirigido (consulta, por ejemplo, las páginas 12 y 13 del diccionario de términos que incitan al odio de PeaceTech Lab y Media Monitoring Africa 2019). En particular en un país que aún carga con el legado del apartheid, Facebook debe tomar el uso de insultos raciales en la plataforma con seriedad.

Cabe destacar que, en este contexto, el usuario optó por incluir un insulto particularmente incendiario en Sudáfrica. El usuario podría haber iniciado un debate político y socioeconómico en Facebook de un modo que apelara a las emociones del público sin necesidad de recurrir a este insulto. Esto justificó la decisión de reprimir la "expresión" del usuario en favor de la "expresión", la "dignidad" y la "seguridad" de otras personas.

8.3 Cumplimiento de las responsabilidades de Facebook con los derechos humanos

El Consejo concluyó que la eliminación del contenido es coherente con las responsabilidades de Facebook como empresa con los derechos humanos. Facebook se comprometió a respetar los derechos humanos de conformidad con los Principios Rectores de la ONU sobre las Empresas y los Derechos Humanos (UNGP). En su Política corporativa de derechos humanos, se dispone que esto incluye el Pacto Internacional de Derechos Civiles y Políticos (ICCPR).

El Artículo 19 del ICCPR prevé una amplia protección de la expresión. Sin embargo, esta protección es "especialmente elevada" cuando se trata de expresiones y debates políticos (observación general n.º 34, párrafo 38). En la Convención Internacional sobre la Eliminación de todas las Formas de Discriminación Racial (ICERD), también se dispone la protección de la libertad de expresión (Artículo 5), y el Comité a cargo de controlar el cumplimiento por parte de los Estados hizo hincapié en la importancia que tiene el derecho de asistir a los "grupos vulnerables para reajustar el equilibrio de poder entre los componentes de la sociedad" y de ofrecer "opiniones alternativas y argumentos contrarios" en los debates (recomendación n.º 35, párrafo 29, del Comité de la ICERD). Al mismo tiempo, el Consejo ratificó las decisiones de Facebook de restringir el contenido en virtud de la prueba de tres partes establecida en el Artículo 19 del ICCPR: legalidad, legitimidad, y necesidad y proporcionalidad. El Consejo concluyó que las medidas de Facebook estuvieron en consonancia con sus responsabilidades conforme a esta prueba.

I. Legalidad (claridad y accesibilidad de las reglas)

El principio de legalidad conforme a la legislación internacional de derechos humanos exige que cualquier regla que los Estados usen para limitar la expresión sea clara y accesible (observación general n.° 34, párrafo 25). El Comité de Derechos Humanos también indicó que las reglas "no pueden conferir una discrecionalidad absoluta para restringir la libertad de expresión a los encargados de su implementación" (observación general n.º 34, párrafo 25). En algunas situaciones, los conceptos "inherentemente ofensivo" o "insultante" de Facebook tal vez sean demasiado subjetivos y generen dudas en cuanto a la legalidad (A/74/486, párrafo 46, y A/HRC/38/35, párrafo 26). Asimismo, es posible que haya situaciones en las que un insulto tenga diversos significados o se pueda usar de formas que no se consideren un "ataque".

El Consejo le preguntó a Facebook cómo aplica la lista de insultos específica de cada mercado y si el hecho de que un insulto aparezca en la lista de un mercado implica que este no se puede usar en otras partes del mundo. Facebook respondió que su "prohibición de insultos tiene alcance mundial, pero la designación de los insultos es específica de cada mercado, ya que reconoce que las variaciones culturales y lingüísticas implican que los términos considerados insultos en algunos lugares, tal vez no lo sean en otros". El Consejo reiteró su pregunta inicial. Facebook respondió que "si un término aparece en la lista de insultos de un mercado, la política sobre lenguaje que incita al odio prohíbe su uso en ese mercado en concreto". El término podría usarse en otras partes con un significado diferente. Por lo tanto, Facebook evaluaría de forma independiente agregarlo o no a la lista de insultos de otros mercados. Al Consejo aún no le queda claro cómo Facebook aplica la prohibición de insultos en la práctica y a gran escala. El Consejo no sabe de qué manera los procesos de aplicación de políticas de Facebook para identificar y eliminar contenido infractor funcionan en todo el mundo con términos específicos de un mercado, cómo se definen los mercados, y cuándo y cómo se realizan estas evaluaciones independientes.

En este caso, como se mencionó anteriormente, las fuentes a las que recurrió el Consejo coinciden en que "k***ir" se entiende en todo el mundo como el epíteto racial de mayor connotación negativa de Sudáfrica. Toda la expresión recae, sin lugar a dudas, dentro de la prohibición y Facebook cumplió con su responsabilidad de legalidad en este caso.

El Consejo mencionó su decisión del caso 2021-010-FB-UA junto con la recomendación que hizo a Facebook para que proporcione ejemplos ilustrativos de la política sobre insultos en las Normas comunitarias de dominio público (recomendación n.º 1). El Consejo aboga por una mayor transparencia en torno a la lista de insultos y sigue analizando de qué manera Facebook podría brindar a los usuarios claridad suficiente respecto de los derechos a la igualdad y la no discriminación. Una minoría del Consejo considera que Facebook debería publicar su lista de insultos, de modo que todos los usuarios puedan acceder a ella. Una mayoría cree que el Consejo debería conocer más a fondo el procedimiento y los criterios con los que se confecciona la lista y su aplicación específica, así como los posibles riesgos que conlleva su publicación, incluidos comportamientos estratégicos para eludir las normas sobre insultos y si determinados términos se acumulan con un efecto dañino. Facebook debería contribuir a este debate publicando más información sobre la lista, la designación y los procesos de revisión de insultos, su aplicación y cumplimiento mundial o por mercado o idioma, y el motivo por el que sigue siendo confidencial.

II. Fin legítimo

Cualquier restricción estatal sobre la expresión debe procurar alguno de los fines legítimos mencionados en el ICCPR, entre ellos, los "derechos de los demás". Anteriormente, el Consejo había afirmado que la prohibición de insultos pretende proteger los derechos a la igualdad y la no discriminación de las personas (Artículo 2, párrafo 1, del ICCPR, [así como] el derecho a ejercer su libertad de expresión en la plataforma sin sufrir acoso o recibir amenazas (Artículo 19 del ICCPR), entre otros derechos (decisión del caso 2020-003-FB-UA). El Consejo ratifica la legitimidad de estos fines.

III. Necesidad y proporcionalidad

El principio de necesidad y proporcionalidad en el marco de las leyes internacionales de derechos humanos exige que las restricciones que se apliquen a la expresión deben ser adecuadas a fin de cumplir su función de protección, deben ser el instrumento menos invasivo entre aquellos que permitan cumplir dicha función, deben ser proporcionales al interés que se busca proteger (observación general n.° 34, párrafo 34). En este caso, el Consejo decide que la eliminación del contenido fue una medida adecuada para ejercer una función de protección. El Consejo también emite una recomendación normativa a Facebook relativa a mejoras para aplicar a la norma comunitaria sobre lenguaje que incita al odio.

Esta norma prohíbe algunas expresiones discriminatorias, como insultos, pero no establece requisitos sobre lo que ocurre cuando la expresión incita a actos de violencia o discriminación. Si bien estas prohibiciones suscitarían inquietudes si las impusiera un Gobierno en un nivel más amplio (A/74/486, párrafo 48), en particular si se ejercieran por medio de sanciones penales o civiles, el Relator Especial indica que las entidades que participan en la moderación de contenido, como Facebook, pueden regular este tipo de lenguaje:

La magnitud y la complejidad de la lucha contra las expresiones de odio plantean desafíos a largo plazo y pueden llevar a las empresas a restringir dicha expresión, aun cuando no esté claramente vinculada a resultados adversos (ya que las actividades que fomentan el odio se relacionan con incitación según el Artículo 20[2] del ICCPR). Sin embargo, las empresas deberían articular las bases que sustentan dichas restricciones y demostrar la necesidad y proporcionalidad de cualquier medida que se tome respecto de un contenido (A/HRC/38/35, párrafo 28).

En este caso, el contexto histórico y social fue fundamental, ya que el Consejo menciona que el uso del término "k***ir" se vincula estrechamente con actos de discriminación y la historia del apartheid en Sudáfrica. El Consejo también debatió el estatus de la persona que publicó el contenido y la intención que tuvo. El Consejo reconoce que, en ciertas ocasiones, la identidad racial de la persona que se manifiesta es relevante para analizar el impacto que tiene el contenido. El Consejo hace hincapié en las inquietudes del Relator Especial respecto de que una aplicación incoherente de la política sobre lenguaje que incita al odio podría resultar en la "penalización de minorías y el fortalecimiento del estatus de grupos poderosos o dominantes" en la medida en que el acoso y el abuso sigan ocurriendo online, mientras que se podrían eliminar "críticas a fenómenos racistas y estructuras de poder" ( A/HRC/38/35, párrafo 27). Aunque con una foto del perfil se pueden hacer inferencias sobre el usuario, el Consejo destaca que, en general, no es posible confirmar si las fotos del perfil representan a los responsables de publicar el contenido. Asimismo, el Consejo analizó las inquietudes que Facebook indicó que tenían las partes interesadas respecto de su intento de determinar las identidades raciales de los usuarios. El Consejo señaló que la recopilación o conservación de datos sobre la identidad racial percibida de un usuario por parte de Facebook presenta graves inquietudes respecto de la privacidad. En cuanto a la intención, si bien el usuario indicó que su deseo era invitar a la introspección, la publicación mencionaba un insulto racial con implicaciones históricas de peso con el objetivo de criticar a los sudafricanos negros.

Fue una decisión compleja para el Consejo, ya que resulta en la eliminación de una expresión que debate temas políticos y socioeconómicos relevantes y complejos en Sudáfrica. Estos debates son importantes, y se debe tolerar cierto grado de provocación al tratar dichos asuntos en Facebook. No obstante, el Consejo determina que, dada la información analizada en los párrafos anteriores, Facebook tomó la decisión correcta de eliminar el contenido. El Consejo también emitió una recomendación normativa para que Facebook priorice aumentar la equidad de los procedimientos relacionados con su política sobre lenguaje que incita al odio, de modo que los usuarios entiendan con mayor claridad los motivos por los que se elimina el contenido, si este es el caso, y tengan la posibilidad de considerar modificar su comportamiento.

9. Decisión del Consejo asesor de contenido

El Consejo ratificó la decisión de Facebook de eliminar el contenido.

10. Recomendación de políticas

Aplicación

Para garantizar que los usuarios gocen de equidad en los procedimientos, Facebook debería:

  1. Notificar a los usuarios acerca de la regla específica incluida en la norma comunitaria sobre lenguaje que incita al odio que se infringió en el idioma en el que dicho usuario usa Facebook, según la recomendación en la decisión del caso 2020-003-FB-UA (Armenios en Azerbaiyán) y del caso 2021-002-FB-UA (Representación de Zwarte Piet). En este caso, por ejemplo, se debería haber notificado al usuario que infringió la orden que prohíbe el uso de insultos. El Consejo también señaló la respuesta de Facebook a la recomendación n.º 2 en la decisión del caso 2021-002-FB-UA, que describe un nuevo clasificador con el que debería poder notificar a los usuarios de Facebook que hablan inglés que su contenido infringió la regla sobre insultos. El Consejo espera que Facebook brinde información que confirme la implementación de este clasificador en el caso de los usuarios que hablan inglés, así como datos sobre el plazo para realizar dicha implementación en el caso de los usuarios que hablan otros idiomas.

* Nota de procedimiento:

La preparación de las decisiones del Consejo asesor de contenido está a cargo de paneles conformados por cinco miembros, quienes deben aprobarlas por mayoría. Las decisiones del Consejo no necesariamente representan las opiniones personales de todos los miembros.

En cuanto a la decisión del caso, se encargó una investigación independiente en nombre del Consejo. Un instituto de investigación independiente con sede en la Universidad de Gotemburgo y un equipo conformado por más de 50 científicos sociales de seis continentes, así como 3.200 expertos de diferentes países del mundo, ofrecen sus conocimientos sobre contextos culturales y sociopolíticos. La empresa Lionbridge Technologies, LLC, con especialistas en más de 350 idiomas que trabajan en 5.000 ciudades diferentes, se encargó de las competencias en materia lingüística.

Volver a Decisiones de casos y opiniones consultivas sobre políticas