Anulado
Bot de Birmania
11 de agosto de 2021
El Consejo asesor de contenido anuló la decisión de Facebook de eliminar una publicación en birmano conforme a la norma comunitaria sobre lenguaje que incita al odio.
Resumen del caso
El Consejo asesor de contenido anuló la decisión de Facebook de eliminar una publicación en birmano conforme a la norma comunitaria sobre lenguaje que incita al odio. El Consejo determinó que la publicación no estaba dirigida al pueblo chino, sino al Estado de China. Específicamente, las groserías se usaron para hacer referencia a las políticas gubernamentales chinas en Hong Kong como parte de un debate político sobre el papel del gobierno chino en Myanmar.
Información sobre el caso
En abril de 2021, un usuario de Facebook que aparentemente estaba en Myanmar publicó en su biografía en birmano. En la publicación, se analizaban distintos modos de limitar la financiación del ejército de Myanmar tras el golpe del 1 de febrero de 2021 en dicho país. Se proponía que los ingresos tributarios se otorgaran al Comité Representante de Pyidaungsu Hluttaw (CRPH), un grupo de legisladores que se opuso al golpe. La publicación obtuvo alrededor de medio millón de visualizaciones, y ningún usuario de Facebook la reportó.
Facebook tradujo el fragmento con la supuesta infracción de la publicación del usuario del siguiente modo: "Los hongkoneses, debido a que los chinos de mierda los torturaron, trasladaron sus servicios bancarios al Reino Unido, y ahora (los chinos) no pueden entrometerse". Facebook eliminó la publicación conforme a la norma comunitaria sobre lenguaje que incita al odio. En ella, se prohíbe el contenido que se dirige a una persona o un grupo de personas con base en su raza, etnia o nacionalidad con "términos o frases ofensivos con la intención de insultar".
Los cuatro revisores de contenido que examinaron la publicación estuvieron de acuerdo en que infringía las reglas de Facebook. En su apelación al Consejo, el usuario indicó que publicó el contenido para "detener el brutal régimen militar".
Conclusiones principales
Este caso destaca la importancia de considerar el contexto a la hora de hacer cumplir las políticas relativas al lenguaje que incita al odio, así como la magnitud de proteger el discurso político. Esto es particularmente pertinente en Myanmar debido al golpe de febrero de 2021 y el papel clave de Facebook como medio de comunicación en el país.
En la publicación, se usó la frase en birmano "$တရုတ်", que Facebook tradujo como "chinos de mierda" (o "sout ta-yote"). Según Facebook, la palabra "ta-yote" "desde un punto de vista cultural y lingüístico, se percibe como una superposición de identidades o significados entre China el país y el pueblo chino". Facebook señaló que, dada la naturaleza de esta palabra y el hecho de que el usuario no "indicó con claridad que el término se refería al país o Gobierno de China", determinó que "el usuario se estaba refiriendo, al menos, al pueblo chino". Por ello, Facebook eliminó la publicación conforme a su norma comunitaria sobre lenguaje que incita al odio.
Como la misma palabra se usa en birmano para referirse a un Estado y a las personas de ese Estado, el contexto es clave para comprender el significado buscado. A raíz de varios factores, el Consejo se convenció de que el usuario no se estaba dirigiendo al pueblo chino, sino al Estado de China.
El fragmento de la publicación que supuestamente infringía las reglas de Facebook se refería a las políticas financieras de China en Hong Kong como "tortura" o "persecución", y no a las acciones de personas o del pueblo chino en Myanmar. Ambos traductores del Consejo indicaron que, en este caso, la palabra "ta-yote" se refería a un Estado. Cuando se les preguntó si podría haber algún tipo de ambigüedad en esta referencia, los traductores indicaron que no había duda. Los traductores del Consejo también señalaron que la publicación incluía términos comúnmente usados por el Gobierno de Myanmar y la embajada de China para dirigirse el uno al otro. Además, si bien medio millón de personas vio la publicación y más de 6.000 personas la compartieron, ningún usuario la reportó. Asimismo, de acuerdo con los comentarios del público, el tono general de la publicación fue el de un debate político.
Dado que la publicación no se dirigía a personas con base en su raza, etnia o nacionalidad, sino que estaba dirigida a un Estado, el Consejo determinó que no infringía la norma comunitaria sobre lenguaje que incita al odio de Facebook.
La decisión del Consejo asesor de contenido
El Consejo asesor de contenido anuló la decisión de Facebook de eliminar el contenido y solicitó que se restaure la publicación.
En una declaración de asesoramiento normativo, el Consejo recomienda que Facebook:
- Garantice que sus Normas de implementación internas estén disponibles en el idioma en el que los moderadores de contenido revisan el contenido. En caso de tener que priorizar, Facebook debe enfocarse primero en aquellos contextos en los que los derechos humanos corren mayor riesgo.
* Los resúmenes de casos ofrecen información general sobre los casos y no sientan precedentes.
Decisión del caso completa
1. Resumen de la decisión
El Consejo asesor de contenido anuló la decisión de Facebook de eliminar contenido conforme a la norma comunitaria sobre lenguaje que incita al odio. El Consejo determinó que la publicación no incluía lenguaje que incita al odio.
2. Descripción del caso
En abril de 2021, un usuario de Facebook que aparentemente estaba en Myanmar publicó en su biografía en birmano. En la publicación, se analizaban distintos modos de limitar la financiación del ejército de Myanmar tras el golpe del 1 de febrero de 2021 en dicho país. Se proponía que los ingresos tributarios se otorgaran al Comité Representante de Pyidaungsu Hluttaw (CRPH), un grupo de legisladores que se opuso al golpe. La publicación obtuvo alrededor de 500.000 visualizaciones y unas 6.000 reacciones, y se compartió aproximadamente 6.000 veces. Ningún usuario de Facebook reportó la publicación.
Facebook tradujo el fragmento con la supuesta infracción de la publicación del usuario del siguiente modo: "Los hongkoneses, debido a que los chinos de mierda los torturaron, trasladaron sus servicios bancarios al Reino Unido, y ahora (los chinos) no pueden entrometerse". Facebook eliminó la publicación como caso de "nivel 2" en la categoría de lenguaje que incita al odio conforme a su norma comunitaria sobre lenguaje que incita al odio el día posterior a su publicación. En ella, se prohíbe el contenido que se dirige a una persona o un grupo de personas con base en su raza, etnia o nacionalidad con "términos o frases ofensivos con la intención de insultar".
Según Facebook, una instancia en que se compartió la publicación "se seleccionó automáticamente como parte de una muestra y se envió a un revisor con fines de entrenamiento de clasificadores". En este procedimiento, Facebook crea conjuntos de datos de ejemplos de contenido infractor y no infractor para entrenar sus procesos automatizados de detección y cumplimiento de normas que permiten predecir si el contenido infringe las políticas de Facebook. El revisor determinó que la publicación compartida infringía la norma comunitaria sobre lenguaje que incita al odio. Si bien la finalidad del proceso era crear conjuntos de contenido para entrenar al clasificador, una vez que se determinó que la publicación compartida infringía las normas, se eliminó.
Como se determinó que la publicación compartida infringía las reglas de Facebook, un "bot de acción administrativa" identificó de forma automática la publicación original para que se revisara. Facebook explicó que el bot de acción administrativa es una cuenta interna de Facebook que no evalúa de ningún modo el contenido, pero que lleva a cabo "varias acciones a lo largo del sistema de cumplimiento de normas en función de decisiones tomadas por seres humanos o la automatización". Luego, dos revisores analizaron la publicación original, y ambos determinaron que se trataba de un caso de "nivel 2" en la categoría de lenguaje que incita al odio. Se eliminó el contenido. El usuario apeló la eliminación ante Facebook, y un cuarto revisor ratificó la eliminación. De acuerdo con Facebook, "todos los revisores de contenido que participaron en este caso eran miembros de un equipo de revisión de contenido en birmano de Facebook". Luego, el usuario presentó la apelación ante el Consejo asesor de contenido.
3. Autoridad y alcance
El Consejo tiene la facultad para revisar la decisión de Facebook tras una apelación del usuario cuya publicación se eliminó (Artículo 2, sección 1, del acta constitutiva; Artículo 2, sección 2.1, de los estatutos). El Consejo puede sostener o revertir esa decisión (Artículo 3, sección 5, del acta constitutiva). Las decisiones del Consejo son vinculantes y pueden incluir declaraciones de asesoramiento normativo con recomendaciones. Estas recomendaciones no son vinculantes, pero Facebook debe responder a ellas (Artículo 3, sección 4, del acta constitutiva). El Consejo es un mecanismo de reclamo independiente que aborda disputas de un modo transparente y basado en principios.
4. Normas pertinentes
El Consejo asesor de contenido consideró las siguientes normas en su decisión:
I. Normas comunitarias de Facebook
Las Normas comunitarias de Facebook definen el lenguaje que incita al odio como un ataque directo a personas según lo que llamamos características protegidas, por ejemplo, raza, etnia, nacionalidad, religión, orientación sexual, casta, sexo, género, identidad de género y discapacidad o enfermedad grave. Conforme al "nivel 2", el contenido prohibido incluye términos despectivos, definidos como "términos o frases ofensivos con la intención de insultar, incluidos, entre otros: mierda, cabrón, hijo de perra".
II. Valores de Facebook
Los valores de Facebook se detallan en la introducción a las Normas comunitarias. El valor de "expresión" se describe como fundamental.
Nuestras Normas comunitarias siempre apuntaron a crear un espacio donde las personas puedan expresarse y dar a conocer su opinión. [...] Queremos que las personas puedan hablar abiertamente sobre los temas que les importan, incluso si otros no están de acuerdo o los consideran objetables.
Facebook limita la "expresión" en favor de otros cuatro valores, y dos de ellos son relevantes en este caso:
Seguridad: nos comprometemos a hacer de Facebook un lugar seguro. La expresión que supone una amenaza para las personas puede intimidar, excluir o silenciar a otros, por lo que no está permitida en Facebook.
"Dignidad" : creemos que todas las personas son dignas y tienen los mismos derechos. Esperamos que esas personas respeten la dignidad de los demás y no los acosen ni los degraden.
III. Normas de derechos humanos
Los Principios Rectores sobre las Empresas y los Derechos Humanos de la ONU (UNGP), respaldados por el Consejo de Derechos Humanos de la ONU en 2011, establecen un marco voluntario que encuadra las responsabilidades de las empresas privadas en cuanto a estos derechos. En 2021, Facebook anunció su Política corporativa de derechos humanos, con la que honró su compromiso con el respeto de los derechos humanos de conformidad con los UNGP. El análisis del Consejo en este caso se basó en las siguientes normas de derechos humanos:
- Libertad de expresión: Artículo 19 del Pacto Internacional de Derechos Civiles y Políticos (ICCPR), observación general n.º 34, Comité de Derechos Humanos (2011).
- Responsabilidades de las empresas: informe "Empresas, derechos humanos y regiones afectadas por conflictos: hacia el aumento de las medidas" (A/75/212) del Grupo de Trabajo sobre la cuestión de los derechos humanos y las empresas transnacionales y otras empresas de la ONU.
5. Declaración del usuario
El usuario declaró en su apelación ante el Consejo que publicó el contenido para "detener el brutal régimen militar" y aconsejar a los líderes democráticos de Myanmar. El usuario también reiteró la necesidad de limitar la financiación del régimen militar de Myanmar. El usuario se identificó a sí mismo como "activista" y especuló que los informantes del régimen militar de Myanmar reportaran su publicación. También afirmó que "alguien que entendiera el birmano" debía revisar la publicación.
6. Explicación de la decisión de Facebook
Facebook eliminó el contenido como un ataque de "nivel 2" conforme a la norma comunitaria sobre lenguaje que incita al odio, específicamente, por infringir su política que prohíbe los insultos ofensivos dirigidos a personas con base en su raza, etnia o nacionalidad. De acuerdo con Facebook, se consideró que el contenido presuntamente infractor era un ataque al pueblo chino.
El contenido incluía la frase en birmano "$တရုတ်", que el equipo regional de Facebook tradujo como "chinos de mierda" (o "sout ta-yote"). El equipo regional de Facebook agregó que "$" puede usarse como abreviatura de "စောက်" o "sout", que se traduce como "de mierda". Según el equipo de Facebook, la palabra "ta-yote" "desde un punto de vista cultural y lingüístico, se percibe como una superposición de identidades o significados entre China el país y el pueblo chino". Facebook proporcionó al Consejo las pautas internas confidenciales pertinentes que entrega a los moderadores (o Normas de implementación internas) sobre lenguaje distintivo que se dirige a personas con base en características protegidas y conceptos relacionados con ellas.
Facebook también señaló en el fundamento de su decisión que, tras el golpe de febrero de 2021, "se informó un incremento del sentimiento antichino" en Myanmar y que "varios chinos sufrieron lesiones, quedaron atrapados o fallecieron en un presunto ataque incendiario en una fábrica de ropa con financiación china en Rangún, Myanmar". En respuesta a una pregunta del Consejo, Facebook afirmó que no tuvo ningún contacto con el régimen militar de Myanmar sobre esta publicación.
Facebook señaló que, dada la naturaleza de la palabra "ta-yote" y el hecho de que el usuario no "indicó con claridad que el término se refería al país o Gobierno de China", determinó que "el usuario se estaba refiriendo, al menos, al pueblo chino". Por lo tanto, Facebook expresó que la eliminación de la publicación fue coherente con su norma comunitaria sobre lenguaje que incita al odio.
Facebook también alegó que la eliminación fue coherente con sus valores de "dignidad" y "seguridad", que en este caso tuvieron más peso que el valor de "expresión". De acuerdo con Facebook, los insultos ofensivos dirigidos al pueblo chino "podrían causarles daños a esas personas" y "las degradan, las deshumanizan y denigran su dignidad individual".
Facebook declaró que su decisión fue coherente con las normas internacionales de derechos humanos. Facebook manifestó que su decisión cumplió con los requisitos de la legislación internacional de derechos humanos en cuanto a legalidad, fin legítimo y necesidad y proporcionalidad. De acuerdo con Facebook, se podía "acceder con facilidad" a su política en las Normas comunitarias y "las palabras elegidas por el usuario estaban sin duda entre los términos ofensivos prohibidos". Además, la decisión de eliminar el contenido fue legítima para proteger "los derechos de otras personas contra el daño y la discriminación". Por último, la decisión de eliminar el contenido fue "necesaria y proporcionada", ya que "la acumulación de contenido con groserías dirigidas al pueblo chino 'crea un entorno en el que hay más probabilidades de tolerar actos de violencia y de que se replique la discriminación en la sociedad'", como se indica en la decisión del Consejo 2021-002-FB-UA relacionada con Zwarte Piet. Facebook señaló que existía una similitud porque "ambos casos involucraban lenguaje que incita al odio dirigido a personas con base en su raza o etnia".
7. Comentarios de terceros
El Consejo asesor de contenido recibió diez comentarios del público relacionados con este caso. Cinco de los comentarios fueron de Asia-Pacífico y Oceanía, específicamente, de Myanmar, y cinco fueron de los Estados Unidos y Canadá. El Consejo recibió comentarios de partes interesadas, incluidos defensores de los derechos humanos y organizaciones de sociedad civil que se ocupan de la libertad de expresión y el lenguaje que incita al odio en Myanmar.
Los comentarios abarcaron varios temas, como la traducción y el análisis de la palabra "sout ta-yote"; si el contenido atacaba a China o al pueblo chino; si se trataba de un discurso político que debería protegerse en el contexto del conflicto en Myanmar; si hubo un incremento en el sentimiento antichino en Myanmar tras el golpe de febrero de 2021; la relación entre China y el régimen militar de Myanmar, y las prácticas de moderación de contenido de Facebook, en particular, el uso, el entrenamiento y la auditoría de las herramientas de automatización de Facebook para contenido en birmano.
Si quieres leer los comentarios del público que se enviaron en relación con este caso, haz clic aquí.
8. Análisis del Consejo asesor de contenido
Este caso destaca la importancia del contexto a la hora de hacer cumplir las políticas de contenido elaboradas para proteger a los usuarios contra el lenguaje que incita al odio, sin dejar de respetar el discurso político. Esto es particularmente pertinente en Myanmar debido al golpe de febrero de 2021 y la importancia de Facebook como medio de comunicación. El Consejo analizó la pregunta de si este contenido debería restaurarse tomando como base tres perspectivas: las Normas comunitarias de Facebook, los valores de la empresa y sus responsabilidades con los derechos humanos.
8.1. Cumplimiento de las Normas comunitarias
El Consejo consideró que la restauración del contenido es coherente con la norma comunitaria sobre lenguaje que incita al odio de Facebook. La política de Facebook prohíbe "los términos ofensivos con la intención de insultar" que se dirigen a una persona o personas con base en la raza, etnia o nacionalidad. El Consejo concluyó que la publicación no se dirigía a personas, sino a las políticas gubernamentales chinas en Hong Kong, y que se hizo en el contexto de un debate sobre el papel del Gobierno chino en Myanmar.
Además de los comentarios del público, el Consejo también solicitó dos traducciones del texto. Las traducciones las realizaron un hablante de birmano ubicado en Myanmar y otro hablante de birmano ubicado fuera de Myanmar. De acuerdo con los comentarios del público y los traductores del Consejo, en birmano, la misma palabra se usa para referirse a Estados y a las personas de esos Estados. Por lo tanto, el contexto es clave para comprender el significado buscado. Esto tiene especial importancia a la hora de aplicar la política relativa al lenguaje que incita al odio de Facebook. En el momento en que se eliminó el contenido, en la norma comunitaria sobre lenguaje que incita al odio, se prohibían los ataques contra personas con base en su nacionalidad, pero no se prohibían los ataques contra países.
El Consejo consideró varios factores al definir que esta publicación no se dirigía al pueblo chino con base en su etnia, raza o nacionalidad. En primer lugar, la publicación en general sugería distintos modos de limitar el compromiso financiero con el régimen militar y de ofrecer apoyo financiero al CRPH. En segundo lugar, el fragmento de la publicación supuestamente infractor se refería a las políticas financieras de China en Hong Kong como "tortura" o "persecución", y no a las acciones de personas o del pueblo chino en Myanmar. En tercer lugar, aunque la ausencia de reportes en una publicación que se compartió muchas veces no siempre indica que no es infractora, más de 500.000 personas la vieron, y más de 6.000 personas la compartieron, pero ningún usuario la reportó. En cuarto lugar, los dos traductores con los que el Consejo consultó indicaron que, si bien el mismo término se usa para referirse tanto a un Estado como a las personas de allí, en este caso, se refería al Estado. Cuando se les preguntó si podría haber algún tipo de ambigüedad en esta referencia, los traductores indicaron que no había duda. En quinto lugar, ambos traductores señalaron que la publicación incluía términos comúnmente usados por el Gobierno de Myanmar y la embajada de China para dirigirse el uno al otro. Por último, de acuerdo con la mayoría de los comentarios del público, el tenor general de la publicación, en gran medida, fue el de un debate político.
Por lo tanto, dado que las groserías no se dirigían a personas con base en su raza, etnia o nacionalidad, sino que estaban dirigidas a un Estado, el Consejo concluyó que no infringían la norma comunitaria sobre lenguaje que incita al odio de Facebook. Es esencial garantizar que las prohibiciones que impidan dirigirse a personas con base en características protegidas no se interpreten de tal manera que protejan a Gobiernos e instituciones contra las críticas. El Consejo reconoció que el lenguaje que incita al odio antichino es un asunto grave, pero esta publicación hacía referencia al Estado de China.
El Consejo no estuvo de acuerdo con el argumento de Facebook de que su decisión de eliminar este contenido se basó en los fundamentos del Consejo de la decisión del caso 2021-002-FB-UA, en donde el Consejo ratificó la eliminación de representaciones de personas con la cara pintada de negro. En ese caso, Facebook tenía una regla contra las representaciones de personas con la cara pintada de negro, y el Consejo permitió que Facebook la aplicara en contenido que incluía representaciones de Zwarte Piet con la cara pintada de negro. Aquí, por el contrario, el contexto de la publicación indicaba que el lenguaje usado no infringía ninguna regla de Facebook en absoluto.
Durante la deliberación del Consejo acerca de este caso, Facebook actualizó su norma comunitaria sobre lenguaje que incita al odio e incorporó más información sobre la prohibición del uso de "conceptos" relacionados con características protegidas en ciertas circunstancias. En esta nueva regla, se establece que Facebook "requiere información adicional o contexto" para el cumplimiento de normas y que los usuarios no deben publicar "contenido que ataque a conceptos, instituciones, ideas, prácticas o creencias asociados con características protegidas, que probablemente contribuya a la aparición inminente de daño físico, intimidación o discriminación contra las personas vinculadas a esa característica protegida".
Como no era parte de la norma comunitaria cuando Facebook eliminó este contenido, y Facebook no alegó que eliminó el contenido conforme a esta modificación de la norma ante el Consejo, el Consejo no analizó la aplicación de esta política en este caso. Sin embargo, el Consejo señaló que "conceptos, instituciones, ideas, prácticas o creencias" podría alcanzar a muchísimas expresiones, incluido el discurso político.
8.2 Cumplimiento de los valores de Facebook
El Consejo concluyó que el restablecimiento del contenido es coherente con los valores de Facebook. Si bien los valores de Facebook de "dignidad" y "seguridad" son importantes, especialmente en el contexto del golpe de febrero de 2021 en Myanmar, este contenido no suponía ningún riesgo para estos valores que justificara el desplazamiento del valor de "expresión". El Consejo también determinó que la publicación contenía un discurso político que es esencial para el valor de "expresión".
8.3 Cumplimiento de las responsabilidades de Facebook con los derechos humanos
El Consejo concluyó que la restauración del contenido es coherente con las responsabilidades de Facebook como empresa con los derechos humanos. Facebook se comprometió a respetar los derechos humanos de conformidad con los Principios Rectores de la ONU sobre las Empresas y los Derechos Humanos (UNGP). En su Política corporativa de derechos humanos, se dispone que esto incluye el Pacto Internacional de Derechos Civiles y Políticos (ICCPR).
El Artículo 19 del ICCPR prevé una amplia protección de la expresión. Esta protección es "especialmente elevada" cuando se trata de expresiones y debates políticos, incluidos aquellos sobre instituciones públicas (observación general n.º 34, párrafo 38). El Artículo 19 dispone que las restricciones estatales sobre la expresión deben superar la prueba de tres partes centrada en la legalidad, la legitimidad, la necesidad y la proporcionalidad. El Consejo concluyó que las medidas de Facebook no estuvieron en consonancia con sus responsabilidades como empresa conforme a esta prueba.
I. Legalidad (claridad y accesibilidad de las reglas)
El principio de legalidad conforme a la legislación internacional de derechos humanos exige que cualquier regla que los Estados usen para limitar la expresión sea clara y accesible (observación general n.° 34, párrafo 25). Además, las reglas que restringen la expresión deben proporcionar suficientes pautas para aquellos que están a cargo de su implementación, de manera que puedan definir qué tipos de expresión pueden restringirse de forma adecuada y cuáles no (observación general n.º 34, párrafo 25).
La norma comunitaria sobre lenguaje que incita al odio prohíbe las groserías dirigidas a personas con base en la raza, etnia o nacionalidad. Facebook le indicó al Consejo que, debido a la dificultad en "determinar la intención a escala, Facebook considera que la frase 'chinos de mierda' se refiere al pueblo chino y a China el país o su Gobierno, a menos que el usuario proporcione contexto adicional donde aclare que se refiere únicamente al país o al Gobierno". La política de eliminar el contenido como opción predeterminada no está establecida en la norma comunitaria.
El Consejo concluyó que el usuario proporcionó contexto adicional que demostraba que la publicación se refería a un Estado o país, como se señaló en el análisis del Consejo de la norma comunitaria sobre lenguaje que incita al odio (sección 8.1 anterior). Varios revisores de Facebook llegaron a una conclusión diferente de la de los traductores del Consejo, las personas que enviaron comentarios del público y, presuntamente, muchos de los más de 500.000 usuarios que vieron la publicación y no la reportaron. Dada esta divergencia, el Consejo cuestionó la idoneidad de las pautas internas, los recursos y la capacitación que Facebook ofrece a los moderadores de contenido.
A raíz de la conclusión del Consejo de que el usuario no infringió la política relativa al lenguaje que incita al odio de Facebook, el Consejo aún no decidió si la política no pública de eliminar el contenido como opción predeterminada infringe el principio de legalidad. Sin embargo, al Consejo le preocupa que la política de eliminar el contenido como opción predeterminada en los casos de groserías que pudieran interpretarse como dirigidas a personas o a un Estado no está definida con claridad en las Normas comunitarias. En general, Facebook debe elaborar pautas internas públicas que modifiquen la interpretación de sus Normas comunitarias orientadas al público.
II. Fin legítimo
Cualquier restricción estatal sobre la expresión debe procurar alguno de los fines legítimos mencionados en el ICCPR, entre ellos, los "derechos de los demás". De acuerdo con Facebook, la finalidad de su política relativa al lenguaje que incita al odio es proteger a los usuarios contra la discriminación. El Consejo coincidió en que este es un fin legítimo.
III. Necesidad y proporcionalidad
El principio de necesidad y proporcionalidad en el marco de la legislación internacional de derechos humanos exige que las restricciones que se apliquen a la expresión deben ser adecuadas a fin de cumplir su función de protección, deben ser el instrumento menos invasivo entre aquellos que permitan cumplir dicha función, deben ser proporcionales al interés que se busca proteger (observación general n.° 34, párrafo 34). En este caso, con base en su interpretación del contenido, el Consejo determinó que la restricción de esta publicación no serviría como medida de protección.
En los PRNU, se indica que las empresas deben llevar a cabo debida diligencia continua respecto de los derechos humanos para evaluar las repercusiones de sus actividades (PRNU 17) y se reconoce que el riesgo de que los derechos humanos se vean perjudicados aumenta en contextos afectados por conflictos (PRNU 7). El Grupo de Trabajo sobre la cuestión de los derechos humanos y las empresas transnacionales y otras empresas de la ONU señaló que las responsabilidades de diligencia de las empresas deben reflejar la mayor complejidad y riesgo de daños existentes en ciertas situaciones (A/75/212, párrafos 41-49). De modo similar, en la decisión del caso 2021-001-FB-FBR, el Consejo recomendó que Facebook "garantizara que los recursos y conocimientos fueran adecuados para evaluar los riesgos de daños que suponen las cuentas influyentes en todo el mundo" y reconoció que Facebook debería dedicar atención a las regiones con mayores riesgos.
En este caso, el Consejo determinó que este aumento de las responsabilidades no debe originar la eliminación de forma predeterminada, ya que lo que está en juego es mucho, tanto en conservar contenido dañino como en eliminar contenido que implica poco o ningún riesgo de daño. Si bien la preocupación de Facebook por el lenguaje que incita al odio en Myanmar tiene buenos fundamentos, también debe prestar particular atención a no eliminar críticas o expresiones políticas, en este caso, en apoyo de una gobernanza democrática.
El Consejo indicó que la política de Facebook de suponer que las groserías que mencionan una nacionalidad (en este caso "$တရုတ်") se refieren a Estados y a las personas podría conllevar un cumplimiento de normas desproporcionado en algunos contextos lingüísticos, como este, donde la misma palabra se usa para ambos. El Consejo también destacó que el impacto de esta eliminación se extiende más allá del caso, ya que Facebook indicó que se usó en un entrenamiento de clasificadores como ejemplo de contenido que infringía la norma comunitaria sobre lenguaje que incita al odio.
Teniendo en cuenta todo lo anterior, con base en las normas internacionales de derechos humanos, se debe restaurar el contenido en Facebook.
9. Decisión del Consejo asesor de contenido
El Consejo asesor de contenido anuló la decisión de Facebook de eliminar el contenido y solicitó que se restaure. Facebook tiene la obligación, de conformidad con el acta constitutiva del Consejo, de implementar esta decisión en contextos similares. Además, debe marcar este contenido como no infractor si se usa para entrenar clasificadores.
10. Recomendación de políticas
Facebook debe garantizar que sus Normas de implementación internas estén disponibles en el idioma en que los moderadores de contenido revisan el contenido. En caso de tener que priorizar, Facebook debe enfocarse primero en aquellos contextos en los que los derechos humanos corren mayor riesgo.
* Nota de procedimiento:
La preparación de las decisiones del Consejo asesor de contenido está a cargo de paneles conformados por cinco miembros, quienes deben aprobarlas por mayoría. Las decisiones del Consejo no necesariamente representan las opiniones personales de todos los miembros.
En cuanto a la decisión del caso, se encargó una investigación independiente en nombre del Consejo. Un instituto de investigación independiente con sede en la Universidad de Gotemburgo y un equipo conformado por más de 50 científicos sociales de seis continentes, así como 3.200 expertos de diferentes países del mundo, ofrecen sus conocimientos sobre contextos culturales y sociopolíticos. La empresa Lionbridge Technologies, LLC, con especialistas en más de 350 idiomas que trabajan en 5.000 ciudades diferentes, se encargó de las competencias en materia lingüística.
Volver a Decisiones de casos y opiniones consultivas sobre políticas