Anulado

Inquietud punyabí en torno a la RSS en la India

El Consejo asesor de contenido anuló la decisión de Facebook de eliminar una publicación en virtud de su norma comunitaria sobre personas y organizaciones peligrosas.

Tipo de decisión

Estándar:

Políticas y temas

Tema
Política
Estándar comunitario
Personas y organizaciones peligrosas

Regiones/Países

Ubicación
India

Plataforma

Plataforma
Facebook

Para leer esta decisión en punyabí, haz clic aquí.

ਇਹ ਫ਼ੈਸਲਾ ਪੰਜਾਬੀ ਵਿੱਚ ਪੜ੍ਹਨ ਲਈ,"ਇੱਥਕਲਿੱਕ ਕਰੋ।

Resumen del caso

El Consejo asesor de contenido anuló la decisión de Facebook de eliminar una publicación en virtud de su norma comunitaria sobre personas y organizaciones peligrosas. Después de que el Consejo seleccionara este caso para revisión, Facebook restauró el contenido. Al Consejo le preocupaba que Facebook no había revisado la apelación del usuario en relación con la decisión original. Además, el Consejo instó a la empresa a tomar medidas a fin de evitar errores que supriman la libertad de expresión de minorías religiosas.

Información sobre el caso

En noviembre de 2020, un usuario compartió una publicación con video de la empresa de medios online en punyabí, Global Punjab TV. En ella se mostraba una entrevista de 17 minutos con el profesor Manjit Singh, a quien describen como un "activista social y defensor de la cultura punyabí". La publicación también incluía una descripción que mencionaba a la organización nacionalista hindú Rashtriya Swayamsevak Sangh (RSS) y al partido dirigente de la India Bharatiya Janata Party (BJP): "RSS es la nueva amenaza. Ram naam satya hai. El BJP se trasladó al extremismo".

En el texto que acompañaba la publicación, el usuario afirmaba que la RSS amenazaba con asesinar a los sij, una minoría religiosa de la India, y que se repetiría la "saga mortal" de 1984, cuando pandillas hindúes masacraron y quemaron a hombres, mujeres y niños de esta religión. A continuación, el usuario manifestó que el primer ministro Modi está proclamando la amenaza de "genocidio de los sijes", aconsejado por el presidente de la RSS, Mohan Bhagwat. El usuario afirmaba también que los regimientos sijes en el ejército advirtieron al primer ministro Modi sobre su disposición a morir para proteger a los agricultores sijes y su tierra en Punyab.

Luego de que un usuario reportara la publicación, un revisor determinó que esta infringía la norma comunitaria sobre personas y organizaciones peligrosas de Facebook y procedió a eliminarla. Esto activó una restricción automática en la cuenta del usuario. Facebook le informó a este usuario que no podía revisar la apelación contra la eliminación del contenido porque su capacidad de revisión se había reducido temporalmente a causa del COVID-19.

Conclusiones principales

Luego de que el Consejo seleccionara este caso para someterlo a revisión y antes de que se asignara a un panel, Facebook se dio cuenta de que el contenido se había eliminado por equivocación y lo restauró. Facebook indicó que ninguno de los grupos o las personas mencionados en el contenido se designan como "peligrosos" de conformidad con sus reglas. La empresa tampoco logró identificar los términos específicos en la publicación que ocasionaron que se eliminara por error.

El Consejo determinó que la decisión original de Facebook de eliminar la publicación no fue coherente con las Normas comunitarias de la empresa ni con sus responsabilidad para con los derechos humanos.

Asimismo, el Consejo manifestó que la publicación destacaba las inquietudes respecto de la libertad de expresión de las minorías y de la oposición en la India, a las que el Gobierno presuntamente discrimina. Es de particular importancia que Facebook tome medidas para evitar cometer errores que silencien estas voces. Pese a tener en cuenta las circunstancias particulares debido al COVID-19, el Consejo indicó que Facebook no revisó este contenido con el tiempo y la atención adecuados. Expresó que los usuarios deberían poder apelar casos ante Facebook antes de acudir al Consejo e instó a la empresa a priorizar el restablecimiento de su capacidad de revisión.

Teniendo en cuenta los argumentos mencionados, el Consejo consideró particularmente desproporcionadas las restricciones impuestas a la cuenta del usuario, que quedó excluido de Facebook. Asimismo, manifestó inquietudes respecto de las reglas de Facebook relativas a dichas restricciones, ya que se aplican en muchas ubicaciones, pero no todas se incluyen en las Normas comunitarias, como sería de esperar.

Por último, el Consejo manifestó que los informes de transparencia de Facebook no permiten evaluar fácilmente si la aplicación de la política sobre personas y organizaciones peligrosas incide particularmente en hablantes de una lengua minoritaria o en minorías religiosas de la India.

La decisión del Consejo asesor de contenido

El Consejo anuló la decisión original de Facebook de eliminar el contenido. En una declaración de asesoramiento normativo, el Consejo recomienda que Facebook:

  • Traduzca las Normas comunitarias y las Normas de implementación internas al punyabí. Facebook también debería brindar acceso a las Normas comunitarias en todos los idiomas de uso extendido que hablan los usuarios.
  • Reanude la revisión manual de decisiones de moderación de contenido y el acceso a procesos de apelación manuales a los niveles previos a la pandemia lo antes posible y, al mismo tiempo, proteja la salud del personal y los contratistas de Facebook.
  • Aumente la información pública relativa a la tasa de errores. Para ello, debe incluir esta información en sus informes de transparencia por país e idioma para cada norma comunitaria.

* Los resúmenes de casos ofrecen información general sobre los casos y no sientan precedentes.

Decisión del caso completa

1. Resumen de la decisión

El Consejo asesor de contenido anuló la decisión de Facebook de eliminar el contenido. El Consejo indicó que, tras seleccionar el caso y antes de asignarlo a un panel, Facebook determinó que el contenido se había eliminado por error y lo restauró. Según el Consejo, el contenido en cuestión no elogiaba, respaldaba ni representaba a ninguna persona u organización peligrosa. La publicación destacaba el presunto maltrato que sufren las minorías en la India por parte del Gobierno y de las personas que están a favor de este, y era de valor para el interés público. El Consejo estaba preocupado por los errores en la revisión del contenido y la falta de un proceso de apelaciones efectivo disponible para el usuario. Los errores de Facebook socavaron la libertad de expresión del usuario, así como los derechos de acceso a información de los miembros de minorías de la India.

2. Descripción del caso

El contenido mencionaba acusaciones en contra de la Rashtriya Swayamsevak Sang (RSS) y del Bharatiya Janata Party (BJP) por tratos discriminatorios hacia minorías y supresión de la oposición en la India. RSS es una organización nacionalista hindú que presuntamente participó en actos de violencia contra minorías religiosas en ese país. BJP es el partido gobernante de la India, al que pertenece el actual primer ministro indio Narendra Modi y que mantiene vínculos estrechos con la RSS.

En noviembre de 2020, un usuario compartió una publicación con video de la empresa de medios online en punyabí, Global Punjab TV, junto con un texto que la acompañaba. En ella se mostraba una entrevista de 17 minutos con el profesor Manjit Singh, a quien describen como un "activista social y defensor de la cultura punyabí". En la publicación, Global Punjab TV incluyó el texto "RSS es la nueva amenaza. Ram naam satya hai. El BJP se trasladó al extremismo". La empresa de medios incluyó también la descripción adicional "Nueva amenaza. Ram naam satya hai. El BJP se trasladó al extremismo. Estudiantes, ¡desafíen a Modi directamente!". El contenido, que se publicó durante las protestas masivas de los agricultores en la India, mencionaba brevemente los motivos que subyacen estas protestas y mostraba su apoyo.

Antes de compartir la publicación de Global Punjab TV, el usuario le agregó un texto en el que afirmaba que la CIA había calificado a la RSS como una "organización terrorista hindú de fanáticos" y que el primer ministro indio Narendra Modi alguna vez fue su presidente. El usuario escribió que la RSS amenazaba con asesinar a los sij, una minoría religiosa de la India, y que se repetiría la "saga mortal" de 1984, cuando pandillas hindúes atacaron a personas de esta religión. Afirmó que "la RSS usó la frase de muerte 'Ram naam satya hai'". El Consejo entiende que la frase "Ram naam satya hai", que significa "Rama es la verdad", es un canto funerario que presuntamente algunos nacionalistas hindúes usaron a modo de amenaza. A continuación, el usuario manifestó que el primer ministro Modi está proclamando la amenaza de "genocidio de los sijes", aconsejado por el presidente de la RSS, Mohan Bhagwat. El texto que acompañaba la publicación finalizaba con una afirmación de que los sijes en la India deben estar en estado de alerta máxima y que los regimientos sijes en el ejército advirtieron al primer ministro Modi sobre su disposición a morir para proteger a los agricultores sijes y su tierra en Punyab.

La publicación permaneció en la plataforma durante 14 días y tuvo menos de 500 visualizaciones antes de que otro usuario la reportara acusándola de "terrorismo". Un revisor determinó que la publicación infringía la norma comunitaria sobre personas y organizaciones peligrosas y eliminó el contenido, lo que también activó una restricción automática en el uso de la cuenta durante un período específico. En la notificación que envió al usuario, Facebook manifestó que su decisión era definitiva y no se podía revisar, ya que, a causa del COVID-19, su capacidad de revisión estaba temporalmente reducida. Por este motivo, el usuario presentó una apelación ante el Consejo asesor de contenido.

Luego de que el Comité de selección de casos seleccionara este caso para someterlo a revisión y antes de que se asignara a un panel, Facebook determinó que el contenido se había eliminado por equivocación y lo restauró. Sin embargo, el Consejo procedió a asignar el caso al panel.

3. Autoridad y alcance

El Consejo tiene autoridad para revisar la decisión de Facebook en virtud del Artículo 2 (Autoridad para realizar la revisión) del acta constitutiva y puede sostener o revertir esa decisión basándose en la sección 5 del Artículo 3 (Procedimientos de revisión: resolución del acta constitutiva). Facebook no presentó los motivos para excluir el contenido en virtud del Artículo 2, sección 1.2.1 (Contenido no disponible para revisión) de los estatutos del Consejo, ni tampoco indicó que considera el caso no elegible en virtud del Artículo 2, sección 1.2.2 (Obligaciones legales) de dichos estatutos. En virtud de la sección 4 del Artículo 3 (Procedimientos para revisión: decisiones) del acta constitutiva del Consejo, la decisión final puede incluir una declaración de asesoramiento normativo, que Facebook tendrá en cuenta para guiar el desarrollo de sus políticas a futuro.

Tras resolver que había cometido un error, Facebook restauró el contenido del usuario, lo que probablemente no hubiese ocurrido si el Consejo no hubiera seleccionado el caso. De conformidad con la decisión del caso 2020-004-IG-UA, la determinación de Facebook de volver a publicar el contenido no excluye al caso del proceso de revisión. Sigue habiendo preocupaciones respecto de por qué se produjo el error y sobre el daño que ocasionó y la necesidad de que no vuelva a ocurrir. El Consejo ofrece a los usuarios la posibilidad de expresarse y brindar una explicación detallada de lo sucedido.

4. Normas pertinentes

El Consejo asesor de contenido consideró las siguientes normas en su decisión:

I. Normas comunitarias de Facebook:

La política sobre personas y organizaciones peligrosasde Facebook sostiene que "para evitar y prevenir daños en la vida real, no permitimos la presencia en Facebook de ninguna persona u organización que reivindique una misión violenta o cometa actos de violencia". Asimismo, la norma afirma que en Facebook "eliminamos el contenido que apoye o elogie a grupos, líderes o personas implicadas en estas actividades".

II. Valores de Facebook:

Los valores de Facebook se detallan en la introducción a las Normas comunitarias.

El valor de "expresión" se describe como fundamental.

Nuestras Normas comunitarias siempre apuntaron a crear un espacio donde las personas puedan expresarse y dar a conocer su opinión. [...] Queremos que las personas puedan hablar abiertamente sobre los temas que les importan, incluso si otros no están de acuerdo o los consideran objetables.

Facebook puede limitar la "expresión" a favor de los valores de un conjunto de cuatro valores, incluidas la "seguridad" y la "dignidad".

"Seguridad" : nos comprometemos a hacer de Facebook un lugar seguro. La expresión que supone una amenaza para las personas puede intimidar, excluir o silenciar a otros, por lo que no está permitida en Facebook.

"Dignidad" : creemos que todas las personas son dignas y tienen los mismos derechos. Esperamos que esas personas respeten la dignidad de los demás y no los acosen ni los degraden.

III. Normas de derechos humanos:

Los Principios Rectores sobre las Empresas y los Derechos Humanos de la ONU (UNGP), respaldados por el Consejo de Derechos Humanos de la ONU en 2011, establecen un marco voluntario que encuadra las responsabilidades de las empresas privadas en cuanto a estos derechos. Facebook asumió el compromiso de respetar las normas de derechos humanos de conformidad con los Principios Rectores sobre las Empresas y los Derechos Humanos, que se plasmó en una nueva política corporativa implementada en marzo de 2021. El análisis del Consejo en este caso se basó en las siguientes normas de derechos humanos:

Libertad de expresión: Artículo 19 del Pacto Internacional de Derechos Civiles y Políticos (ICCPR); observación general n.º 34 del Comité de Derechos Humanos (2011); informes del Relator Especial sobre la libertad de opinión y expresión: A/HRC/38/35 (2018) y A/74/486 (2019).

Derecho a la no discriminación: Artículo 2, párrafo 1, y Artículo 26 del ICCPR; observación general n.º 23 del Comité de Derechos Humanos (1994); Declaración sobre los derechos de las personas pertenecientes a minorías nacionales o étnicas, religiosas y lingüísticas aprobada por la Asamblea General, según su interpretación en los párrafos 57 y 58 (2012) del informe A/HRC/22/49 del Experto independiente en cuestiones de las minorías; informe del Relator Especial sobre cuestiones de las minorías A/HRC/46/57 (2021).

Derecho a una reparación eficaz: Artículo 2, párrafo 3, del ICCPR; observación general n.º 31 del Comité de Derechos Humanos (2004); observación general n.º 29 del Comité de Derechos Humanos (2001).

Derecho a la seguridad personal: Artículo 9, párrafo 1, del ICCPR, tal y como se interpreta en la observación general n.º 35, párrafo 9.

5. Declaración del usuario

El usuario declaró ante el Consejo que la publicación no era de naturaleza amenazante ni constituía un delito, sino que simplemente repetía el fundamento del video y reflejaba su tono. El usuario se quejó acerca de las restricciones que se impusieron a su cuenta. Sugirió que Facebook sencillamente debería eliminar los videos problemáticos y evitar restringir las cuentas de los usuarios, a menos que exhiban comportamientos amenazantes o criminales. El usuario también señaló que miles de personas interactúan con su contenido y solicitó que se restaure su cuenta de inmediato.

6. Explicación de la decisión de Facebook

Según Facebook, tras recibir un solo reporte en contra de la publicación, la persona que revisó el contenido determinó de forma errónea que este infringía la norma comunitaria sobre personas y organizaciones peligrosas. Facebook informó al Consejo que la publicación del usuario no hacía referencia alguna a personas u organizaciones designadas como peligrosas. Concluyó luego que la publicación no manifestaba elogios que se pudieran considerar una infracción.

Facebook explicó que el error fue debido a la extensión del video (17 minutos), la cantidad de oradores (dos), la complejidad del contenido y las afirmaciones sobre varios grupos políticos. La empresa agregó que los revisores de contenido analizan miles de elementos de contenido cada día y que, durante ese proceso, se cometen equivocaciones. Dado el volumen de contenido, Facebook indicó que los revisores no siempre pueden ver los videos en su totalidad. Facebook no pudo especificar qué parte del contenido el revisor consideró como una infracción a las reglas de la empresa.

Pese a que el usuario apeló la decisión ante Facebook, se le informó que Facebook no podía volver a revisar la publicación debido a la escases de personal a causa del COVID-19.

7. Comentarios de terceros

El Consejo asesor de contenido recibió seis comentarios del público relacionados con este caso. Dos de ellos procedían de Europa y cuatro, de Canadá y los Estados Unidos. Las presentaciones abarcaban los siguientes temas: el alcance de la expresión política, el derecho legal de Facebook a moderar contenido y el contexto político de la India.

Si quieres leer los comentarios del público que se enviaron en relación con este caso, haz clic aquí.

8. Análisis del Consejo asesor de contenido

8.1. Cumplimiento de las Normas comunitarias

El Consejo concluyó que la decisión original de Facebook de eliminar el contenido no fue coherente con su norma comunitaria sobre personas y organizaciones peligrosas.

El contenido hacía referencia al BJP, así como a la RSS y a varios de sus líderes. Facebook explicó que ninguno de estos grupos o personas se designan como "peligrosos" de conformidad con sus Normas comunitarias, y no pudo identificar los términos específicos incluidos en el contenido que ocasionaron su eliminación. El Consejo expresó que, incluso aunque se hubiera designado a estas organizaciones de dicha manera, el contenido manifestaba claras críticas en su contra. El contenido sí respaldaba a un grupo: los agricultores indios que se manifestaban. Por ello, parece que no se revisó el contenido con el tiempo y la atención suficientes.

El Consejo determinó que la norma comunitaria sobre personas y organizaciones peligrosas deja claro que se eliminará el contenido infractor. En la introducción a las Normas comunitarias, así como en el servicio de ayuda de Facebook y Newsroom, se explica que se puede perder acceso a algunas funciones si se cometen infracciones graves o persistentes. En este caso, Facebook explicó al Consejo que impuso una restricción automática a la cuenta del usuario durante un período fijo debido a infracciones recurrentes. Para el Consejo, esta medida habría sido coherente con las Normas comunitarias de la empresa si hubiese habido una infracción.

Facebook declaró ante el Consejo que las restricciones de cuenta son automáticas y que se imponen una vez que se detecta una infracción a las Normas comunitarias y según los antecedentes de incumplimiento de cada usuario. Esto significa que la persona que revisa el contenido no sabe si, al eliminarlo, se restringirá la cuenta ni selecciona esa restricción. El Consejo manifestó que las consecuencias de imponer una sanción por equivocación pueden ser graves y expresó inquietud respecto de la aplicación errónea de restricciones en el nivel de la cuenta en este caso.

8.2 Cumplimiento de los valores de Facebook

El Consejo determinó que la decisión de Facebook de eliminar el contenido no se tomó de conformidad con sus valores de "expresión", "dignidad" y "seguridad". El contenido incluía un enlace a una noticia y se relacionaba con temas políticos importantes, incluidos comentarios sobre la presunta infracción de los derechos de las minorías y la supresión de la oposición por parte de políticos de alto rango del BJP y de la RSS. Por lo tanto, al eliminar incorrectamente la publicación, se socavaron los valores de "expresión" y "dignidad".

Facebook indicó que da prioridad al valor de "seguridad" al aplicar la Norma comunitaria sobre personas y organizaciones peligrosas. Sin embargo, en este caso, el contenido no mencionaba ni elogiaba a personas u organizaciones designadas como tal. En lugar de ello, el Consejo determinó que el contenido criticaba a agentes del Gobierno y a grupos políticos.

8.3 Cumplimiento de las responsabilidades de Facebook con los derechos humanos

La aplicación de la norma comunitaria sobre personas y organizaciones peligrosas por parte de Facebook no fue coherente con las responsabilidades que asumió con los derechos humanos ni con los compromisos que asumió públicamente con los UNGP. Los Principios 11 y 13 exigen que las empresas eviten afectar de manera negativa los derechos humanos, o contribuir a ello, a partir de sus propias actividades o las relaciones que mantienen con otras partes, incluidos agentes del Estado, y que mitiguen estos efectos adversos.

I. Libertad de expresión e información (Artículo 19 del ICCPR)

El Artículo 19 del ICCPR garantiza la libertad de expresión y da particular valor al debate público sin restricciones, en especial en lo que respecta a figuras políticas y al debate sobre los derechos humanos (observación general n.º 34, párrafos 11 y 34).

El Artículo 19 también garantiza el derecho a solicitar y recibir información, incluido de los medios de comunicación (observación general n.º 34, párrafo 13) sin discriminación alguna, y la ley de derechos humanos hace especial hincapié en la importancia de contar con medios de comunicación diversos e independientes, en particular para las minorías étnicas y lingüísticas (observación general n.º 34, párrafo 14).

a. Legalidad

El Consejo anteriormente había planteado inquietudes respecto de la facilidad de acceso a la norma comunitaria sobre personas y organizaciones peligrosas, incluido respecto de la interpretación que hace Facebook del término "elogiar" y el proceso para designar a personas y organizaciones peligrosas (decisión del caso 2020-005-FB-UA). Es importante contar con reglas precisas para limitar el criterio y evitar que se tomen decisiones arbitrarias (observación general n.º 34, párrafo 25), así como para prevenir el sesgo. Estas también permiten a los usuarios de Facebook conocer las reglas que se aplican en su contra. El Relator Especial de la ONU sobre la libertad de expresión planteó inquietudes respecto de las reglas ambiguas que adoptan las empresas de medios sociales que prohíben en líneas generales "elogiar" y "apoyar" a líderes de organizaciones peligrosas (informe A/HRC/38/35, párrafo 26).

También se debe dejar en claro cuáles son las consecuencias de infringir una regla, por ejemplo, la suspensión de las funciones de una cuenta o la inhabilitación de una cuenta. Al Consejo le preocupa que la información sobre las restricciones de cuentas se difunda en varias ubicaciones, pero que no todas las reglas al respecto se incluyan en las Normas comunitarias, como sería de esperar. Es importante notificar debidamente a los usuarios y brindarles información si infringen reglas, de modo que puedan modificar su comportamiento en consecuencia. El Consejo señaló las recomendaciones que hizo a Facebook anteriormente, que indican que no debería esperar que los usuarios hagan una síntesis de las reglas a partir de varias fuentes, sino que estas deben consolidarse en las Normas comunitarias (decisión del caso 2020-006-FB-FBR, sección 9.2).

Al Consejo le preocupa que las Normas comunitarias no estén traducidas al punyabí, un idioma de uso extendido en todo el mundo con 30 millones de hablantes en la India. Las Normas de implementación internas de Facebook tampoco están disponibles en punyabí para los moderadores que trabajan en este idioma. Probablemente esta sea la razón por la que los usuarios no entienden las reglas y aumentan las posibilidades de que los moderadores cometan errores al aplicar las normas. Los posibles impactos específicos sobre una población compuesta por una minoría generan inquietud respecto de los derechos humanos (A/HRC/22/49, párrafo 57).

b. Fin legítimo

El Artículo 19, párrafo 3, del ICCPR declara que los fines legítimos incluyen el respeto por los derechos o la reputación de otras personas, así como la protección de la seguridad nacional, el orden público, la moral o la salud públicas. Facebook indicó que el objetivo de la norma comunitaria sobre personas y organizaciones peligrosas es proteger los derechos de los demás. El Consejo está conforme con el fin legítimo que persigue la política, en particular el de proteger el derecho a la vida, la seguridad personal, la igualdad y la no discriminación (observación general n.º 34, párrafo 28; decisión del Consejo asesor de contenido 2020-005-FB-UA).

c. Necesidad y proporcionalidad

Para alcanzar un fin legítimo, las restricciones deben ser necesarias y proporcionadas. Debe haber un vínculo directo entre la necesidad y la proporcionalidad de la medida específica que se tome y la amenaza que supone la expresión (observación general n.º 34, párrafo 35). Facebook reconoció como errónea su decisión de eliminar el contenido y no sostiene que esta medida fuera necesaria o proporcionada.

Los errores que restringen la expresión sobre temas políticos se consideran graves. Lo que preocupa en particular es si estos errores son generalizados y, en especial, si afectan a los hablantes de una lengua minoritaria o a minorías religiosas que tal vez ya estén marginadas en el ámbito político. El Relator Especial de la ONU sobre cuestiones de las minorías expresó preocupación respecto del lenguaje que incita al odio dirigido a grupos minoritarios en Facebook en la India (A/HRC/46/57, párrafo 40). En dichos contextos regionales, los errores pueden suprimir la expresión de las minorías que buscan combatir los argumentos de odio y discriminación, como en este caso.

El contexto político en la India cuando se realizó esta publicación, en el que los agricultores se manifestaban de forma masiva y crecía la presión del Gobierno para que las plataformas de medios sociales eliminaran contenido relacionado con estos acontecimientos, pone de relieve la importancia de tomar decisiones de forma correcta. En este caso, el contenido se relacionaba con las manifestaciones y la supresión de la expresión de la oposición. También incluía el enlace a una entrevista sobre estos temas que había publicado una cadena de noticias en la que se habla una lengua minoritaria. Las principales plataformas deberían evitar socavar la expresión de las minorías que se manifiestan en contra del Gobierno y sostener la pluralidad y diversidad de los medios de comunicación (observación general n.º 34, párrafo 40). Las restricciones impuestas a la cuenta, que por equivocación dejaron al usuario fuera de la plataforma durante este período crítico, fueron particularmente desproporcionadas.

Facebook explicó que no podía llevar adelante la apelación del contenido del usuario debido a que contaba con capacidad limitada para realizar este proceso durante la pandemia de COVID-19. Si bien el Consejo tiene en cuenta estas circunstancias excepcionales, vuelve a hacer hincapié en la importancia de que Facebook ofrezca transparencia y procesos accesibles para apelar sus decisiones (Principio 11 de los UNGP; A/74/486, párrafo 53). Como señaló el Consejo en la decisión del caso 2020-004-IG-UA, los casos deberían presentarse para apelación ante Facebook antes de que se deriven al Consejo. Para garantizar que los usuarios accedan a recursos resolutivos, la prioridad de Facebook debería ser restablecer su capacidad de revisión lo antes posible.

El Consejo reconoce que es inevitable cometer errores al moderar contenido a gran escala. Sin embargo, la responsabilidad de Facebook de prevenir, mitigar y abordar el impacto negativo en los derechos humanos requiere que se aprenda de estos errores (Principios 11 y 13 de los UNGP).

A partir de un solo caso, no es posible determinar si esta aplicación de sanciones fue indicativa de sesgos intencionales o no intencionales por parte del revisor. Facebook también se negó a brindar respuestas específicas a las preguntas que formuló el Consejo respecto de las posibles comunicaciones por parte de las autoridades indias para solicitar que se restrinja el contenido sobre las manifestaciones de los agricultores, el contenido que critica la forma en que el Gobierno trata a los agricultores o el contenido relacionado con las manifestaciones. Facebook determinó que la información solicitada no era necesaria de manera razonable para la toma de decisiones, de conformidad con la intención del Acta constitutiva, y que no se puede ni se debería proporcionar por cuestiones o restricciones relativas a la legalidad, la privacidad, la seguridad o la protección de datos. Facebook justificó su negativa amparándose en el Artículo 2, sección 2.2.2, de los estatutos del Consejo asesor de contenido.

Facebook respondió la pregunta del Consejo sobre cómo su proceso de moderación en la India escapa de la influencia del Gobierno. La empresa explicó que el personal recibe capacitaciones específicas para su región, mercado o rol como parte de la iniciativa de ética y cumplimiento global, que fomenta una cultura de honestidad, transparencia, integridad, responsabilidad y valores éticos. Asimismo, el personal de Facebook está sujeto a un Código de conducta y a una política anticorrupción.

El Consejo pone de manifiesto la importancia de contar con procesos para revisar las decisiones de moderación de contenido, como auditorías, a fin de comprobar si existen sesgos en la toma de decisiones manuales y automáticas, y corregirlos, en especial en lo que respecta a lugares que atraviesan períodos de crisis e inestabilidad. Estas evaluaciones deberían tener en cuenta el potencial de que Gobiernos y agentes que no pertenecen al Estado lleven a cabo campañas coordinadas con el objetivo de reportar de forma maliciosa el disenso.

La transparencia es fundamental para garantizar el escrutinio público de las medidas que toma Facebook en este ámbito. La falta de detalles en los informes de transparencia de Facebook no permite al Consejo ni a otras partes evaluar fácilmente, por ejemplo, si la aplicación de la política sobre personas y organizaciones peligrosas incide particularmente en los usuarios y, en especial, en los hablantes de una lengua minoritaria de la India. Como contribución al debate, Facebook debería hacer públicos más datos y brindar un análisis de lo que significan.

9. Decisión del Consejo asesor de contenido

El Consejo asesor de contenido anuló la decisión de Facebook de eliminar el contenido y solicitó que se restablezca la publicación. El Consejo señala que Facebook ya tomó medidas al respecto.

10. Declaraciones de asesoramiento normativo

Se numeran las siguientes recomendaciones, y el Consejo solicita que Facebook proporcione una respuesta individual a cada una de ellas, según el documento preliminar.

Accesibilidad

1. Facebook debería traducir las Normas comunitarias y las Normas de implementación internas al punyabí. Facebook debería brindar acceso a las Normas comunitarias en todos los idiomas de uso extendido que hablan los usuarios. De esta manera, estos entenderían bien las reglas que deben cumplir al usar los productos de Facebook. También les resultaría más fácil tratar con Facebook asuntos relativos a contenido que podría infringir sus derechos.

Derecho a recursos

2. De conformidad con la recomendación del Consejo en el caso 2020-004-IG-UA, la empresa debería reanudar la revisión manual y el acceso a procesos de apelación manuales a los niveles previos a la pandemia lo antes posible y, al mismo tiempo, proteger completamente el bienestar del personal y los contratistas de Facebook.

Informes de transparencia

3. Facebook debería mejorar sus informes de transparencia para aumentar la información pública relativa a la tasa de errores. Para ello, debería incluir esta información por país e idioma para cada norma comunitaria. El Consejo pone de relieve que, con informes de transparencia más detallados, el público podrá detectar áreas en las que es más común que ocurran errores, incluido el posible impacto específico en grupos minoritarios, y alertar a Facebook para que los corrija.

* Nota de procedimiento:

La preparación de las decisiones del Consejo asesor de contenido está a cargo de paneles conformados por cinco miembros, quienes deben aprobarlas por mayoría. Las decisiones del Consejo no necesariamente representan las opiniones personales de todos los miembros.

En cuanto a la decisión del caso, se encargó una investigación independiente en nombre del Consejo. Un instituto de investigación independiente con sede en la Universidad de Gotemburgo y un equipo conformado por más de 50 científicos sociales de seis continentes, así como 3.200 expertos de diferentes países del mundo, ofrecen sus conocimientos sobre contextos culturales y sociopolíticos. La empresa Lionbridge Technologies, LLC, con especialistas en más de 350 idiomas que trabajan en 5.000 ciudades diferentes, se encargó de las competencias en materia lingüística.

Volver a Decisiones de casos y opiniones consultivas sobre políticas