Anulado
Mención de los talibanes en los informes de noticias
El Consejo asesor de contenido anuló la decisión original de Meta de eliminar una publicación de Facebook de la página de un medio de comunicación en la que se informaba acerca de un comunicado favorable del régimen talibán en Afganistán relacionado con la educación de mujeres y niñas.
Esta decisión también está disponible en urdu (por medio de la pestaña "Idioma" en el menú que figura en la parte superior de esta pantalla), en pastún (aquí) y en darí (aquí).
په پښتو ژبه د دغې پريکړې د لوستلو لپاره دلته کليک وکړئ.
برای خواندن اين تصميم اينجا فشار دهيد.
Resumen del caso
El Consejo asesor de contenido anuló la decisión original de Meta de eliminar una publicación de Facebook de la página de un medio de comunicación en la que se informaba acerca de un comunicado favorable del régimen talibán en Afganistán relacionado con la educación de mujeres y niñas. La eliminación de la publicación fue incoherente con la norma comunitaria sobre personas y organizaciones peligrosas de Facebook, que permite informar sobre grupos terroristas, así como con las responsabilidades de Meta con los derechos humanos. El Consejo determinó que Meta debería proteger mejor la libertad de expresión de los usuarios en lo que respecta a informar sobre regímenes terroristas y realizó recomendaciones normativas para lograr esto.
Información sobre el caso
En enero de 2022, un popular periódico en urdu con sede en la India hizo una publicación en su página de Facebook. En la publicación, se informaba que Zabiullah Mujahid, miembro del régimen talibán en Afganistán y su principal portavoz oficial, había comunicado que las escuelas y universidades para mujeres y niñas reabrirían en marzo de 2022. La publicación incluía un enlace que dirigía a un artículo del sitio web del periódico y tuvo unas 300 visualizaciones.
Meta determinó que la publicación infringía la política sobre personas y organizaciones peligrosas, que prohíbe exaltar a entidades que se considera que ocasionan daños graves en la vida real, incluidas las organizaciones terroristas. Meta eliminó la publicación, impuso faltas al administrador de la página que había publicado el contenido y limitó su acceso a ciertas funciones de Facebook (por ejemplo, transmitir en vivo desde la plataforma).
El usuario realizó una apelación y, después de que en una segunda revisión manual se determinara que la publicación era infractora, fue colocada en una cola para entrar al sistema de invalidación de falsos positivos de alto impacto (HIPO). Meta usa el sistema HIPO para identificar casos en los que actuó de forma incorrecta, por ejemplo, al eliminar contenido por error. Sin embargo, como en ese momento había menos de 50 revisores que hablaban urdu asignados al sistema HIPO y la publicación no se consideró de alta prioridad, no se revisó mediante dicho sistema.
Después de que el Consejo seleccionara el caso, Meta definió que la publicación no debería haberse eliminado, ya que sus reglas permiten informar sobre organizaciones terroristas. Restauró el contenido, revirtió la falta y eliminó las restricciones aplicadas a la cuenta del usuario.
Conclusiones principales
El Consejo asesor de contenido determinó que la eliminación de esta publicación no fue coherente con la norma comunitaria sobre personas y organizaciones peligrosas de Facebook, los valores de Meta ni las responsabilidades de la empresa respecto de los derechos humanos.
Según la norma comunitaria sobre personas y organizaciones peligrosas, está prohibido exaltar a ciertas entidades, incluidas las organizaciones terroristas. La definición de "exaltar" es amplia tanto en la norma comunitaria como en las pautas internas que se proporcionan a los moderadores. En consecuencia, el Consejo entiende por qué dos revisores interpretaron el contenido como una exaltación. Sin embargo, según la norma comunitaria, se permite el contenido que "informa" sobre organizaciones peligrosas. El Consejo indicó que esta concesión tiene validez en este caso.
El Consejo también señaló que la eliminación de la publicación fue incoherente con las responsabilidades de Meta con los derechos humanos. Esta medida restringió de forma injustificada la libertad de expresión, que abarca el derecho a impartir y recibir información, incluso sobre grupos terroristas. Esto tiene especial relevancia en épocas de conflicto y crisis, incluso cuando grupos terroristas tienen el control de un país.
Al Consejo le preocupa que los sistemas y políticas de Meta interfieran con la libertad de expresión en lo que respecta a informar sobre regímenes terroristas. Las Normas comunitarias de la empresa y las pautas internas que se proporcionan a los moderadores no son claras en cuanto a cómo se aplican la prohibición de exaltaciones y la concesión para informes periodísticos, o la relación entre estas. El hecho de que dos revisores definieran que la publicación infringía la política sugiere que estos puntos no se entienden bien. Al Consejo le preocupa que la opción predeterminada de Meta sea eliminar contenido conforme a la política sobre personas y organizaciones peligrosas si los usuarios no dejan claro que su intención es "informar". Además, le inquieta que no se haya revisado el contenido mediante el sistema HIPO.
Este caso podría ser indicio de un problema mayor. El Consejo consideró varias quejas sobre errores cometidos a la hora de aplicar la política sobre personas y organizaciones peligrosas, en particular, en idiomas diferentes del inglés. Esto genera grandes inquietudes, en especial, entre periodistas y defensores de los derechos humanos. Además, las sanciones por incumplir la política son graves y confusas.
La decisión del Consejo asesor de contenido
El Consejo asesor de contenido anuló la decisión original de Meta de eliminar la publicación.
El Consejo recomendó que Meta:
- Investigue por qué los cambios realizados en la política sobre personas y organizaciones peligrosas no se tradujeron dentro del plazo previsto y evite que dichas demoras vuelvan a repetirse.
- Trabaje para que la explicación pública de su sistema de faltas sea más integral y accesible.
- Acote la definición de "exaltar" en las preguntas frecuentes (pautas internas que se proporcionan a los moderadores) eliminando el ejemplo de contenido que procura que otras personas piensen de forma más positiva acerca de organizaciones peligrosas.
- Revise sus normas de implementación (pautas internas que se proporcionan a los moderadores) para aclarar que, a través de la concesión para informes periodísticos correspondiente a la política sobre personas y organizaciones peligrosas, se permiten las declaraciones favorables. En las preguntas frecuentes, se debería precisar la importancia de proteger los informes periodísticos en situaciones de conflicto o crisis.
- Evalúe la precisión con la que los revisores aplican la concesión para informes periodísticos correspondiente a la política sobre personas y organizaciones peligrosas para identificar la causa de los errores.
- Lleve a cabo una revisión del sistema HIPO para examinar si fuera posible una priorización más efectiva de los errores potenciales relacionados con la aplicación de las excepciones correspondientes a la política sobre personas y organizaciones peligrosas.
- Mejore la capacidad asignada a la revisión del sistema HIPO en todos los idiomas.
* Los resúmenes de casos ofrecen información general sobre los casos y no sientan precedentes.
Decisión del caso completa
1. Resumen de la decisión
El Consejo asesor de contenido anuló la decisión original de Meta de eliminar una publicación de Facebook de la página de un popular periódico en urdu de la India. En la publicación, se informaba acerca de un comunicado realizado por un miembro prominente y portavoz del régimen talibán en Afganistán relacionado con la educación de las mujeres y niñas en dicho país. Meta revirtió su decisión como consecuencia de que el Consejo seleccionara este caso y revocó las sanciones impuestas a la cuenta del administrador. El Consejo determinó que la publicación no infringía la norma comunitaria sobre personas y organizaciones peligrosas porque en la política se permite informar sobre entidades designadas. Al Consejo le preocupan la definición amplia de "exaltar" que proporciona Meta y la falta de claridad para los revisores respecto de cómo aplicar las excepciones a la política en informes periodísticos sobre acciones realizadas por organizaciones designadas que ejercen control sobre un país. Esto interfiere en la posibilidad de los medios de comunicación de informar sobre las acciones y declaraciones de las entidades designadas en situaciones como esta, en la que el régimen talibán expulsó por la fuerza al Gobierno reconocido de Afganistán. El Consejo indicó que Meta no cumplió con sus responsabilidades de evitar o mitigar la aparición de errores al aplicar estas excepciones a la política. Por medio de la decisión, se recomienda que Meta cambie su política y los procesos de aplicación de la norma comunitaria sobre personas y organizaciones peligrosas.
2. Descripción del caso y contexto
En enero de 2022, la página de Facebook de un medio de comunicación con sede en la India compartió una publicación con texto en urdu y un enlace que dirigía a un artículo de su propio sitio web. Meta indicó que la publicación tuvo unas 300 visualizaciones. En la publicación, se informaba que Zabiullah Mujahid, en su papel de "ministro de información y cultura" y principal portavoz oficial del régimen talibán en Afganistán, había comunicado que las escuelas y universidades para mujeres y niñas abrirían cuando comenzara el Año Nuevo afgano, el 21 de marzo. En el artículo vinculado, había un informe más completo sobre el comunicado.
El medio de comunicación es un periódico en urdu con sede en Hyderabad, India (ciudad con una gran cantidad de residentes que hablan urdu). Es el periódico en urdu de mayor circulación en el país, y más de un millón de personas lo leen a diario. En el mundo, hay aproximadamente 230 millones de personas que hablan urdu.
Ningún Estado otorgó reconocimiento diplomático formal al régimen talibán en Afganistán desde que el grupo tomó el poder en agosto de 2021. Las escuelas y universidades para mujeres y niñas no abrieron al comienzo del Año Nuevo afgano como el portavoz había comunicado que lo harían, y las niñas de 12 años o más (a partir de sexto grado) y las mujeres seguían sin poder asistir a la escuela en el momento en que el Consejo pronunció su decisión acerca de este caso.
El 20 de enero de 2022, un usuario de Facebook hizo clic en "Reportar publicación" en el contenido, pero no completó la denuncia. Este hecho accionó un clasificador (herramienta de aprendizaje automático entrenada para identificar incumplimientos de las Normas comunitarias de Meta), que evaluó el contenido como potencialmente infractor de la política sobre personas y organizaciones peligrosas y lo envió a revisión manual. Un revisor que hablaba urdu determinó que el contenido infringía la política sobre personas y organizaciones peligrosas y lo eliminó el día mismo en que se publicó. Meta explicó que el motivo de esta decisión fue que la publicación "exaltaba" a una organización designada. El régimen talibán es una organización terrorista designada de nivel 1 conforme a la política sobre personas y organizaciones peligrosas de Meta. Como consecuencia de la infracción, Meta también aplicó una falta grave y una falta estándar al administrador de la página. En general, el contenido publicado en las páginas de Facebook en apariencia proviene de la página en sí (por ejemplo, el medio de comunicación), pero, en realidad, lo redactan los administradores de la página desde sus cuentas personales de Facebook. Como consecuencia de las faltas, Meta impone restricciones temporales a la capacidad de los usuarios para usar funciones especiales en la plataforma (como compartir contenido), conocidas como "limitaciones de las funciones", o bien inhabilita la cuenta. Las faltas graves conllevan penalizaciones más estrictas. En este caso, a causa de las faltas, se impusieron una limitación de las funciones de tres días y otra más larga al administrador de la página. Por la primera, se impidió que el usuario creara contenido público nuevo y creara salas de Messenger o se uniera a ellas. Por la segunda, se impidió que el usuario transmitiera en vivo desde Facebook, usara productos publicitarios y creara salas de Messenger o se uniera a ellas. Además, a la página del medio de comunicación en sí también se le impusieron una falta estándar y una falta grave.
El 21 de enero, el administrador de la página del medio de comunicación ("el usuario") apeló la eliminación del contenido ante Meta. Otro revisor que hablaba urdu revisó el contenido y también determinó que el contenido infringía la norma comunitaria sobre personas y organizaciones peligrosas. A pesar de que el contenido luego se colocó en la cola de un canal para identificar y revertir errores por falsos positivos (contenido sobre el que se toman medidas incorrectas por infringir las Normas comunitarias), conocido como sistema de invalidación de falsos positivos de alto impacto (HIPO), no se volvió a revisar. De acuerdo con Meta, esto se debió a la cantidad de revisores del sistema HIPO que hablaban urdu a mediados de 2022 y a que los sistemas automatizados de Meta no otorgaron al contenido de este caso (tras su eliminación) una puntuación de prioridad tan alta como a otros contenidos que también se encontraban en la cola del sistema HIPO en ese momento.
Como resultado de que el Consejo seleccionara la apelación del usuario para revisión, Meta determinó que su decisión original de eliminar el contenido había sido un error porque, según sus Normas comunitarias, se permite "informar" sobre organizaciones y personas designadas. Posteriormente, el 25 de febrero de 2022, Meta restauró el contenido. Además, eliminó la limitación de las funciones más extensa que había impuesto y revirtió las faltas aplicadas a la cuenta del administrador y la página.
3. Autoridad y alcance del Consejo asesor de contenido
El Consejo tiene la facultad para revisar la decisión de Meta tras la apelación de un usuario cuyo contenido se eliminó (Artículo 2, sección 1, del acta constitutiva; Artículo 3, sección 1, de los estatutos). El Consejo puede mantener o revertir la decisión de Meta (Artículo 3, sección 5, del acta constitutiva), y la decisión que tome será vinculante para la empresa (Artículo 4 del acta constitutiva). Meta también debe evaluar la viabilidad de aplicar su decisión con respecto a contenido idéntico cuyo contexto sea similar (Artículo 4 del acta constitutiva). Las decisiones del Consejo podrían incluir declaraciones de asesoramiento normativo con recomendaciones no vinculantes a las que Meta debe responder (Artículo 3, sección 4, Artículo 4 del acta constitutiva).
4. Fuentes de autoridad
El Consejo asesor de contenido consideró las siguientes autoridades y normas:
I. Decisiones del Consejo asesor de contenido
Algunas de las decisiones previas del Consejo asesor de contenido más relevantes son las siguientes:
- "Publicación compartida de Al Jazeera" (decisión del caso 2021-009-FB-UA): el Consejo recomendó que Meta proporcionara criterios y ejemplos públicos en su norma comunitaria sobre personas y organizaciones peligrosas en relación con las concesiones correspondientes a la política que abordan los "debates con tono neutral", los "informes periodísticos" y las "condenas".
- "Aislamiento de Öcalan" (decisión del caso 2021-006-IG-UA): el Consejo recomendó que Meta precisara en su norma comunitaria sobre personas y organizaciones peligrosas pública cómo los usuarios pueden dejar clara su intención al realizar una publicación. Reiteró la recomendación de que Meta debería divulgar la lista completa de las personas y organizaciones designadas o una lista ilustrativa. El Consejo también exigió mayor transparencia en los informes sobre las tasas de errores correspondientes a la aplicación de la prohibición de exaltar y apoyar a las personas y organizaciones designadas, con un desglose por región e idioma.
- "Inquietud punyabí en torno a la RSS en la India" (decisión del caso 2021-003-FB-UA): el Consejo recomendó que Meta debería poner a disposición las Normas comunitarias en todos los idiomas de uso extendido que hablan sus usuarios. El Consejo también manifestó inquietudes respecto de que las reglas de Meta relativas a las restricciones se aplican en muchas ubicaciones, pero no todas se incluyen en las Normas comunitarias, como sería de esperar.
- "Cita nazi" (decisión del caso 2020-005-FB-UA): el Consejo recomendó que Meta proporcionara ejemplos de "exaltaciones", "apoyo" y "representación" en la norma comunitaria sobre personas y organizaciones peligrosas.
II. Políticas de contenido de Meta
En la norma comunitaria sobre personas y organizaciones peligrosas se indica que Facebook no permite la presencia en la plataforma de ninguna organización o persona que proclame un objetivo violento o participe en acciones de esta naturaleza.
Meta divide sus designaciones de entidades peligrosas en tres niveles y precisa que estos indican el grado de cumplimiento sobre el contenido. El nivel 1 es el más exhaustivo porque, según Meta, estas entidades tienen los vínculos más directos con daños en la vida real. Las designaciones de nivel 1 se centran en entidades relacionadas con daños graves en la vida real, incluidas las organizaciones terroristas, delictivas y que incitan al odio. Meta elimina las manifestaciones de exaltación, apoyo sustancial y representación de las entidades de nivel 1, así como las de sus líderes, fundadores o miembros destacados. Meta designó al régimen talibán como entidad de nivel 1.
De acuerdo con las Normas comunitarias, la definición de "exaltar" es hablar positivamente de una entidad o hecho designado; atribuir a una entidad o hecho designado una sensación de éxito; legitimar la causa de una entidad designada al afirmar que su conducta violenta, delictiva o de odio es justificable o aceptable en términos legales, morales o de otra naturaleza; o alinearse ideológicamente con una entidad o hecho designado.
Meta reconoce que los usuarios pueden compartir contenido que incluya referencias a personas y organizaciones peligrosas designadas con el fin de informar sobre ellas, condenarlas o hablar sobre estas o sus actividades en un tono neutral. Meta afirmó que sus políticas están diseñadas para dar lugar a estos tipos de conversaciones sin dejar de limitar, al mismo tiempo, los riesgos de que ocurran posibles daños en la vida real. No obstante, Meta exige que las personas indiquen con claridad su intención al crear o compartir dicho contenido. Si la intención de un usuario es ambigua o confusa, se elimina el contenido de forma predeterminada.
III. Valores de Meta:
El valor de "expresión" se describe como fundamental.
Nuestras Normas comunitarias apuntan a crear un espacio donde las personas se expresen y den a conocer su opinión. Meta quiere que las personas puedan hablar abiertamente sobre los temas que les importan, aunque otros no estén de acuerdo o los consideren objetables.
Facebook limita la expresión para proteger otros cuatro valores. En este caso, la seguridad es el más importante:
Nos comprometemos a hacer de Facebook un lugar seguro. Eliminamos contenido que podría contribuir a un riesgo de daño para la seguridad física de las personas. El contenido que supone una amenaza para las personas puede intimidar, excluir o silenciar a otros, por lo que no está permitido en Facebook.
IV. Normas internacionales sobre derechos humanos:
Los Principios Rectores sobre las Empresas y los Derechos Humanos de la ONU (UNGP), respaldados por el Consejo de Derechos Humanos de la ONU en 2011, establecen un marco voluntario que encuadra las responsabilidades de las empresas privadas en cuanto a estos derechos. En 2021, Meta anunció su Política corporativa de derechos humanos, con la que reafirmó su compromiso con el respeto de los derechos humanos de conformidad con los UNGP. El análisis del Consejo sobre las responsabilidades de Meta respecto de los derechos humanos en este caso se basó en las siguientes normas de derechos humanos:
- Derecho a la libertad de opinión y expresión: Artículo 19 del Pacto Internacional de Derechos Civiles y Políticos (ICCPR); observación general n.º 34 del Comité de Derechos Humanos (2011); resolución sobre la seguridad de los periodistas del Consejo de Derechos Humanos, A/HRC/RES/45/18 (2020); Declaración de Brisbane de la UNESCO sobre "Libertad de información: el derecho a saber"; informe del Relator Especial sobre la libertad de opinión y de expresión de la ONU, A/74/486 (2019).
- Derecho a la educación: Artículo 13 del Pacto Internacional de Derechos Económicos, Sociales y Culturales; Artículo 10 de la Convención sobre la Eliminación de todas las Formas de Discriminación contra la Mujer; Artículos 28 y 29 de la Convención sobre los derechos del niño;Convención relativa a la Lucha contra las Discriminaciones en la Esfera de la Enseñanza de la UNESCO (1960).
- Derecho a la no discriminación: Artículos 2 y 26 del ICCPR.
- Derecho a la vida: Artículo 6 del ICCPR; observación general n.º 36 del Comité de Derechos Humanos (2018).
- Derecho a la seguridad personal: Artículo 9 del ICCPR, tal como se interpreta en la observación general n.º 35, párrafo 9, del Comité de Derechos Humanos (2014).
5. Respuestas del usuario
En su declaración al Consejo, el usuario indicó que representa a una organización de medios y que no defiende el extremismo. También explicó que sus artículos se basan en fuentes de medios nacionales e internacionales, y que este contenido se compartió para brindar información sobre la educación de las niñas y mujeres en Afganistán. Además, agregó que siempre se asegura de que el contenido que publica sea de interés público y que se adecue a las Normas comunitarias de Meta.
6. Respuestas de Meta
Tras volver a examinar su decisión original, Meta decidió que el contenido en este caso no debería haberse eliminado por exaltar a una organización designada conforme a la política sobre personas y organizaciones peligrosas. Meta explicó que, según el contexto subyacente a la noticia, al contenido debería haberse aplicado la concesión a la política por la que se permite a los usuarios informar sobre entidades designadas.
Meta explicó que la publicación y el artículo vinculado incluyen información sobre fechas y detalles de la reapertura de las escuelas, un asunto de interés público. De acuerdo con Meta, la política sobre personas y organizaciones peligrosas permite la conservación de informes periodísticos que mencionan a entidades designadas. Para que las personas puedan beneficiarse de las concesiones correspondientes a la política sobre personas y organizaciones peligrosas, Meta precisó que exige que especifiquen su intención con claridad. Si la intención de un usuario es ambigua o confusa, se elimina el contenido de forma predeterminada. Meta también explicó que prefiere que los revisores no infieran la intención, ya que esto ayuda a disminuir la subjetividad, el sesgo y la aplicación injusta de las políticas durante la revisión de contenido y, a la vez, facilita la escalabilidad de las políticas.
Meta manifestó al Consejo que no pudo explicar por qué los dos revisores eliminaron el contenido de forma incorrecta, en lugar de aplicar la concesión para informes periodísticos de modo adecuado. La empresa señaló que no se les pide a los moderadores que documenten los motivos de su decisión, más allá de clasificar el contenido, como parte de su revisión (en este caso, como una infracción contra la política sobre personas y organizaciones peligrosas por incluir exaltaciones).
Como respuesta al cuestionamiento del Consejo de si las exaltaciones a organizaciones peligrosas pueden difundirse como parte de informes periodísticos, Meta indicó que su política permite los informes periodísticos en los que una o varias personas exaltan a una persona o una organización peligrosas designadas.
Acerca de la pregunta del Consejo sobre la diferencia entre las faltas estándar y las faltas graves, Meta explicó que el sistema de faltas incluye dos vías para la aplicación de las Normas comunitarias: una que es válida para todo tipo de infracción (estándar) y otra que es válida para las infracciones más notorias (graves). Meta señaló que todas las infracciones de la política sobre personas y organizaciones peligrosas se consideran graves. Además, precisó al Consejo que las faltas graves son aquellas que aplican penalizaciones más estrictas ante daños más graves y que limitan el acceso a servicios de alto riesgo, como los videos en vivo y anuncios de Facebook. Meta también hizo referencia a una parte del Centro de transparencia en "Restricción de cuentas" (que se actualizó el 11 de febrero de 2022), donde indicó que se explica su enfoque respecto de las faltas.
Como respuesta a las preguntas del Consejo, Meta explicó con más detalles los sistemas que usa para corregir los errores en la aplicación de políticas y cómo esos afectaron este caso. A causa de ello, el Consejo hizo varias preguntas de seguimiento. El contenido de este caso se detectó automáticamente y se envió al canal de invalidación de falsos positivos de alto impacto (al que Meta llama HIPO). Este sistema se diseñó para corregir errores por falsos positivos después de que se toman medidas sobre el contenido. Meta le aclaró al Consejo que este sistema es diferente del sistema de revisión secundaria general de Meta (parte del programa de verificación cruzada), que se diseñó para evitar la aparición de errores por falsos positivos antes de que se tomen medidas sobre el contenido. El contenido que se envía al canal HIPO entra a una cola para someterse a otra revisión, pero esta última solo se lleva a cabo si la capacidad lo permite. La posición del contenido en la cola depende de una puntuación de prioridad que se asigna al contenido de forma automática. Meta explicó que el contenido se prioriza para la revisión en el canal HIPO según ciertos factores, incluidos los siguientes: sensibilidad del tema (si un tema es tendencia o sensible), probabilidad de aparición de falsos positivos, alcance previsto (número estimado de visualizaciones que el contenido podría obtener) y sensibilidad de la entidad (identidad del grupo o usuario que comparte el contenido). Meta explicó que el contenido puede restaurarse de dos formas: o bien moderadores revisan el contenido específico y determinan que no infringe las normas, o bien los sistemas automatizados de Meta determinan que el contenido coincide con otro contenido que ya se revisó y se determinó que no era infractor.
La página del medio de comunicación previamente estuvo sujeta al sistema de verificación cruzada, pero en el marco de una amplia actualización de la plataforma a dicho sistema, la página no lo estaba en el momento en que el contenido del caso se revisó, por lo que la verificación cruzada no afectó la revisión del contenido del caso. De acuerdo con Meta, la verificación cruzada ahora incluye dos sistemas: la revisión secundaria general es válida para todo el contenido orgánico de Facebook e Instagram, y la revisión secundaria de respuesta rápida es válida para todo el contenido publicado por entidades específicas que se encuentran en una lista, incluidos algunos medios de comunicación. Meta indicó que, cuando se identifica que contenido de esas entidades específicas infringe una política de contenido, en lugar de aplicarse la política, se envía para una revisión adicional. Primero se envía al equipo de mercados de Meta. Si un revisor de este equipo determina que el contenido no es infractor, el proceso finaliza, y el contenido permanece en la plataforma. Sin embargo, si un revisor de este equipo señala que el contenido es infractor, se remite a otro equipo. Este equipo, el equipo de respuesta rápida, está conformado por revisores de contenido de Meta especializados. Es necesario que un revisor de este equipo precise que el contenido es infractor para que pueda eliminarse.
En el momento en que el contenido del caso se identificó como infractor, la página del medio de comunicación no estaba en la lista de revisión secundaria de respuesta rápida correspondiente al actual sistema de verificación cruzada. Además, el contenido del caso en cuestión tampoco se revisó como parte del sistema de revisión secundaria general, que también hubiera implicado otra revisión antes de la aplicación de la política. Según Meta, el contenido se envió al canal HIPO después de su eliminación, pero no se priorizó para revisión manual. No se sometió a otra revisión manual debido a la capacidad asignada al mercado y porque los sistemas automatizados de Meta no otorgaron al contenido de este caso una puntuación de prioridad tan alta como la de otros contenidos que había en la cola del canal HIPO en ese momento. Los revisores subcontratados solo revisan el contenido priorizado por el sistema HIPO después de que se toma una medida ejecutiva. Meta asigna revisores de urdu a diferentes procesos de trabajo según la necesidad. Estos revisores participan en varios tipos de revisiones, por lo que no se dedican exclusivamente a un único proceso de trabajo. A mediados de 2022, el proceso de trabajo del sistema HIPO de Meta tenía menos de 50 revisores de urdu según la necesidad de ese momento.
El Consejo le hizo 34 preguntas a Meta. Meta respondió 30 preguntas en su totalidad y tres de forma parcial, y se negó a responder una. Las respuestas parciales se referían a preguntas sobre el porcentaje de eliminaciones conforme a la política sobre personas y organizaciones peligrosas que se restauran tras la apelación o segunda revisión; las tasas de precisión correspondientes a la aplicación de prohibiciones relacionadas con exaltaciones y apoyo en la revisión según la medida de la necesidad; y cómo Meta define la intención a la hora de aplicar la concesión para informes periodísticos y los factores contextuales pertinentes. Meta dejó una de las preguntas sobre los datos acerca del volumen de contenido relacionado con personas y organizaciones peligrosas que se elimina a través de automatización frente a revisión manual sin responder sobre la base de que no pudo verificar los datos solicitados en el tiempo disponible.
7. Comentarios del público
El Consejo asesor de contenido recibió y consideró seis comentarios del público relacionados con este caso. Uno de los comentarios provino de Asia-Pacífico y Oceanía, cuatro de Europa y uno de los Estados Unidos y Canadá.
Los comentarios enviados se referían a la importancia del acceso a los medios sociales para las personas que viven en Afganistán o sus cercanías, inquietudes sobre las limitaciones relacionadas con el debate acerca de los grupos designados y el interés público en permitir un rango más amplio de cobertura mediática sobre las acciones de los talibanes. En varios comentarios del público, se sostenía que la dependencia de la política sobre personas y organizaciones peligrosas de Meta de los términos vagos "exaltar" y "apoyar" podría suprimir el debate político crítico, además de afectar de modo desproporcionado a las comunidades minoritarias y el sur global. En los comentarios del público también se criticó a Meta por usar la legislación estadounidense como una "excusa" para prohibir "exaltar" a los grupos designados, en lugar de ser transparente y aceptar que es una elección normativa de Meta restringir la expresión más ampliamente de lo que exige la legislación estadounidense.
Si quieres leer los comentarios del público que se enviaron en relación con este caso, haz clic aquí.
8. Análisis del Consejo asesor de contenido
Este caso es significativo porque pone de manifiesto que la falta de claridad en la definición de "exaltar" pareciera estar causando dudas entre los revisores y usuarios. Además, considera asuntos importantes sobre la moderación de contenido, ya que también aplica a conflictos y discriminación sobre la base del género. Este caso es difícil porque se procura asegurar que los grupos terroristas o sus seguidores no usen las plataformas para iniciativas de reclutamiento y propaganda. Sin embargo, este objetivo, cuando se persigue de forma demasiado general, puede conllevar la censura de cualquier contenido que informe sobre estos grupos. El Consejo analizó la pregunta de si este contenido debía restaurarse y las consecuencias más amplias para el enfoque de Meta respecto de la moderación de contenido desde tres perspectivas: las políticas de contenido de Meta, los valores de la empresa y sus responsabilidades con los derechos humanos.
8.1 Cumplimiento de las políticas de contenido de Meta
I. Reglas de contenido
El Consejo determinó que el contenido está amparado por la concesión que permite a los usuarios compartir contenido que incluya referencias a organizaciones peligrosas designadas para informar sobre estas o sus actividades, y que, por lo tanto, no es infractor. El contenido no es infractor pese a la definición amplia de "exaltar" provista en las Normas comunitarias públicas, incluso cuando el contenido pueda entenderse como un discurso positivo sobre una acción de una entidad designada, el régimen talibán, y pueda otorgarle una sensación de logro. El Consejo señaló que las pautas proporcionadas a los moderadores en las preguntas frecuentes para interpretar el concepto de "exaltar" son incluso más amplias. Según estas pautas, los revisores deben eliminar contenido por tratarse de una exaltación si logra que las personas piensen de modo más positivo sobre un grupo designado (se traslada el foco del significado de "exaltar" de la intención del hablante a los efectos que se generan en el público). Informar sobre la intención manifestada de una entidad designada de permitir que las mujeres y niñas accedan a la educación, sin importar cuán dudosa sea dicha intención, presumiblemente haría que las personas pensaran de modo más positivo acerca de ese grupo. Dadas las instrucciones que los revisores recibieron, el Consejo entiende los motivos por los que dos de ellos (de forma equivocada) interpretaron el contenido como una exaltación.
El Consejo reconoce que Meta pretende que, en virtud de su norma comunitaria sobre personas y organizaciones peligrosas, se pueda informar sobre las entidades que la empresa designó como peligrosas, incluso si dicha información también cumple con la definición de "exaltar" de Meta. Sin embargo, el Consejo no cree que el texto de la norma comunitaria ni las preguntas frecuentes dejen clara dicha definición. De hecho, sin ninguna especificación, el término "exaltación" sigue siendo demasiado general. Las Normas comunitarias no proporcionan ningún ejemplo de lo que constituiría un informe aceptable. No hay pautas internas para los moderadores sobre cómo interpretar esta concesión.
II. Aplicación
El Consejo destacó que la acción de moderación de este caso se realizó después de que un usuario comenzara a reportar el contenido, aunque no terminara de hacerlo. Cuando este proceso se inicia, un sistema automatizado se activa, incluso si el usuario no termina de completar el reporte. Por este motivo, el contenido se colocó en una cola para someterse a revisión manual. No se le informó al usuario que comenzó el reporte que su acción podía tener consecuencias incluso si no finalizaba el reporte, mientras que al usuario se le hubieran comunicado las consecuencias de su reporte si lo hubiera enviado. Meta sostuvo en sus respuestas que el reporte automático no está vinculado al usuario que comenzó el reporte, pero al Consejo esto le resultó significativo, ya que todo el proceso de este caso comenzó porque un usuario inició un reporte. Además, al Consejo le preocupa que el botón "Reportar" no proporcione a los usuarios suficiente información sobre las consecuencias de hacer clic en él.
Las medidas ejecutivas que se tomaron en este caso (la eliminación del contenido, las faltas y las limitaciones de las funciones) no debieron haberse impuesto, ya que no hubo una infracción subyacente contra las Normas comunitarias. Al Consejo le preocupa que los sistemas de Meta para evitar errores en la aplicación de políticas de este tipo no hayan sido efectivos, en especial, dada la gravedad de las sanciones impuestas.
El Consejo señaló que, en este caso, la página del medio de comunicación previamente estuvo sujeta al sistema de verificación cruzada, pero en el marco de una amplia actualización de la plataforma a dicho sistema, la página no lo estaba en el momento en que el contenido del caso se revisó, por lo que la verificación cruzada no afectó la revisión del contenido del caso. En el sistema de verificación cruzada actual de Meta, se garantiza que los usuarios que se encuentran en la lista de revisión secundaria de respuesta rápida se someterán a una revisión manual secundaria. Mientras que algunas páginas de Facebook de medios de comunicación se encuentran en dicha lista, esta página no lo está. Estar en la lista de revisión secundaria de respuesta rápida también garantiza que empleados de Meta, y no revisores según la medida de la necesidad, revisen el contenido antes de que pueda eliminarse. Al Consejo le resulta poco probable que este contenido se hubiera eliminado si la página hubiera estado en la lista de revisión secundaria de respuesta rápida en ese momento.
El Consejo felicita a Meta por la incorporación del sistema HIPO, pero le preocupa que no haya logrado que una publicación que cumplía con las Normas comunitarias de Meta se sometiera a una revisión secundaria. El contenido de este caso no se sometió a otra revisión manual debido a la capacidad asignada al mercado y porque los sistemas automatizados de Meta no le otorgaron una puntuación de prioridad tan alta como la de otros contenidos que había en la cola del canal HIPO en ese momento. Dado el interés público propio del informe periodístico de este caso, y la identidad de la página (contenido publicado por un medio de comunicación), debió haber recibido una puntuación suficientemente alta que avalara la realización de otra revisión. Como Meta explicó, el factor "sensibilidad de la entidad" tiene en cuenta la identidad de la entidad que realiza la publicación y puede mejorar la calificación del contenido de medios de comunicación, en especial, aquellos que informan sobre acontecimientos mundiales significativos. Por los mismos motivos, al Consejo le preocupa que la cola del idioma urdu solo tuviera menos de 50 revisores a mediados de 2022. El Consejo considera que el tamaño del mercado indio, la cantidad de grupos que Meta designó como peligrosos en esa región y, por lo tanto, la especial relevancia de las voces independientes justifican una mayor inversión de la empresa en corregir los errores e, idealmente, evitar que ocurran cuando se trata de temas tan importantes.
8.2 Cumplimiento de los valores de Meta
El contenido que incluye exaltaciones a grupos peligrosos podría poner en riesgo el valor de seguridad de los usuarios de Meta y otras personas debido a su conexión con la violencia fuera de internet y su capacidad potencial para intimidar, excluir o silenciar a los demás. Sin embargo, en este caso, no había un problema significativo relacionado con la seguridad, ya que el contenido solo informaba sobre un comunicado realizado por una organización peligrosa. La expresión es muy importante cuando se trata de medios de comunicación, ya que proporcionan al público información esencial y tienen un papel fundamental a la hora de responsabilizar a los Gobiernos. La eliminación del contenido en este caso no contribuyó sustancialmente a la seguridad y constituyó una restricción innecesaria de la expresión.
8.3 Cumplimiento de las responsabilidades de Meta con los derechos humanos
El Consejo determinó que la eliminación del contenido de la plataforma no se ajustó a las responsabilidades de Meta respecto de los derechos humanos y que Meta debería contar con sistemas más efectivos para evitar y corregir tales errores. En el contexto de situaciones de conflicto o crisis, tiene especial importancia que Meta cumpla con sus responsabilidades respecto de los derechos humanos. Después de que un grupo reconocido por cometer abusos contra los derechos humanos toma por la fuerza un Gobierno y debido a la importancia de informar al público acerca de los actos de violencia cometidos por tales grupos designados, la empresa debe prestar especial atención a proteger los informes periodísticos sobre ese grupo.
Libertad de expresión (Artículo 19 del ICCPR)
El Artículo 19 del ICCPR protege la libertad de expresión e incluye el derecho de todas las personas a impartir información y recibirla. Los derechos humanos internacionales dan un especial valor al papel del periodismo en lo que respecta a brindar información que sea interesante para el público. El Comité de Derechos Humanos de la ONU señaló que "la existencia de medios de prensa u otros medios de comunicación libres y exentos de censura y de trabas es esencial en cualquier sociedad para asegurar la libertad de opinión y expresión y el goce de otros derechos reconocidos por el Pacto" (observación general n.º 34, párrafo 13). Las plataformas de medios sociales, como Facebook, se convirtieron en un vehículo para compartir informes periodísticos en todo el mundo, y Meta reconoció sus responsabilidades respecto de los periodistas y los defensores de los derechos humanos en su Política corporativa de derechos humanos.
El derecho a la libertad de expresión engloba la capacidad de los usuarios de Meta para acceder a información sobre los acontecimientos de interés público que ocurren en Afganistán, en especial, en un momento en que un grupo peligroso designado expulsó al Gobierno reconocido por la fuerza. Es imprescindible que los usuarios, incluidos los comentaristas de Afganistán que están dentro y fuera del país, y el público en general tengan acceso a informes periodísticos en tiempo real sobre la situación de ese lugar. El enfoque de los talibanes respecto de la libertad de prensa en el país refuerza aún más el papel de la cobertura periodística internacional. La información de este caso hubiera sido esencial para las personas preocupadas por la igualdad de derechos de las mujeres y niñas en cuanto al acceso a la educación. Esto sigue siendo así, a pesar de que el régimen talibán no cumpliera con sus compromisos.
El Artículo 19, párrafo 3, del ICCPR (según la interpretación del Comité de Derechos Humanos plasmada en la observación general n.º 34) exige que, si un Estado impone restricciones sobre la libertad de expresión, estas deben cumplir los requisitos de legalidad, fin legítimo y necesidad y proporcionalidad. El Consejo aplica estas normas internacionales para evaluar si Meta cumplió con sus responsabilidades respecto de los derechos humanos.
I. Legalidad (claridad y accesibilidad de las reglas)
El principio de legalidad exige que las leyes que usan los Estados para limitar la libertad de expresión sean claras y accesibles, a fin de que las personas entiendan qué se permite y qué no. Además, exige que las leyes que restringen la libertad de expresión sean específicas, a fin de garantizar que no se otorgue una discrecionalidad absoluta a quienes estén a cargo de su aplicación (observación general n.º 34, párrafo 25). El Comité de Derechos Humanos advirtió que "los [delitos] de 'elogiar', 'exaltar' o 'justificar' el terrorismo deben estar claramente definidos para que no den lugar a una injerencia innecesaria o desproporcionada en la libertad de expresión. Es preciso evitar las limitaciones excesivas del acceso a la información" (observación general n.º 34, párrafo 46; consultar también: párrafos 36 y 37 del informe del Relator Especial de la ONU sobre los derechos humanos y la lucha contra el terrorismo [informe A/HRC/40/52]).
El Consejo siguió el mismo enfoque que adoptó en casos anteriores y aplicó estos principios a las reglas de contenido de Meta. Si bien el Consejo valora que las políticas de Meta sobre personas y organizaciones peligrosas ahora incluyan más detalles que cuando el Consejo realizó sus primeras recomendaciones en esta área, aún existen serias preocupaciones.
En el caso de los usuarios que reportan contenido sobre el régimen talibán, no es claro si los talibanes siguen siendo una entidad peligrosa designada después de haber expulsado al Gobierno reconocido de Afganistán por la fuerza. Previamente, el Consejo recomendó que Meta divulgara o bien una lista completa de las entidades designadas, o bien una ilustrativa, a fin de brindarles claridad a los usuarios (caso "Cita nazi" y caso "Aislamiento de Öcalan"). El Consejo lamenta la falta de progreso en esta recomendación y destaca que, si bien la empresa no divulgó esta información de forma proactiva, denunciantes y periodistas procuraron informar al público al divulgar públicamente una versión de la lista "secreta".
Como se indicó anteriormente en esta decisión (consultar la sección 8.1), la definición de "exaltar" como discursos positivos sobre una entidad designada que se proporciona en las Normas comunitarias públicas es demasiado amplia. Para las personas involucradas en el periodismo, no es claro cómo esta regla se relaciona con la concesión para informes periodísticos correspondiente a la misma política. De acuerdo con Meta, esta concesión permite la conservación de informes periodísticos incluso cuando un usuario exalta a la entidad designada en la misma publicación. El Consejo señaló que la relación entre la concesión "para informes periodísticos" correspondiente a la política sobre personas y organizaciones peligrosas y la concesión de interés periodístico general sigue siendo confusa para los usuarios. En el caso "Publicación compartida de Al Jazeera", el Consejo recomendó que Meta proporcionara criterios y ejemplos ilustrativos en las Normas comunitarias sobre qué constituye un informe periodístico. Meta respondió en el informe de implementación del primer trimestre de 2022 que, internamente, estaba consultando con varios equipos para desarrollar criterios que ayudaran a las personas a comprender qué constituye un informe periodístico. Indicó que espera concluir este proceso en el cuarto trimestre de 2022.
Al Consejo le sigue preocupando que los cambios realizados en la norma comunitaria pertinente no se traduzcan a todos los idiomas disponibles y que haya inconsistencias entre los idiomas. Tras la decisión del Consejo correspondiente al caso "Publicación compartida de Al Jazeera", la versión en inglés estadounidense de la política sobre personas y organizaciones peligrosas se modificó en diciembre de 2021 para cambiar la expresión discrecional "el contenido podría eliminarse" a "se elimina el contenido de forma predeterminada" cuando la intención de un usuario no estuviera clara. Sin embargo, versiones en otros idiomas de las Normas comunitarias, incluidas las de urdu e inglés británico, no reflejan este cambio. A pesar de que la empresa manifestó públicamente como respuesta a recomendaciones anteriores del Consejo (actualización trimestral del cuarto trimestre de 2021 de Meta sobre el Consejo asesor de contenido) que pretendía completar las traducciones a todos los idiomas disponibles en un plazo de entre cuatro y seis semanas, aparentemente, la traducción de la línea de la política relevante para este caso aún no se llevó a cabo después de cinco meses. Por lo tanto, no todos los usuarios pueden acceder a la política de igual modo, lo que dificulta su posibilidad de comprender qué se permite y qué no.
Al Consejo también le inquieta que Meta no haya hecho lo suficiente para aclarar a los usuarios cómo funciona el sistema de faltas. Aunque una página de "Restricción de cuentas" en el Centro de transparencia de Meta incluye algunos detalles, no menciona de forma exhaustiva las limitaciones de las funciones que la empresa podría aplicar ni su duración. Tampoco especifica los períodos establecidos para las faltas graves, como sí lo hace para las faltas estándar. Esto es particularmente preocupante porque las faltas graves conllevan penalizaciones más considerables y no hay un mecanismo implementado para apelar las sanciones en el nivel de la cuenta de forma independiente de la decisión del caso. Incluso cuando se restaura el contenido, no siempre se pueden revertir por completo las limitaciones de las funciones. En este caso, por ejemplo, el usuario ya había experimentado varios días de limitaciones de las funciones, que no se rectificaron completamente cuando Meta revirtió su decisión.
El hecho de que dos hablantes de urdu hayan evaluado este contenido como infractor indica, además, que la prohibición de las exaltaciones, y su relación con las concesiones para informes periodísticos, es confusa para quienes están a cargo de aplicar las reglas. Los revisores de contenido reciben pautas internas respecto de cómo interpretar las reglas (preguntas frecuentes y normas de implementación). En el documento de preguntas frecuentes, se define "exaltación" como el contenido que logra que las personas piensen de modo más positivo sobre un grupo designado. Esta definición es probablemente más amplia que la definición pública dada en las Normas comunitarias, ya que se traslada el foco del significado de "exaltar" de la intención del hablante a los efectos que se generan en el público. Además, ni en las Normas comunitarias ni en el documento de preguntas frecuentes, se limita la discreción del revisor en cuanto a restringir la libertad de expresión. Las definiciones del diccionario estándar de "exaltar" no son tan amplias, y, según está redactada, la regla engloba la exposición de hechos, incluida la exposición periodística imparcial, así como las opiniones. Como respuesta a las preguntas del Consejo, Meta aclaró que, a través de la concesión para informes periodísticos, se permite que cualquier persona, y no solo los periodistas, hablen de forma positiva acerca de una organización designada en el contexto del periodismo. Sin embargo, no se aclara esto a los revisores en las pautas internas. Meta admitió que esta pauta no proporciona a los revisores una definición de cómo interpretar "informar sobre".
II. Fin legítimo
Anteriormente, el Consejo asesor de contenido reconoció que la política sobre personas y organizaciones peligrosas tiene el fin de proteger los derechos de los demás, incluido el derecho a la vida, la seguridad personal y la igualdad y no discriminación (Artículo 19[3] del ICCPR, decisión del Consejo asesor de contenido "Inquietud punyabí en torno a la RSS en la India"). Además, el Consejo reconoció que la propaganda de entidades designadas, incluidos representantes que se identifican como medios independientes, podría significar riesgos de perjuicios para los derechos de los demás. Intentar mitigar dichos perjuicios a través de esta política es un fin legítimo.
III. Necesidad y proporcionalidad
Toda restricción que se aplique a la libertad de expresión debe ser adecuada a fin de cumplir su función de protección; debe ser el instrumento menos invasivo entre aquellos que le permitan cumplir dicha función; debe ser proporcional al interés que se busca proteger (observación general n.º 34, párrafo 34). Meta reconoció que la eliminación del contenido en este caso fue innecesaria y, por lo tanto, no deberían haberse impuesto sanciones al usuario.
El Consejo entiende que, cuando se modera contenido a gran escala, es posible que se cometan errores. Sin embargo, el Consejo sigue recibiendo quejas sobre los errores cometidos al aplicar la política sobre personas y organizaciones peligrosas que afectan al periodismo, en particular, en idiomas distintos del inglés, y eso despierta una gran preocupación (consultar la decisión del caso "Publicación compartida de Al Jazeera" y la decisión del caso "Aislamiento de Öcalan"). El Comité de Derechos Humanos de la ONU destacó que "los medios de comunicación desempeñan una función crucial en la tarea de informar a la población sobre los actos de terrorismo, y no debe limitarse indebidamente su capacidad de acción. Los periodistas no deben ser penalizados por ejercer sus actividades legítimas" (observación general n.º 34, párrafo 46). En consecuencia, Meta tiene la responsabilidad de evitar y mitigar el impacto negativo de sus plataformas en la cobertura periodística.
Al Consejo le preocupa que el tipo de error cometido en la aplicación de la política en este caso podría ser indicio de fallas más generales en este aspecto. Los comentaristas que habitualmente trabajan en torno a actividades de personas y organizaciones peligrosas de nivel 1 enfrentan un mayor riesgo de cometer errores en la aplicación de políticas que se deriven en sanciones graves para sus cuentas. Esto podría perjudicar sus fuentes de trabajo y denegar el acceso público a información en momentos clave. Al Consejo le preocupa que sea posible que la política de eliminar el contenido de forma predeterminada cuando el usuario no indica con claridad su intención de informar sobre entidades peligrosas esté provocando una eliminación excesiva de contenido no infractor, incluso cuando indicios contextuales dejan claro que la publicación, de hecho, brinda información periodística. Asimismo, el sistema de prevención y corrección de errores no benefició a este usuario como debería haberlo hecho. Esto evidencia problemas en el modo en que el clasificador del sistema HIPO priorizó la decisión del contenido para una nueva revisión (que nunca llegó al principio de la cola). También plantea interrogantes acerca de que posiblemente los recursos asignados a la revisión manual de la cola del sistema HIPO sean insuficientes para el contenido en urdu. En este caso, el error en la aplicación de la política y la falta de corrección de este denegaron a muchos usuarios de Facebook el acceso a información sobre asuntos de importancia mundial y obstaculizaron el ejercicio de la función periodística de un medio de comunicación, que es informar al público.
Es posible que los periodistas informen sobre los hechos de un modo imparcial que evita el tipo de condena evidente que los revisores quizá esperan ver. Para evitar la eliminación del contenido y las sanciones a sus cuentas, posiblemente los periodistas se autocensuren y hasta, quizá, se vean incentivados a desviarse de sus responsabilidades profesionales éticas. Además, hubo reportes de usuarios opositores al régimen talibán que evitaron mencionar a dicho grupo en las publicaciones porque les preocupaba quedar sujetos a sanciones erróneas.
El Consejo también indicó que Meta elaboró excepciones con base en el "espíritu de la política" (como las llamó) en relación con el régimen talibán. Esto indica que Meta reconoció que, a veces, su enfoque respecto de la política sobre personas y organizaciones peligrosas genera resultados que no se alinean con los objetivos de la política y, por lo tanto, no cumplen con el requisito de necesidad. Los materiales internos de la empresa que se proporcionan a los periodistas ponen de manifiesto que, en septiembre de 2021, la empresa creó una excepción para permitir la conservación de contenido compartido por el Ministerio del Interior de Afganistán que tratara ciertos asuntos, como nuevas reglamentaciones de tráfico, así como dos publicaciones específicas del Ministerio de Salud en relación con el COVID-19. Otras excepciones presuntamente fueron más personalizadas y duraron menos tiempo. En agosto de 2021, durante 12 días, figuras del Gobierno pudieron, según se informó, reconocer al régimen talibán como el Gobierno oficial de Afganistán sin riesgo de que se aplicaran sanciones a sus cuentas. Desde finales de 2021 hasta el 3 de septiembre, se les permitió a los usuarios publicar declaraciones públicas de los talibanes sin tener que hablar sobre estas en un tono neutral, informar sobre ellas ni condenarlas. Voceros de Meta reconocieron que se formularon algunas excepciones ad hoc. El 25 de enero de 2022, en un Foro de políticas sobre el protocolo de políticas ante crisis, Meta indicó que implementaría recursos normativos en situaciones de crisis y dio el ejemplo de permitir la exaltación de una organización designada específica (p. ej., un grupo de guerrilla que firma un tratado de paz). Estas excepciones a la prohibición general de incluir exaltaciones podrían generar más incertidumbre entre los revisores, así como entre los usuarios que quizá desconozcan si una excepción es válida o cuándo lo es. Todo esto demuestra que hubo situaciones en las que Meta presuntamente reconoció que un enfoque más flexible respecto del contenido se justifica cuando se lidia con una entidad designada que derroca a un Gobierno legítimo y asume el control del territorio.
El Consejo determinó que la eliminación del contenido de la plataforma fue una medida innecesaria y desproporcionada. El volumen de estos errores cometidos en la aplicación de políticas, sus consecuencias en la actividad periodística y las fallas del sistema de prevención de errores de Meta contribuyeron a esta conclusión.
9. Decisión del Consejo asesor de contenido
El Consejo asesor de contenido anuló la decisión original de Meta de eliminar el contenido.
10. Declaraciones de asesoramiento normativo
Política de contenido
1. Meta debería investigar los motivos por los que los cambios realizados en la política sobre personas y organizaciones peligrosas en diciembre de 2021 no se actualizaron en el plazo previsto de seis semanas, así como asegurar que tales demoras u omisiones no se repitan. El Consejo solicitó a Meta que le informe en un plazo de 60 días acerca de las conclusiones de su investigación, además de las medidas que haya implementado para evitar demoras en la traducción en el futuro.
2. Meta debería hacer pública su explicación del sistema de faltas de dos vías más entendible y accesible, en especial, para las "faltas graves". Debería incluir todas las infracciones contra las políticas que derivan en faltas graves, cuáles funciones de la cuenta pueden limitarse como consecuencia, y especificar los plazos aplicables. Las políticas que conllevan faltas graves también deberían identificarse con claridad en las Normas comunitarias, a través de un enlace a la explicación del sistema de faltas que se encuentra en Restricción de cuentas. El Consejo solicitó a Meta que le informe en un plazo de 60 días sobre la actualización de la explicación del sistema de faltas en el Centro de transparencia, así como de la inclusión de los enlaces a dicha explicación en todas las políticas de contenido que conlleven faltas graves.
Aplicación
3. Meta debería acotar la definición de "exaltar" en las pautas otorgadas a los revisores en las preguntas frecuentes. Para ello, debería eliminar el ejemplo de contenido que procura que otras personas piensen de forma más positiva acerca de una entidad designada al atribuirle valores positivos o ratificar sus acciones. El Consejo solicitó a Meta que le proporcione en un plazo de 60 días la versión completa del documento de preguntas frecuentes correspondiente a personas y organizaciones peligrosas actualizado.
4. Meta debería revisar sus normas de implementación internas para aclarar que, por medio de la concesión "para informes periodísticos" correspondiente a la política sobre personas y organizaciones peligrosas, se permite la conservación de declaraciones sobre entidades designadas como parte de la cobertura periodística, y cómo se debería distinguir esto de las "exaltaciones" prohibidas. El documento de preguntas frecuentes debería ampliarse para dejar clara la importancia que los informes periodísticos tienen en situaciones de conflicto o crisis, y proporcionar ejemplos relevantes. También debería especificarse que se pueden incluir declaraciones positivas sobre entidades designadas, como la información brindada sobre los talibanes en este caso. El Consejo solicitó a Meta que le comparta las normas de implementación actualizadas en un plazo de 60 días.
5. Meta debería evaluar la precisión de los revisores al aplicar la concesión para informes periodísticos correspondiente a la política sobre personas y organizaciones peligrosas, a fin de identificar cuestiones sistemáticas que causen errores en la aplicación. El Consejo solicitó a Meta que le informe en un plazo de 60 días los resultados detallados de la revisión de esta evaluación o de evaluaciones de la precisión que Meta ya realice en relación con la política sobre personas y organizaciones peligrosas, incluso cómo los resultados se usarán para mejorar las operaciones vinculadas a la aplicación de políticas, entre otras cosas, respecto del sistema de HIPO.
6. Meta debería llevar a cabo una revisión del clasificador del sistema HIPO para examinar si fuera posible una priorización más efectiva de los errores potenciales cometidos en la aplicación de las concesiones correspondientes a la política sobre personas y organizaciones peligrosas. Se debería analizar también si el clasificador del sistema HIPO debería ser más sensible al contenido periodístico, para el que la probabilidad de que ocurran eliminaciones por falsos positivos que afectan la libertad de expresión aparentemente es alta. El Consejo solicitó a Meta que le informe en un plazo de 60 días los resultados de su revisión y las mejoras que hará para evitar que ocurran errores de este tipo en el futuro.
7. Meta debería mejorar la capacidad asignada a la revisión a través del sistema HIPO en todos los idiomas para asegurar que más decisiones de contenido que pudieran constituir errores en la aplicación de políticas se sometan a otra revisión manual. El Consejo solicitó a Meta que le informe en un plazo de 60 días las mejoras previstas en la capacidad.
* Nota de procedimiento:
La preparación de las decisiones del Consejo asesor de contenido está a cargo de paneles conformados por cinco miembros, quienes deben aprobarlas por mayoría. Las decisiones del Consejo no necesariamente representan las opiniones personales de todos los miembros.
En cuanto a la decisión del caso, se encargó una investigación independiente en nombre del Consejo. Al Consejo lo asistió un instituto de investigación independiente con sede en la Universidad de Gotemburgo, que se apoya en un equipo conformado por más de 50 científicos sociales de seis continentes, así como 3.200 expertos de diferentes países del mundo. El Consejo también recibió asistencia de parte de Duco Advisors, una empresa asesora dedicada a la intersección de geopolítica, confianza, seguridad y tecnología. Lionbridge Technologies, LLC, con especialistas en más de 350 idiomas que trabajan en 5.000 ciudades diferentes, se encargó de las competencias en materia lingüística.
Volver a Decisiones de casos y opiniones consultivas sobre políticas