Anulado

Publicación compartida de Al Jazeera

El Consejo asesor de contenido coincide en que Facebook actuó de forma correcta al revertir su decisión original de eliminar contenido en la plataforma en el que se compartía una noticia sobre una amenaza de violencia de las Brigadas de Ezzeldin Al-Qassam, el brazo armado de la organización palestina Hamás.

Tipo de decisión

Estándar:

Políticas y temas

Tema
Acontecimientos periodísticos, Guerras y conflictos, Periodismo
Estándar comunitario
Personas y organizaciones peligrosas

Regiones/Países

Ubicación
Egipto, Israel, Territorios Palestinos

Plataforma

Plataforma
Facebook

Ten en cuenta que esta decisión está disponible en árabe (por medio de la pestaña "Idioma" en el menú que figura en la parte superior de esta pantalla) y en hebreo (por medio de este enlace).

לקריאת ההחלטה במלואה יש ללחוץ כאן.

Resumen del caso

El Consejo asesor de contenido coincide en que Facebook actuó de forma correcta al revertir su decisión original de eliminar contenido en la plataforma en el que se compartía una noticia sobre una amenaza de violencia de las Brigadas de Ezzeldin Al-Qassam, el brazo armado de la organización palestina Hamás. Inicialmente, Facebook eliminó el contenido en virtud de su norma comunitaria sobre personas y organizaciones peligrosas, y lo restauró después de que el Consejo seleccionara el caso para someterlo a revisión. El Consejo concluye que eliminar el contenido no redujo el daño en la vida real y que restringió la libertad de expresión sobre un asunto de interés público.

Información sobre el caso

El 10 de mayo de 2021, un usuario de Facebook en Egipto con más de 15.000 seguidores compartió una publicación de la página verificada de Al Jazeera en árabe que incluía una foto y texto en árabe.

En la foto se veían dos hombres con el rostro cubierto usando ropa de camuflaje y una cinta en la cabeza con la insignia de las Brigadas de Al-Qassam. El texto que acompañaba la foto era el siguiente: "Los líderes de la resistencia en la sala de operaciones conjuntas ofrecen a las fuerzas de ocupación una tregua hasta las 18:00 para que retiren a sus soldados de la mezquita de Al-Aqsa y el barrio de Sheikh Jarrah. De lo contrario, el que avisa no traiciona. Abu Obeida, vocero militar de las Brigadas de Al-Qassam". El usuario compartió la publicación de Al Jazeera y agregó la expresión "Ooh" en árabe. Las Brigadas de Al-Qassam y su vocero, Abu Obeida, se consideran peligrosos en virtud de la norma comunitaria de Facebook sobre personas y organizaciones peligrosas.

Facebook eliminó el contenido por infringir esta política, y el usuario apeló el caso ante el Consejo. Como consecuencia de que el Consejo seleccionara el caso para someterlo a revisión, Facebook llegó a la conclusión de que había eliminado el contenido por error y lo restauró.

Conclusiones principales

Después de que el Consejo seleccionara este caso, Facebook determinó que el contenido no infringía sus normas sobre personas y organizaciones peligrosas, ya que no incluía exaltación, apoyo ni representación en relación con las Brigadas de Al-Qassam o Hamás. Facebook no pudo explicar el motivo por el que dos revisores consideraron inicialmente que el contenido infringía esta política, y señaló que no se exige a los moderadores que registren su razonamiento en el caso de decisiones relativas a contenidos individuales.

El Consejo nota que el contenido en cuestión volvía a publicar una noticia procedente de una fuente de noticias legítima en relación con un asunto de interés público urgente. La publicación original de Al Jazeera nunca se eliminó, y muchas otras fuentes se hicieron eco de la amenaza de violencia emitida por las Brigadas de Al-Qassam. En términos generales, las personas tienen tanto derecho a volver a publicar noticias como las organizaciones de medios a publicarlas en primer lugar.

En este caso, el usuario explicó que su intención era proporcionar información actualizada a sus seguidores en relación con un asunto de importancia actual, y el hecho de agregar la expresión "Ooh" parece ser neutral. Por consiguiente, el Consejo considera que eliminar el contenido del usuario no redujo de forma material el daño en la vida real.

Como respuesta a alegaciones en las que se indicaba que Facebook había censurado contenido palestino debido a demandas del Gobierno de Israel, el Consejo formuló preguntas a Facebook, entre las que se planteaba si la empresa había recibido solicitudes oficiales o no oficiales de Israel para eliminar contenido relacionado con el conflicto que tuvo lugar en los meses de abril y mayo. Facebook respondió que en este caso no había recibido ninguna solicitud legal válida de una autoridad gubernamental en relación con el contenido del usuario, pero rechazó facilitar el resto de la información solicitada por el Consejo.

Los comentarios del público enviados en relación con este caso incluían alegaciones en las que se planteaba que Facebook había eliminado o penalizado de forma desproporcionada contenido de usuarios palestinos y contenido en árabe, especialmente en comparación con el trato aplicado a las publicaciones en las que se amenazaba con violencia contra colectivos árabes o palestinos en Israel. Asimismo, Facebook recibió críticas por no llevar a cabo acciones suficientes para eliminar el contenido que incite a la violencia contra población civil israelí. El Consejo recomienda realizar una revisión independiente de estos asuntos, que revisten gran importancia, así como exhibir mayor transparencia en relación con el trato dado a las solicitudes gubernamentales.

La decisión del Consejo asesor de contenido

El Consejo asesor de contenido ratifica la decisión de Facebook de restaurar el contenido, y señala que la decisión inicial de eliminar el contenido carecía de justificación.

En una declaración de asesoramiento normativo, el Consejo recomienda que Facebook:

  • Agregue criterios y ejemplos ilustrativos a su política sobre personas y organizaciones peligrosas para mejorar la comprensión de las excepciones relativas al debate neutral, las actitudes de condena y los fines periodísticos.
  • Garantice que las actualizaciones de las Normas comunitarias se traduzcan con celeridad a todos los idiomas disponibles.
  • Contrate a una entidad independiente no asociada con ningún bando del conflicto entre Israel y Palestina para efectuar un examen exhaustivo a fin de determinar si la moderación de contenido de Facebook en árabe y en hebreo, incluido el uso de la automatización, se aplicó sin sesgos. Este análisis no debe centrarse únicamente en el trato concedido al contenido palestino o propalestino, sino que también debe revisar cómo se trata el contenido que incita a la violencia contra cualquier objetivo potencial, con independencia de su nacionalidad, origen étnico, religión, creencias u opiniones políticas. La revisión debe analizar contenido publicado por usuarios de Facebook ubicados en Israel y los Territorios Palestinos Ocupados, así como fuera de estos ámbitos geográficos. Tanto el informe como sus conclusiones deben hacerse públicos.
  • Formalice un proceso transparente en el que se detalle cómo Facebook recibe solicitudes gubernamentales de eliminación de contenido y responde a ellas, y garantizar que estas se incluyan en los informes de transparencia. Los informes de transparencia deben distinguir entre las solicitudes gubernamentales que derivaron en eliminaciones de contenido por infracciones de las Normas comunitarias y las solicitudes que derivaron en eliminaciones o bloqueos geográficos de contenido por infracción de la legislación local, además de las solicitudes que no tuvieron más consecuencias.

* Los resúmenes de casos ofrecen información general sobre los casos y no sientan precedentes.

Decisión del caso completa

1. Resumen de la decisión

El Consejo asesor de contenido coincide en que Facebook actuó de forma correcta al revertir su decisión original de eliminar contenido publicado en la plataforma el 10 de mayo de 2021 en el que se compartía una noticia sobre una amenaza de violencia de las Brigadas de Ezzeldin Al-Qassam, el brazo armado de la organización palestina Hamás. Muchos países designan a las Brigadas de Ezzeldin Al-Qassam como organización terrorista, ya sea como parte de Hamás o en calidad de entidad independiente. Luego de que el usuario presentara una apelación y el Consejo seleccionara el caso para someterlo a revisión, Facebook concluyó que el contenido se había eliminado por error y restauró la publicación en la plataforma.

En la política sobre personas y organizaciones peligrosas se afirma que compartir comunicaciones oficiales de una organización designada como peligrosa por Facebook es una forma de mostrar apoyo sustancial. Sin embargo, en la política se incluyen excepciones relativas a fines periodísticos y al debate en un tono neutral. La empresa aplicó la excepción relativa a fines periodísticos a la publicación de Al Jazeera y, de forma equivocada, no aplicó la excepción sobre debate neutral, algo que corrigió posteriormente. El Consejo concluye que, en este caso, la eliminación del contenido no era necesaria, ya que no redujo el daño en la vida real y, por el contrario, se tradujo en una restricción injustificada de la libertad de expresión sobre un asunto de interés público.

2. Descripción del caso

El 10 de mayo, un usuario de Facebook en Egipto (el usuario) con más de 15.000 seguidores compartió una publicación de la página verificada de Al Jazeera en árabe que incluía una foto y texto en árabe. En la foto se veían dos hombres con el rostro cubierto usando ropa de camuflaje y una cinta en la cabeza con la insignia de las Brigadas de Al-Qassam, un grupo armado palestino y el brazo armado de Hamás. El Consejo señala que las Brigadas de Al-Qassam fueron acusadas de cometer crímenes de guerra (Informe de la Comisión Independiente de la ONU sobre el conflicto de Gaza de 2014, A/HRC/29/CRP.4, y Human Rights Watch, Gaza: Apparent War Crimes During May Fighting [2021]).

El texto que acompaña a la foto indica lo siguiente: "Los líderes de la resistencia en la sala de operaciones conjuntas ofrecen a las fuerzas de ocupación una tregua hasta las 18:00 para que retiren a sus soldados de la mezquita de Al-Aqsa y el barrio de Sheikh Jarrah en Jerusalén. De lo contrario, el que avisa no traiciona. Abu Obeida, vocero militar de las Brigadas de Al-Qassam". El texto de Al Jazeera decía: "El que avisa no traiciona". El vocero militar de las Brigadas de Al-Qassam amenaza a las fuerzas de ocupación si no se retiran de la mezquita de Al-Aqsa". El usuario compartió la publicación de Al Jazeera y agregó la expresión "Ooh" en árabe. Las Brigadas de Al-Qassam y su vocero, Abu Obeida, se consideran peligrosos en virtud de la norma comunitaria de Facebook sobre personas y organizaciones peligrosas.

El mismo día, otro usuario en Egipto reportó la publicación y seleccionó "terrorismo" en la lista establecida de motivos que Facebook ofrece a las personas que reportan contenido. Un moderador araboparlante en África del Norte efectuó la evaluación del contenido y lo eliminó por infringir la política sobre personas y organizaciones peligrosas. El usuario presentó una apelación y otro revisor (ubicado en el Sudeste Asiático) que no hablaba árabe, pero que tuvo acceso a una traducción automatizada del contenido, lo revisó. Facebook explicó que esto se produjo por un error de enrutamiento que está tratando de resolver. El segundo revisor también consideró que se había producido una infracción de la política sobre personas y organizaciones peligrosas, y el usuario recibió una notificación en la que se indicaba que la decisión inicial había sido ratificada en el marco de una segunda revisión. Debido a la infracción, el usuario solo tuvo acceso de lectura a su cuenta durante tres días. Facebook también restringió la capacidad del usuario de transmitir contenido en vivo, así como de usar productos publicitarios en la plataforma, durante 30 días.

El usuario entonces presentó una apelación ante el Consejo asesor de contenido. Como consecuencia de que el Consejo seleccionara el caso para someterlo a revisión, Facebook determinó que el contenido se había eliminado por error y lo restauró. Más adelante, Facebook confirmó al Consejo que la publicación original de Al Jazeera se mantuvo en la plataforma y nunca se retiró.

El contenido en cuestión está relacionado con el conflicto armado de mayo de 2021 entre las fuerzas israelíes y grupos militantes palestinos en Israel y Gaza, un territorio palestino gobernado por Hamás. El conflicto estalló tras semanas de tensiones y protestas al alza en Jerusalén vinculadas a una disputa sobre la propiedad de viviendas en el barrio de Sheij Yarrah de Jerusalén Este, así como a una resolución de la Corte Suprema de Israel relativa a la expulsión planificada de cuatro familias palestinas de las propiedades en cuestión. Estas tensiones fueron en aumento y se tradujeron en una serie de ataques sectarios perpetrados por multitudes de origen tanto árabe como judío. El 10 de mayo, las fuerzas israelíes asaltaron la mezquita de Al-Aqsa e hirieron a centenares de fieles durante las oraciones del Ramadán (Comunicación de Expertos Independientes de la ONU al Gobierno de Israel, UA ISR 3.2021). Después de este asalto, las Brigadas de Ezzeldin Al-Qassam emitieron un ultimátum en el que pedían la retirada de los soldados israelíes tanto de la mezquita como del barrio de Sheij Yarrah antes de las 18:00. Una vez vencido el plazo, Al-Qassam y otros grupos militantes palestinos en Gaza lanzaron cohetes en el centro civil de Jerusalén, lo que dio inicio a 11 días de conflicto armado.

3. Autoridad y alcance

El Consejo tiene la facultad para revisar la decisión de Facebook tras una apelación del usuario cuya publicación se eliminó (Artículo 2, sección 1, del acta constitutiva; Artículo 2, sección 2.1, de los estatutos). El Consejo puede sostener o revertir esa decisión (Artículo 3, sección 5, del acta constitutiva). De conformidad con la decisión del caso 2020-004-IG-UA, el hecho de que Facebook revirtiese una decisión suya apelada al Consejo no excluye al caso del proceso de revisión.

Las decisiones del Consejo son vinculantes y pueden incluir declaraciones de asesoramiento normativo con recomendaciones. Estas recomendaciones no son vinculantes, pero Facebook debe responder a ellas (Artículo 3, sección 4, del acta constitutiva).

4. Normas pertinentes

El Consejo asesor de contenido consideró las siguientes normas en su decisión:

I. Normas comunitarias de Facebook:

En la norma comunitaria sobre personas y organizaciones peligrosas se sostiene que "no permitimos la presencia en Facebook de ninguna organización o persona que proclame un objetivo violento o participe en acciones de esta naturaleza". Facebook lleva a cabo sus propios procesos de designación de entidades como peligrosas de acuerdo con esta política. Con frecuencia, estas designaciones se basan en listas terroristas nacionales.

El 22 de junio, Facebook actualizó la política para dividir estas designaciones en tres niveles. En la actualización se recoge que los tres niveles indican "el grado de cumplimiento del contenido. El Nivel 1 es el más exhaustivo, porque consideramos que estas entidades son las que tienen vínculos más directos con daños en la vida real". Las designaciones del Nivel 1 se centran en "entidades relacionadas con daños graves en la vida real", como grupos terroristas, y constituyen el nivel más elevado de cumplimiento del contenido. Facebook elimina las manifestaciones de exaltación, apoyo sustancial y representación de las entidades de Nivel 1 y de sus líderes, fundadores o miembros destacados.

II. Valores de Facebook:

El valor de "expresión" se describe como fundamental.

Nuestras Normas comunitarias siempre apuntaron a crear un espacio donde las personas puedan expresarse y dar a conocer su opinión. [...] Queremos que las personas puedan hablar abiertamente sobre los temas que les importan, incluso si otros no están de acuerdo o los consideran objetables.

Facebook limita la expresión para proteger otros cuatro valores. En este caso, la seguridad es el más importante:

nos comprometemos a hacer de Facebook un lugar seguro. La expresión que supone una amenaza para las personas puede intimidar, excluir o silenciar a otros, por lo que no está permitida en Facebook.

III. Normas de derechos humanos:

Los Principios Rectores sobre las Empresas y los Derechos Humanos de la ONU (UNGP), respaldados por el Consejo de Derechos Humanos de la ONU en 2011, establecen un marco voluntario que encuadra las responsabilidades de las empresas privadas en cuanto a estos derechos. En marzo de 2021, Facebook anunció su Política corporativa de derechos humanos, en la que reafirma su compromiso a respetar los derechos de conformidad con los Principios Rectores sobre las Empresas y los Derechos Humanos de la ONU. El análisis del Consejo en este caso se basó en las siguientes normas de derechos humanos:

  • Derecho a la libertad de opinión y expresión: Artículo 19 del Pacto Internacional de Derechos Civiles y Políticos (ICCPR); observación general n.° 34del Comité de Derechos Humanos (2011); informe del Relator Especial sobre la libertad de opinión y de expresión, A/74/486 (2019); resolución sobre la seguridad de los periodistas del Consejo de Derechos Humanos, A/HRC/RES/45/18 (2020); informe del Relator Especial de la ONU sobre la situación de los derechos humanos en los territorios palestinos ocupados desde 1967, A/75/532 (2020).
  • Derecho a la no discriminación: Artículos 2 y 26 del ICCPR.
  • Derecho a la vida: Artículo 6 del ICCPR; observación general n.° 36 del Comité de Derechos Humanos (2018).
  • Derecho a la seguridad personal: Artículo 9 del ICCPR, tal como se interpreta en la observación general n.º 35, párrafo 9, del Comité de Derechos Humanos (2014).

5. Declaración del usuario

En su apelación al Consejo, el usuario manifestó que había compartido la publicación de Al Jazeera para proporcionar a sus seguidores información actualizada sobre la crisis en desarrollo, y que se trataba de una cuestión importante de la que más personas deberían estar al corriente. El usuario enfatizó el hecho de que su publicación se limitaba a compartir contenido de una página de Al Jazeera y que el texto incluido fue, sencillamente, "Ooh".

6. Explicación de la decisión de Facebook

En respuesta a la consulta del Consejo, Facebook indicó que no pudo explicar el motivo por el que dos revisores consideraron inicialmente que el contenido infringía la política sobre personas y organizaciones peligrosas, y señaló que no se exige a los moderadores que registren su razonamiento en el caso de decisiones relativas a contenidos individuales. La empresa aclaró que, "en este caso, los revisores de contenido tenían acceso a todo el contenido, lo que incluye el texto y la imagen de la publicación original, así como el texto adicional que el creador de contenido agregó a la versión compartida de la publicación". La empresa también puntualizó que, "generalmente, los revisores de contenido están formados para analizar la totalidad del contenido".

Como consecuencia de que el Consejo seleccionara este caso para someterlo a revisión, Facebook volvió a examinar su decisión y concluyó que el contenido no incluía manifestaciones de exaltación, apoyo sustancial o representación en relación con las Brigadas de Al-Qassam o Hamás, sus actividades ni sus miembros. Facebook explicó que revirtió su decisión dado que la publicación de Al Jazeera no infringía las normas pertinentes y el usuario la compartió junto a un texto de tono neutral. De acuerdo con la política sobre personas y organizaciones peligrosas, la canalización de información o recursos, incluidas las comunicaciones oficiales, en nombre de una entidad o hecho designado, es una forma de mostrar apoyo sustancial a una organización y entidad peligrosa. Sin embargo, en la política se incluye de forma específica una excepción relativa al contenido publicado con fines periodísticos, aunque no se define qué se entiende por "fines periodísticos". En la política también se incluye una excepción para los casos de debate con tono neutral. La publicación original de Al Jazeera se mostró, y se sigue mostrando, en la página de Facebook de Al Jazeera en árabe. Facebook nunca la eliminó.

Facebook explicó que la página de Al Jazeera está sujeta al sistema de verificación cruzada, un nivel de revisión adicional que Facebook aplica a algunas cuentas de perfil elevado para minimizar el riesgo de errores relativos al cumplimiento de las políticas. Sin embargo, la verificación cruzada no se efectúa en contenido compartido por un tercero, a excepción de que el tercero en cuestión también sea una cuenta de alto nivel que esté sujeta al mismo proceso. Por consiguiente, en este caso, aunque la publicación original de Al Jazeera estaba sujeta a la verificación cruzada, la publicación del usuario en Egipto no pasó por el mismo proceso.

La empresa indicó que el hecho de restaurar la publicación es coherente con su responsabilidad de respetar el derecho a buscar, recibir y difundir información. Facebook determinó que el texto del usuario tenía un carácter neutral y que no encajaba en las definiciones de exaltación, apoyo sustancial ni representación.

Como reacción a las alegaciones que indicaban que Facebook había censurado contenido palestino debido a las demandas del Gobierno de Israel, el Consejo formuló las siguientes preguntas a Facebook:

¿Facebook recibió solicitudes oficiales y no oficiales de Israel para retirar contenido relacionado con el conflicto que tuvo lugar en los meses de abril y mayo? ¿Cuántas solicitudes recibió Facebook? ¿Cuántas cumplió? ¿Hubo alguna solicitud relacionada con información publicada por la versión en árabe de Al Jazeera o sus periodistas?

Facebook respondió del siguiente modo: "En este caso, Facebook no recibió ninguna solicitud legal válida de una autoridad gubernamental relacionada con el contenido publicado por el usuario. Facebook rechaza proporcionar el resto de la información solicitada. Se puede consultar la sección 2.2.2. de los estatutos del Consejo asesor de contenido".

De conformidad con la sección 2.2.2. de los estatutos del Consejo asesor de contenido, Facebook puede "rechazar las solicitudes en las que la empresa determine que esta información no es necesaria de forma razonable para la toma de decisiones, de conformidad con la intención del acta constitutiva; no es posible proporcionarla desde el punto de vista técnico; está amparada por el privilegio entre abogado y cliente; o no podría ni debería proporcionarse por cuestiones relativas a la legalidad, la privacidad, la seguridad o la protección de datos". La empresa no indicó los motivos concretos del rechazo en virtud de los estatutos.

7. Comentarios de terceros

El Consejo asesor de contenido recibió 26 comentarios del público relacionados con este caso, de los cuales 15 provenían de los Estados Unidos y Canadá, siete de Europa, tres de Oriente Medio y África del Norte, y uno de Latinoamérica y el Caribe.

Los comentarios trataban temas como la importancia de los medios sociales para los palestinos, las inquietudes sobre el potencial sesgo de Facebook en relación con el contenido palestino o propalestino y la excesiva moderación de estos materiales, las preocupaciones por la relación supuestamente opaca entre Israel y Facebook, y los miedos relativos al hecho de que se permitieran en la plataforma mensajes de organizaciones terroristas designadas.

Asimismo, el Consejo recibió distintos comentarios del público en los que se manifestaba que la cobertura informativa de dichas amenazas también podía servir para avisar de ataques de grupos armados, de modo que las personas a quienes se dirigen dichos ataques tuvieran la posibilidad de tomar medidas de protección.

Si quieres leer los comentarios del público que se enviaron en relación con este caso, haz clic aquí.

8. Análisis del Consejo asesor de contenido

8.1. Cumplimiento de las Normas comunitarias

El Consejo concluye que la decisión original de Facebook de eliminar el contenido no había sido coherente con las Normas comunitarias de la empresa. Por consiguiente, el hecho de revertir la decisión de Facebook a raíz de la identificación de este caso por parte del Consejo fue correcta.

De conformidad con lo indicado por Facebook, la publicación original de Al Jazeera (que no es el sujeto de esta apelación) no infringía las Normas comunitarias y nunca se eliminó de la plataforma. Aunque compartir comunicaciones oficiales de una entidad designada es una forma no permitida de mostrar apoyo sustancial, la política sobre personas y organizaciones peligrosas admite la publicación de dicho contenido con fines periodísticos, así como para condenarlo o hablar sobre este en un tono neutral. Facebook actualizó la política sobre personas y organizaciones peligrosas el 22 de junio de 2021, en la que hizo públicas definiciones de términos que anteriormente eran confidenciales, como "apoyo sustancial", "exaltación" y "representación".

El usuario compartió la publicación de Al Jazeera y agregó la expresión "Ooh". Facebook determinó que dicho término era una forma de expresión de carácter neutral. Los expertos en lengua árabe consultados por el Consejo indicaron que el significado de "ooh" varía en función de su uso, y que la exclamación de tipo neutral es una de las posibles interpretaciones.

En la actualización de la política sobre personas y organizaciones peligrosas, Facebook exige a las personas que su intención de hablar sobre personas y organizaciones peligrosas en un tono neutral "quede clara", e indica que, "de no hacerlo así, podemos eliminar el contenido" (se agregó este énfasis). Esto representa un cambio con respecto a una política previa indicada en las respuestas de Facebook al Consejo en cuestión (Decisión del caso 2020-005-FB-UA). En dicha fuente, Facebook indicó que considera una expresión de apoyo el contenido que cita o atribuye citas (independientemente de su exactitud) a personas designadas como peligrosas, a menos que el usuario proporcione contexto adicional para mostrar explícitamente su intención (se agregó este énfasis). Facebook también indica que, antes de que se actualizaran las normas comunitarias para el público el pasado 22 de junio, los moderadores de contenido tenían menos margen para mantener en la plataforma el contenido con intenciones poco claras y, al mismo tiempo, los usuarios no eran conscientes de la importancia de dejar clara su intención.

Por ello, resulta comprensible que los moderadores de contenido, en el marco de un trabajo bajo presión, pudiesen tratar la publicación como infractora, especialmente de conformidad con la versión de las Normas comunitarias en vigor en aquel momento. La publicación verbaliza una amenaza directa del vocero de una organización designada como peligrosa, y el hecho de que el usuario agregara la expresión "ooh" no hacía "explícita" su intención de participar en un debate neutral. Sin embargo, el hecho más destacado es que el contenido consiste en una republicación de una noticia emitida por una fuente de noticias legítima sobre un tema de interés público urgente. La publicación original de Al Jazeera nunca se consideró de carácter infractor y permaneció en su página a lo largo de todo este tiempo. En términos generales, las personas no tienen menos derecho a volver a publicar noticias que el que las organizaciones de medios tienen a publicarlo en primer lugar. Aunque en algunos contextos volver a publicar material de una fuente de noticias puede considerarse una infracción, en este caso el usuario explicó que su objetivo era proporcionar información actualizada a sus seguidores acerca de un asunto de importancia actual. Asimismo, también indicó que la conclusión de Facebook (al volver a examinar el caso) relativa al hecho de que existen elevadas probabilidades de que la adición de la expresión "ooh" tuviese un tono neutral se ve ratificada por los expertos en lenguaje del Consejo.

De acuerdo con la nueva versión de la norma comunitaria pertinente, publicada el 22 de junio, la publicación no tenía un carácter infractor claro, y Facebook no se equivocó al restaurar el contenido.

8.2 Cumplimiento de los valores de Facebook

El Consejo concluye que la decisión de restaurar el contenido cumple con el valor de "expresión" de Facebook, y que no es incoherente con su valor de "seguridad". El Consejo es consciente de que los valores de Facebook desempeñan su función en el desarrollo de políticas de la empresa y que los moderadores no los usan para decidir qué contenido es aceptable.

Facebook señala que el valor de "expresión" es "de suma importancia". Según la opinión del Consejo, esto es especialmente cierto en el contexto de un conflicto en el que la capacidad de expresión de muchas personas, entre las que se incluyen los ciudadanos palestinos y sus seguidores, está muy restringida. Como muchos comentarios del público enviados al Consejo ponen de relieve, Facebook y otras plataformas sociales son el medio principal del que disponen los palestinos para comunicar noticias y opiniones, así como para expresarse libremente. Existen graves limitaciones a la libertad de expresión en territorios gobernados por la Autoridad Palestina y Hamás (A/75/532, párrafo 25). Adicionalmente, se acusó al Gobierno israelí de restringir de forma indebida la libertad de expresión en nombre de la seguridad nacional (Grupo de Trabajo sobre el Examen Periódico Universal, A/HRC/WG.6/29/ISR/2, párrafos 36-37; Oxford Handbook on the Israeli Constitution, Freedom of Expression in Israel: Origins, Evolution, Revolution and Regression, [2021]). Además, en términos más generales, para las personas que viven en la región, la capacidad de recibir y compartir noticias sobre estos hechos constituye un aspecto crucial de la "expresión".

El Consejo únicamente selecciona un número limitado de apelaciones para someterlas a revisión, pero señala que la eliminación en cuestión se encontraba entre varias apelaciones que guardaban relación con el contenido vinculado al conflicto.

Por otro lado, el valor de "seguridad" reviste una importancia fundamental en Israel y los Territorios Palestinos Ocupados, así como en otros países de la región. El usuario compartió una publicación de una organización de medios que incluía una amenaza de violencia explícita de las Brigadas de Al Qassam, lo que involucraba el valor de "seguridad". Sin embargo, el contenido que el usuario compartió estaba disponible en todo el mundo, dentro y fuera de Facebook. La publicación inicial, un informe de un medio periodístico sobre la amenaza, no se eliminó de Facebook, y sigue en la página de Al Jazeera. Asimismo, también apareció en muchas otras ubicaciones. El Consejo considera que compartir la publicación no supuso una amenaza adicional al valor de "seguridad".

8.3 Cumplimiento de las responsabilidades de Facebook con los derechos humanos

Libertad de expresión (Artículo 19 del ICCPR)

En el Artículo 19 del ICCPR se afirma que todas las personas tienen derecho a la libertad de expresión, lo que incluye la libertad de buscar, recibir y transmitir información. El hecho de poder disfrutar de este derecho está intrínsecamente vinculado al acceso a la prensa u otros medios libres, sin censuras ni obstáculos (observación general n.° 34, párrafo 13). El Consejo señala que los medios "juegan un rol fundamental a la hora de informar al público sobre actos de terrorismo, y su capacidad operativa no debería restringirse de forma indebida (observación general n.° 34, párrafo 46). El Consejo también es consciente de que los grupos terroristas pueden explotar el deber y el interés de los medios para informar acerca de sus actividades.

Sin embargo, las iniciativas contra el terrorismo y los extremismos no deberían utilizarse para reprimir la libertad informativa (A/HRC/RES/45/18). En efecto, los medios tienen un papel esencial en los primeros instantes de un ataque terrorista, ya que "frecuentemente son la primera fuente de información para la población, antes de que las autoridades públicas puedan hacerse cargo de la comunicación (UNESCO, manual sobre el terrorismo y los medios de comunicación, pág. 27, 2017). Los medios sociales contribuyen a esta misión al respaldar la divulgación de información sobre actos terroristas o amenazas de este tipo de ataques en medios tradicionales y otras fuentes.

Si bien el derecho a la libertad de expresión es fundamental, no es categórico. Se puede restringir, pero al hacerlo se deberían cumplir los requisitos de legalidad, fin legítimo, necesidad y proporcionalidad (Artículo 19, párrafo 3, del ICCPR).

I. Legalidad (claridad y accesibilidad de las reglas)

Para cumplir el principio de legalidad, una norma debe (a) formularse con la precisión suficiente para que las personas puedan ajustar su conducta en consecuencia, y (b) ponerse a disposición del público. La falta de especificidad puede traducirse en una interpretación subjetiva de las reglas y en su aplicación de forma arbitraria (observación general n.° 34, párrafo 25).

El Consejo criticó la vaguedad de la norma comunitaria sobre personas y organizaciones peligrosas en distintas ocasiones e instó a la empresa a definir los conceptos de "exaltación", "apoyo" y "representación". Desde entonces, Facebook revisó la política y publicó una actualización el 22 de junio, en la que proporcionó definiciones de algunos términos clave o dio ejemplos al respecto; organizó sus reglas en tres niveles de cumplimiento de acuerdo con el vínculo entre una entidad designada y el daño en la vida real, y puso más de relieve la importancia de que los usuarios dejaran clara su intención al publicar contenido relacionado con personas u organizaciones peligrosas. La política, sin embargo, sigue siendo confusa respecto a qué pueden hacer los usuarios para dejar claras sus intenciones y no facilita ejemplos sobre las excepciones relativas a los "fines periodísticos", el "debate con neutralidad" y la "condena".

Asimismo, la versión actualizada de la política da, aparentemente, mayor peso al criterio de Facebook en los casos en los que la intención del usuario no queda clara, dado que ahora se indica que Facebook "puede" eliminar el contenido sin ofrecer asesoramiento a los usuarios en relación con los criterios en los que se basará su razonamiento. El Consejo considera que disponer de los criterios usados para evaluar estas excepciones, así como de ejemplos ilustrativos, ayudaría a los usuarios a entender qué publicaciones son aceptables. Del mismo modo, contar con ejemplos adicionales también resultaría más claro para los revisores.

El Consejo también se muestra preocupado por el hecho de que esta revisión de las Normas comunitarias no se tradujo a otros idiomas que no fueran el inglés de EE. UU. durante prácticamente dos meses, lo que limitó el acceso a estas normas para los usuarios que se encuentran fuera del mercado estadounidense y cuyo idioma no es el inglés. Facebook explicó que aplica los cambios a las políticas de forma global, incluso cuando las traducciones sufren retrasos. El Consejo teme que estos retrasos en las traducciones hagan que demasiados usuarios no tengan acceso a las reglas en cuestión durante un tiempo excesivo. Esto no es aceptable para una empresa con los recursos de Facebook.

II. Fin legítimo

Las restricciones de la libertad de expresión deben tener un fin legítimo, que puede incluir la protección de la seguridad nacional y el orden público, así como los derechos de los demás, entre otros fines. La finalidad de la política sobre personas y organizaciones peligrosas es evitar e impedir que se produzcan daños en el mundo real con el fin legítimo de proteger los derechos de los demás, lo que, en este caso, incluye el derecho a la vida y a la seguridad de las personas.

III. Necesidad y proporcionalidad

Las restricciones deben ser necesarias y proporcionales para conseguir su fin legítimo, que en este caso no es otro que proteger los derechos de los demás. Toda restricción que se aplique a la libertad de expresión debe ser adecuada a fin de cumplir su función de protección; debe ser el instrumento menos invasivo entre aquellos que le permitan cumplir dicha función; debe ser proporcional al interés que se busca proteger (observación general n.º 34, párrafo 34). A la hora de resolver preguntas relativas a la necesidad y la proporcionalidad, el contexto juega un papel fundamental.

Asimismo, el Consejo pone de relieve que Facebook tiene responsabilidad a la hora de identificar, impedir, mitigar y considerar el impacto perjudicial en los derechos humanos (principio 17 de los Principios Rectores sobre las Empresas y los Derechos Humanos de la ONU). Esta responsabilidad de diligencia debida es más acusada en las regiones afectadas por conflictos (A/75/212, párrafo 13). El Consejo señala que Facebook llevó a cabo distintos pasos para garantizar que el contenido no se elimine de forma innecesaria y desproporcionada, como se desprende de la excepción por fines periodísticos y su compromiso con el debate sobre los derechos humanos recogidos en la decisión del caso 2021-006-IG-UA.

El Consejo concluye que, en este caso, la eliminación del contenido no era necesaria. El Consejo reconoce que los periodistas se exponen al desafío de encontrar un equilibrio entre el daño potencial derivado de informar las afirmaciones de una organización terrorista y el hecho de mantener a la opinión pública informada sobre situaciones actuales que conllevan peligro. Algunos miembros del Consejo expresaron su inquietud respecto al hecho de que, en este caso, la cobertura informativa proporcionaba un contexto editorial escaso o directamente no lo proporcionaba en relación con las afirmaciones de Al-Qassam, lo que podía percibirse como un conducto para la amenaza de violencia de estas brigadas. Sin embargo, el contenido publicado por Al Jazeera también fue ampliamente reproducido por otros medios de comunicación y tuvo un gran alcance global. Estos materiales se acompañaron de contexto adicional a medida que se dispuso de más información. Por consiguiente, el Consejo concluye que la eliminación de la republicación de este usuario de la noticia de Al Jazeera no redujo de forma significativa el impacto terrorista que el grupo esperaba conseguir, sino que afectó la capacidad de este usuario, ubicado en un país cercano, de comunicar la importancia de estos eventos a sus seguidores y lectores.

Como ya se señaló en relación con el valor de la "expresión", al revisar la necesidad de eliminar el contenido, el Consejo considera que el entorno informativo y de medios global de esta región juega un papel fundamental en el asunto. El Gobierno de Israel, la Autoridad Palestina y Hamás restringen indebidamente la libertad de expresión, lo que ejerce un impacto negativo en los derechos de los palestinos y otros colectivos.

Las restricciones en la libertad de expresión no deben tener carácter discriminatorio, incluido en relación con la nacionalidad, el origen étnico, la religión, las creencias o las opiniones políticas o de otro tipo (Artículo 2, párrafo 1; y Artículo 26 del ICCPR). La aplicación discriminatoria de las Normas comunitarias infringe este aspecto fundamental de la libertad de expresión. El Consejo recibió comentarios del público y revisó información pública en la que se alegaba que Facebook había eliminado o penalizado de forma desproporcionada contenido de usuarios palestinos y contenido en árabe, especialmente en comparación con el trato aplicado a publicaciones en las que se amenazaba con violencia contra los árabes o los palestinos en Israel o se incitaba a ejercer este tipo de violencia. Asimismo, Facebook recibió críticas por no llevar a cabo acciones suficientes para eliminar el contenido que incite a la violencia contra población civil israelí. A continuación, el Consejo recomienda efectuar una revisión independiente de estos asuntos, que revisten gran importancia.

9. Decisión del Consejo asesor de contenido

El Consejo asesor de contenido ratifica la decisión de Facebook de restaurar el contenido, y coincide en que la decisión inicial de retirar la publicación fue errónea.

10. Declaraciones de asesoramiento normativo

Política de contenido

Con el objetivo de que sus reglas sean más claras para los usuarios, Facebook debería:

1. Agregar criterios y ejemplos ilustrativos a su política sobre personas y organizaciones peligrosas para mejorar la comprensión de las excepciones relativas al debate neutral, las actitudes de condena y los fines periodísticos.

2. Garantizar que las actualizaciones de las Normas comunitarias se traduzcan con celeridad a todos los idiomas disponibles.

Transparencia

Para abordar las inquietudes de la opinión pública en relación con un sesgo potencial en la moderación de contenido, también en lo relativo a una implicación gubernamental supuesta o real, Facebook debería:

3. Contratar a una entidad independiente no asociada con ningún bando del conflicto entre Israel y Palestina para efectuar un examen exhaustivo a fin de determinar si la moderación de contenido de Facebook en árabe y en hebreo, incluido el uso de la automatización, se aplicó sin sesgos. Este análisis no debe centrarse únicamente en el trato concedido al contenido palestino o propalestino, sino que también debe revisar cómo se trata el contenido que incita a la violencia contra cualquier objetivo potencial, con independencia de su nacionalidad, origen étnico, religión, creencias u opiniones políticas. La revisión debe analizar contenido publicado por usuarios de Facebook ubicados en Israel y los Territorios Palestinos Ocupados, así como fuera de estos ámbitos geográficos. Tanto el informe como sus conclusiones deben hacerse públicos.

4. Formalizar un proceso transparente en el que se detalle cómo Facebook recibe solicitudes gubernamentales de eliminación de contenido y responde a ellas, y garantizar que estas se incluyan en los informes de transparencia. Los informes de transparencia deben distinguir entre las solicitudes gubernamentales que derivaron en eliminaciones de contenido por infracciones de las Normas comunitarias y las solicitudes que derivaron en eliminaciones o bloqueos geográficos de contenido por infracción de la legislación local, además de las solicitudes que no tuvieron más consecuencias.

* Nota de procedimiento:

La preparación de las decisiones del Consejo asesor de contenido está a cargo de paneles conformados por cinco miembros, quienes deben aprobarlas por mayoría. Las decisiones del Consejo no necesariamente representan las opiniones personales de todos los miembros.

En cuanto a la decisión del caso, se encargó una investigación independiente en nombre del Consejo. Un instituto de investigación independiente con sede en la Universidad de Gotemburgo y un equipo conformado por más de 50 científicos sociales de seis continentes, así como 3.200 expertos de diferentes países del mundo, ofrecen sus conocimientos sobre contextos culturales y sociopolíticos. La empresa Lionbridge Technologies, LLC, con especialistas en más de 350 idiomas que trabajan en 5.000 ciudades diferentes, se encargó de las competencias en materia lingüística.

Volver a Decisiones de casos y opiniones consultivas sobre políticas