El Consejo asesor de contenido exige a Facebook más transparencia

Durante las últimas semanas, la cobertura mediática centró de nuevo la atención en la manera aparentemente incoherente en que Facebook toma decisiones y por qué es tan importante para los usuarios que haya más transparencia y supervisión independiente de la empresa.

Desde la publicación de sus primeras decisiones en enero, el Consejo asesor de contenido ha instado a Facebook a que proporcione más información sobre cómo funciona y a que trate a sus usuarios de manera justa. Hasta el momento, analizamos 20 casos importantes y emitimos 17 decisiones que abarcan diversos temas, desde lenguaje que incita el odio hasta información errónea sobre el COVID-19. Recibimos alrededor de 10.000 comentarios del público de personas de todo el mundo e hicimos más de 75 recomendaciones a Facebook.

Como parte de nuestro compromiso con la transparencia, hoy publicamos nuestros primeros informes trimestrales de transparencia.

Dichos informes abarcan el cuarto trimestre de 2020 y el primer y segundo trimestre de 2021. Además, en ellos se proporcionan nuevos detalles sobre los casos que recibimos de los usuarios, las decisiones que tomamos y nuestras recomendaciones para Facebook. De ahora en adelante, publicaremos un informe de transparencia lo antes posible después de que termine cada trimestre. También publicaremos informes anuales, que ofrecerán una evaluación cualitativa más detallada de la manera en que Facebook implementa las decisiones y recomendaciones del Consejo.

En los informes de hoy, se indica que Facebook no fue completamente sincero con el Consejo sobre el sistema de "verificación cruzada" que usa la empresa para revisar las decisiones de contenido relacionadas con usuarios de gran presencia en los medios. El Consejo también anunció que aceptó una solicitud de Facebook, en forma de opinión consultiva sobre políticas, para revisar su sistema de verificación cruzada y hacer recomendaciones sobre cómo se puede cambiar. Como parte de esta revisión, Facebook acordó compartir con el Consejo documentos relacionados con el sistema de verificación cruzada, como se informó en el Wall Street Journal.

Seis puntos destacados de los informes trimestrales del Consejo

1.Se enviaron más de medio millón de apelaciones de usuarios al Consejo

Entre octubre de 2020 y finales de junio de 2021, los usuarios de Facebook e Instagram enviaron alrededor de 524.000 casos al Consejo. Las apelaciones de usuarios aumentaron en cada trimestre, con alrededor de 114.000 casos en el cuarto trimestre de 2020, 203.000 en el primer trimestre de 2021 y alrededor de 207.000 en el segundo trimestre de 2021.

2. En dos tercios de las apelaciones, los usuarios querían que se restaurara contenido relacionado con el lenguaje que incita al odio o el bullying

Hasta finales de junio de 2021, estimamos que más de un tercio de los casos que se enviaron al Consejo (36%) estaban relacionados con contenido relativo a las reglas de Facebook sobre lenguaje que incita al odio. Estimamos que el bullying y el acoso constituían otro tercio (31%) de los casos enviados, y la mayoría de los casos restantes eran sobre violencia e incitación (13%), desnudos y actividad sexual de adultos (9%), y personas y organizaciones peligrosas (6%). Estas cifras no incluyen las apelaciones de usuarios para eliminar contenido de Facebook, que se introdujeron desde mediados de abril.

3. Casi la mitad de las apelaciones de usuarios provino de los Estados Unidos y Canadá

Hasta finales de junio, estimamos que casi la mitad de los casos enviados (46%) provino de los Estados Unidos y Canadá, mientras que el 22% provino de Europa y el 16% de Latinoamérica y el Caribe. Estimamos que el 8% de los casos provino de la región de Asia-Pacífico y Oceanía, el 4% de Oriente Medio y África del Norte, el 2% de Asia central y meridional, y el 2% de África subsahariana.

No creemos que esto represente la distribución actual de los problemas de contenido de Facebook alrededor del mundo. En todo caso, tenemos motivos para creer que los usuarios en Asia, África subsahariana y el Oriente Medio experimentan más, no menos, problemas con Facebook que otras regiones del mundo con más apelaciones.

Estamos ampliando nuestro alcance en estas áreas para asegurar que la supervisión del Consejo se extienda a los usuarios de todas partes, y solicitamos que los usuarios y las organizaciones de la sociedad civil en Asia, África subsahariana y el Oriente Medio tengan en cuenta nuestra preocupación y presenten apelaciones cuando sufran los efectos de la moderación deficiente del contenido por parte de Facebook en sus regiones.

4. Con los procesos más generales del Consejo, se solicitó que Facebook restaurara más de 30 publicaciones sobre casos importantes

Como parte del proceso de preselección de casos del Consejo, le pedimos a Facebook que confirmara si los casos son elegibles para su revisión según los estatutos. Como resultado, a finales de junio, Facebook identificó 38 casos preseleccionados en los que su decisión original sobre el contenido fue incorrecta.

En 35 de esos casos, Facebook luego tomó medidas sobre el contenido, mientras que en tres casos no lo pudo hacer ya que el usuario había eliminado la publicación.

Casi la mitad de los casos en los que Facebook identificó que su decisión original fue incorrecta estaba relacionada con la norma comunitaria sobre lenguaje que incita al odio, mientras que casi un tercio estaba relacionado con personas y organizaciones peligrosas.

5. Facebook responde la mayoría de las preguntas del Consejo, pero no todas

Le enviamos a Facebook preguntas sobre casos específicos para ayudar a tomar nuestras decisiones y para presionar a la empresa a ser lo más transparente posible. De las 156 preguntas que le enviamos a Facebook sobre las decisiones que publicamos hasta finales de junio, la empresa respondió 130, respondió parcialmente 12 y se negó a responder 14.

Al hacer preguntas específicas e incluir los detalles en nuestra decisión final, esperamos proporcionar a los usuarios e investigadores la mayor cantidad de información posible sobre cómo funciona la empresa.

En nuestros informes, damos ejemplos de los tipos de preguntas que Facebook se negó a responder y los motivos de la empresa para hacerlo. Por ejemplo, en varios casos, Facebook se negó a responder las preguntas sobre el comportamiento previo de los usuarios en Facebook, el cual, según la empresa, era irrelevante para la decisión del Consejo sobre el caso en cuestión.

6. Facebook no fue completamente sincero con el Consejo sobre la verificación cruzada

Tras las recientes divulgaciones en el Wall Street Journal, el Consejo se comprometió a examinar si Facebook fue sincero en las respuestas sobre el sistema de verificación cruzada que la empresa usa para revisar las decisiones de contenido relacionadas con los usuarios de gran presencia en los medios.

Según la opinión del Consejo, el equipo de Facebook encargado de proporcionar la información no fue completamente sincero sobre la verificación cruzada. En algunas ocasiones, Facebook no brindó al Consejo información relevante, mientras que, en otras instancias, la información que proporcionó estaba incompleta.

Cuando Facebook refirió al Consejo el caso relacionado con el expresidente de los Estados Unidos, Trump, no mencionó el sistema de verificación cruzada. Dado que al remitirlo incluyó una pregunta específica sobre la aplicación de políticas para las cuentas de líderes políticos, muchos de los cuales el Consejo cree que estaban cubiertos por la verificación cruzada, esta omisión no es aceptable. Facebook solo mencionó al Consejo la verificación cruzada cuando preguntamos si la página o cuenta del Sr. Trump estuvo sujeta a procesos ordinarios de moderación de contenido.

En su posterior informe al Consejo, Facebook admitió que no debería haber dicho que la verificación cruzada solo se aplicaba a un "pequeño número de decisiones". Facebook observó que para los equipos que trabajan a escala con millones de decisiones de contenido al día, los números relacionados con la verificación cruzada parecen relativamente pequeños, pero reconoció que su redacción podría dar la impresión de ser engañosa.

También notamos que la respuesta de Facebook a nuestra recomendación para "explicar claramente la justificación, las normas y los procesos de la revisión [de verificación cruzada], que incluyen los criterios para determinar qué páginas y cuentas se seleccionan para su inclusión" no proporcionó transparencia significativa sobre los criterios para seleccionar e incluir cuentas o páginas en la verificación cruzada.

La credibilidad del Consejo asesor de contenido, nuestra relación de trabajo con Facebook y nuestra capacidad para emitir juicios razonables sobre los casos dependen de poder confiar en que la información que Facebook nos proporciona es precisa, exhaustiva y completa del tema en cuestión. Continuaremos haciendo un seguimiento e informando sobre la información que Facebook proporciona para garantizar que sea lo más completa y exhaustiva posible.

Hoy, el Consejo también anunció que aceptó una solicitud de Facebook, en forma de opinión consultiva sobre políticas, para revisar el sistema de verificación cruzada de la empresa y hacer recomendaciones sobre cómo se puede cambiar.

En concreto, Facebook solicitó orientación sobre, entre otras, cómo asegurar la imparcialidad y objetividad en las revisiones de verificación cruzada, teniendo en cuenta el contexto; cómo guiar la verificación cruzada y promover la transparencia; y los criterios que se usan para determinar quién se incluye en la verificación cruzada y cómo garantizar que sea equitativo.

Ahora que aceptó la solicitud de Facebook, el Consejo colaborará con la sociedad civil en todo el mundo, académicos e investigadores incluidos, mientras examina esta cuestión crítica. Se incluirá una convocatoria de comentarios del público que lanzaremos en los próximos días. El Consejo continúa teniendo acceso a una amplia gama de opiniones para informar su trabajo, incluidas las de exempleados de Facebook que se presentaron en los últimos meses.

Facebook ahora acordó compartir con el Consejo documentos relacionados con la verificación cruzada, como se informó en el Wall Street Journal. El Consejo los revisará mientras elabora la opinión consultiva sobre políticas.

Facebook también acordó que, a partir de ahora, se compromete a proporcionar información sobre el contexto más general que podría ser relevante para las decisiones del caso del Consejo. Esto debería dar una comprensión más completa del trabajo que Facebook ya hizo sobre un tema dado. Incluiremos un análisis sobre si Facebook está cumpliendo este compromiso en nuestros futuros informes de transparencia.

Una vez que el Consejo haya deliberado sobre dicha opinión consultiva sobre políticas, y haya votado para aprobarla, emitiremos nuestras recomendaciones a Facebook. Luego, Facebook debe responder en un plazo de 30 días.

Las reglas de Facebook no son claras para los usuarios

En muchas de las decisiones contempladas en los informes de hoy, y en aquellas que publicamos desde entonces, surgió un tema evidente: Facebook no es claro con las personas que usan sus plataformas. Constantemente observamos que algunos usuarios no comprenden por qué Facebook eliminó su contenido.

En uno de nuestros primeros casos, Facebook eliminó el contenido de un usuario, pero no le dijo qué norma comunitaria había incumplido. En otro, Facebook no revisó la apelación de un usuario antes de que llegara al Consejo. En otro caso, Facebook dijo que un usuario incumplió sus reglas sobre personas peligrosas, pero luego descubrió que había olvidado una excepción de la política durante tres años, la cual permitía claramente la publicación de dicho usuario.

Tras recibir más de medio millón de apelaciones hasta finales de junio, sabemos que estos casos son solamente la punta del iceberg. Ahora, está claro que Facebook no está tratando a los usuarios de manera justa, al no ser transparente con ellos.

Un gran número de dichas apelaciones se relacionan con contenido eliminado sin mucha explicación del motivo. El Consejo está realmente preocupado por el impacto en los usuarios y por las implicaciones para la libertad de expresión alrededor del mundo.

Guiar a Facebook hacia una mayor transparencia

La transparencia es claramente un área en la que Facebook debe mejorar con urgencia, y queremos ser parte de la solución. En repetidas ocasiones, nuestras recomendaciones instaron a Facebook a seguir algunos principios fundamentales de transparencia: permitir que los usuarios accedan con facilidad a las reglas en su propio idioma; explicar a las personas con la mayor caridad posible cómo toma y aplica sus decisiones; y, cuando incumplan las reglas, decirles exactamente lo que hicieron mal.

Desde que Facebook publicó sus primeras respuestas a nuestras recomendaciones a principios de este año, observamos algunos compromisos iniciales de la empresa con la posibilidad de aumentar la transparencia para los usuarios.

En mayo, Facebook se comprometió a traducir las Normas comunitarias al punyabí, un idioma que hablan aproximadamente 130 millones de personas, para finales de este año. En junio, Facebook prometió incluir en las Normas comunitarias la excepción de la sátira, que no se comunicó previamente a los usuarios, para finales de este año.

En agosto, Facebook acordó proporcionar información en su Centro de transparencia sobre el contenido eliminado por infringir sus Normas comunitarias tras el informe formal de un gobierno, incluido el número de solicitudes que recibe. Y este mes, Facebook dijo que "aplicaría plenamente" nuestra recomendación de contratar a una entidad independiente, no asociada con ningún bando del conflicto entre Israel y Palestina, para efectuar un examen exhaustivo y determinar si la moderación de su contenido en hebreo y en árabe, incluido el uso de la automatización, se aplica sin sesgos.

Por supuesto, este es solo el comienzo. Para estas recomendaciones, y otras, supervisaremos si Facebook cumple con las promesas que hizo y de qué manera lo hizo. Con el tiempo, creemos que el impacto combinado de nuestras recomendaciones instará a Facebook a ser más transparente y a beneficiar a los usuarios.

Próximos pasos

Instar a Facebook a ser más transparente, a tratar a los usuarios de manera justa y a honrar sus compromisos de derechos humanos es un esfuerzo a largo plazo que requiere la participación de legisladores y reguladores, sociedad civil, y medios de comunicación. El Consejo asesor de contenido forma parte de esta iniciativa.

Seguiremos desafiando a Facebook para que mejore en los aspectos que creemos que tiene carencias, como en la transparencia. Lo haremos a través de nuestras decisiones, recomendaciones e informes periódicos de transparencia, incluido nuestro informe anual que publicaremos el próximo año.

Catalina Botero-Marino, Jamal Greene, Michael McConnell, Helle Thorning-Schmidt

Copresidentes del Consejo asesor de contenido

Archivos adjuntos

Quarterly transparency reports

Volver a Noticias