Anulado
Debate bengalí sobre religión
8 de diciembre de 2023
Un usuario apeló la decisión de Meta de eliminar una publicación de Facebook con un enlace a un video de YouTube que abordaba la falta de voluntad de los eruditos islámicos para discutir el ateísmo.
Esta es una decisión resumida. Las decisiones resumidas examinan casos en los que Meta revirtió su decisión original sobre un contenido después de que el Consejo le remitiera el caso a la empresa. Estas decisiones incluyen información sobre los errores reconocidos de Meta. Un panel de miembros del Consejo las aprueba, pero no todo el Consejo. No abarcan el proceso de comentarios del público ni tienen un valor de precedente para el Consejo. Las decisiones resumidas aportan transparencia a las correcciones de Meta y destacan áreas en las que la empresa podría mejorar la aplicación de políticas.
Resumen del caso
Un usuario apeló la decisión de Meta de eliminar una publicación de Facebook con un enlace a un video de YouTube que abordaba la renuencia de los eruditos islámicos a discutir sobre el ateísmo. Después de que el Consejo le remitiera la apelación a Meta, la empresa revirtió su decisión original y restauró la publicación.
Descripción y contexto del caso
En mayo de 2023, un usuario que se identifica como ateo y crítico de la religión publicó en Facebook un enlace a un video de YouTube. La imagen en miniatura del video incluye una pregunta en bengalí sobre "por qué los eruditos islámicos tienen miedo de debatir con los ateos en los videoblogs" y contiene una imagen de dos eruditos islámicos. La descripción de la publicación afirma que los "usuarios deben unirse al estreno para conocer la respuesta". El contenido obtuvo aproximadamente 4.000 reproducciones.
En su apelación al Consejo, el usuario afirmó que el propósito de compartir el video era promover un "debate sustancioso" con eruditos islámicos, específicamente sobre temas como la teoría de la evolución y la teoría del Big Bang. El usuario sostiene que esta publicación cumple con las Normas comunitarias de Facebook al "promover el debate abierto". Además, el usuario destacó que los activistas ateos de Bangladés son frecuentemente objeto de censura y daños físicos.
Meta inicialmente eliminó el contenido en virtud de su política sobre organización de actos dañinos y promoción de la delincuencia, que prohíbe el contenido "que facilite, organice, promocione o admita ciertas actividades criminales o dañinas dirigidas a personas, negocios, propiedades o animales". Meta reconoció que el contenido no infringe esta política, aunque las opiniones expuestas por el ateo pueden verse como "provocativas para muchos bangladesíes". Meta no proporcionó más explicaciones sobre por qué se eliminó el contenido de la plataforma. Si bien un ataque directo contra personas basado en sus creencias religiosas podría eliminarse por lenguaje que incita al odio (que es otra política de Meta), no existe ninguna prohibición en las políticas de la empresa contra la crítica de conceptos o ideologías de una religión.
Después de que el Consejo remitiera este caso a Meta, la empresa determinó que el contenido no infringía su política sobre organización de actos dañinos y promoción de la delincuencia, y admitió que la eliminación fue incorrecta. Seguidamente, la empresa restauró el contenido en Facebook.
Autoridad y alcance del Consejo
El Consejo tiene la facultad para revisar la decisión de Meta tras una apelación de la persona cuyo contenido se eliminó (artículo 2, sección 1, del acta constitutiva; artículo 3, sección 1, de los estatutos).
Cuando Meta reconoce que cometió un error y revierte su decisión en un caso en consideración para la revisión del Consejo, el Consejo puede seleccionar ese caso para una decisión resumida (artículo 2, sección 2.1.3, de los estatutos). El Consejo revisa la decisión original para entender mejor los procesos de moderación de contenido, reducir los errores y ser más justo con los usuarios de Facebook e Instagram.
Importancia del caso
Este caso pone de relieve un error en la aplicación por parte de Meta de su política sobre organización de actos dañinos y promoción de la delincuencia. Estos tipos de errores de aplicación limitan aún más la libertad de expresión de los miembros de grupos que ya están sujetos a una intensa censura por parte de agentes estatales.
La política sobre organización de actos dañinos y promoción de la delincuencia de Meta establece que Meta permite a los usuarios discutir y debatir "actividades dañinas", pero "siempre que no promuevan ni organicen daños", y muchas de las cláusulas de la política giran en torno a la intención del usuario. En este caso, si bien la publicación del usuario podría interpretarse como provocativa (dada la animosidad documentada hacia los activistas ateos de Bangladés), el usuario no estaba defendiendo ni organizando actos dañinos según la definición de Meta de tales actividades, lo que manifiesta una interpretación errónea de la intención del usuario. Anteriormente, el Consejo emitió recomendaciones para que la empresa explique a los usuarios cómo pueden dejar clara una intención que no infringe las normas en distinciones similares a las de la política sobre personas y organizaciones peligrosas. Con respecto a esa política, el Consejo instó a Meta a "explicar en las Normas comunitarias cómo los usuarios pueden dejar clara la intención de su publicación ante [Meta]... Facebook también debería proporcionar ejemplos ilustrativos para demostrar la línea entre el contenido permitido y prohibido (decisión del caso Aislamiento de Ocalan recomendación n.º 6). Meta implementó parcialmente esta recomendación.
Asimismo, el Consejo formuló recomendaciones destinadas a prevenir errores de aplicación de manera más amplia. El Consejo le solicitó a Meta "implementar un proceso de auditoría interno para analizar de forma constante una muestra estadísticamente representativa de las decisiones automatizadas de eliminación de contenido que deban revertirse a fin de aprender de los errores del sistema de aplicación de políticas (decisión del caso Síntomas de cáncer de mama y desnudos, recomendación n.º 5). Meta afirmó que se trataba de un trabajo que ya realiza, sin publicar información que lo demuestre. Además, el Consejo solicitó que Meta "mejore sus informes de transparencia para aumentar la información pública sobre el porcentaje de errores al mostrar la información por país e idioma para cada norma comunitaria... ya que informes de transparencia más detallados ayudarán al público a detectar áreas donde los errores son más frecuentes, incluidos posibles impactos específicos en grupos minoritarios, y alertarán a Facebook para que los corrija" (decisión del caso Inquietud punyabí en torno a la RSS en la India, recomendación n.° 3). Meta aún está evaluando la viabilidad de la recomendación.
Decisión
El Consejo anuló la decisión original de Meta de eliminar el contenido. El Consejo confirma que Meta corrigió su error inicial después de haberle remitido el caso. Asimismo, el Consejo insta a Meta a acelerar la implementación de recomendaciones aún abiertas para reducir dichos errores.
Volver a Decisiones de casos y opiniones consultivas sobre políticas