Trabajo en equipo

Actualmente, hay cada vez más empresas en busca de conocimiento externo para la toma de decisiones de moderación de contenido. En esencia, la supervisión independiente consiste en que las empresas abran sus procesos internos e inviten a terceros a revisar sus decisiones. Este tipo de debate y escrutinio genera decisiones más sólidas y de mejor calidad, lo que ayuda a generar confianza en los usuarios a largo plazo: esta es una situación beneficiosa tanto para las comunidades como para las empresas.

Desde el principio, el Consejo asesor de contenido se diseñó para probar un enfoque independiente en la moderación de contenido, que, de tener éxito, también se podría adoptar en otras empresas. El marco que hemos desarrollado tiene valor para otras empresas tecnológicas que buscan integrar la supervisión independiente en sus plataformas y servicios.

A través de nuestras experiencias al día de hoy, identificamos cinco características que podrían ayudar a otras empresas tecnológicas a establecer un órgano de supervisión:

Independencia

Cualquier órgano de supervisión debe estructurarse para permitir un juicio independiente. Para tener éxito en el escrutinio de las decisiones de contenido, debe estar libre de las restricciones comerciales, reputacionales o políticas de las plataformas. En el Consejo asesor de contenido, no hemos dudado en anular las decisiones de Meta. Esta separación es fundamental para generar legitimidad con los usuarios y los grupos de la sociedad civil de todo el mundo.

Transparencia

Para confiar en las decisiones de una empresa, las personas tienen que entender cómo se toman esas decisiones. Al preparar nuestras decisiones de casos, incluimos tanta información como nos es posible sobre políticas y su aplicación, que previamente no era pública. Para ser responsables y honestas en su compromiso de defender la libertad de expresión, las empresas tecnológicas deben explicar a los usuarios por qué se eliminaron sus publicaciones o se desactivaron sus cuentas. También deben adoptar aún más medidas para explicar por qué se toman tales decisiones y ser más transparentes cuando los Gobiernos o los agentes estatales les piden que eliminen contenidos.

Diversidad

La mayoría de los usuarios de las plataformas de redes sociales se encuentran fuera de Estados Unidos y Europa. Muchas de las preocupaciones acerca de los impactos negativos de las redes sociales, así como de sus beneficios, se sienten con mayor intensidad en países más allá de sus fronteras. Para poder confiar en la toma de decisiones de una empresa, las personas en todo el mundo necesitan algo más que un simple "compromiso". Necesitan saber que se les escucha y que están representadas al momento de tomar decisiones. En el Consejo asesor de contenido, nuestros miembros son personas que han vivido en aproximadamente 30 países y que hablan más de 30 idiomas. La diversidad enriquece nuestras decisiones finales.

Derechos Humanos

En la actualidad, las empresas tecnológicas se enfrentan a un reto importante respecto a la moderación de contenido: ¿qué reglas tienen que aplicarse a miles de millones de personas de diferentes nacionalidades, idiomas y culturas? Creemos que las normas internacionales sobre derechos humanos son una parte fundamental de la respuesta. Se aplican por igual a todos y proporcionan un marco coherente para considerar el derecho de un usuario a la libertad de expresión junto con otros derechos humanos, como el derecho a la vida o a la privacidad.

Socios

Finalmente, lo que se necesita es tener socios. Los organismos de supervisión independiente solo tendrán un impacto duradero si las empresas les dan acceso a sus datos y procesos. Aunque hay ocasiones en las que compartir información podría comprometer la privacidad de los usuarios o permitir a agentes perniciosos manipular las políticas, nuestro trabajo depende de datos e información que solo Meta puede proporcionar. Este tipo de transparencia también ayuda a crear legitimidad y confianza con los usuarios y la sociedad civil. Las empresas también tienen que mostrar su voluntad para implementar las recomendaciones, como ha hecho Meta con muchas de nuestras propuestas. En resumen, ambas partes deben tener voluntad para aprender.

Un socio en la moderación de contenido

Queremos trabajar con empresas que compartan nuestra creencia de que una gobernanza de contenidos transparente y responsable, supervisada por órganos independientes, es una parte esencial para la creación de un entorno virtual que respete la libertad de expresión y otros derechos humanos. Las empresas que quieran comprometerse de forma significativa con estas normas y estructuras, con el fin de beneficiar a sus usuarios y a la sociedad en general, se ganarán la confianza de los usuarios y demostrarán a los reguladores que su intención es genuina.
Cualquier enfoque de gobernanza independiente deberá adaptarse a una empresa específica y a su labor. A través de nuestro trabajo con Meta, ya hemos superado muchos de los obstáculos operativos asociados a la creación de un órgano de supervisión independiente.
Mientras pensamos sobre la mejor manera de responsabilizar a la industria tecnológica, animamos a todas las empresas a considerar la incorporación de una supervisión independiente en sus plataformas y servicios.