Anulado
Caricatura sobre la policía colombiana
15 de septiembre de 2022
El Consejo asesor de contenido anuló la decisión original de Meta de eliminar una publicación de Facebook en la que se exhibía la violencia policial en Colombia mediante una caricatura.
Resumen del caso
El Consejo asesor de contenido anuló la decisión original de Meta de eliminar una publicación de Facebook en la que se exhibía la violencia policial en Colombia mediante una caricatura. Al Consejo le preocupa que los bancos de Media Matching Service, que pueden eliminar de forma automática imágenes que infringen las reglas de Meta, puedan amplificar el impacto de las decisiones incorrectas respecto del contenido incluido en ellos. Como respuesta, Meta debe mejorar de inmediato sus procedimientos para eliminar con rapidez contenido no infractor de estos bancos.
Información sobre el caso
En septiembre de 2020, un usuario de Facebook en Colombia publicó una caricatura que se asemejaba al escudo oficial de la Policía Nacional de Colombia, en la que aparecían tres figuras en uniforme policial con las porras en alto. Estas parecían estar pateando y golpeando a otra figura tirada en el suelo con sangre debajo de la cabeza. El texto del escudo rezaba, en español, "República de Colombia - Policía Nacional - Bolillo y Pata". Meta tradujo el texto, que interpretó como una denuncia de violencia, ya que "bolillo" y "pata" hacen referencia a "porras" y "patadas", respectivamente.
Según Meta, en enero de 2022, 16 meses después de que el usuario publicara el contenido, la empresa lo eliminó ya que coincidía con una imagen que estaba en un banco de Media Matching Service. Estos bancos pueden identificar y eliminar automáticamente imágenes que los revisores determinan que infringen las normas de la empresa. Debido a que el Consejo seleccionó este caso, Meta determinó que la publicación no infringía sus reglas y la restauró. Asimismo, la empresa restauró otros elementos de contenido que mostraban esta caricatura, que los bancos de Media Matching Service habían eliminado por error.
Conclusiones principales
Como Meta reconoce, esta publicación no infringía sus políticas. Meta cometió un error al incluir esta caricatura en el banco de Media Matching Service, lo que condujo a eliminar la imagen de la plataforma de forma masiva y desproporcionada, así como también el contenido publicado por el usuario en este caso. Pese a que 215 usuarios apelaron estas eliminaciones, y un 98% de dichas apelaciones resultaron favorables, Meta no eliminó la caricatura de este banco hasta que el caso llegó al Consejo.
Este caso demuestra de qué manera, mediante sistemas automatizados para eliminar contenido, los bancos de Media Matching Service pueden amplificar el impacto de las decisiones incorrectas que toman los revisores. Agregar contenido a estos bancos por error supone un riesgo especialmente alto cuando, como en este caso, se incluye un discurso político que critica a agentes del Estado.
En respuesta, Meta debería desarrollar mecanismos que permitan eliminar con rapidez el contenido no infractor que se agrega erróneamente a dichos bancos. Cada vez que una decisión de eliminar contenido incluido en estos bancos se revierte en el proceso de apelación, se deberían poner en marcha revisiones que puedan quitar este contenido del banco.
Al Consejo le preocupa particularmente que Meta no mida la precisión de los bancos de Media Matching Service en cuanto a políticas de contenido específicas. Sin estos datos, que son fundamentales para mejorar el funcionamiento de estos bancos, la empresa no puede determinar si esta tecnología tiene más efectividad con algunas normas comunitarias que con otras.
La decisión del Consejo asesor de contenido
El Consejo asesor de contenido anuló la decisión original de Meta de eliminar el contenido.
El Consejo recomendó que Meta:
- Se asegure de que el contenido con altas tasas de apelaciones y gran porcentaje de apelaciones favorables se reevalúe a fin de determinar si se debe eliminar de los bancos de Media Matching Service.
- Limite el tiempo que transcurre desde que se identifica y se vuelve a revisar el contenido incluido en el banco hasta que se lo elimina de allí, si se determina que no infringe las normas. Con esta medida, se garantizaría que el contenido no infractor se quite de inmediato de dichos bancos.
- Publique en sus informes de transparencia las tasas de errores relativas al contenido incluido erróneamente en los bancos de contenido infractor de Media Matching Service, desglosadas por política de contenido.
* Los resúmenes de casos ofrecen información general sobre los casos y no sientan precedentes.
Decisión del caso completa
1. Resumen de la decisión
El Consejo asesor de contenido anuló la decisión original de Meta de eliminar una publicación de Facebook en la que se exhibía la violencia policial en Colombia mediante una caricatura. El Consejo determinó que la caricatura, que no infringía ninguna norma comunitaria de Facebook, se agregó por error a uno de los bancos de Media Matching Service de Meta, lo que condujo a que se eliminara la publicación de forma errónea. Estos bancos pueden identificar y eliminar automáticamente imágenes que los revisores determinaron anteriormente que infringen las normas de la empresa. Luego de que el Consejo seleccionara el caso, Meta determinó que este contenido no infringía las normas y reconoció que lo eliminó por equivocación. Al Consejo le preocupa que la incorporación errónea de contenido no infractor a los bancos de Media Matching Service dé como resultado una aplicación de políticas desproporcionada y equivocada. Asimismo, la falta de capacidad para prevenir o remediar este error con rapidez agrava este problema con el tiempo. Por lo tanto, Meta debe mejorar de inmediato sus mecanismos de revisión para eliminar contenido no infractor de estos bancos rápidamente, supervisar el rendimiento de estos mecanismos y publicar información como parte de sus iniciativas de transparencia.
2. Descripción del caso y contexto
En septiembre de 2020, un usuario de Facebook en Colombia publicó una imagen de una caricatura en el comentario de una publicación de otro usuario. La caricatura se asemejaba al escudo oficial de la Policía Nacional de Colombia e incluía tres figuras en uniforme policial con las porras en alto. Las figuras parecían estar pateando y golpeando a otra figura tirada en el suelo con sangre debajo de la cabeza. Al lado de la figura que estaba en el suelo, había un libro y un lápiz. El texto del escudo rezaba, en español, "República de Colombia - Policía Nacional - Bolillo y Pata". El equipo de mercados regionales de Meta tradujo el texto, que interpretó como una denuncia de violencia, ya que "bolillo" y "pata" hacen referencia a "porras" y "patadas", respectivamente. La publicación se realizó durante un momento de protestas generalizadas en el país tras un asesinato cometido por la policía.
De acuerdo con Meta, en enero de 2022, 16 meses después de la publicación original del contenido en Facebook, la empresa lo eliminó porque coincidía con una imagen del banco de Media Matching Service en relación con contenido que infringe la norma comunitaria de Facebook sobre personas y organizaciones peligrosas. El usuario presentó una apelación, y Meta sostuvo su decisión de eliminar el contenido, pero basó dicha decisión en la norma comunitaria sobre violencia e incitación. En el momento de la eliminación, el contenido había tenido tres visualizaciones, y no había recibido reacciones ni lo habían reportado.
Debido a que el Consejo seleccionó este caso, Meta revisó el contenido otra vez y determinó que no infringía las normas comunitarias sobre personas y organizaciones peligrosas ni sobre violencia e incitación. Aproximadamente un mes después de su eliminación, el contenido se restauró en la plataforma.
Meta también le informó al Consejo que, dado que la imagen estaba en un banco de Media Matching Service, se eliminaron de la plataforma otros contenidos idénticos, incluido el que atañe a este caso. Se presentaron 215 apelaciones de dichas eliminaciones, 210 de las cuales tuvieron resultados favorables, lo que significa que los revisores en este conjunto de casos decidieron que el contenido no infringía ninguna norma. Meta también revirtió todas las demás eliminaciones, así como las penalizaciones y limitaciones de funciones correspondientes, luego de que el Consejo seleccionara el caso.
3. Autoridad y alcance del Consejo asesor de contenido
El Consejo tiene la facultad para revisar la decisión de Meta tras la apelación de un usuario cuyo contenido se eliminó (Artículo 2, sección 1, del acta constitutiva; Artículo 3, sección 1, de los estatutos). El Consejo puede mantener o revertir la decisión de Meta (Artículo 3, sección 5, del acta constitutiva), y la decisión que tome será vinculante para la empresa (Artículo 4 del acta constitutiva). Meta también debe evaluar la viabilidad de aplicar su decisión con respecto a contenido idéntico cuyo contexto sea similar (Artículo 4 del acta constitutiva). Las decisiones del Consejo podrían incluir declaraciones de asesoramiento normativo con recomendaciones no vinculantes a las que Meta debe responder (Artículo 3, sección 4, Artículo 4 del acta constitutiva).
Cuando selecciona casos como este, en los que Meta posteriormente reconoce que cometió una equivocación, el Consejo revisa la decisión original para entender mejor el proceso de moderación de contenido que condujo a cometer el error y hacer recomendaciones estructurales a fin de reducir errores y tratar a los usuarios de manera más justa en el futuro.
4. Fuentes de autoridad
El Consejo asesor de contenido consideró las siguientes fuentes de autoridad:
I.Decisiones del Consejo asesor de contenido:
La decisión más relevante del Consejo en cuanto a este caso es la decisión "Protestas en Colombia" (2021-010-FB-UA). En esta decisión, el Consejo destacó el interés del público en que se admita contenido que critica al Gobierno durante momentos de protesta, en particular en contextos en los que se acusa a los Estados de violar los derechos humanos.
II.Políticas de contenido de Meta
La norma comunitaria sobre personas y organizaciones peligrosas de Facebook indica que Meta "elimina el contenido que exalta, apoya sustancialmente y representa a diversas organizaciones peligrosas".
La norma comunitaria sobre violencia e incitación de Facebook indica que Meta "procura evitar que se produzcan daños en el mundo real que puedan estar relacionados con Facebook" y que restringe la libertad de expresión "cuando cree que existe riesgo real de que se produzcan daños físicos o amenazas directas a la seguridad pública".
La norma comunitaria sobre contenido violento y gráfico indica que Meta "elimina el contenido que enaltece la violencia o celebra el sufrimiento o la humillación de otras personas".
III.Valores de Meta
Los valores de Meta se detallan en la introducción a las Normas comunitarias de Facebook, donde la "expresión" se define como un valor "fundamental". Meta limita la expresión al servicio de cuatro valores: autenticidad, seguridad, privacidad y dignidad. Aquí, los más relevantes son la seguridad y la dignidad.
IV.Normas internacionales sobre derechos humanos
Los Principios Rectores sobre las Empresas y los Derechos Humanos de la ONU (UNGP), respaldados por el Consejo de Derechos Humanos de la ONU en 2011, establecen un marco voluntario que encuadra las responsabilidades de las empresas privadas en cuanto a estos derechos. En 2021, Meta anunció su Política corporativa de derechos humanos, con la que reafirmó su compromiso con el respeto de los derechos humanos de conformidad con los UNGP.
El análisis del Consejo sobre las responsabilidades de Meta con los derechos humanos en este caso se basó en las siguientes normas de derechos humanos, que se aplican en la sección 8 de esta decisión:
- Derecho a la libertad de opinión y expresión: Artículo 19 del Pacto Internacional de Derechos Civiles y Políticos (ICCPR), observación general n.º 34, Comité de Derechos Humanos (2011).
5. Respuestas del usuario
En su declaración ante el Consejo, el usuario expresó confusión respecto del motivo por el que Meta había eliminado el contenido. El usuario explicó que el contenido reflejaba la realidad de Colombia, lo cual era importante para aquellos afectados por la situación o interesados en lo que estaba ocurriendo.
6. Respuestas de Meta
Meta explicó en su fundamento que eliminó el contenido porque coincidía con una imagen que un revisor había agregado por error a un banco de Media Matching Service por considerar que infringía la política de personas y organizaciones peligrosas. En la apelación, Meta sostuvo la eliminación, pero decidió que el contenido infringía la política de violencia e incitación, no la política de personas y organizaciones peligrosas. Más adelante, Meta confirmó que ambas decisiones de eliminar el contenido eran erróneas. La empresa manifestó que la política de contenido violento y gráfico también podría haber sido relevante para este caso, ya que se exhibe un ataque violento, pero que esta no se aplica a imágenes como caricaturas.
Según Meta, los bancos de Media Matching Service identifican el contenido publicado en sus plataformas, en este caso, imágenes, y toman medidas al respecto. Una vez que se determina que cierto contenido se debe incluir en el banco, se convierte en un cadena de datos, es decir, se cifra. Los datos cifrados luego se asocian con un banco particular. Los bancos de Media Matching Service se alinean con políticas de contenido particulares, como la de personas y organizaciones peligrosas, lenguaje que incita al odio y explotación sexual, abuso y desnudos de menores, o secciones específicas dentro de una política. En este caso, Meta indicó que el contenido se encontraba en un banco de Media Matching Service específicamente por aludir a organizaciones criminales, una categoría prohibida dentro de la política de personas y organizaciones peligrosas.
Según el propósito con el que Meta usa el banco específico, se puede programar para que tome diferentes medidas una vez que identifica contenido incluido en él. Por ejemplo, Meta puede eliminar el contenido si infringe las normas, agregar una pantalla de advertencia o ignorarlo si se incorporó en el banco como contenido no infractor. Los bancos de Media Matching Service también pueden brindar orientación a los revisores de contenido a la hora de revisar contenido incluido en ellos.
Meta también manifestó que los bancos de Media Matching Service pueden tomar medidas en diferentes momentos. Por ejemplo, Meta puede analizar imágenes en el momento en que se suben para evitar que se publique contenido que infringe las normas. Asimismo, los bancos se pueden configurar para que detecten solo contenido recién subido y tomen medidas al respecto, o bien se pueden usar para analizar contenido existente en la plataforma.
El Consejo le preguntó a Meta cómo identifica contenido y lo agrega a los bancos de Media Matching Service. Meta explicó que los revisores que trabajan a gran escala identifican contenido que reúne los requisitos para agregarse a bancos. Según expresa Meta, en el caso de los bancos de Media Matching Service asociados a la política de personas y organizaciones peligrosas, el contenido se envía a un proceso que se denomina "revisión múltiple dinámica", en el que "dos revisores deben estar de acuerdo en una decisión para que el contenido multimedia se envíe al banco". Meta lo describe como una protección para evitar errores.
El Consejo también le preguntó a Meta con qué mecanismos cuenta para identificar contenido incluido en los bancos por equivocación. Meta afirmó que tiene diferentes "sistemas de alertas de anomalías", entre ellos, uno que se activa si un banco incluye contenido que Meta considera viral. Otro de ellos identifica contenido incluido en los bancos con altos porcentajes de apelaciones favorables luego de su eliminación. Estos sistemas estaban activos para este banco cuando se eliminó el contenido.
Meta indicó que la cantidad de eliminaciones y apelaciones favorables respecto de este contenido generó una alerta que llegó a su equipo de ingeniería en el momento en que se eliminó el contenido. Sin embargo, un mes después, cuando el Consejo presentó este caso a Meta, la empresa aún no había revisado y eliminado el contenido del banco de Media Matching Service. No queda claro si este equipo de ingeniería alertó a otros equipos que serían responsables de volver a revisarlo y determinar si infringía o no las normas. Si bien Meta manifestó que está previsto que haya cierta demora al revisar los reportes, no le brindó al Consejo indicaciones de cuándo habría abordado esta alerta. Al Consejo le preocupa la duración de este plazo de revisión. Meta debería supervisar lo que tarda en eliminar contenido que se agregó por error de los bancos y revertir las decisiones normativas equivocadas luego de que se activen las alertas, así como establecer un objetivo concreto para minimizar dicho plazo.
Por último, el Consejo le consultó a Meta qué métricas usa para auditar el rendimiento de los bancos de Media Matching Service. Meta afirma que, en general, supervisa cuando aumentan las decisiones de aplicación de normas incorrectas por parte de los bancos e intenta identificar qué podría ocasionar que este error se replique con tanta frecuencia. Sin embargo, en este momento estas evaluaciones de auditoría se suelen centrar en bancos individuales. Dado que estos bancos pueden apuntar a líneas normativas específicas y programarse para tomar diversas medidas diferentes, puede resultar difícil generar datos significativos en cuanto a la precisión de la aplicación de normas general para una norma comunitaria concreta o para los bancos de Media Matching Service a partir de estos análisis. Meta afirmó que trabaja para crear una métrica unificada que le permita supervisar la precisión de dichos bancos.
El Consejo formuló a Meta un total de 26 preguntas, 24 de las cuales recibieron una respuesta completa y dos recibieron una respuesta parcial. Las respuestas parciales trataban sobre la medición de la precisión y las tasas de errores de los bancos de Media Matching Service de la empresa, así como sobre problemas técnicos relacionados con los mensajes que Meta envió al usuario. Meta también proporcionó un informe virtual sobre estos bancos a un grupo de miembros del Consejo.
7. Comentarios del público
El Consejo recibió cuatro comentarios del público en relación con este caso. Dos comentarios procedieron de Latinoamérica y el Caribe y dos procedieron de los Estados Unidos y Canadá. Estos abarcaban el uso de la tecnología de coincidencia de contenido multimedia en la moderación de contenido, el contexto sociopolítico en Colombia, la importancia de los medios sociales para registrar la violencia policial durante protestas y cómo las políticas de contenido de Meta deberían proteger la libertad de expresión.
Si quieres leer los comentarios del público que se enviaron en relación con este caso, haz clic aquí.
8. Análisis del Consejo asesor de contenido
El Consejo seleccionó este caso, ya que implica una expresión artística sobre la violencia policial en el contexto de una protesta, un problema acuciante en toda Latinoamérica. Asimismo, el caso supuso una oportunidad para que el Consejo analizara el uso que hace Meta de la tecnología de Media Matching Service en la moderación de contenido. El Consejo analizó la pregunta de si este contenido debería restaurarse tomando como base tres perspectivas: las políticas de contenido de Meta, los valores de la empresa y sus responsabilidades con los derechos humanos.
8.1 Cumplimiento de las políticas de contenido de Meta
I.Reglas de contenido
El Consejo determinó que las medidas que tomó Meta no fueron acordes con las políticas de contenido de Facebook. Como Meta reconoce, el contenido no infringía ninguna política de Meta. La decisión de agregarlo al banco de Media Matching Service y la falla a la hora de revertir la eliminación automatizada tras una apelación son dos medidas incorrectas.
II.Aplicación
Meta solo restauró el contenido, junto con otros elementos que también se eliminaron por haberse incluido erróneamente en los bancos mencionados, luego de que el Consejo seleccionara el caso. En respuesta a una pregunta del Consejo, Meta indicó que cuenta con mecanismos de comentarios para identificar errores y dejar de tomar medidas sobre contenido incluido en los bancos por error. Sin embargo, 215 usuarios apelaron las eliminaciones y un 98% de ellos obtuvieron resultados favorables, y ningún mecanismo de comentarios hizo que el contenido se eliminara del banco de Media Matching Service antes de que el caso llegara al Consejo.
8.2 Cumplimiento de los valores de Meta
El Consejo determinó que la decisión original de eliminar este contenido no se tomó de conformidad con el valor de Meta de expresión, ni atendió a ninguno de los demás valores de Meta.
8.3 Cumplimiento de las responsabilidades de Meta con los derechos humanos
El Consejo concluye que la decisión inicial de Meta de eliminar el contenido no se ajustó a sus responsabilidades en materia de derechos humanos como empresa. Meta se comprometió a respetar los derechos humanos de conformidad con los Principios Rectores sobre las Empresas y los Derechos Humanos de la ONU (UNGP). En la Política corporativa de derechos humanos de Facebook, se dispone el cumplimiento específico del Pacto Internacional de Derechos Civiles y Políticos (ICCPR).
Libertad de expresión (Artículo 19 del ICCPR)
El Artículo 19 del ICCPR protege en gran medida la expresión e incluso más la expresión sobre inquietudes políticas o sociales ( observación general n.º 34, párrafos 11 y 20). El Artículo 19 exige que, si un Estado impone restricciones sobre la libertad de expresión, estas deben cumplir los requisitos de legalidad, fin legítimo, y necesidad y proporcionalidad (Artículo 19, párrafo 3, del ICCPR). El Consejo basa su análisis de la moderación de contenido de Meta en este marco.
I.Legalidad (claridad y accesibilidad de las reglas)
El requisito de legalidad dispone que cualquier restricción sobre la libertad de expresión sea lo bastante accesible y clara como para ofrecer orientación sobre qué se permite y qué no. En este caso, la eliminación equivocada del contenido no se pudo atribuir a la falta de claridad o acceso respecto de las políticas relevantes.
II.Fin legítimo
Cualquier restricción sobre la libertad de expresión debe procurar alguno de los fines legítimos mencionados en el ICCPR, entre ellos, los derechos de los demás. Según Meta, las políticas de personas y organizaciones peligrosas y de violencia e incitación buscan prevenir la violencia en el mundo real. El Consejo determinó de manera consistente que este objetivo cumple con las responsabilidades de Meta para con los derechos humanos.
III.Necesidad y proporcionalidad
El principio de necesidad y proporcionalidad dispone que las restricciones que se apliquen a la libertad de expresión deben ser adecuadas para cumplir su función de protección, deben ser el instrumento menos invasivo entre aquellos que permitan cumplir dicha función y deben ser proporcionales al interés que se pretende proteger (observación general n.º 34, párrafo 34).
En este caso, no era necesario eliminar el contenido del usuario porque dicha medida no respaldaba ningún objetivo legítimo. Asimismo, el diseño de los bancos de Media Matching Service de Meta permitió que los revisores agregaran contenido por equivocación a un banco, lo que produjo que se eliminara automáticamente contenido idéntico, pese a que no infringía las normas. El Consejo determinó que la medida fue de extrema desproporcionalidad, en función de la cantidad significativa de eliminaciones en este caso, incluso teniendo en cuenta el alcance de operación de Meta. Pese a completar un proceso de validación de datos largo para verificar la cantidad de eliminaciones de contenido, Meta impidió que el Consejo develara esta cifra tras manifestar la inquietud de que quizá esta no reflejaba con precisión la calidad de los sistemas de Media Matching Service de Meta.
El Consejo considera que, en este caso, la eliminación del contenido es particularmente preocupante, ya que este no infringe ninguna política de Meta, sino que contiene críticas a las violaciones de los derechos humanos que constituye lenguaje protegido. La violencia policial es un asunto preocupante de suma importancia para el interés público. El Consejo ya había expresado en otra ocasión la importancia de los medios sociales para compartir información sobre protestas en Colombia en el caso 2021-010-FB-UA.
El Consejo determinó que es fundamental que se apliquen controles adecuados a la hora de incorporar, auditar o eliminar contenido en dichos bancos. Estos aumentan enormemente el alcance de algunas decisiones de aplicación de políticas, lo que supone consecuencias desproporcionadas a causa de errores. Respecto de la incorporación de contenido, dadas las consecuencias de la eliminación de contenido que pueden tener un alcance desproporcionado si se automatizan, existe la necesidad de que Meta refuerce los procedimientos para garantizar que no se agregue contenido no infractor. Agregar contenido a estos bancos por error supone un riesgo especialmente alto cuando, como en este caso, incluye un discurso político que critica a agentes del Estado o las acciones que cometen. Los bancos de Media Matching Service automatizan y amplifican el impacto de decisiones individuales incorrectas, y es importante que Meta considere continuamente qué medidas de mitigación de errores son de más ayuda para los revisores, incluidos, por ejemplo, personal adicional, capacitación y tiempo para revisar contenido.
Respecto de las auditorías y los comentarios, el uso de bancos de Media Matching Service para eliminar contenido con mecanismos de comentarios limitados o poco precisos genera preocupación, ya que pueden conducir a la aplicación errónea y desproporcionada de normas, donde una equivocación cobra enormes dimensiones. Pese a que Meta informó al Consejo que contaba con mecanismos de comentarios para identificar contenido incluido en bancos por equivocación y dejar de tomar medidas incorrectas, 215 usuarios apelaron la eliminación con un 98% de resultados favorables y el contenido permaneció en el banco. Meta debería garantizar que se activen de inmediato revisiones si el contenido incluido en un banco de Media Matching Service sobre el que se toman medidas cuenta con altas tasas de anulación y que exista la posibilidad de quitarlo de allí.
Al Consejo le preocupa particularmente la falta de métricas de rendimiento para medir la precisión de los bancos de Media Matching Service en cuanto a políticas de contenido específicas. Sin métricas objetivas que supervisen la precisión de los bancos de Media Matching Service, no hay una gobernanza efectiva que determine cómo esta tecnología podría ser más o menos eficaz para determinadas políticas de contenido. Tampoco hay puntos de referencia concretos para aplicar mejoras.
Si bien el Consejo tiene en cuenta que Meta se encuentra en el proceso de crear una métrica unificada para supervisar la precisión de los bancos de Media Matching Service, insta a la empresa a completar este proceso tan pronto como sea posible. Para que se puedan establecer métricas que permitan aplicar mejoras, Meta debería publicar información sobre precisión en cada política de contenido en la que use la tecnología de Media Matching Service.
Esta información debería incluir datos sobre las tasas de errores en contenido no infractor incluido por equivocación en los bancos de contenido infractor de Media Matching Service. También debería incluir el volumen de contenido afectado por la incorporación errónea en bancos, así como ejemplos clave de errores. Con estos datos, Meta entendería el impacto más general de este tipo de errores y establecería objetivos para reducirlos. Además, los usuarios podrían comprender mejor los errores que supone la aplicación de políticas automatizada y responder a ellos.
9. Decisión del Consejo asesor de contenido
El Consejo asesor de contenido anuló la decisión original de Meta de eliminar el contenido.
10. Declaraciones de asesoramiento normativo
Aplicación
1. Para mejorar la capacidad de Meta de eliminar contenido no infractor de los bancos programados para identificar y eliminar contenido infractor de forma automática, Meta debería asegurarse de que el contenido con altas tasas de apelación y gran porcentaje de apelaciones favorables se reevalúe a fin de determinar su posible eliminación de dichos bancos. El Consejo considerará implementada esta recomendación cuando Meta: (i) le proporcione las tasas de apelación y el porcentaje de apelaciones favorables que dan pie a una revisión del contenido incluido en bancos de Media Matching Service, y (ii) confirme públicamente que están activos estos mecanismos de reevaluación en todos los bancos que incorporan contenido infractor.
2. Para garantizar que el contenido incluido erróneamente en bancos se quite de allí de inmediato, Meta debe establecer y cumplir normas que limiten el tiempo que transcurre desde que se identifica dicho contenido y se lo vuelve a revisar hasta que se elimina del banco, si se considera que no infringe las normas. El Consejo considerará implementada esta recomendación cuando Meta: (i) establezca el tiempo objetivo que debe transcurrir desde que se activa la nueva revisión hasta que se restaura el contenido no infractor, y se lo comunique al Consejo, y (ii) proporcione al Consejo datos que demuestren el progreso respecto de este objetivo para el año próximo.
Transparencia
3. Para habilitar el establecimiento de métricas que den lugar a mejoras, Meta debería publicar en sus informes de transparencia las tasas de errores relativas al contenido incluido erróneamente en los bancos de contenido infractor de Media Matching Service, desglosadas por política de contenido. En estos informes, se debería incluir información sobre cómo el contenido ingresa en los bancos, así como las iniciativas de la empresa para reducir errores en el proceso. El Consejo considerará implementada esta recomendación cuando Meta incluya dicha información en su informe de cumplimiento de las Normas comunitarias.
* Nota de procedimiento:
La preparación de las decisiones del Consejo asesor de contenido está a cargo de paneles conformados por cinco miembros, quienes deben aprobarlas por mayoría. Las decisiones del Consejo no necesariamente representan las opiniones personales de todos los miembros.
En cuanto a la decisión del caso, se encargó una investigación independiente en nombre del Consejo. Al Consejo lo asistió un instituto de investigación independiente con sede en la Universidad de Gotemburgo, que se apoya en un equipo conformado por más de 50 científicos sociales de seis continentes, así como 3.200 expertos de diferentes países del mundo. El Consejo también recibió asistencia de parte de Duco Advisors, una empresa asesora dedicada a la intersección de geopolítica, confianza, seguridad y tecnología. Lionbridge Technologies, LLC, con especialistas en más de 350 idiomas que trabajan en 5.000 ciudades diferentes, se encargó de las competencias en materia lingüística.
Volver a Decisiones de casos y opiniones consultivas sobre políticas