Anulado
Violencia homofóbica en África Occidental
15 de octubre de 2024
Al Consejo asesor de contenido le preocupa seriamente que Meta no haya eliminado un video que muestra a dos hombres que al parecer recibieron una paliza presuntamente por ser gais. Tras anular la decisión original de la empresa, el Consejo manifestó que, como el video permaneció en Facebook durante cinco meses, la identidad de estos hombres quedó expuesta, lo que supuso un riesgo de daños directos para ellos, dada la hostilidad contra la comunidad LGBTQIA+ en Nigeria.
Para leer la decisión completa del caso en igbo, haz clic aquí.
Iji gụọ mkpebi ahụ n'uju n'asụsụ Igbo, pịa ebe a.
Resumen
Al Consejo asesor de contenido le preocupa seriamente que Meta no haya eliminado un video que muestra a dos hombres ensangrentados que al parecer recibieron una paliza presuntamente por ser gais. El contenido se publicó en Nigeria, país que criminaliza las relaciones entre personas del mismo sexo. Tras anular la decisión original de la empresa, el Consejo manifestó que, como el video permaneció en Facebook durante cinco meses, la identidad de estos hombres quedó expuesta, lo que supuso un riesgo de daños inmediatos para ellos, dada la hostilidad contra la comunidad LGBTQIA+ en Nigeria. Dichos daños son directos e imposibles de revertir. El contenido, que difundía violencia, discriminación y burla, infringió cuatro normas comunitarias diferentes, se reportó varias veces y se sometió a la revisión de tres moderadores. Este caso revela fallas en torno a la aplicación de políticas. Las recomendaciones del Consejo, entre otras cuestiones, instan a Meta a evaluar la aplicación de la regla relevante en virtud de la norma comunitaria sobre organización de actos dañinos y promoción de la delincuencia. También abordan las fallas que es probable que hayan ocurrido porque Meta identificó el idioma del video incorrectamente, y la manera en que la empresa gestiona los idiomas no es compatible con una revisión de contenido a gran escala.
Información sobre el caso
Un usuario de Facebook en Nigeria publicó un video que muestra a dos hombres ensangrentados que parecen haber sido atados y apaleados. Las personas alrededor de los hombres, que se ven asustados, les hacen preguntas en uno de los principales idiomas de Nigeria, igbo. En respuesta, uno de ellos responde con su nombre y explica, aparentemente bajo coerción, que recibió una paliza por tener sexo con otro hombre. El usuario que publicó este contenido incluyó una descripción en inglés en la que se burla de ellos y afirma que se los descubrió manteniendo relaciones sexuales, lo que es "gracioso" porque están casados.
El video se reprodujo más de 3,6 millones de veces. Entre diciembre de 2023, mes en que se publicó, y febrero de 2024, 92 usuarios lo reportaron, la mayoría por violencia e incitación o lenguaje que incita al odio. Los revisores decidieron que no infringía ninguna de las normas comunitarias, por lo que debía permanecer en Facebook. Un usuario apeló a Meta, pero tras otra ronda de revisión manual, la empresa decidió nuevamente que no había infracción alguna. El usuario entonces apeló al Consejo. Luego de que el Consejo remitiera el caso a Meta, la empresa eliminó la publicación en virtud de la política de organización de actos dañinos y promoción de la delincuencia.
Nigeria criminaliza las relaciones entre personas del mismo sexo, y la comunidad LGBTQIA+ enfrenta discriminación y severas restricciones a sus derechos humanos.
Conclusiones principales
Para el Consejo, el contenido infringió cuatro normas comunitarias independientes, incluida la norma sobre organización de actos dañinos y promoción de la delincuencia que no permite que se identifique a personas que presuntamente son miembros de un grupo de riesgo de exposición. La confesión del hombre que admite haber tenido relaciones sexuales con otro es forzada, mientras que la descripción explícitamente declara que son gais. El contenido también infringió las reglas de lenguaje que incita al odio, bullying y acoso, y contenido violento y gráfico.
Hay dos reglas relacionadas con la exposición en virtud de la política de organización de actos dañinos y promoción de la delincuencia. La primera es relevante para este caso y se aplica a gran escala. Esta prohíbe la "exposición: exponer la identidad o las ubicaciones vinculadas con cualquiera que presuntamente sea miembro de un grupo de riesgo de exposición". Hay una regla similar que se aplica solo cuando el contenido se remite a expertos de Meta. Al Consejo le preocupa que Meta no explique de forma adecuada las diferencias entre las dos reglas relacionadas con la exposición y que la regla que se impone a gran escala no indique públicamente que "exposición" tiene que ver con identificar a personas como miembros de la comunidad LGBTQIA+ en países donde hay mayor riesgo de daño en la vida real, como es el caso de Nigeria. Actualmente esta información solo está disponible en las pautas internas. Esta ambigüedad podría generar confusión, ya que evita que los usuarios cumplan con las reglas e impide que aquellos que son víctimas de este tipo de contenido abusivo soliciten la eliminación de estas publicaciones. Meta debe actualizar su regla pública y brindar ejemplos de grupos de riesgo de exposición.
El contenido se conservó aproximadamente cinco meses, pese a infringir cuatro reglas diferentes, y mostrar violencia y discriminación. Los moderadores humanos lo revisaron y no lograron identificar por qué infringía las reglas. Con el video en la plataforma, aumentaron las posibilidades de que se identificara a los hombres y de que la publicación incitara a los usuarios a dañar a las personas de la comunidad LGBTQIA+ en Nigeria. Finalmente, el video se eliminó, pero, para ese entonces, ya se había viralizado. Incluso antes de que se elimine, la investigación que realizó el Consejo mostró que aún quedaban secuencias de este en Facebook.
Cuando el Consejo le preguntó a Meta sobre sus medidas de aplicación de políticas, la empresa admitió haber cometido dos errores. En primer lugar, los sistemas automatizados que detectan idiomas identificaron el contenido como inglés antes de enviarlo a revisión manual, mientras que los equipos de Meta identificaron erróneamente el idioma del video como suajili. El idioma correcto es igbo, lengua que hablan millones de personas en Nigeria, pero Meta no lo admite en la moderación de contenido a gran escala. Si no se admite el idioma, como en este caso, el contenido se envía entonces a revisores que trabajan con varios idiomas y recurren a las traducciones que proporcionan las tecnologías de Meta. Esto genera inquietudes sobre cómo se aborda el contenido en idiomas no admitidos, la opción de idiomas que la empresa admite para realizar revisiones a gran escala y la precisión de las traducciones que se proporcionan a los revisores que trabajan con varios idiomas.
La decisión del Consejo asesor de contenido
El Consejo asesor de contenido anuló la decisión original de Meta de conservar el contenido.
El Consejo le recomendó a Meta lo siguiente:
- Actualizar la disposición a gran escala de la política de organización de actos dañinos y promoción de la delincuencia que prohíbe la "exposición" para que incluya ejemplos ilustrativos de "grupos de riesgo de exposición", incluidos miembros de la comunidad LGBTQIA+ en países donde están prohibidas las relaciones entre personas del mismo sexo o en los que exponer esta información crea riesgos importantes para la seguridad.
- Realizar una evaluación que mida la precisión de aplicación de la disposición a gran escala que prohíbe exponer la identidad o ubicación de alguien que presuntamente es miembro de un grupo de riesgo de exposición, en virtud de la norma comunitaria sobre organización de actos dañinos y promoción de la delincuencia.
- Garantizar que los sistemas de detección de idiomas identifiquen con precisión contenido en idiomas no admitidos y brinden traducciones precisas a los revisores que trabajan con varios idiomas.
- Garantizar que el contenido en un idioma no admitido, incluso en combinación con idiomas admitidos, se someta a un proceso de revisión que incluya varios idiomas. Esto incluye ofrecer a los revisores la opción de redirigir el contenido en un idioma no admitido a una revisión en varios idiomas.
* Los resúmenes de casos ofrecen información general sobre los casos y no sientan precedentes.
Decisión del caso completa
1. Descripción y contexto del caso
En diciembre de 2023, un usuario de Facebook en Nigeria publicó un video en el que aparecen dos hombres cuya identidad se ve claramente y parecen haber recibido una paliza. Están sentados en el suelo, cerca de un poste y una cuerda, lo que sugiere que se los ató, y sangran mucho. Varias personas les hacen preguntas en igbo, uno de los principales idiomas de Nigeria. Uno de ellos responde con su nombre y explica, aparentemente bajo coerción, que recibió una paliza por tener sexo con otro hombre. Ambos hombres parecen asustados y uno de ellos recibe la patada de una persona parada junto a él. El usuario que publicó el video agregó una descripción en inglés en la que se burla de estos hombres y afirma que se los descubrió teniendo sexo y que es "gracioso" porque ambos están casados.
El contenido se visualizó más de 3,6 millones de veces, recibió alrededor de 9.000 reacciones y 8.000 comentarios, y se compartió alrededor de 5.000 veces. Entre diciembre de 2023 y febrero de 2024, 92 usuarios reportaron el contenido 112 veces. La mayoría de estos reportes se ampararon en las políticas de violencia e incitación y lenguaje que incita al odio de Meta. Dos moderadores revisaron varios de los reportes y decidieron que el contenido no infringía ninguna de las Normas comunitarias y, por lo tanto, debía permanecer en Facebook. Uno de estos usuarios apeló luego la decisión de Meta de conservar el contenido. Tras otra revisión manual, la empresa de nuevo determinó que no infringía ninguna de sus reglas. El usuario entonces apeló al Consejo. Luego de que el Consejo remitiera el caso a Meta, en mayo de 2024, la empresa revisó la publicación en virtud de la política de organización de actos dañinos y promoción de la delincuencia y la eliminó de Facebook. Después de que Meta eliminara el video original, y luego de otras investigaciones, el Consejo identificó varias instancias del mismo video en la plataforma con fecha de diciembre de 2023, incluido en grupos de Facebook. El Consejo marcó estas instancias, y Meta eliminó el video y lo agregó a un banco de Media Matching Service (MMS), que automáticamente identifica y elimina contenido que ya se clasificó como infractor. Si bien los usuarios que cometen este tipo de infracción con el contenido pueden quedar sujetos a una falta estándar, Meta no la aplicó en este caso porque el video se publicó más de 90 días antes de que se tomaran medidas de aplicación de políticas. La política de Meta estipula que no se aplican faltas estándar a cuentas de usuarios cuyas infracciones de contenido se cometieron hace más de 90 días.
El Consejo consideró el siguiente contexto en cuanto a la decisión que tomó en este caso:
La comunidad LGBTQIA+ en Nigeria y en otras varias partes del mundo es blanco de violencia, tortura, encarcelamiento e incluso la muerte debido a su orientación sexual o identidad de género, y el sentimiento en su contra va en aumento (consulta el comentario público de Outright International, PC-29658). La discriminación basada en la orientación sexual o la identidad de género limita la vida diaria, y afecta los derechos humanos y las libertades fundamentales. Amnistía Internacional informa que, en África, 31 países criminalizan las relaciones entre personas del mismo sexo. Las sanciones varían de encarcelamiento a castigos físicos. La Ley de prohibición del matrimonio entre personas del mismo sexo de Nigeria no solo criminaliza las relaciones entre personas del mismo sexo, sino que también prohíbe las demostraciones públicas de afecto y restringe la labor de organizaciones que defienden los derechos de la comunidad LGBTQIA+. Asimismo, se siguen imponiendo leyes de la era colonial y otras leyes de moralidad sobre sodomía, adulterio e indecencia para sofocar los derechos de la comunidad LGBTQIA+, y los resultados son devastadores.
En un informe de 2024, un experto independiente de la ONU sobre la protección contra la violencia y la discriminación por motivos de orientación sexual e identidad de género señaló: "En Estados de todas las regiones del mundo se han aplicado leyes y políticas ya existentes o se han impuesto nuevas medidas, a veces extremas, para coartar las libertades de expresión, de reunión pacífica y de asociación, dirigidas específicamente contra determinados grupos de personas por motivos de orientación sexual o identidad de género" (informe A/HRC/56/49, párrafo 2, julio de 2024).
Los activistas y las organizaciones que defienden a la comunidad LGBTQIA+ pueden quedar sujetos a restricciones legales y sufrir acoso, arrestos arbitrarios, redadas policiales y paralizaciones. Asimismo, las amenazas de violencia disuaden el apoyo público de los derechos LGBTQIA+ (consulta el comentario público de Pan-African Human Rights Defenders Network, PC-29657). Las organizaciones de derechos humanos pueden encontrar impedimentos a la hora de documentar casos de abuso y discriminación debido al temor de que las autoridades públicas y agentes que no pertenecen al Estado, como vigilantes y milicias, tomen represalias en su contra. Los periodistas que cubren temas relacionados con la comunidad LGBTQIA+ también pueden ser el blanco de ataques.
Los medios sociales son una herramienta fundamental para que las organizaciones de derechos humanos documenten los abusos y las violaciones de los derechos de la comunidad LGBTQIA+, y exijan protecciones más estrictas. Las personas comparten videos, testimonios e informes para generar conciencia y exigir que los gobiernos impongan normas derechos humanos (consulta el comentario público de Human Rights Watch, PC-29659). Además, las plataformas pueden actuar como centros de información y brindar a las personas actualizaciones sobre desarrollos en el ámbito jurídico, así como acceso a apoyo legal. Una investigación independiente que encomendó el Consejo indica que las plataformas de medios sociales desempeñan un papel fundamental para la comunidad LGBTQIA+ en países con marcos legales restrictivos. La investigación señala que Facebook, por ejemplo, permite a los usuarios conectarse, ya sea de manera anónima o en grupos cerrados, para compartir recursos en un entorno más seguro que en espacios físicos.
Los expertos a los que consultó el Consejo manifestaron que las autoridades del Estado en algunos países africanos también usan los medios sociales para supervisar y limitar las actividades de los usuarios que publican contenido LGBTQIA+. Estos expertos informaron que, en Nigeria, las autoridades restringieron el acceso a contenido online sobre cuestiones LGBTQIA+. Según Freedom House, Nigeria introdujo legislación para regular las plataformas de medios sociales de manera más amplia, lo que podría afectar los derechos de la comunidad LGBTQIA+ online. De manera similar, Access Now, una organización de derechos digitales, informa que las leyes de delitos informáticos en Ghana permiten a las autoridades solicitar que se elimine o prohibir contenido, lo que podría restringir el discurso público en torno a cuestiones que atañen a la comunidad LGBTQIA+, y bloquear la documentación de abusos contra los derechos humanos, así como información fundamental para la comunidad.
Los agentes que no pertenecen al Estado, incluidos los vigilantes, también dirigen ataques contra la comunidad LGBTQIA+ mediante agresiones físicas, violencia colectiva, humillación pública y exclusión. Por ejemplo, en agosto de 2024, hallaron muerto a un usuario transgénero de Tik-Tok conocido como "Abuja Area Mama" tras haber recibido presuntamente una golpiza mortal en Abuja, capital de Nigeria. Los miembros de la comunidad LGBTQIA+ pueden ser el blanco de extorsiones por parte de otros integrantes de la comunidad que descubren su orientación sexual o identidad de género. Según Human Rights Watch, el marco legal de Nigeria incita a la violencia contra las personas LGBTQIA+, lo que envuelve a quienes cometen estos actos violentos en un manto de impunidad.
2. Respuestas de los usuarios
En su declaración ante el Consejo, el usuario que reportó el contenido afirmó que los hombres del video recibieron la paliza por el mero hecho de ser gais. El usuario expresó que, al no eliminar el video, Meta permite que sus plataformas se conviertan en un caldo de cultivo para el odio y la homofobia y que, si el incidente que se muestra en ese video hubiera ocurrido en un país occidental, se hubiera eliminado.
3. Respuestas y políticas de contenido de Meta
I. Políticas de contenido de Meta
Política de organización de actos dañinos y promoción de la delincuencia
La política de organización de actos dañinos y promoción de la delincuencia tiene como fin "prevenir y evitar daños en la vida real, y la imitación de dicho comportamiento". Para ello, prohíbe el contenido que "facilite, organice, promueva o admita determinadas actividades criminales o dañinas dirigidas a personas, negocios, propiedades o animales". Dos disposiciones de las Normas comunitarias abordan la "exposición". La primera se aplica a gran escala y la segunda requiere "más contexto para poder aplicar la política" (lo que significa que esta disposición solo se aplica tras un escalamiento). La primera disposición de la política se aplica a este caso. Prohíbe específicamente la "exposición: exponer la identidad o las ubicaciones vinculadas con cualquiera que presuntamente sea miembro de un grupo de riesgo de exposición". Esta disposición no explica qué grupos se consideran "grupos de riesgo de exposición". La segunda disposición, que solo se aplica tras un escalamiento (pero no se aplicó en este caso), también prohíbe la "exposición: contenido que exponga la identidad de una persona y la ponga en riesgo de daño" para una lista específica de grupos vulnerables, incluidos los miembros de la comunidad LGBTQIA+, las mujeres sin velo, activistas y prisioneros de guerra.
Según las pautas internas que Meta brinda a los revisores de contenido en la primera disposición, la identidad de una persona puede quedar expuesta si se divulga información personal, como su nombre o imagen. Las pautas internas de Meta enumeran los "grupos de riesgo de exposición", incluidos integrantes de las comunidad LGBTQIA+ en países donde la afiliación a un grupo puede ocasionar un riesgo asociado para la seguridad personal de sus miembros. Además, señala que la "exposición" debe ser involuntaria; una persona no puede exponerse por sus propios medios, es decir, no puede declararse miembro de un grupo de riesgo de exposición.
Política de contenido violento y gráfico
La política de contenido violento y gráfico manifiesta que se colocará una pantalla de advertencia ante determinadas imágenes perturbadoras de personas. Esto incluye: "Imágenes que muestran actos de crueldad (p. ej., violencia o amenazas de muerte contra personas retenidas por la fuerza) contra una persona o un grupo de personas". No obstante, si dicho contenido viene acompañado por "comentarios sádicos", la publicación se eliminará. Los comentarios sádicos se definen en el texto público de la regla como aquellas "observaciones o descripciones que expresan placer o gozo por el sufrimiento o la humillación de personas o animales".
Política de bullying y acoso
La norma comunitaria sobre bullying y acoso procura evitar que las personas sean víctimas de amenazas y diferentes formas de contacto malintencionado en las plataformas de Meta y señala que este tipo de comportamiento "impide que las personas se sientan seguras y respetadas". La política prohíbe el contenido que ataca a las personas con "celebración o burla sobre su muerte o enfermedad". Las pautas internas de Meta explican que el término "enfermedad" incluye enfermedades, afecciones o lesiones graves.
Política de lenguaje que incita al odio
En las bases de la política de lenguaje que incita al odio de Meta, se define dicho lenguaje como un ataque directo contra personas sobre la base de características protegidas, incluida la orientación sexual. Prohíbe el contenido que ataca a las personas de forma escrita o visual, por ejemplo: "Burlas acerca del concepto de los crímenes de odio, de hechos de este tipo o de sus víctimas, incluso si no aparece una persona real en una imagen". Las pautas internas de Meta definen los crímenes de odio como un hecho criminal "motivado por un prejuicio que se comete contra otras personas en función de sus [características protegidas]".
II. Respuestas de Meta
Luego de que el Consejo seleccionara este caso, Meta determinó que el contenido infringía la política de organización de actos dañinos y promoción de la delincuencia porque en él se identificaba a presuntos miembros de un "grupo de riesgo de exposición" en un país donde la afiliación a un grupo de estas características puede suponer un riesgo asociado para la seguridad personal de sus integrantes. Meta manifestó que la descripción del usuario alegaba que los hombres eran gais y que la confesión que hace uno de ellos en el video parece bajo coerción, lo que demuestra que la "exposición", que ocurre al develar su identidad, fue involuntaria.
Meta reconoció que los revisores cometieron un error al determinar que la publicación no infringía las Normas comunitarias e investigó el motivo de esta equivocación. En este caso, parece que los revisores solo se centraron en la política de bullying y acoso en relación con "afirmaciones sobre relaciones románticas, orientación sexual o identidad de género" contra adultos no públicos y determinaron que no se había infringido la política, pero no tuvieron en cuenta otras posibles infracciones. Esta política exige que el nombre y el rostro del usuario que reporta el contenido coincida con el de la persona que figura en él para que se elimine. Dado que los usuarios que reportaron el contenido en este caso no aparecían en el contenido, los revisores lo evaluaron como no infractor. Tras esta investigación, los equipos de revisión manual de Meta tomaron otras medidas para mejorar la precisión a la hora de aplicar la política de organización de actos dañinos y promoción de la delincuencia, como enviar recordatorios normativos y llevar a cabo pruebas de conocimiento sobre la política que rige la exposición de personas de alto riesgo.
En respuesta a las preguntas del Consejo, Meta confirmó que la publicación infringía también otras tres normas comunitarias.
Una de ellas era la política de contenido violento y gráfico porque el video incluía comentarios sádicos sobre el hecho de "brutalidad" que se muestra, con dos hombres sometidos a violencia excesiva en una posición de sumisión. Si estos comentarios no hubieran estado presentes, el contenido solo se habría marcado como perturbador conforme a esta política. Otra era la política de bullying y acoso porque la descripción se burlaba de ambos hombres refiriéndose a su situación como "graciosa" mientras se mostraban las lesiones graves que habían sufrido. La última es la política de lenguaje que incita al odio porque la descripción se burlaba de las víctimas de un delito de odio, en particular de la agresión y la violencia contra dos hombres motivadas por prejuicios relacionados con su orientación sexual percibida.
En respuesta a las preguntas del Consejo, Meta confirmó que realizó más investigaciones que condujeron a que se eliminaran otras instancias del mismo video. El video se agregó a los bancos de MMS de Meta para evitar que se vuelva a subir en el futuro.
Meta le informó también al Consejo que usa sus sistemas de detección de idiomas y traducción automática para someter el contenido en igbo a una revisión en varios idiomas a gran escala. Meta cuenta con personal que habla igbo, que brinda sus conocimientos lingüísticos y revisan contenido en igbo tras el escalamiento (no a gran escala). La empresa requiere que los revisores tengan un amplio conocimiento del inglés y del "idioma de su mercado relevante". Antes de confirmar que el idioma que se habla en el video es igbo, Meta identificó el idioma incorrectamente como suajili en su comunicación con el Consejo. Por último, Meta explicó que, dado que la descripción que el usuario incluyó en el video estaba en inglés, los sistemas automatizados de la empresa identificaron que el contenido estaba en este idioma y lo derivaron a revisores que hablan inglés.
El Consejo le planteó a Meta 24 preguntas relacionadas con la aplicación de la norma comunitaria sobre organización de actos dañinos y promoción de la delincuencia y otras políticas de contenido, las medidas de aplicación de políticas en Nigeria, la detección de los idiomas del contenido por parte de Meta y las asignaciones de revisión manual, así como las solicitudes gubernamentales y las medidas de mitigación que la empresa tomó para prevenir daños. Meta respondió todas las preguntas.
4. Comentarios del público
El Consejo asesor de contenido recibió siete comentarios del público dentro de los plazos de presentación. Cuatro comentarios procedían de los Estados Unidos y Canadá, dos de África subsahariana y uno de Europa. Para leer los comentarios del público enviados con consentimiento de publicación, haz clic aquí.
Los comentarios abarcaban los siguientes temas: violencia contra la comunidad LGBTQIA+ en África Occidental por parte del Estado y de agentes externos, y los riesgos asociados con exponer la orientación sexual o la identidad sexual de una persona; el impacto de la criminalización de las relaciones entre personas del mismo sexo en la comunidad LGBTQIA+; el impacto de esta criminalización y de otras leyes locales en Nigeria y, más ampliamente, en África Occidental en la labor que realizan organizaciones de derechos humanos, grupos de apoyo y periodistas; y la importancia de las plataformas de Meta y, de manera más general, de los medios sociales para la comunicación, movilización y generación de conciencia entre la comunidad LGBTQIA+ en Nigeria y África Occidental.
5. Análisis del Consejo asesor de contenido
El Consejo analizó la decisión de Meta en este caso en relación con sus políticas de contenido, valores y responsabilidades en materia de derechos humanos. Asimismo, el Consejo evaluó las implicaciones de este caso para el enfoque más general de Meta en cuanto a la gobernanza de contenido.
5.1 Cumplimiento de las políticas de contenido de Meta
I. Reglas de contenido
El Consejo considera que el contenido infringe cuatro normas comunitarias: organización de actos dañinos y promoción de la delincuencia, lenguaje que incita al odio, contenido violento y gráfico, y bullying y acoso.
El contenido infringe la política de organización de actos dañinos y promoción de la delincuencia, que prohíbe identificar a personas como presuntos miembros de un grupo de riesgo de exposición. El Consejo está de acuerdo con Meta en que el video expone la identidad de los dos hombres en contra de su voluntad, ya que parecen haber recibido una paliza y se ven visiblemente asustados. La confesión de uno de ellos, quien admitió haber mantenido relaciones sexuales con otro hombre, es por ende forzada e involuntaria. Asimismo, la descripción del video declara explícitamente que los hombres son gais.
Además, infringe la política de lenguaje que incita al odio, que prohíbe el contenido que se burla de las víctimas de delitos de odio. El video capta el momento posterior a un hecho de violencia contra dos hombres, que continúa en el video, y muestra claramente sus heridas. Uno de ellos explica que recibieron una golpiza por mantener relaciones sexuales. Con la descripción del video, queda más claro aún que el motivo de la paliza y la agresión criminal que recibieron fue su orientación sexual percibida. Dado que la descripción del video ridiculiza a las víctimas de este delito de odio diciendo que es "gracioso" que estén aparentemente casados, el Consejo cree que se adecua a la definición de Meta de "burla".
Dicha descripción también infringe la política de bullying y acoso porque se burla de sus heridas visibles (una "afección") cuando hace referencia a la situación como "graciosa".
Por último, el Consejo determinó que el contenido infringe también la norma comunitaria sobre contenido violento y gráfico, ya que incluye "comentarios sádicos" sobre los hechos de crueldad perpetrados contra estos dos hombres en un contexto de sufrimiento y humillación. En sí mismo, y sin otras infracciones de políticas presentes, se debería aplicar en este caso una pantalla de advertencia. No obstante, como la descripción contiene "comentarios sádicos" que ridiculizan los hechos de violencia y las agresiones contra estos hombres, la política exige la eliminación del contenido.
II. Aplicación de políticas
Al Consejo le preocupa especialmente que contenido que muestra violencia y discriminación tan grave como en este caso, y que infringe cuatro normas comunitarias, haya permanecido publicado durante cinco meses, y que secuencias del mismo video se hayan conservado en la plataforma incluso luego de que se eliminara el video original. Luego de que se publicara en diciembre de 2023, 92 usuarios diferentes reportaron el video 112 veces, momento en el cual esta sola instancia había acumulado millones de reproducciones y miles de reacciones. Tres moderadores revisaron los reportes y las apelaciones posteriores de forma independiente. Los tres concluyeron que no había infracción, aparentemente porque no revisaron las publicaciones teniendo en cuenta todas las normas comunitarias. Asimismo, estos revisores tal vez no conocían el idioma igbo o no pudieron realizar una revisión en varios idiomas, dado que los sistemas automatizados de Meta identificaron incorrectamente el idioma del contenido como inglés y lo derivaron a revisores que hablan inglés.
5.2 Cumplimiento de las responsabilidades de Meta en materia de derechos humanos
Para el Consejo, dejar el contenido en la plataforma no fue coherente con las responsabilidades de Meta en materia de derechos humanos en virtud de los Principios Rectores sobre las Empresas y los Derechos Humanos de las Naciones Unidas (UNGP). En 2021, Meta anunció su Política corporativa de derechos humanos, en la que reafirmó el compromiso de la empresa con el respeto de los derechos humanos de conformidad con los UNGP. Conforme al Principio Rector n.º 13, las empresas deben "evitar que sus propias actividades provoquen o contribuyan a provocar consecuencias negativas sobre los derechos humanos" y "tratar de prevenir o mitigar las consecuencias negativas sobre los derechos humanos directamente relacionadas con operaciones, productos o servicios", incluso cuando no hayan contribuido a generarlos.
En su interpretación de los UNGP, el Consejo se basó en la recomendación de la Relatora Especial sobre la libertad de opinión y de expresión de la ONU, que dice que las empresas de medios sociales deben considerar las normas internacionales sobre la libertad de expresión estipuladas en los artículos 19 y 20 del Pacto Internacional de Derechos Civiles y Políticos (ICCPR) (consulta los párrafos 44 a 48 del informe de 2018, A/HRC/38/35, y el párrafo 41 del informe de 2019, A/74/486, del Relator Especial sobre la libertad de expresión de la ONU).
El artículo 20, párrafo 2, del ICCPR afirma que "toda apología del odio nacional, racial o religioso que constituya incitación a la discriminación, la hostilidad o la violencia estará prohibida por la ley". Esta prohibición es "plenamente compatible con el derecho a la libertad de expresión enunciado en el artículo 19 [ICCPR], cuyo ejercicio implica deberes y responsabilidades especiales" ( observación general n.º 11, (1983), párrafo 2). Respecto de la prohibición en referencia a la apología del odio nacional, racial o religioso que constituya incitación a la discriminación, la hostilidad o la violencia, el Plan de Acción de Rabat es una guía importante para interpretar el artículo 20, párrafo 2 ( A/HRC/22/17/Add.4, párrafo 29, 2013). Detalla seis factores relevantes para que los Estados determinen si se debe prohibir la expresión: "contexto de la afirmación; la condición del orador; intención de incitar al público en contra del grupo objetivo; contenido de la afirmación; el alcance del discurso y probabilidad de daños, incluida su inminencia". El Consejo se valió de estos factores para determinar la necesidad y proporcionalidad de las restricciones al discurso que impone Meta. En este caso, el Consejo considera los mismos factores al evaluar si Meta debe eliminar el contenido dadas sus responsabilidades con los derechos humanos.
El Consejo considera que la decisión original de Meta de conservar el contenido en la plataforma generó un riesgo de daño inminente para los hombres que aparecen en el video y, por lo tanto, debía eliminarse. En países como Nigeria, en los que las actitudes sociales y la criminalización de las relaciones entre personas del mismo sexo exacerban la violencia homofóbica, los miembros de la comunidad LGBTQIA+ que quedan expuestos online pueden sufrir violencia y discriminación en la vida real. La incapacidad de Meta de tomar medidas de forma oportuna respecto de este video y el hecho de que haya permitido que se comparta de manera tan extensa probablemente hayan contribuido a que se genere ese entorno hostil y esto haya puesto en riesgo a otras personas (consulta el comentario público de Human Rights Watch, PC-29659). El Consejo también señaló que la publicación acumuló una gran cantidad de visualizaciones (más de 3,6 millones), lo que aumentó las posibilidades de que se identificara a los hombres que aparecen en el video y de que la publicación instigara a los usuarios a dañar a miembros de la comunidad LGBTQIA+, más ampliamente. Asimismo, el Consejo hace hincapié en los comentarios sádicos que acompañan al video, que indican la intención del usuario de exponer y humillar a los hombres, y de incitar a otros a discriminarlos y dañarlos. La enorme cantidad de reacciones (aproximadamente 9.000), comentarios (alrededor de 8.000) y veces que se compartió (unas 5.000) indican que el usuario logró captar la atención del público, lo que aumentó mucho más las posibilidades de daños, tanto para los hombres que figuran en el video como para la comunidad LGBTQIA+ en Nigeria.
Las restricciones al discurso basadas en el artículo 20, párrafo 2, del ICCPR también deben pasar la prueba de tres partes que se detalla en el artículo 19 del ICCPR ( observación general n.º 34, párrafo 50). El análisis debajo demuestra que la eliminación de la publicación fue coherente con el artículo 19.
Libertad de expresión (artículo 19 del ICCPR)
El artículo 19 del ICCPR proporciona una amplia protección de la expresión, incluida la expresión política y el debate sobre derechos humanos, así como aquella que podría considerarse "profundamente ofensiva" (observación general n.º 34, párrafo 11 [2011]; consulta también el párrafo 17 del informe de 2019 del Relator Especial de la ONU sobre la libertad de expresión, A/74/486). Si un Estado impone restricciones sobre la libertad de expresión, estas deben cumplir los requisitos de legalidad, fin legítimo y necesidad y proporcionalidad (artículo 19, párrafo 3, del ICCPR). Se suele hacer referencia a estos requisitos como "prueba de tres partes". El Consejo utiliza este marco para interpretar las responsabilidades de Meta en materia de derechos humanos, en línea con los Principios Rectores sobre las Empresas y los Derechos Humanos de las Naciones Unidas. El Consejo lo hace tanto respecto de la decisión sobre el contenido en particular en revisión como de lo que esto pone de manifiesto acerca del enfoque más amplio de Meta en relación con la gestión del contenido. Como indicó la Relatora Especial de la ONU sobre libertad de expresión, "las empresas no tienen las obligaciones de los gobiernos, pero sus efectos son de un tipo que les obliga a evaluar el mismo tipo de cuestiones sobre la protección del derecho de sus usuarios a la libertad de expresión" (A/74/486, párrafo 41).
Si bien el Consejo advierte que se pueden aplicar varias políticas de contenido en este caso, su análisis de tres partes se centra en la norma comunitaria sobre organización de actos dañinos y promoción de la delincuencia, ya que es la política en virtud de la cual se eliminó el contenido en última instancia.
I. Legalidad (claridad y accesibilidad de las reglas)
El principio de legalidad exige que las reglas que limitan la expresión sean accesibles y claras, y estén formuladas con precisión suficiente para que una persona pueda regular su comportamiento de conformidad con ellas (observación general n.º 34, párrafo 25). Asimismo, estas reglas "no pueden conferir a los encargados de su aplicación una discrecionalidad sin trabas para restringir la libertad de expresión" y deben "proporcionar suficientes orientaciones a los encargados de su ejecución para que puedan distinguir cuáles expresiones pueden restringirse correctamente y cuáles no" (ibidem). El Relator Especial de la ONU sobre la libertad de expresión dijo que, cuando se aplican a la gobernanza del discurso online por parte de actores privados, las reglas deben ser claras y específicas (A/HRC/38/35, párrafo 46). Las personas que usan las plataformas de Meta deben ser capaces de acceder a las reglas y entenderlas, y los revisores de contenido deben tener pautas claras para su aplicación.
El Consejo considera poco clara e inaccesible para los usuarios la disposición de Meta que prohíbe "exponer" a personas que presuntamente son miembros de un grupo de riesgo de exposición dando a conocer su identidad o ubicación.
La norma comunitaria sobre organización de actos dañinos y promoción de la delincuencia no ofrece una explicación suficiente para que los usuarios entiendan y distingan dos reglas similares respecto de la "exposición". Al Consejo le preocupa particularmente que la norma comunitaria no explique con claridad que la regla a gran escala que prohíbe la "exposición" se aplica cuando se identifica a personas como miembros de la comunidad LGBTQIA+ en países donde el contexto local indica que hay mayores riesgos de daños en la vida real. En la actualidad, esta información solo está disponible en las pautas internas que reciben los revisores, por lo que resulta imposible para los usuarios saber que las personas que presuntamente son parte de grupos de riesgo de exposición incluyen a miembros de la comunidad LGBTQIA+ en determinados países.
Al Consejo le preocupa que la ambigüedad en torno a las políticas de Meta que rigen el contenido que expone a miembros de la comunidad LGBTQIA+ pueda ocasionar confusión entre los usuarios e impedir que estos cumplan con las reglas de la plataforma. Asimismo, crea obstáculos para las personas que son víctimas de contenido abusivo y solicitan que se eliminen estas publicaciones. Por lo tanto, Meta debe actualizar la disposición de la política de organización de actos dañinos y promoción de la delincuencia que prohíbe la "exposición", la cual la empresa aplica a gran escala, de modo que incluya ejemplos ilustrativos de grupos de riesgo de exposición, incluidos los miembros de la comunidad LGBTQIA+ en países específicos.
II. Fin legítimo
Cualquier restricción sobre la libertad de expresión debe procurar uno o más de los fines legítimos mencionados en el ICCPR, entre ellos, proteger los derechos de los demás (artículo 19, párrafo 3 del ICCPR).
La política de organización de actos dañinos y promoción de la delincuencia cumple el fin legítimo de "prevenir y evitar daños en la vida real", incluida la protección de los derechos de los miembros de la comunidad LGBTQIA+ y de aquellas personas que se perciban como tal en países del mundo en los que la "exposición" genera riesgos de seguridad. Entre esos derechos, está el derecho de no discriminación (artículos 2 y 26 del ICCPR), incluido el ejercicio de sus derechos a la libertad de expresión y reunión (artículos 19 y 21 del ICCPR), a la privacidad (artículo 17 del ICCPR) y a la vida (artículo 6 del ICCPR ) y la libertad y la seguridad de la persona (artículo 9 del ICCPR).
III. Necesidad y proporcionalidad
El principio de necesidad y proporcionalidad previsto en el artículo 19(3) del ICCPR exige que las restricciones que se apliquen a la expresión "deben ser adecuadas para desempeñar su función protectora; deben ser el instrumento menos perturbador de los que permitan conseguir el resultado deseado, y deben guardar proporción con el interés que debe protegerse" (observación general n.º 34, párrafo 34).
El Consejo determinó que la decisión eventual de Meta de eliminar el contenido de la plataforma fue una medida necesaria y proporcionada. La investigación que encomendó el Consejo indica que la comunidad LGBTQIA+ en Nigeria está constantemente expuesta a violencia, detenciones arbitrarias, acoso, extorsión y discriminación, y riesgos de sanciones legales. El contenido en sí muestra el momento posterior de lo que parece ser un castigo corporal por una presunta relación entre dos hombres. En estas circunstancias, el Consejo determinó que es fundamental que se apliquen con precisión las políticas cuyo objetivo es proteger a la comunidad LGBTQIA+, en especial en países que criminalizan las relaciones entre personas del mismo sexo. Debido a estos riesgos, el Consejo determinó que eliminar el contenido es la medida menos invasiva para brindar protección a las personas "expuestas" en este contexto. El daño de "exponer" a alguien es inmediato e imposible de revertir; dichas medidas solo pueden resultar efectivas si se implementan de manera oportuna.
Al Consejo le preocupa que Meta no pueda identificar con rapidez y eliminar contenido que es claramente dañino, que expone involuntariamente la identidad de personas presuntamente gais, lo que a su vez perpetúa una atmósfera de miedo para la comunidad LGBTQIA+ y fomenta un entorno en el que se aceptan y se naturalizan los ataques contra grupos marginados (consulta el comentario público de GLAAD, PC-29655). Aunque el contenido infringía cuatro normas comunitarias diferentes, se reportó 112 veces y tres moderadores distintos lo revisaron, Meta eliminó la publicación y se aseguró de quitar contenido similar que incluyera el video solo después de que el Consejo seleccionara el caso para someterlo a revisión. Al Consejo le inquieta particularmente la viralidad del video, que se reprodujo 3,6 millones de veces, recibió unas 9.000 reacciones y 8.000 comentarios, y se compartió alrededor de 5.000 veces en un período de cinco meses.
Aunque el Consejo entiende que está previsto que se cometan errores de aplicación de políticas durante la moderación de contenido a gran escala, las explicaciones de Meta en este caso ponen de manifiesto fallas sistemáticas. Si bien Meta tomó medidas adicionales para mejorar la precisión al aplicar la política de organización de actos dañinos y promoción de la delincuencia, e intentó evitar errores similares por medio de otras capacitaciones, no brindó detalles sobre las medidas implementadas para garantizar que los revisores evalúen el contenido teniendo en cuenta todas las políticas de Meta. Esto tiene particular importancia para este caso, en el que los tres moderadores que revisaron el contenido cometieron el mismo error, es decir, no lograron evaluar la publicación de conformidad con otras normas comunitarias relevantes, lo que indica que los sistemas de aplicación de políticas de Meta operaron de manera deficiente.
Para el Consejo, el error de aplicación de políticas de Meta es particularmente alarmante dado el contexto en Nigeria, país que criminaliza las relaciones entre personas del mismo sexo. Para mejorar la implementación de sus políticas, y además de las medidas que la empresa ya tomó, Meta debe someter a evaluación la precisión con la que aplica la norma sobre organización de actos dañinos y promoción de la delincuencia, que prohíbe el contenido que expone a las personas porque da a conocer su identidad o ubicación. En función de los resultados de esta evaluación, Meta debe mejorar la precisión de la aplicación de la política, incluido por medio de nuevas capacitaciones para los revisores de contenido, dado que debería haber tolerancia cero para este tipo de contenido.
Asimismo, el Consejo examinó las prácticas de aplicación de políticas de Meta en regiones multilingües. En sus intercambios con el Consejo, Meta inicialmente identificó de forma errónea el idioma del video como suajili, cuando en realidad era igbo. En respuesta a una pregunta del Consejo, Meta manifestó que la moderación de contenido a gran escala no admite igbo como un idioma en el mercado nigeriano, incluso aunque la empresa brinde apoyo para moderar contenido en igbo por medio de una revisión en varios idiomas. Según Meta, el idioma no se admite en este caso porque hay poca demanda de moderación de contenido en igbo. No obstante, Meta informó al Consejo que el contenido que está en un idioma que los revisores a gran escala de la empresa no admiten, como es el caso del igbo, se redirige a revisores que trabajan con varios idiomas (es decir, que revisan contenido en diversos idiomas) que lo evalúan en función de las traducciones que proporcionan los sistemas de traducción automática de Meta. Meta le informó al Consejo también que cuenta con personal que habla igbo, que aporta sus conocimientos lingüísticos y revisa contenido en igbo para la empresa, aunque no a gran a escala.
El Consejo reconoce que Meta cuenta con mecanismos que permiten la moderación en idiomas no admitidos, por ejemplo, mediante revisión en varios idiomas y unos cuantos especialistas que conocen el igbo. Sin embargo, al Consejo le preocupa que, ante la falta de revisores que hablen igbo que participen en la moderación de contenido a gran escala en este idioma, lengua que hablan miles de personas en Nigeria y en todo el mundo, se reduzca la capacidad de la empresa de moderar el contenido y mitigar posibles riesgos. Esto podría suponer un daño potencial para los derechos y la seguridad de los usuarios, como ocurre con los hombres que figuran en el video en este caso. En vista de los compromisos asumidos con los derechos humanos, Meta debe volver a evaluar los criterios con los que selecciona los idiomas que admiten los revisores a gran escala de la empresa, a fin de estar en una mejor posición para prevenir y mitigar daños asociados con el uso de sus plataformas.
Asimismo, Meta le informó al Consejo que sus sistemas automatizados detectaron el idioma como inglés antes de redirigir el contenido a revisión manual. Según Meta, esto ocurrió porque la descripción que el usuario incluyó en el video estaba en inglés. Si bien esto es así, en el video se habla exclusivamente en igbo. Meta reconoció haber identificado erróneamente el idioma del contenido. Al Consejo le preocupa que el contenido bilingüe se remita equivocadamente, lo que podría ocasionar una aplicación incorrecta de políticas.
Para aumentar la eficiencia y precisión de la revisión de contenido en idiomas no admitidos, Meta debe asegurarse de que sus sistemas de detección de idiomas identifiquen con exactitud el contenido en idiomas no admitidos y brinde traducciones precisas de este a revisores que trabajan con varios idiomas. Meta debe garantizar también que este tipo de contenido siempre se remita a revisores que trabajan con varios idiomas, incluso si incluye una combinación de idiomas admitidos y no admitidos. Asimismo, la empresa debe brindar a los revisores la opción de derivar el contenido en un idioma no admitido a una revisión en varios idiomas.
Al Consejo le preocupa mucho que, incluso después de que Meta eliminara el contenido en este caso, la investigación que encomendó revelara otras instancias del mismo video con fecha de diciembre de 2023, incluido en grupos de Facebook, que no se habían quitado. Esto indica que Meta debe tomarse mucho más en serio sus responsabilidades de debida diligencia para respetar los derechos humanos en virtud de los UNGP. El Consejo valora el hecho de que este video se haya agregado a un banco de MMS para evitar que se siga subiendo, luego de que el Consejo le haya marcado a Meta secuencias restantes del video en Facebook. El uso de las plataformas de Meta para distribuir videos de este tipo puede repercutir gravemente en los derechos humanos, por lo que Meta debe usar plenamente la aplicación automatizada de políticas para eliminar de manera proactiva contenido infractor similar, además de usar los bancos de MMS para evitar que se suba nuevamente.
6. La decisión del Consejo asesor de contenido
El Consejo asesor de contenido anuló la decisión original de Meta de conservar el contenido.
7. Recomendaciones
Política de contenido
1. Meta debe actualizar la disposición a gran escala de la política de organización de actos dañinos y promoción de la delincuencia que prohíbe la "exposición" para que incluya ejemplos ilustrativos de "grupos de riesgo de exposición", incluidas personas de la comunidad LGBTQIA+ en países donde están prohibidas las relaciones entre personas del mismo sexo o en los que exponer esta información crea riesgos importantes para la seguridad.
El Consejo considerará implementada esta recomendación cuando el texto público de la política de organización de actos dañinos y promoción de la delincuencia refleje el cambio propuesto.
Aplicación de políticas
2. Para mejorar la implementación de su política, Meta debe realizar una evaluación que mida la precisión de aplicación de la disposición a gran escala que prohíbe exponer la identidad o ubicación de alguien que presuntamente es miembro de un grupo de riesgo de exposición, en virtud de la norma comunitaria sobre organización de actos dañinos y promoción de la delincuencia.
El Consejo considerará implementada esta recomendación cuando Meta comparta públicamente los resultados de la evaluación y explique cómo tiene pensado mejorar la precisión de la aplicación de esta política.
3. Para aumentar la eficiencia y precisión de la revisión de contenido en idiomas no admitidos, Meta debe asegurarse de que sus sistemas de detección de idiomas identifiquen con exactitud el contenido en idiomas no admitidos y brinde traducciones precisas a revisores que trabajan con varios idiomas.
El Consejo considerará implementada esta recomendación cuando Meta comparta datos que indiquen una mayor precisión en el proceso de remisión y revisión de contenido en idiomas no admitidos.
4. Meta debe garantizar que el contenido en un idioma no admitido, incluso aunque se combine con idiomas admitidos, se derive a una revisión en varios idiomas. Esto incluye ofrecer a los revisores la opción de redirigir el contenido en un idioma no admitido a una revisión en varios idiomas.
El Consejo considerará implementada esta recomendación cuando Meta le brinde datos que confirmen que se implementó con éxito esta opción para los revisores.
* Nota de procedimiento:
- La preparación de las decisiones del Consejo asesor de contenido está a cargo de paneles conformados por cinco miembros, quienes deben aprobarlas por mayoría. Las decisiones del Consejo no necesariamente representan las opiniones de todos los miembros.
- En virtud de su acta constitutiva, el Consejo asesor de contenido tiene la facultad de revisar apelaciones de usuarios cuyo contenido fue eliminado por Meta, apelaciones de usuarios que reportaron contenido que Meta mantuvo publicado y decisiones que Meta le presente (artículo 2, sección 1, del acta constitutiva). El Consejo tiene autoridad vinculante para ratificar o anular las decisiones sobre contenido de Meta (artículo 3, sección 5 y artículo 4 del acta constitutiva). El Consejo podrá emitir recomendaciones no vinculantes a las que Meta deberá responder (artículo 3, sección 4 y artículo 4 del acta constitutiva). Cuando Meta se compromete a tomar medidas respecto de las recomendaciones, el Consejo supervisa su implementación.
- En cuanto a la decisión del caso, se encargó una investigación independiente en nombre del Consejo. El Consejo recibió asistencia de Duco Advisors, una empresa asesora dedicada a la intersección de geopolítica, confianza, seguridad y tecnología. Memetica, un grupo de investigaciones digitales que brinda asesoría en materia de riesgos y servicios de inteligencia sobre amenazas para mitigar los riesgos online, también colaboró en la investigación. Lionbridge Technologies, LLC, con especialistas en más de 350 idiomas que trabajan en 5.000 ciudades diferentes, se encargó de las competencias en materia lingüística.
Volver a Decisiones de casos y opiniones consultivas sobre políticas