Anulado

Comentario sobre políticos kenianos que incluye un insulto designado

El Consejo asesor de contenido anuló la decisión original de Meta de eliminar un comentario sobre políticos de Kenia que incluía el término "tugeges".

Tipo de decisión

Estándar:

Políticas y temas

Tema
Elecciones, Libertad de expresión, Política
Estándar comunitario
Lenguaje que incita al odio

Regiones/Países

Ubicación
Kenia

Plataforma

Plataforma
Facebook

Resumen

El Consejo asesor de contenido anuló la decisión original de Meta de eliminar un comentario sobre políticos de Kenia que incluía el término "tugeges". Si bien el comentario describe de manera peyorativa a un grupo de votantes kenianos, no genera inherentemente una atmósfera de exclusión e intimidación discriminatorias. Cuando se publicó el contenido, el término no debería haberse calificado como insulto. Este caso demuestra cómo la respuesta desmesurada de Meta condujo a una represión del discurso político y el debate público.

Información sobre el caso

El ex primer ministro de Kenia Raila Odinga se presentó como candidato a la presidencia de la Unión Africana en febrero de 2025. De cara a esas elecciones, un usuario de Facebook publicó una imagen del expresidente adjunto de ese país Rigathi Gachagua. El texto que acompaña a la imagen describe el apoyo de Gachagua a la candidatura de Odinga. En la descripción, el usuario afirma que Gachagua, que pertenece al grupo étnico kikuyu, respalda a Odinga, del grupo étnico luo, únicamente para aumentar su popularidad entre los luo.

Un segundo usuario respondió en un comentario burlándose del contenido que publicó originalmente el usuario y desestimándolo como dirigido a "tugeges" ("kikuyus retrasados"), una referencia directa a los defensores de Gachagua.

En ese momento, Meta designó el término "tugeges" como insulto en virtud de la norma comunitaria sobre conducta que incita al odio. El comentario del segundo usuario se eliminó mediante automatización y se aplicó una falta a su cuenta. No obstante, Meta eliminó el término de su lista de insultos en julio de 2025 cuando el Consejo planteó preguntas sobre su designación. La empresa también restauró el comentario y revocó la falta impuesta contra el usuario el mes siguiente.

Conclusiones principales

El Consejo insta a Meta a actuar con criterio en el proceso de designación antes de prohibir palabras. El término "tugeges" no reúne los requisitos para que Meta lo designe como insulto. En el momento de las elecciones de 2022 en Kenia, la manera en que se empleaba el término implicaba que podría calificar para tal fin. Sin embargo, su uso evolucionó con rapidez, lo que planteó inquietudes inmediatas sobre la designación de enero de 2024. Cuando se publicó el contenido, el término "tugeges" no debería haber calificado como insulto.

Si bien puede ser peyorativo en cuanto al origen étnico, muchos lo usan para criticar la lealtad política ciega. Otros dialectos kenianos tienen equivalentes, habitualmente para expresar críticas políticas. La Coalición nacional de Kenia sobre libertad de expresión y moderación de contenido no consideró el término como lenguaje que incita al odio. Los comentarios de expertos y del público señalan que los tintes étnicos discriminatorios del término no son estáticos y la palabra tiene diversos significados coloquiales. Meta debería haber tenido esto en cuenta. Asimismo, pone de manifiesto la importancia de que la empresa colabore con partes nacionales tanto en la designación como en las auditorías de las listas de insultos.

Los deliberaciones respecto de este caso también incluyeron debates sobre cómo Meta puede seguir ofreciendo a los usuarios una oportunidad de actuar cuando su contenido puede infringir la política de conducta que incita al odio. La recomendación del Consejo sugiere implementar una función en el producto para posibles infracciones de la política de conducta que incita al odio.

Decisión del Consejo asesor de contenido

El Consejo anuló la decisión original de Meta de eliminar el contenido.

El Consejo recomendó a Meta lo siguiente:

  • Brindar a los usuarios la oportunidad de revertir el error por sus propios medios, comparable a la intervención de fricción en el momento de la publicación que se creó como resultado de la recomendación n.º 6 del caso "Manifestaciones en Rusia a favor de Navalny". Si esta intervención ya no está en vigor, Meta debe proporcionar una intervención en el producto similar.
  • El Consejo también reiteró una recomendación proporcionada en una decisión anterior, con la que Meta se comprometió por completo y que está implementando:
  • Cuando audite sus listas de insultos, Meta debe asegurarse de tener una amplia colaboración externa con las partes pertinentes.

* Los resúmenes de casos ofrecen información general sobre los casos y no sientan precedentes.

Decisión del caso completa

1. Descripción y contexto de los casos

De cara a las elecciones presidenciales de la Unión Africana en febrero de 2025, un usuario de Facebook publicó una imagen con una superposición de texto del expresidente adjunto de Kenia, Rigathi Gachagua en la que este apoyaba la designación de Raila Odinga como presidente de la Unión Africana. En una descripción, el usuario afirma que Gachagua, que pertenece al grupo étnico kikuyu, respalda a Odinga, del grupo étnico luo, únicamente para aumentar su popularidad entre los luo. Un segundo usuario, etiquetado en la publicación, respondió en un comentario burlándose de la reacción que el usuario original que publicó el contenido tuvo respecto de la declaración de Gachagua y desestimándola como dirigida a "tugeges", en referencia a los seguidores de este. El usuario que hizo el comentario aclaró que el respaldo de Gachagua es para un público externo, no para los kenianos.

La herramienta de detección proactiva de Meta identificó y eliminó el comentario del usuario por incluir el término "tugeges" e infringir la norma comunitaria sobre conducta que incita al odio. Meta designó la palabra como un insulto en enero de 2024. En ese momento, Meta definió el término con el significado de "kikuyu retrasado". Meta eliminó el comentario y aplicó una falta estándar contra el usuario. El usuario apeló la decisión de Meta de eliminar el comentario, pero un moderador que revisó la apelación la ratificó. El usuario entonces presentó una apelación ante el Consejo asesor de contenido. En julio de 2025, tras las preguntas planteadas por el Consejo respecto de la designación del término, Meta lo eliminó de la lista de insultos. Como consecuencia, se restauró el contenido y se revocó la falta contra el usuario. Se le notificó al usuario que se restauró el contenido como resultado de la revisión del caso por parte del Consejo.

El Consejo destacó el siguiente contexto en cuanto a la decisión que tomó.

En la democracia multipartidista de Kenia, los políticos y partidos políticos suelen aprovechar las alianzas étnicas e intergrupales para conseguir votos durante las elecciones. De las personas mencionadas en la publicación, Odinga cuenta con un importante apoyo por parte de la comunidad luo. El presidente actual, William Ruto, procede de la comunidad kalenjin, el tercer grupo étnico más grande de Kenia, mientras que el Sr. Gachagua procede de la comunidad kikuyu, el grupo étnico más grande. El presidente Ruto y Gachagua se unieron y ganaron las elecciones generales de 2022. Gachagua se desempeñó como presidente adjunto desde 2022 hasta su destitución en 2024.

La manera en que convergen política y etnia suele ser objeto de debate público en Kenia y puede generar polémica. Preocupa el respaldo del discurso de odio étnico que incita a la violencia entre comunidades, en particular durante épocas electorales. La violencia que se vivió luego de las elecciones de 2008, que culminó con 1.200 muertos y el desplazamiento de cientos de miles de personas, surgió como consecuencia de diversos factores complejos, pero en parte fue impulsada por el discurso y la incitación al odio sobre la base del origen étnico. Ocurrieron incidentes similares luego de las elecciones generales de 2017. La Comisión Nacional de Cohesión e Integración (NCIC), el organismo de cohesión social de Kenia, advirtió acerca del uso de lenguaje que incita al odio en plataformas de medios sociales, incluso por parte de políticos como Gachagua que insinúan posible violencia en las elecciones generales de 2027. En septiembre de 2023, en respuesta a las especulaciones, la NCIC afirmó que no tenía previsto prohibir la palabra "tugeges" como lenguaje que incita al odio, pero, en junio de 2024, advirtió sobre el uso del término en referencia a personas que apoyan una ideología política diferente, ya que es una palabra "hiriente que degrada y deshumaniza a las personas". Sin embargo, no se incluye en el léxico de lenguaje que incita al odio de la NCIC.

En junio de 2024, se desataron manifestaciones dirigidas por jóvenes en Kenia luego de que el Gobierno propusiera una suba de los impuestos. Las manifestaciones eventualmente se transformaron en llamamientos generales a un Gobierno más responsable, lo que trascendió las lealtades étnicas. En junio de 2025, volvieron a estallar las mismas manifestaciones en las que se pedía la renuncia del presidente Ruto y quedaba retratada la continua insatisfacción con su Gobierno. En respuesta, las autoridades policiales reprimieron a los manifestantes, incluso abrieron fuego contra ellos, lo que dejó un saldo de muertos, heridos y personas arrestadas. En julio de 2025, el presidente Ruto acusó a la oposición, de la que ahora Gachagua forma parte, de planificar su destitución, denuncia que Gachagua niega.

2. Respuestas de los usuarios

En su declaración ante el Consejo, el usuario que publicó el comentario indicó que no insultó, amenazó ni usó lenguaje ofensivo. Este señaló que hizo un simple comentario político "de un modo civilizado" y que era injusto que Meta hubiera eliminado la publicación.

3. Respuestas y políticas de contenido de Meta

I. Políticas de contenido de Meta

Norma comunitaria sobre conducta que incita al odio

En virtud de la política de conducta que incita al odio, Meta elimina el contenido que "describe o ataca negativamente a las personas con insultos". Meta define la conducta que incita al odio como "ataques directos contra las personas, no contra conceptos o instituciones", en función de características protegidas, como raza, etnia o discapacidad, entre otras. Los insultos son "palabras que generan inherentemente un clima de exclusión e intimidación en contra de las personas sobre la base de una característica protegida, a menudo porque estas palabras están vinculadas a discriminación, opresión y violencia históricas".

Como se menciona en las bases de la política de conducta que incita al odio, Meta cree que "las personas se expresan y se conectan entre sí con mayor libertad cuando no se sienten atacadas por quiénes son". Las bases de la política también especifican instancias en las que se permite el uso de insultos para repudiarlos, reportarlos, usarlos de manera autorreferencial o emplearlos de un modo empoderador. Meta expresó que admite dichos usos siempre que quede clara la intención del usuario.

II. Respuestas de Meta

Meta eliminó inicialmente el contenido por infringir la regla contra los insultos incluida en la norma comunitaria sobre conducta que incita al odio. El término "tugege" se designó como insulto en el momento en que se publicó el contenido, y Meta determinó que no se permitía su uso en virtud de ninguna de las excepciones.

Meta agregó este término a su lista de insultos de los mercados en idioma suajili en enero de 2024 luego de que la palabra cobrara fuerza durante las elecciones generales realizadas en Kenia en 2022. La designación del término se hizo conforme al proceso de designación de Meta. Según análisis cualitativos y cuantitativos que realizó la empresa en su momento, el término se interpretaba como "kikuyu retrasado" y es el plural de "kagege", una palabra kikuyu que describe a "una persona que está extremadamente confundida hasta el punto tal de quedarse boquiabierta sin expresión alguna". El término deriva de la palabra "gega", que significa "mirar con perplejidad". Los equipos regionales y de políticas de Meta determinaron que la palabra se usaba para atacar a los kikuyu en función de su origen étnico.

Al anunciar los cambios normativos del 7 de enero de 2025, Meta señaló que las infracciones de la política de conducta que incita al odio se tratarían como "infracciones menos graves" y que la empresa dejaría de recurrir tanto a la automatización para aplicar políticas en cuanto a estas infracciones. En su lugar, se basará en los "reportes de usuarios y otras señales externas" para complementar los clasificadores en la detección de posibles infracciones. Es posible que siga usando clasificadores para eliminar contenido infractor de manera proactiva una vez detectado sin revisión manual. En países que experimentan crisis (se hayan o no designado en virtud del protocolo de la política de crisis de la empresa), Meta seguirá detectando y eliminando de manera proactiva las infracciones de la política de conducta que incita al odio sin basarse en reportes de usuarios u otras señales externas.

En el momento en que se publicó el contenido, Meta había desplegado la detección y eliminación proactivas de posibles infracciones de la política de conducta que incita al odio en Kenia como parte de las medidas de integridad más amplias de la empresa en anticipación a las elecciones nacionales de 2027, ya que se había dado inicio a las campañas políticas. Meta señaló el largo historial de tensión étnica en torno a las elecciones en Kenia, así como la intensa influencia de las afiliaciones tribales en el ámbito político, como motivos para tomar estas medidas, aunque la empresa no había designado al país como en crisis en virtud del proceso de presentación de candidatos para las elecciones presidenciales de la Unión Africana. En la decisión del caso Procedimientos de votación de la Comisión Electoral de Australia, Meta informó al Consejo que su sistema automatizado se puede configurar para detectar contenido de manera proactiva y ponerlo en cola para revisión manual o eliminarlo automáticamente.

En el presente caso, Meta usó su sistema automatizado para identificar y eliminar el contenido en cuestión por infringir la política de conducta que incita al odio. Dicho sistema detecta el uso de insultos designados por Meta en mercados de idioma suajili como parte de una iniciativa de búsqueda focalizada en respuesta a la intensificada tensión política y en función de una evaluación interna de riesgos en el mundo real que realiza Meta. Este sistema automatizado para detectar y eliminar contenido infractor seguirá en vigor hasta las elecciones generales de 2027, tras las cuales Meta evaluará si conservarlo o dejarlo de usar.

En junio de 2025, mientras deliberaba sobre este caso, el Consejo cuestionó a Meta respecto de su designación del término "tugeges" como insulto, dados los aportes que expertos y otras partes realizaron al Consejo en los que se destacaban diversos significados coloquiales del término en el discurso político de Kenia, lo que indicaba que no siempre se consideraba un ataque sobre la base del origen étnico. Esto condujo a Meta a realizar otras investigaciones que llevaron a la empresa a reevaluar la designación en consulta con sus equipos de políticas públicas internas y eliminar el término de la lista de insultos en julio de 2025. Meta descubrió que el término ahora se usa también "para atacar a los políticos en función de su rol como figuras políticas", no sobre la base de sus características protegidas. Meta confirmó que se restauró el contenido del caso y se eliminó la falta impuesta contra el usuario el 23 de julio de 2025, cinco meses después de su publicación.

Meta somete su lista de insultos a auditorías internacionales como parte de su práctica estándar para garantizar que siga vigente el significado de los términos designados. La frecuencia de dichas auditorías depende de cómo asigne Meta sus recursos, incluida la pericia regional. Fuera de la auditoría, los equipos de políticas de contenido y regionales de Meta también revisan ad hoc las solicitudes para agregar o eliminar términos según sea necesario. La auditoría de este año, que incluye los mercados de idioma suajili, comenzó en julio, luego de que el término "tugeges" se había eliminado de la lista de insultos como consecuencia de este caso, y se espera que se complete antes de septiembre.

El Consejo planteó preguntas sobre la designación y la posterior eliminación del término "tugeges" de la lista de insultos, las medidas implementadas para abordar contenido posiblemente infractor, cómo la empresa somete a auditoría su lista de insultos y la detección proactiva de posible lenguaje que incita al odio como parte de las iniciativas de integridad electoral de Meta tras los cambios en la aplicación de políticas que se anunciaron en enero. Meta respondió todas las preguntas.

4. Comentarios del público

El Consejo asesor de contenido recibió cuatro comentarios del público que cumplieron las condiciones de presentación. Dos de los comentarios se enviaron desde África subsahariana y dos desde Asia central y meridional. Para leer los comentarios del público enviados con consentimiento de publicación, haz clic aquí.

Los comentarios abarcaban los siguientes temas: los usos coloquiales del término "tugeges"; cómo la aplicación de políticas automatizada no tiene en cuenta los matices en el lenguaje o el contexto; y cómo la moderación automatizada del contenido de Meta para comprobar si incluye lenguaje que incita al odio puede conducir a una aplicación de políticas tanto excesiva como deficiente.

5. Análisis del Consejo asesor de contenido

El Consejo seleccionó este caso para contribuir con Meta de modo que pueda conciliar su compromiso con la expresión con la aplicación de la política de conducta que incita al odio en relación con insultos en países que históricamente atraviesan tensiones étnicas. El Consejo analizó la decisión de Meta en este caso respecto de sus políticas de contenido, valores y responsabilidades en materia de derechos humanos. Asimismo, el Consejo evaluó las implicaciones de este caso para el enfoque más general de Meta en cuanto a la gobernanza de contenido.

5.1 Cumplimiento de las políticas de contenido de Meta

El Consejo determinó que el contenido en este caso no infringe la política de conducta que incita al odio, ya que el uso del término "tugeges" no concuerda con la definición de "insulto" de Meta.

El Consejo reconoció que, cuando Meta eliminó el contenido, el término se había designado como insulto, y los sistemas automatizados y los revisores de la empresa lo eliminaron de conformidad con pautas internas. Dado el historial de tensión étnica en Kenia, y el potencial de que se intensifique la violencia en torno a las elecciones, la atención de la empresa para eliminar el lenguaje que incita al odio estaba alineada con sus procedimientos y designaciones de insultos en ese momento. No obstante, el uso del término designado en cuestión evolucionó con prisa, lo que puso en duda la rapidez de la designación de Meta en enero de 2024. En el momento en que se publicó el contenido, y probablemente a principios de 2024 cuando se designó por primera vez, no debería haberse considerado insulto.

En este caso, el término "tugeges" se usó para debatir asuntos políticos relacionados con la nominación del presidente de la Unión Africana y expresar una crítica política sobre este asunto. Si bien el comentario describe de manera peyorativa a los seguidores de Gachagua, el término no genera de forma inherente una atmósfera de exclusión e intimidación discriminatorias y, por ende, no constituye un insulto. Los comentarios públicos presentados señalan la importancia de que la moderación de contenido tenga en cuenta el contexto y los matices del discurso político en Kenia a fin de evitar una aplicación de políticas excesiva (consulta PC-31266, PC-31269, PC-31270, PC-31272).

Los expertos a los que consultó el Consejo confirmaron que, durante las elecciones generales de 2022, el término "tugeges" se usaba ampliamente para describir a los votantes kikuyu que algunos percibían como inconscientes de las consecuencias de su voto. Si bien el término puede ser despectivo en relación con el origen étnico en ciertas circunstancias, en años recientes desarrolló una connotación más amplia para hacer referencia a personas, independientemente de su origen étnico, que votan sin cuestionar en profundidad a los políticos ni las lealtades políticas. Muchos usan el término para criticar la lealtad política ciega o la falta de discernimiento sin que lo consideren lenguaje que incita al odio, incluso en situaciones en las que hay un vínculo entre lealtad política y origen étnico. Los expertos manifestaron que otros dialectos kenianos tienen equivalentes del término, lo que demuestra que dichas palabras se suelen usar para debatir asuntos políticos o expresar una crítica política en Kenia. El Consejo señaló que, en junio de 2024, la NCIC advirtió que no se debe usar el término en el discurso político porque es "una palabra hiriente que degrada y deshumaniza a las personas", pero no lo trató como lenguaje que incita al odio ni sugirió que se prohíba. Según la Coalición nacional de Kenia sobre libertad de expresión y moderación de contenido, el uso de palabras kikuyu es habitual en el discurso político, y el hecho de que Meta no pueda distinguir el lenguaje que incita al odio de los comentarios políticos protegidos puede poner en peligro la libertad de expresión (PC-31272). La organización sin fines de lucro con sede en Kenia, Global Initiative on Tech and Human Rights, indicó que el uso de la palabra en el contenido del caso es satírico "con el fin de criticar la postura política y la credulidad percibida entre los seguidores de un partido político concreto", pero no denigra a otras personas en función de su origen étnico (PC-31266).

El Consejo señaló que Meta ahora tiene un enfoque diferente respecto de la eliminación automatizada (lo que Meta denomina "proactiva") de contenido que infringe la política de conducta que incita al odio tras el comunicado que Meta hizo en enero de 2025, excepto en países que experimentan una crisis donde se sigue usando este método. En decisiones anteriores, el Consejo recomendó que Meta desarrolle un protocolo para que la empresa pueda abordar los daños específicos de una crisis o un conflicto (consulta, por ejemplo, los casos Consejo de comunicaciones de Tigray, Video gráfico de Sudán, Suspensión de la cuenta del expresidente de los EE. UU. Donald Trump), así como mejorar las medidas de integridad incluso en períodos no electorales ( Discurso del general brasileño). El Consejo también recomendó en la decisión del caso Manifestaciones en Rusia a favor de Navalny que Meta explore medidas para notificar a los usuarios de forma oportuna que una palabra o frase en su publicación puede infringir la política de Meta respecto de las declaraciones negativas sobre el carácter.

Dado el contexto en Kenia, el Consejo entiende por qué Meta decidió implementar la detección y eliminación automatizadas del lenguaje que incita al odio mucho tiempo antes de las elecciones nacionales de 2027. Es importante que Meta no espere a que estalle una crisis (por ejemplo, que devenga en violencia) para tomar medidas de precaución a fin de garantizar que se aplique adecuadamente la política de conducta que incita al odio sobre contenido que la infrinja. El Consejo reconoce también las bases de Meta para aplicar de forma predeterminada y proactiva la política de conducta que incita al odio en países con una crisis en curso. Situaciones de conflicto armado prolongado pueden ameritar una designación de crisis a largo plazo para eliminar de forma proactiva contenido infractor, además de una detección proactiva. No obstante, el Consejo insta a Meta a ejercer precaución respecto de dichos enfoques, ya que pueden suponer mayores posibilidades de una eliminación general excesiva de contenido. Se debe tener cuidado también con la aplicación automatizada de políticas de manera más general, ya que puede resultar excesiva y conducir a la eliminación errónea de expresión, en particular en relación con las elecciones, como lo que ocurrió en este caso.

5.2 Cumplimiento de las responsabilidades de Meta en materia de derechos humanos

El Consejo determinó que la eliminación del contenido de la plataforma no fue coherente con las responsabilidades de Meta en materia de derechos humanos.

Libertad de expresión (artículo 19 del ICCPR)

El artículo 19 del Pacto Internacional de Derechos Civiles y Políticos (ICCPR) establece una amplia protección de la libertad de expresión, incluidas opiniones sobre política, asuntos públicos y derechos humanos (observación general n.° 34, párrafos 11 y 12). En dicho artículo, se concede una "protección de muy alto valor" al "debate público que involucra figuras públicas en el ámbito político e instituciones públicas" como un componente esencial para la gestión de asuntos públicos (observación general n.º 34, párrafos 38 y 20; consulta también la observación general n.º 25, párrafos 12 y 25) y protege las expresiones que puedan considerarse "muy ofensivas" (observación general n.º 34 [2011], párrafo 11).

Si un Estado impone restricciones sobre la libertad de expresión, estas deben cumplir los requisitos de legalidad, fin legítimo y necesidad y proporcionalidad (artículo 19, párrafo 3, ICCPR). Se suele hacer referencia a estos requisitos como "prueba de tres partes". El Consejo utiliza este marco para interpretar las responsabilidades de Meta en materia de derechos humanos en línea con los Principios Rectores sobre las Empresas y los Derechos Humanos de las Naciones Unidas (ONU), que Meta se comprometió a cumplir en su Política corporativa de derechos humanos. El Consejo lo hace tanto respecto de la decisión sobre el contenido en particular en revisión como de lo que esto pone de manifiesto acerca del enfoque más amplio de Meta en relación con la gestión del contenido. Como indicó el Relator Especial de la ONU sobre libertad de expresión, "las empresas no tienen las obligaciones de los Gobiernos, pero sus efectos son de un tipo que les obliga a evaluar el mismo tipo de cuestiones sobre la protección del derecho de sus usuarios a la libertad de expresión" (A/74/486, párrafo 41).

I. Legalidad (claridad y accesibilidad de las reglas)

El principio de legalidad exige que las reglas que limitan la expresión sean accesibles y claras, y estén formuladas con precisión suficiente para que una persona pueda regular su comportamiento de conformidad con ellas (observación general n.º 34, párrafo 25). Asimismo, estas reglas "no pueden conferir a los encargados de su aplicación una discrecionalidad sin trabas para restringir la libertad de expresión" y deben "proporcionar suficientes orientaciones a los encargados de su ejecución para que puedan distinguir cuáles expresiones pueden restringirse correctamente y cuáles no" (ibidem). El Relator Especial sobre la libertad de expresión de la ONU dijo que, cuando se aplican a la gobernanza del discurso online por parte de actores privados, las reglas deben ser claras y específicas (A/HRC/38/35, párrafo 46). Las personas que usan las plataformas de Meta deben ser capaces de acceder a las reglas y entenderlas, y los revisores de contenido deben tener pautas claras para su aplicación.

Conforme se aplica al contenido en este caso, la regla que rige el uso de insultos de la norma comunitaria sobre conducta que incita al odio es lo suficientemente clara. El Consejo señala el aumento en la transparencia de Meta respecto de su proceso de designación de insultos como resultado directo de que la empresa haya implementado las recomendaciones del Consejo (consulta, por ejemplo, Reapropiación de términos árabes, Disputa política previa a las elecciones en Turquía, Crítica de las políticas migratorias de la UE y los inmigrantes).

II. Fin legítimo

Cualquier restricción sobre la libertad de expresión debe procurar uno o más de los fines legítimos mencionados en el ICCPR, entre ellos, proteger los derechos de los demás (artículo 19, párrafo 3, ICCPR). El Consejo previamente reconoció que la norma comunitaria sobre conducta que incita al odio persigue el fin legítimo de proteger los derechos de los demás ( Publicaciones que muestran la bandera de la época del apartheid en Sudáfrica; artículo 2, párrafo 1, del ICCPR; artículos 2 y 5 de la Convención Internacional sobre la Eliminación de todas las Formas de Discriminación Racial).

III. Necesidad y proporcionalidad

El principio de necesidad y proporcionalidad previsto en el artículo 19(3) del ICCPR exige que las restricciones que se apliquen a la expresión "deben ser adecuadas para desempeñar su función protectora, deben ser el instrumento menos perturbador de los que permitan conseguir el resultado deseado y deben guardar proporción con el interés que debe protegerse" (observación general n.º 34, párrafo 34). Como parte de sus responsabilidades en materia de derechos humanos, las empresas de medios sociales deben considerar diversas respuestas posibles ante un contenido problemático más allá de la eliminación para garantizar que las restricciones se delimiten estrictamente (A/74/486, párrafo 51; consulta Afirmación sobre la existencia de una cura para el COVID-19).

Para el Consejo, la eliminación del comentario de Facebook no era una medida necesaria, ya que el término no ataca a nadie sobre la base del origen étnico, sino que encaja de lleno en un debate político. La eliminación de la publicación no contribuyó al objetivo de proteger el derecho de otras personas, más bien condujo a una restricción innecesaria del discurso político (consulta Disputa política previa a las elecciones en Turquía). Varias partes observaron cómo el origen étnico, en el pasado, fue un instrumento de los políticos para fomentar división y obtener beneficios políticos (consulta PC-31272 de la Coalición nacional de Kenia sobre libertad de expresión y moderación de contenido), lo que en ocasiones condujo a violencia electoral. Si bien Meta tiene razón en prestar atención a estos posibles daños, el uso general del término y su utilización en este caso no tenían como fin intimidar, excluir o, de otro modo, incitar a la violencia o la discriminación.

Aunque el uso de términos como "tugeges" puede generar inquietudes si se emplean como un ataque sobre la base del origen étnico, en especial si los usa un político influyente, no se puede afirmar que todos esos usos que se le atribuyen ocasionan daños para justificar su inclusión en una lista de palabras prohibidas. Este caso demuestra que la prohibición del término por parte de Meta fue excesiva y, en consecuencia, se restringió el discurso político y el debate público. Meta debe conducirse con criterio en su proceso de designación antes de agregar términos a lo que, en esencia, es una lista de palabras prohibidas. La NCIC no consideró que la palabra constituyera lenguaje que incita al odio, aunque advirtió al público en cuanto a sus usos problemáticos. Las investigaciones de expertos y los comentarios del público confirmaron que los matices étnicos discriminatorios del término son menos estáticos y están sujetos a que se refuten. Meta debería haber tenido esto en cuenta al llevar a cabo sus análisis cualitativos y cuantitativos antes de designar el término en enero de 2024. Esto recalca la importancia de que Meta involucre a las partes interesadas a nivel nacional en la decisión de qué términos son adecuados para designar como insultos y prestar atención, ya que los términos que antes se pensaba que coincidían con su definición pueden cambiar de significado en períodos relativamente cortos de tiempo.

De conformidad con la recomendación del Consejo en la decisión del caso Manifestaciones en Rusia a favor de Navalny, Meta debe desarrollar intervenciones de productos menos intrusivas que la eliminación de contenido a fin de abordar el daño que supone el lenguaje que incita al odio y el contenido discriminatorio. No obstante, cuando el Consejo se lo consultó, Meta proporcionó información aún incierta sobre la eficiencia de dichas intervenciones. El Consejo insta a Meta a seguir explorando con cuidado dichas medidas y garantizar que estas sean efectivas y no generen efectos adversos para los derechos humanos.

6. Decisión del Consejo asesor de contenido

El Consejo anuló la decisión original de Meta de eliminar el contenido.

7. Recomendaciones

Aplicación de políticas

Para garantizar que las intervenciones de productos actuales de Meta ayuden a los usuarios a evitar infringir la política de conducta que incita al odio, Meta debe brindarles la oportunidad de revertir el error por sus propios medios, comparable a la intervención de fricción en el momento de la publicación que se creó como resultado de la recomendación n.º 6 del caso "Manifestaciones en Rusia a favor de Navalny". Si esta intervención ya no está en vigor, Meta debe proporcionar una intervención en el producto similar.

El Consejo considerará implementada esta recomendación cuando Meta brinde datos sobre la aplicación de políticas que demuestren la eficacia de estas intervenciones de productos.

Asimismo, el Consejo reitera la siguiente recomendación n.º 3 de la decisión del caso Crítica de las políticas migratorias de la UE y los inmigrantes, con la que Meta se comprometió plenamente y cuya implementación está en proceso:

Cuando Meta audite sus listas de insultos, debe asegurarse de tener una amplia colaboración externa con las partes interesadas que sean pertinentes. Lo anterior debe incluir la consulta con los grupos afectados y la sociedad civil. El Consejo considerará implementada esta recomendación cuando Meta modifique su explicación de cómo audita y actualiza las listas de insultos específicos de cada mercado en el Centro de transparencia.

* Nota de procedimiento:

  • La preparación de las decisiones del Consejo asesor de contenido está a cargo de paneles conformados por cinco miembros, quienes deben aprobarlas por mayoría. Las decisiones del Consejo no necesariamente representan las opiniones de todos los miembros.
  • En virtud de su acta constitutiva, el Consejo asesor de contenido tiene la facultad de revisar apelaciones de usuarios cuyo contenido fue eliminado por Meta, apelaciones de usuarios que reportaron contenido que Meta mantuvo publicado y decisiones que Meta le presente (artículo 2, sección 1, del acta constitutiva). El Consejo tiene autoridad vinculante para ratificar o anular las decisiones sobre contenido de Meta (artículo 3, sección 5 y artículo 4 del acta constitutiva). El Consejo podrá emitir recomendaciones no vinculantes a las que Meta deberá responder (artículo 3, sección 4, y artículo 4). Cuando Meta se compromete a tomar medidas respecto de las recomendaciones, el Consejo supervisa su implementación.
  • En cuanto a la decisión del caso, se encargó una investigación independiente en nombre del Consejo. El Consejo recibió asistencia de Duco Advisors, una empresa asesora dedicada a la intersección de geopolítica, confianza, seguridad y tecnología. Lionbridge Technologies, LLC, con especialistas en más de 350 idiomas que trabajan en 5.000 ciudades diferentes, se encargó de las competencias en materia lingüística.

Volver a Decisiones de casos y opiniones consultivas sobre políticas