Deportación digital del yo

China, Xinjiang y la abolición algorítmica de la persona

Por Oscar Méndez Oceguera

Imagen ilustrativa: Amnistía Internacional

I. Xinjiang: cuando el mapa se convierte en experimento

Xinjiang ya no es sólo un lugar en el mapa, ni siquiera únicamente el escenario de una política dura de seguridad. Es, cada vez con más claridad, el laboratorio de una nueva forma de poder. Allí se ha ensayado algo más profundo que una “campaña de reeducación”: la posibilidad de rediseñar la vida humana a través de datos, de tratar a toda una población como materia prima para una ingeniería social total.

Los informes se han ido acumulando con una precisión que ya no admite la coartada del desconocimiento. El Alto Comisionado de Naciones Unidas para los Derechos Humanos, en su evaluación de agosto de 2022, concluyó que en Xinjiang se han cometido “graves violaciones de derechos humanos” que “podrían constituir crímenes de lesa humanidad”.  Amnistía Internacional, en su informe de 2021 “Like we were enemies in a war”, habló abiertamente de detención masiva, tortura y persecución sistemática de la población uigur y otras minorías musulmanas, calificando el conjunto como un “sistema de internamiento masivo” dirigido a destruir la identidad religiosa y cultural.  Human Rights Watch, en “Break Their Lineage, Break Their Roots”, llegó a la misma calificación: crímenes de lesa humanidad, especialmente por persecución, encarcelamiento masivo, desapariciones, tortura y esterilizaciones forzadas. 

A estas voces se han sumado las filtraciones internas. Los “Xinjiang Police Files” —más de diez gigabytes de documentos, fotografías, órdenes y protocolos internos filtrados desde servidores policiales— han mostrado con brutal nitidez la realidad de los campos: miles de rostros fotografiados para alimentar sistemas biométricos, órdenes de disparar a matar ante cualquier intento de fuga y hojas de cálculo donde prácticamente cada adulto de ciertos condados aparece clasificado por nivel de “peligrosidad”.  No se trata de detener a quien ha cometido un delito, sino de identificar, mediante datos, quién podría convertirse en un problema político o religioso.

Xinjiang es, así, el primer territorio donde un Estado trata a una población entera como base de datos integral. Y cuando el hombre se convierte en dato, la libertad deja de ser un derecho para convertirse en una variable más dentro de un cálculo.

II. Más allá de los códigos: el límite del lenguaje jurídico

La comunidad internacional, normalmente cauta frente a una potencia como China, se ha visto obligada a romper la cortesía diplomática. El lenguaje ha ido subiendo de tono hasta converger, en muchos informes, en categorías que tienen un peso histórico gravísimo: “crímenes de lesa humanidad”. No lo dicen sólo ONG militantes; lo dicen también estructuras de la ONU, expertos independientes y tribunales ciudadanos que han analizado durante años testimonios, documentos y patrones de conducta estatal. 

Y, sin embargo, el propio lenguaje jurídico corre el riesgo de ocultar la profundidad del mal que describe. Hablar de “detenciones arbitrarias masivas”, “esterilización forzada” o “genocidio cultural” describe hechos; no alcanza a nombrar del todo la mutación antropológica que se esconde detrás del dispositivo tecnológico.

Porque lo que ocurre en Xinjiang no es un “exceso” de un sistema por lo demás normal. Es el sistema llevado a su coherencia máxima: un poder que, habiendo renunciado a cualquier referencia a un derecho natural, reduce la justicia a pura eficacia del control. Cuando Freedom House recuerda, año tras año, que China es el peor país del mundo en libertad en internet, describe un entorno donde la censura, la vigilancia masiva y la persecución de disidentes se han convertido en el modo ordinario de funcionamiento del Estado digital. 

El Derecho se vuelve entonces un simple lenguaje de programación del poder: ya no ordena la vida social desde la razón del bien común, sino desde la lógica fría de un algoritmo de gobierno.

III. Del ciudadano al vector de riesgo: exilio por datos y deportación digital del yo

En el fondo, la gran transformación es ontológica: el ser humano deja de ser entendido como persona —un quién, irreductible, con dignidad propia— y pasa a ser tratado como vector de riesgo: una combinación de rasgos, relaciones y hábitos que el Estado mide, clasifica y corrige.

La Integrated Joint Operations Platform (IJOP), descrita tanto por organizaciones de derechos humanos como por centros de investigación independientes, funciona como el cerebro de este dispositivo.  Alimentada por datos de cámaras, controles policiales, registros de viajes, consumo de combustible, uso de aplicaciones móviles o nivel de práctica religiosa, la plataforma genera listas de “sospechosos” que deben ser interrogados, vigilados o internados. Los “Xinjiang Police Files” muestran hojas de cálculo donde basta con rezar con regularidad, tener familiares en el extranjero o instalar una aplicación de mensajería extranjera para ser señalado como candidato a reeducación. 

Esto ya no es sólo un “exilio por datos”, donde se separa a una persona de la vida social mediante su puntaje o su expediente digital. Es una verdadera deportación digital del yo: la identidad entera de la persona —sus relaciones, creencias, desplazamientos— es trasladada a un universo algorítmico donde otro decide quién es y qué vale. Lo que se le hace después —detención, reeducación, marginación económica— es sólo la consecuencia práctica de esa operación previa: la desubjetivación algorítmica.

En ese universo, el delito deja de ser un acto concreto para convertirse en una probabilidad; y la persona deja de ser inocente hasta prueba en contrario para ser, de hecho, culpable mientras los datos no digan lo contrario.

IV. Anatomía del Leviatán digital: crédito social y miedo como hábito

El sistema de crédito social —o, más ampliamente, los diversos experimentos de calificación ciudadana que se han desplegado en China— son la expresión más visible de esta nueva arquitectura del poder. No hablamos ya del viejo expediente policial, sino de un índice permanente de confiabilidad política y social que determina si una persona puede volar, obtener un crédito, matricular a sus hijos en determinada escuela o simplemente comprar un billete de tren.

Los informes sobre Xinjiang y, en menor grado, sobre otras regiones como el Tíbet o Mongolia Interior muestran cómo la lógica de la IJOP y de la “policía predictiva” se ha ido extendiendo: aplicaciones obligatorias, como la National Anti-Fraud Center App, permiten recolectar masivamente datos de los teléfonos de los ciudadanos bajo pretexto de combatir la estafa, pero terminan sirviendo como instrumento de vigilancia política y religiosa. 

El resultado no es sólo miedo; es algo más sutil: el miedo convertido en hábito. El ciudadano, consciente de que cada gesto —una búsqueda en internet, una llamada, un viaje, una donación— puede alterar su puntuación, se acostumbra a vivir como si siempre estuviera ante un tribunal invisible. No se pregunta qué es justo, sino qué es prudente para no ser castigado. La virtud cede su lugar a la docilidad estadística.

V. La exportación del modelo: tipología de la servidumbre algorítmica

Sería ingenuo pensar que Xinjiang es un fenómeno aislado. El modelo chino de control digital no se queda en sus fronteras; se exporta en paquetes de hardware, software y narrativas. No todos los países lo importan del mismo modo, pero se puede trazar una tipología mínima:

1. Los imitadores casi integrales: Estados que importan, no sólo cámaras o centros de datos, sino la lógica completa de la “ciudad segura” ligada al control político. El caso de Venezuela, donde la empresa china ZTE colaboró en la creación del Carnet de la Patria —tarjeta de identificación usada para condicionar el acceso a programas sociales y monitorizar el comportamiento político— es emblemático de cómo una tecnología de gestión se transforma en instrumento de lealtad obligatoria. En Zimbabwe, el acuerdo con la compañía china CloudWalk para instalar una red nacional de reconocimiento facial, con la obligación de enviar datos biométricos a China, muestra hasta qué punto se puede convertir a un país en banco de pruebas de algoritmos entrenados sobre la población local.
2. Los compradores selectivos: Estados que no adoptan (al menos de forma visible) un sistema de crédito social, pero sí implementan plataformas de videovigilancia total bajo retórica de “ciudades inteligentes” o “seguras”. Los proyectos “Safe City” de Huawei en Pakistán o Camboya, por ejemplo, instalan miles de cámaras con reconocimiento facial y centros de comando que permiten un control en tiempo real de espacios urbanos completos.
3. Los desarrolladores autóctonos inspirados en el modelo: Potencias que, aunque no compran directamente el sistema chino, imitan su lógica de integración de bases de datos, reconocimiento facial y policía predictiva, articulando sus propios sistemas bajo argumentos de “soberanía digital” o “seguridad nacional”.

En todos los casos, el guion ideológico es similar: se promete seguridad, eficiencia y modernización. Se oculta que el precio real es la subordinación de la persona al algoritmo de Estado, aunque se mantengan, en el exterior, formas constitucionales aparentemente intactas.

VI. Occidente en el espejo: complicidades y rectificaciones

Sería demasiado cómodo convertir este cuadro en una simple historia de “ellos” contra “nosotros”. La infraestructura de la tiranía digital en Xinjiang y en otros lugares no se construyó sólo con tecnología china. Durante años, empresas de países que se proclaman defensores de los derechos humanos suministraron componentes clave para la vigilancia y la represión: procesadores de alto rendimiento, cámaras, software de análisis de datos. Informes de organizaciones y de gobiernos han documentado cómo compañías tecnológicas occidentales aparecieron, directa o indirectamente, en la cadena de suministro de proyectos vinculados a la represión en Xinjiang. 

Es cierto que, a partir de 2019, algunos gobiernos reaccionaron: Estados Unidos incorporó al Xinjiang Public Security Bureau y a varias empresas chinas de vigilancia —incluidas Hikvision y otras— a la Entity List, restringiendo la exportación de tecnología.  La Unión Europea impuso sanciones a responsables de la represión uigur.  Algunas empresas occidentales anunciaron el fin de ventas directas a entidades ligadas a Xinjiang.

Pero estas rectificaciones, aunque importantes, no borran el hecho de que, durante años, el mercado global funcionó como neutralizador de la conciencia: mientras hubiera beneficios, la procedencia y el destino de la tecnología se consideraban asuntos secundarios. La lección es clara: sin criterios éticos vinculantes en materia de exportación de tecnología de vigilancia, las democracias pueden convertirse en proveedoras discretas de los instrumentos que destruyen aquellas libertades que dicen defender.

VII. El trasfondo filosófico: realismo frente a voluntarismo tecnocrático

En el fondo, todo esto no es un problema técnico, sino filosófico. El modelo chino es la culminación coherente de una mentalidad que ha ido arraigando silenciosamente también en otras latitudes: el positivismo voluntarista que disuelve el Derecho en pura voluntad eficaz, y el orden político en pura gestión.

Cuando la ley (lex) se separa del derecho (ius) —de lo que es objetivamente justo—, el mandato deja de ser expresión racional del bien común para convertirse en arbitrariedad legalizada. El algoritmo, presentado como neutral, viene entonces a sustituir al juicio prudencial humano. No se pregunta qué es bueno para el hombre, sino qué es útil para la estabilidad del sistema.

En esta lógica, la persona deja de ser fin en sí misma. El ser humano se convierte en recurso: productivo, estadístico, informacional. Llamar “crímenes” a los actos del Estado no es un gesto sentimental; es recuperar una metafísica realista que afirma que hay actos intrínsecamente malos, aunque todo el aparato legislativo y tecnológico del planeta los declare “necesarios”.

O dicho con la sobriedad de la vieja doctrina: la comunidad política no posee al hombre según todo su ser y todas sus cosas. Hay un núcleo —la conciencia, la verdad, la apertura a lo trascendente— que ningún poder puede apropiarse sin negarse a sí mismo como poder legítimo. Cuando un Estado pretende calcular ese núcleo, clasificarlo o reeducarlo por la fuerza, deja de ser un Estado de derecho para convertirse, aunque se revista de estadísticas brillantes, en un Leviatán tecnocrático.

VIII. México ante el borde del precipicio

Todo esto nos concierne de manera inmediata. México no vive, ni de lejos, la experiencia de Xinjiang. Pero la tentación del atajo tecnocrático está ya presente, y avanza más rápido de lo que solemos admitir.

Desde hace años, nuestro país ha ido construyendo un entramado de bases de datos e infraestructuras digitales en materia de seguridad: la vieja Plataforma México, concebida como sistema nacional para integrar información criminal, policial y de inteligencia;  el Sistema Nacional de Información en Seguridad Pública, que articula registros de detenciones, armas, vehículos, huellas dactilares y otros datos sensibles;  y proyectos de identidad digital masiva, como la propuesta de CURP biométrica y de una “Plataforma Única de Identidad Digital”, que vinculan datos civiles con rasgos biométricos. 

En paralelo, diversas entidades federativas han adquirido sistemas de videovigilancia y reconocimiento facial fabricados por empresas chinas como Hikvision y Dahua, con poca transparencia sobre los criterios de uso, almacenamiento y acceso a las imágenes. Informes regionales sobre vigilancia en América Latina advierten del incremento de estas tecnologías en México, subrayando el riesgo de que se utilicen para fines de control político más que de seguridad legítima. 

Las iniciativas de ley de ciberseguridad y reformas en materia de inteligencia han multiplicado las alarmas: organizaciones como R3D han señalado que ciertos proyectos permitirían a autoridades de seguridad y a la Guardia Nacional acceder a metadatos y bases de datos sin control judicial efectivo, con definiciones amplísimas de “seguridad” y “amenaza”. La combinación de estos elementos —plataformas integradas, biometría, videovigilancia inteligente y márgenes de discrecionalidad legal— configura el esqueleto de algo que, si no se detiene a tiempo, podría parecerse demasiado a un crédito social informal, donde la lealtad política, el comportamiento fiscal o la simple disidencia terminen pesando en el acceso a beneficios o a una vida normal.

La disyuntiva está clara: o México elabora una doctrina propia de libertad y seguridad, anclada en un concepto fuerte de persona y de límite al poder, o acabará importando, maquillado de “modernización digital”, el peor rostro de los modelos ajenos: el punitivismo chino o el reglamentarismo tecnocrático europeo.

IX. Hacia un Habeas Mentem: defender la interioridad

Las categorías liberales clásicas —“privacidad”, “protección de datos”, “consentimiento informado”— siguen siendo necesarias, pero ya no bastan. Fueron diseñadas para un mundo donde la información era un registro puntual; hoy vivimos en un entorno donde la tecnología permite cartografiar la vida entera de una persona con una precisión que roza lo íntimo.

Hace falta dar un paso más y afirmar, con toda claridad, un auténtico Habeas Mentem: un derecho a la inviolabilidad de la mente, de la conciencia y de la orientación moral de la persona frente a cualquier intento de manipulación masiva mediante vigilancia, perfiles conductuales o ingeniería algorítmica de la atención. No se trata sólo de prohibir ciertos dispositivos; se trata de declarar intolerable cualquier sistema que clasifique a los ciudadanos por ideología, religión o lealtad política, y que condicione sus oportunidades vitales a esos perfiles.

En el plano internacional, habría que reconocer que exportar infraestructura de tiranía —tecnología diseñada para vigilancia masiva, crédito social o discriminación automatizada— es moralmente equiparable, en su lógica, a exportar armas prohibidas. Un país que se define como democrático no puede, sin contradicción, promover en foros internacionales la dignidad humana y al mismo tiempo vender los ojos y oídos de la cárcel digital donde esa dignidad será pisoteada.

X. Epílogo: la persona, último lugar de resistencia

La cuestión última que plantea Xinjiang no es sólo geopolítica ni jurídica. Es una pregunta sobre qué creemos que es el hombre.

Si aceptamos, incluso sin decirlo, la premisa de que el ser humano se agota en sus funciones biológicas y sociales, de que no es más que un productor-consumidor al que se puede optimizar mediante estímulos y castigos, entonces el modelo chino aparece como una mera cuestión de grado: podríamos criticar sus excesos, pero no su lógica. Si el hombre es sólo un conjunto de datos, ¿por qué no administrarlo como tal?

Para que la palabra “tiranía” conserve sentido, hace falta algo más: afirmar que la persona trasciende el registro estadístico, que hay en ella una dimensión irreductible —un “yo” que mira, ama, recuerda, reza, piensa— que ningún poder puede poseer sin destruir lo que pretende gobernar. Llamamos tiránico a un régimen porque trata como cosa lo que es un alguien.

Paradójicamente, esa verdad no se afirma sólo en declaraciones, sino también en la realidad silenciosa de quienes resisten. Las madres que, a pesar del riesgo, siguen enseñando a sus hijos una lengua prohibida; los creyentes que rezan sabiendo que cada gesto puede ser registrado por una cámara; los jóvenes que se empeñan en recordar los nombres y los rostros de los desaparecidos: todos ellos proclaman, sin tal vez formularlo, que la persona no cabe en la celda de un expediente.

El mundo puede contemplar Xinjiang como un espejo de advertencia o como un manual de instrucciones. Si quiere evitar que la deportación digital del yo se convierta en norma global, no bastará con condenar a China desde lejos. Habrá que reconstruir el derecho, la política y la técnica sobre una verdad antigua y exigente: que la persona, imagen de lo eterno, vale más que todos los algoritmos juntos; y que ningún Estado, por poderosa que sea su maquinaria, tiene autoridad legítima para sacrificar una sola conciencia en el altar de la seguridad.

La historia no nos juzgará por el número de cámaras instaladas ni por la velocidad de nuestros procesadores, sino por una pregunta mucho más simple y más terrible: si, a tiempo, supimos defender al hombre de sus propias obras.

Deja un comentario

Este sitio utiliza Akismet para reducir el spam. Conoce cómo se procesan los datos de tus comentarios.