El burócrata en la máquina

De X y Telegram a la moral algorítmica: la expansión del poder regulatorio europeo sobre el espacio del sentido

Por Oscar Méndez Oceguera

Imagen ilustrativa: Pexels

El 5 de diciembre de 2025 la Comisión Europea impuso a X una multa de €120 millones con fundamento en la Ley de Servicios Digitales. La resolución se justificó, en la formulación pública disponible, por tres núcleos de incumplimiento vinculados a diseño y transparencia: la lógica del sistema de verificación de pago, las insuficiencias del repositorio de anuncios y la falta de apertura adecuada de datos para investigación. La Comisión presentó el acto como señal de madurez del régimen: ya no se trataría de un derecho que aconseja, sino de un derecho que impone forma.

La respuesta de Elon Musk no se redujo a una discrepancia técnica. Alegó que se habría intentado inducir a la plataforma hacia una modalidad de moderación discreta a cambio de indulgencia regulatoria. Más allá de la suerte factual última de esa acusación, el conflicto quedó desplazado a su verdadero campo: la disputa sobre qué autoridad tiene título moral y político para fijar la arquitectura del debate público europeo y bajo qué concepción del daño.

Porque la DSA no es únicamente un catálogo de obligaciones. Es un modo de entender el ecosistema digital como espacio de riesgos sociales de gran escala. En ese giro conceptualmente decisivo aparece la categoría que sostiene la expansión del poder: “riesgos sistémicos”. Con ella, el derecho ya no se limita a perseguir ilegalidades puntuales, sino que puede exigir modificaciones estructurales de funcionamiento para mitigar daños potenciales al discurso cívico. La intención declarada es razonable: limitar manipulación masiva, opacidad publicitaria, explotación de vulnerabilidades o degradación del espacio democrático. El problema comienza cuando el marco del daño se vuelve lo suficientemente elástico como para absorber —bajo el lenguaje de la prevención— lo culturalmente incómodo, no solo lo materialmente ilícito.

En este punto emerge una modificación silenciosa de la relación entre libertad y potestad. La norma no necesita proclamar un régimen de censura para producir un efecto equivalente de disciplinamiento. Le basta con incorporar categorías amplias de riesgo y acompañarlas de sanciones capaces de influir en el cálculo económico global de las empresas. La plataforma racional tenderá entonces a reorganizar su arquitectura antes de la colisión, no después. Así funciona la nueva prudencia industrial: la autocorrección preventiva como modo de supervivencia.

En esa misma lógica, el caso Telegram completó el cuadro con una gravedad distinta. Pavel Durov fue arrestado en Francia el 24 de agosto de 2024 y formalmente imputado el 28 de agosto en un proceso relacionado con graves delitos facilitados por el uso criminal de la plataforma y con presuntas insuficiencias de moderación y cooperación. La justificación estatal se colocó en el terreno de la seguridad pública. El significado político, sin embargo, superó lo penal: quedó demostrada la posibilidad de una escalada donde el poder no se limita a corregir sistemas, sino que puede presionar a los responsables personales cuando juzga que la infraestructura digital se ha convertido en vehículo de criminalidad grave.

Aun enmarcando esta actuación dentro de los límites legítimos de la persecución del delito, la pedagogía de época se vuelve inevitable: la gobernanza digital ya no se expresa solo en el lenguaje del mercado y la transparencia; también en la advertencia de que el control del entorno puede alcanzar la dimensión personal cuando el Estado estima que los instrumentos ordinarios de cumplimiento no bastan.

Aquí el contraste entre X y Telegram revela una estructura más profunda que la anécdota mediática. Musk representa la asfixia financiera y administrativa: multas, rediseños obligados, costos de cumplimiento con alcance global. Durov representa la coacción personal y penal en escenarios nacionales. La forma actual de la potestad digital muestra así una tenaza característica del nuevo orden regulatorio:

– si se gobierna una plaza pública masiva, el instrumento más eficaz es el costo económico;
– si se gobierna una infraestructura privada difícil de penetrar, la presión puede desplazarse hacia la responsabilidad personal del fundador o del responsable.

No es necesario invocar un guion oculto para reconocer la lógica estructural: la autoridad contemporánea ensaya mecanismos diversos —económicos y penales— para asegurar que el ecosistema informativo se mantenga dentro de los márgenes de seguridad definidos por el regulador.

Esta primera capa del régimen no se agota en la DSA. La segunda capa ya está activa y es más ambiciosa. La Ley de Inteligencia Artificial introduce un calendario de obligaciones escalonadas que, desde 2025, atiende de manera directa a los modelos de propósito general, es decir, a las infraestructuras que producirán texto, imagen, recomendación y criterio a escala industrial. El desplazamiento es exacto: del gobierno de la circulación al gobierno de la generación.

Esto transforma la naturaleza del problema. Porque cuando una autoridad regula lo que circula, todavía se discute la proporcionalidad de la intervención frente a contenidos concretos. Pero cuando una autoridad regula cómo debe estar construido un motor de lenguaje para ser legal, la cuestión se vuelve ontológica-política: qué clase de horizonte de pensamiento será normalizado por diseño.

Aquí conviene nombrar el mecanismo técnico decisivo sin rodeo innecesario. La conversión de un marco regulatorio en hábito cultural del modelo tiene una vía privilegiada: RLHF (Reinforcement Learning from Human Feedback). En términos simples, el modelo no aprende solo datos; aprende preferencias normativas. Se selecciona qué respuesta debe considerarse aceptable, riesgosa, tolerable con condiciones, o directamente prohibida. Esas preferencias se convierten en señales de recompensa y castigo durante el entrenamiento o el fine-tuning. El resultado no es un censor que interviene a posteriori, tachando una frase ya producida. Es un sistema que internaliza la prohibición como reflejo del propio modelo.

Si el estándar jurídico de “riesgo” se define con categorías expansivas y moralmente unívocas —particularmente en terrenos de alta fricción cultural—, entonces la mitigación técnica puede devenir lo que los manuales jamás escribirán con ese nombre: autocensura neuronal. La libertad ya no muere por un gesto visible de supresión; puede morir por el mecanismo más silencioso de todos: la programación de una prudencia obligatoria como arquitectura de base.

En ese escenario, el término “woke” solo conserva valor analítico cuando se comprende como gramática institucional del daño. No designa la legítima afirmación de la dignidad humana, sino la tendencia a convertir la sensibilidad identitaria en criterio soberano de legitimidad pública; a desplazar el desacuerdo racional hacia la sospecha moral; y a redefinir el disenso fuerte como riesgo cívico. Cuando esa gramática logra incorporarse a las definiciones administrativas de daño y seguridad, deja de ser militancia cultural y se convierte en estándar técnico de cumplimiento.

Ese es el peligro mayor de una época gobernada por conceptos elásticos de riesgo. La homogeneización no necesita proclamarse como programa. Puede surgir como comportamiento racional de empresas globales que aprenden —por costo y supervivencia— a ajustar sus sistemas al umbral cultural dominante del árbitro regulatorio más exigente.

En esta clave, el llamado “efecto Bruselas” no requiere dramatización. Opera por pura economía política: ante la dificultad de sostener ecosistemas normativos distintos, la industria tenderá a estandarizar el patrón más restrictivo para reducir incertidumbre y riesgo de sanción. Así, lo que nació como régimen regional puede convertirse, por simple conveniencia corporativa, en gramática global del diseño.

El conflicto, por tanto, ya no es solo tecnológico. Es civilizatorio. Se discute si la protección de la esfera pública digital se mantendrá dentro de límites compatibles con una libertad robusta, o si derivará hacia un modelo donde la autoridad supranacional se arroga el derecho de administrar las condiciones culturales del disenso en nombre de una seguridad del discurso cívico.

Si el caso Durov señaló la advertencia penal y el caso Musk exhibió el músculo económico del cumplimiento, la IA constituye el umbral decisivo. Porque cuando la ley no solo decide lo que debe eliminarse, sino lo que un modelo debe aprender a no generar, el debate deja de ser sobre moderación de contenidos. Se desplaza hacia la pretensión —tan moderna como peligrosa— de codificar una conciencia oficial en la infraestructura del pensamiento sintético.

En ese punto, la resistencia útil no es la consigna ni el estruendo. Es la defensa fría del derecho a la realidad, incluso cuando la realidad contradice la comodidad moral del momento. Porque una civilización no empieza a perder su libertad cuando censura una frase aislada. Empieza a perderla cuando diseña un sistema para que ciertas frases no nazcan jamás.

Y esa es la razón por la que X y Telegram deben leerse como señales de régimen y no como episodios dispersos. Lo que se está consolidando en Europa es un modelo de administración preventiva del sentido: un modo de gobernanza que, bajo el lenguaje de la protección, se aproxima cada vez más a la tutela de la conversación y, por extensión, a la tutela del juicio.

La advertencia final no es retórica. Es política y jurídica: cuando una autoridad supranacional comienza a codificar una moral cultural dominante en la infraestructura del lenguaje, la discusión deja de tratar de plataformas. Trata de soberanía del pensamiento público.

En ese umbral, la libertad no muere necesariamente por violencia visible. Puede disolverse en silencio, bajo la forma pulcra de una tutela razonable. Y toda tutela razonable que se vuelve sistema termina exigiendo lo que un orden verdaderamente libre no debe conceder: que el disenso pida permiso al algoritmo.

Un comentario sobre “El burócrata en la máquina

  1. Efectivamente, las limitaciones impuestas por el poder regulatorio europeo a»X» y a Telegram parecieran representar la manzana envenenada hacia una fracción importante de las libertades humanas de nuestro tiempo. Por donde se guste ver la «regulación» siempre estará balanceándose entre la defensa mínima hacia el respeto humano y la restricción fulminante de una moral subjetiva a la libre expresión.

    Me gusta

Deja un comentario

Este sitio utiliza Akismet para reducir el spam. Conoce cómo se procesan los datos de tus comentarios.