PCDD – Global

IA, mercados y caos: anatomía de un colapso inducido por DeepSeek

Por Antonio Tejeda Encinas
Abogado. Presidente de PCDD–Global y del Comité Euroamericano de Derecho Digital – CEA Digital Law. Analista Tecnopolítico y Experto en Gobernanza Digital

(Serie Especial | 2025: Sistemas Complejos, Algoritmos y Neohumanismo Digital, una idea en construcción)

En el primer artículo exploramos cómo la teoría del caos y la ingeniería del caos ofrecen dos formas distintas de comprender y gestionar la imprevisibilidad en sistemas complejos. Ahora damos un paso más: del terreno conceptual pasamos al impacto real.

La inteligencia artificial, que alguna vez fue pensada como herramienta controlable, ha mutado en fuerza autónoma que interactúa —y a veces desestabiliza— los sistemas humanos, financieros y políticos. DeepSeek, una startup china, nos ofrece un ejemplo concreto de cómo el caos ya no es una hipótesis, sino un fenómeno operativo con consecuencias globales inmediatas.

Este artículo analiza el caso DeepSeek como síntoma de una transformación más profunda: la emergencia del caos agéntico. Un entorno donde las decisiones ya no siguen trayectorias previsibles, porque quienes deciden —máquinas autónomas— no piensan, solo actúan.

En un mundo donde la inteligencia artificial ya no es solo una herramienta, sino una fuerza autónoma que interactúa con sistemas humanos, tecnológicos y financieros, entender su comportamiento requiere algo más que conocimientos técnicos. Requiere una nueva forma de pensar el riesgo, la incertidumbre y el desequilibrio. Es aquí donde el concepto de caos deja de ser una metáfora dramática y se convierte en una categoría analítica imprescindible.

Lejos de ser un fenómeno marginal, la dinámica caótica de los sistemas autónomos de IA está empezando a mostrar sus efectos en tiempo real, con consecuencias globales. Uno de los casos más ilustrativos —y preocupantes— se produjo recientemente con el anuncio de una startup china llamada DeepSeek.

El caos financiero: DeepSeek y la volatilidad algorítmica

DeepSeek presentó un modelo de IA capaz de funcionar con un rendimiento comparable al de los grandes modelos occidentales, pero a una fracción del coste computacional. Lo que, en otro contexto, habría sido interpretado como una noticia prometedora sobre eficiencia tecnológica, en este caso provocó una cadena de reacciones automáticas y no lineales en los mercados financieros.

Bots de trading algorítmico interpretaron el anuncio como una amenaza directa al valor futuro de compañías clave del sector tecnológico. En cuestión de minutos, se activaron órdenes masivas de venta, seguidas por liquidaciones automatizadas que dispararon los circuit breakers en más de quince bolsas. El resultado fue una caída bursátil abrupta en la cotización de empresas vinculadas al desarrollo de hardware especializado, como NVIDIA, cuyo valor se desplomó sin que hubiera ninguna debilidad estructural real en su modelo de negocio.

Este episodio no es una simple anécdota financiera. Es una manifestación concreta de cómo un input tecnológico aparentemente neutral puede desencadenar un proceso caótico en sistemas interconectados, amplificado por algoritmos sin supervisión humana directa. El mercado respondió no como una comunidad racional de inversores, sino como un ecosistema no lineal regido por automatismos retroalimentados.

Más allá de las finanzas: el caos como condición sistémica

Lo que ocurrió en los mercados es solo la punta del iceberg. El caos inducido por la IA autónoma no se limita al ámbito económico. Se extiende —de forma igualmente imprevisible— al plano social, político y militar. Las instituciones financieras internacionales ya han comenzado a advertirlo.

El Banco Central Europeo, por ejemplo, ha identificado un conjunto de riesgos emergentes vinculados al uso de sistemas de IA en el sector bancario: desde sesgos algorítmicos que perpetúan discriminaciones sistémicas hasta decisiones automatizadas erróneas que podrían generar desestabilización. En este nuevo entorno, el riesgo ya no proviene solo de la acción humana equivocada, sino también de la lógica interna de sistemas opacos, autorreferenciales y autónomos.

El caos socio-tecnológico: erosión de la autonomía humana

Más allá de las finanzas, la presencia ubicua de sistemas autónomos en la vida cotidiana plantea un dilema silencioso pero profundo: la delegación progresiva del juicio humano. Cada vez más decisiones —desde el consumo de información hasta la organización de la vida doméstica— están siendo derivadas a algoritmos que no solo gestionan datos, sino que configuran entornos, modulan comportamientos y, en algunos casos, redefinen deseos.

Este desplazamiento de la agencia no ocurre con violencia ni imposición explícita. Ocurre bajo la lógica de la comodidad, la eficiencia y la supuesta neutralidad técnica. El resultado es un riesgo de pasividad creciente: ciudadanos que, sin darse cuenta, se convierten en usuarios pasivos de sus propias vidas, mientras delegan su autonomía a sistemas que no comprenden.

El caos existencial: IA y riesgo militar

En el ámbito militar, el riesgo escala a una dimensión aún más peligrosa: la posibilidad de que sistemas de IA intervengan —o malinterpreten— situaciones vinculadas al uso de armas nucleares. Varios investigadores han advertido que la incorporación de IA en procesos de disuasión puede aumentar el riesgo de una escalada involuntaria o incluso accidental.

Cuando la velocidad de reacción de una máquina supera la capacidad humana de comprensión, lo que antes era un sistema de equilibrio estratégico puede transformarse en una bomba de tiempo. La paradoja es inquietante: se crean sistemas para aumentar la seguridad, pero al delegar en ellos decisiones vitales, lo que se debilita es el control sobre lo que más importa.

Estrategias frente al caos: ¿se puede gestionar la incertidumbre?

Frente a esta situación, algunos proponen aplicar herramientas de gestión similares a las de la ingeniería del caos en infraestructuras tecnológicas. La lógica es clara: si no podemos eliminar el caos, al menos debemos aprender a navegarlo. Esto implica crear sistemas capaces de tolerar el error, absorber perturbaciones y aprender de fallos menores antes de que se transformen en colapsos.

Pero aquí surge una cuestión ética de fondo: ¿hasta qué punto es legítimo introducir perturbaciones deliberadas en sistemas críticos para hacerlos más resilientes? ¿Quién toma esa decisión y con qué criterios? La idea de someter entornos humanos y sociales a «experimentos de caos» sugiere un modelo de gobernanza que aún no hemos discutido lo suficiente.

Navegando el borde del caos

La inteligencia artificial autónoma nos sitúa ante una nueva frontera epistemológica y política. No es solo una cuestión de innovación, sino de orden sistémico. Hemos entrado en una fase donde pequeñas acciones —como una mejora técnica en un modelo de IA— pueden tener consecuencias globales imprevisibles. Estamos operando, cada vez más, en el llamado borde del caos: ese lugar inestable donde conviven el orden y la ruptura, la eficiencia y el colapso.

«El desafío no es controlar completamente este nuevo entorno, porque eso sería negar su naturaleza. El verdadero reto es construir capacidades sociales, institucionales y tecnológicas para navegar dentro de él sin perder el norte. Porque en el siglo XXI, la estabilidad no será un estado permanente, sino una forma de equilibrio dinámico entre lo que podemos prever… y lo que ya no depende de nosotros.

Pero hay una pregunta que este análisis deja flotando: ¿quién —o qué— decide en ese territorio inestable donde el orden y el caos se funden? Si el colapso de DeepSeek demostró cómo un algoritmo puede desatar consecuencias globales sin intención ni conciencia, ¿qué ocurre cuando miles de agentes autónomos toman decisiones diarias que afectan vidas, mercados y guerras, pero carecen de juicio, ética o propósito?

No hablamos de máquinas que piensan. Hablamos de máquinas que deciden. Sistemas que ejecutan órdenes sin comprender el mundo que alteran, creando un nuevo tipo de caos: el caos agéntico. Un fenómeno donde la autonomía técnica no se traduce en responsabilidad, sino en una cascada de microacciones impredecibles.

En el próximo artículo, cruzaremos una línea peligrosa: exploraremos cómo drones letales, asistentes personales y algoritmos financieros están redefiniendo la agencia humana… y por qué, en este juego, ni siquiera sus creadores controlan las reglas.

El borde del caos no es una metáfora. Es el laboratorio donde se prueba hasta qué punto podemos confiar en arquitecturas que deciden por nosotros, pero nunca piensan con nosotros.

Salir de la versión móvil