La señal
Hace dos semanas, una empresa holandesa de software jurídico perdió el 10% de su valor bursátil en cuarenta y ocho horas. Uno de análisis financiero se quedó con un 21% y otro de gestión documental, un 15%. No fueron los escándalos, ni los malos resultados, … ni ningún cambio regulatorio. Anthropic acababa de lanzar una actualización para su asistente. Los inversores decidieron, en cuestión de horas, que el modelo de negocio construido durante décadas tal vez ya no tenga sentido. comenzó Saa Apocalipsis.
Una semana después, el director general de una empresa de 10.000 empleados que crece un 24% con un beneficio previsto de 12.200 millones anunció en X la rescisión de 4.000 contratos. «La inteligencia que nos hemos dotado permite y obliga a una nueva forma de gestión, en la que equipos más pequeños pueden realizar la tarea».
Eso es lo que está pasando. Y la mayoría todavía no lo sabe.
Las empresas tecnológicas norteamericanas han comprometido más de cuatro billones de dólares (casi el PIB de Alemania) en infraestructuras de inteligencia artificial de aquí a 2030. El Gobierno de Estados Unidos ha declarado el control de los chips como una cuestión de seguridad nacional. China ha respondido lanzando sus propios modelos de alto rendimiento que distribuye gratuitamente al mundo, en medio de acusaciones de malas prácticas. Y Europa mira desde el asiento de atrás, con buenos ingenieros, sin industria propia, levantando muros regulatorios que aíslan y asfixian.
En menos de tres años hemos pasado de sistemas que escribían textos con errores notables a modelos capaces de escribir código como ingenieros, analizar contratos legales complejos o ayudar en diagnósticos médicos con la precisión de un especialista. El impacto ya es mensurable: en los sectores legal, financiero y tecnológico, las empresas están renovando sus fuerzas laborales antes de que alguien las obligue a hacerlo. Para 2027, muchas empresas dependerán de agentes de IA para no renovar las suscripciones de software que han dominado el mercado durante tres décadas. No es especulación. Esto es lo que ya descuentan las bolsas: el lanzamiento de Claude Coworken enero de 2026, provocó una caída del mercado de valores de 285 mil millones de dólares en acciones de software empresarial en una semana.
Los agentes son pasantes virtuales que no (solo) responden preguntas, sino que actúan de forma autónoma, dividiendo los problemas en subtareas y ejecutando decisiones con efectos reales en el mundo. Se puede simplemente gestionar una cartera de clientes, monitorear una cadena de suministro o preparar un informe financiero sin intervención humana en ningún paso. Sin enfermarse. 24 horas. Quién es responsable cuando uno de ellos comete un error grave todavía no tiene respuesta en ninguna jurisdicción. Pero este año nacerá la empresa multimillonaria y un solo trabajador.
Mientras tanto, los arquitectos toman decisiones que nos afectan a todos con sorprendente discreción. En 2022, OpenAI incluyó la palabra «con seguridad» en su declaración de misión. En 2024 lo eliminó sin rueda de prensa, sin pronunciamiento; disolvió el equipo de protección y despidió al vicepresidente que se oponía a la introducción de contenido sexual en sus sistemas. La empresa multimillonaria es también la que eliminó la palabra seguridad de su misión en un formulario del Tesoro. Su jefe de robótica dimitió esta semana por posiciones irreconciliables con la dirección tras la firma del acuerdo con el Pentágono, mientras la gente desinstalaba ChatGPT de sus teléfonos a un ritmo frenético.
Anthropic tomó el rumbo opuesto. El día 9 presentó dos demandas contra el gobierno de Estados Unidos por una campaña de represalias «ilegal e inconstitucional». El Pentágono había exigido acceso ilimitado a Claude. Había aceptado casi todo, salvo dos excepciones que su fundador Darío Amodei calificó de innegociables: no utilizar su tecnología para vigilar masivamente a los ciudadanos norteamericanos ni controlar armas 100% autónomas. La administración Trump lo interpretó como una afrenta. El Secretario de Defensa designó a Anthropic como un riesgo para la cadena de suministro de seguridad nacional, compartiendo «honor» con Huawei y Kaspersky, y ordenó a las agencias federales que dejaran de utilizar Claude. Mientras tanto, ese mismo gobierno siguió utilizando sus modelos para apoyar operaciones militares en Irán. La contradicción abrió las puertas del cielo.
Y unas horas más tarde, Microsoft, principal socio de OpenAI, anunció una alianza estratégica con Anthropic para integrar Claude Cowork en Microsoft 365 Copilot, por el que hoy sólo pagan 15 de sus 485 millones de usuarios. El mercado siempre restaura lo que la política destruye.
La inteligencia artificial no es el futuro; Es el presente, y ya está reestructurando las reglas del trabajo, del conocimiento y del poder a una velocidad nunca antes vista en la historia. Cada quince días, esta columna ofrecerá los hechos relevantes y el contexto necesario para distinguir lo que importa de lo que sólo parece importante.
Esa es la señal.
Doctor en CC.EE. y profesor de la Universidad de Cunef.
Puedes consultar la fuente de este artículo aquí