Qué es Anthropic, la empresa de IA «ética» que se niega a espiar y crear armas autónomas para el ejército de Estados Unidos
La empresa de inteligencia artificial (IA) más candente del momento no es OpenAI, la creadora de ChatGPT, ni Google, el gigante pionero en los sistemas generativos, sino Anthropic. Desconocida por muchos, la compañía está marcando el rumbo tecnológico de 2026. Y no solo por el buen rendimiento de su modelo, Claude, sino por su enfrentamiento directo con el Ejército de Estados Unidos, un choque que constata que el Gobierno de Donald Trump percibe esta tecnología como un arma.
[–>[–>[–>La polémica lleva meses cociéndose a fuego lento. La IA de Anthropic es vital para la gestión de los sistemas clasificados del Pentágono. Hasta ahora, el Departamento de Defensa estadounidense solo había confiado en la start-up para estas tareas, una sintonía que se había traducido en un contrato militar por valor de 200 millones de dólares.
[–> [–>[–>El Pentágono amenaza
[–>[–>[–>
Sin embargo, todo empezó a torcerse debido a las exigencias del Ejército, que quiere tener el poder para decidir si utiliza Claude tanto para el espionaje social masivo como para crear armas autónomas, eso es, máquinas capaces de disparar y matar sin intervención humana. Anthropic se ha opuesto frontalmente a eliminar los guardarraíles integrados en su programación que prohíben ese uso bélico, un rechazo a entregar las llaves de su creación que ha despertado la ira de la Casa Blanca. A pesar de las intensas negociaciones, la empresa no ha dado el brazo a torcer.
[–>[–>[–>
Pete Hegseth, jefe del Pentágono / Europa Press/Contacto/Yuri Gripas/POOL
[–>[–>[–>
Harto con la negativa, el secretario de defensa estadounidense, Pete Hegseth, ha optado por la intimidación. El Pentágono ha amenazado a Anthropic con designarla como un «riesgo para la cadena de suministro«. Esta sanción, habitualmente reservada para adversarios extranjeros como la china Huawei, no solo haría estallar ese contrato por los aires, sino que obligaría a todos los proveedores del Ejército a cortar sus lazos con la start-up. O estás con nosotros o contra nosotros.
[–>[–>[–>El ultimátum de Washington da hasta este viernes como fecha límite para que Anthropic claudique. «Será muy complicado desenredar todo esto, y nos aseguraremos de que paguen un precio por obligarnos a tomar esta medida», ha indicado en declaraciones a Axios un alto funcionario del organismo rebautizado por Trump como Departamento de Guerra.
[–>[–>[–>
Anthropic, la IA más potente
[–>[–>[–>
Anthropic es una empresa de IA generativa fundada en 2021 por siete exempleados de OpenAI, entre ellos los hermanos Daniela y Dario Amodei. El director ejecutivo y cara visible de la compañía no es un empresario al uso, sino un físico especializado en circuitos neuronales que predica sobre la IA con actitud de filósofo idealista. Es afín al Effective altruism (o Altruismo eficaz), un movimiento que aboga por priorizar las causas que beneficien a un mayor número de personas y que equipara los riesgos de esta tecnología a los de una guerra nuclear.
[–>[–>
[–>Actualmente, la firma está valorada en unos 380.000 millones de dólares. La firma es conocida por Claude, su familia de grandes modelos de lenguaje (o LLMs, por sus siglas en inglés), que lidera las clasificaciones de los más potentes del mundo. Sus elevadas prestaciones hacen que sea particularmente popular entre programadores e ingenieros informáticos de Silicon Valley, meca de la industria tecnológica estadounidense.
[–>[–>[–>
¿Una IA ética?
[–>[–>[–>
La historia de Anthropic está íntimamente ligada a la de su principal rival. En 2016, Amodei dejó su cargo en Google para convertirse en el vicepresidente de investigación de OpenAI, posición desde la que dirigió los modelos GPT-2 y GPT-3, el germen de ChatGPT. Ese salto le fascinó, pero también alimentó sus miedos. Para él, «no había trabajo más importante que la prevención de una IA superhumana que produzca resultados catastróficos, incluso la extinción humana», explica Karen Hao en El Imperio de la IA. Amodei priorizaba la mitigación de esos riesgos a la comercialización de su tecnología, pero para el líder de OpenAI, Sam Altman, lo primero era el negocio.
[–>[–>[–>
El director ejecutivo de OpenAI, Sam Altman, y el director ejecutivo de Anthropic, Dario Amodei, se niegan a darse la mano durante la AI Impact Summit en India en febrero de 2026. / Ludovic Marin / AFP
[–>[–>[–>
Harto con un cambio de rumbo que interpretó como una traición a sus principios, Amodei optó por alumbrar una alternativa. Anthropic nació con el lema de ser una IA ética. En los últimos meses, la compañía se ha opuesto a las exigencias del Pentágono y ha publicado un marco —que describe como «Constitución»— para que su tecnología sea útil, inofensiva y cumpla con las órdenes humanas.
[–>[–>[–>
Sin embargo, ese mito fundacional también está lleno de agujeros. El pasado septiembre, Anthropic pagó 1.500 millones de dólares de multa para zanjar un caso legal en el que un juez dictaminó que había descargado más de 7 millones de libros digitalizados «sabiendo que eran pirateados» para entrenar Claude. La empresa compró millones de libros, los troceó y los escaneó, un proyecto que trataron de ocultar a la opinión pública. Por si fuera poco, Anthropic anunció el martes que, como OpenAI, da marcha atrás en su estrategia de precaución y seguridad para seguir compitiendo con sus rivales. Justo ese mismo día, Amodei se había reunido con Hegseth. ¿Claudicará?
[–>[–>[–>
Suscríbete para seguir leyendo
Puedes consultar la fuente de este artículo aquí