INTELIGENCIA ARTIFICIAL | El Pentágono pone a Anthropic en la lista negra por negarse a que su IA sirva para vigilar a los ciudadanos y crear armas autónomas
La administración Trump ha cumplido con su amenaza. El Departamento de Defensa ha designado a la empresa estadounidense de inteligencia artificial Anthropic como un riesgo para la cadena de suministro, una medida de represalia sin precedentes que obligará a otros contratistas del Ejército a dejar de utilizar sus servicios.
[–>[–>[–>Hasta ahora, el Pentágono había utilizado Claude, el poderoso modelo de IA desarrollado por la start-up, para gestionar su información clasificada. Los altos rangos estaban muy contentos con esta herramienta. Hasta que tocó negociar las cláusulas de su uso militar. El rebautizado como Departamento de Guerra quería tener carta blanca, pero Anthropic puso dos límites: no utilizar su IA para la vigilancia masiva de los ciudadanos estadounidenses ni para la creación de armas autónomas.
[–> [–>[–>La Casa Blanca rechazó rápidamente la posición de Anthropic al considerarla demasiado restrictiva. El disgusto fue tal, que Donald Trump cargó contra la joven compañía, tachándola de woke, por no plegarse a su voluntad. El Secretario de Defensa, Pete Hegseth, amenazó a la firma con ponerla en la lista negra si el pasado viernes no cedía.
[–>[–>[–>
Se trata de un principio fundamental: que el ejército pueda utilizar la tecnología para todos los fines legales. El ejército no permitirá que un proveedor se interponga en la cadena de mando restringiendo el uso legal de una capacidad crítica y poniendo en peligro a nuestros combatientes
[–>[–>[–>
Riesgo mortal
[–>[–>[–>
Sin embargo, el director ejecutivo de Anthropic, Dario Amodei, no cedió. La start-up, que nació como una escisión de OpenAI para centrarse en el desarrollo de una IA más ética, considera que utilizar estos sistemas generativos para conducir armas autónomas que identifiquen y disparen a sus objetivos sin supervisión humana es un peligro demasiado grande. Si la IA generativa puede fallar al dar respuesta a preguntas de los usuarios e inventarse cosas —alucinar, en la jerga del sector—, el riesgo de que ocurra algo similar en el campo de batalla es mucho mayor.
[–>[–>[–>Así, el Pentágono confirmó el jueves que «ha informado oficialmente a la dirección de Anthropic de que la empresa y sus productos se consideran un riesgo para la cadena de suministro, con efecto inmediato». «Se trata de un principio fundamental: que el ejército pueda utilizar la tecnología para todos los fines legales. El ejército no permitirá que un proveedor se interponga en la cadena de mando restringiendo el uso legal de una capacidad crítica y poniendo en peligro a nuestros combatientes», reza su comunicado.
[–>[–>[–>
Dario Amodei, cofundador y director ejecutivo de Anthropic, la empresa de inteligencia artificial detrás de los modelos Claude. / Ruhani Kaur / Bloomberg
[–>[–>[–>
Anthropic acudirá a los tribunales
[–>[–>[–>
Esta dura sanción, habitualmente reservada a compañías extranjeras como la china Huawei, supone uno duro golpe para Anthropic. Y es que no solo hace volar por los aires el contrato de 200 millones de dólares que tenía con el Gobierno de Estados Unidos, sino que además obliga a todas las empresas que hacen negocios con el Ejército a no utilizar Claude.
[–>[–>
[–>La decisión no es legalmente válida y no vemos otra opción que impugnarla ante los tribunales
[–>[–>[–>
Anthropic ha reiterado que la decisión de la administración Trump «no es legalmente válida y no vemos otra opción que impugnarla ante los tribunales». El presidente ha establecido un periodo de transición de seis meses para que el ejército elimine gradualmente el uso de su IA.
[–>[–>[–>
Suscríbete para seguir leyendo
Puedes consultar la fuente de este artículo aquí