Tecnología

AMD y TensorStack amplían la IA generativa local

AMD y TensorStack amplían la IA generativa local
Avatar
  • Publishedabril 15, 2025



Amuse 3.0 no está en todas partes. Aunque muchos usuarios pueden encontrar esta herramienta ahora, el hecho es AMD y Tensorstack han estado trabajando en la recomendación durante más de un año Tratando de traer una IA generativa a su escritorio sin tener que ver con las dependencias de la nube o externos. Comenzando con la primera versión del lanzamiento discreto, el propósito es claro: proporcionar un entorno de creación visual local que solo requiere una buena PC.

Ahora, con el lanzamiento de la tercera actualización importante, la plataforma ha dado otro paso en esta dirección. Por lo tanto, además de expandir sus capacidades, también reitera Una de las sugerencias más serias para soluciones de generación pequeñas pero en crecimiento totalmente implementadas en el hogar. El terreno aún no se ha explorado, pero esto plantea preguntas muy interesantes sobre el futuro de estas tecnologías y su lugar sobre la mesa.

La historia de Amuse comienza a mediados de 2014, cuando AMD y el inquilino lanzaron su primera versión beta pública, que se centra en generar imágenes a través de modelos como la difusión estable, todo en hardware AMD local y optimizado. No mucho después, el 28 de julio del mismo año Oficialmente presentan entretenimiento 2.0 betaintrodujo actualizaciones significativamente mejoradas como la super resolución AMD XDNA, una interfaz simplificada llamada modo EZ y un rendimiento significativamente mejorado en los sistemas equipados con procesadores Ryzen y gráficos Radeon.

Amuse 3.0 no se romperá con esta línea, pero la expandirá. La novedad de esta versión es una combinación de la generación de energía de video: Hasta seis segundos de edición Estos se crean en casa sin interferir con servidores externos. Agregado a esto un catálogo de más de cien modelos compatibles, incluida la difusión estable 3.5 y el flujo, así como las nuevas capacidades de filtrado de video basadas en la IA. La intención es clara: convertir el entretenimiento en una plataforma de creación visual más completa y flexible sin ceder su enfoque en la inferencia local.

La mejora del rendimiento no es muy pequeña. Gracias a optimizaciones específicas, AMD señala que Amuse 3.0 puede generar contenido de hasta 4.3x en Radeon RX 9070 XT GPU En comparación con el modelo general, los procesadores Ryzen AI tienen hasta 3.3 veces más probabilidades de usarse en procesadores Ryzen AI. Para aprovechar al máximo estas características, se recomienda usar un sistema equipado con un procesador Ryzen AI 300 u 8040, al menos 24 GB de RAM y un diagrama Radeon RX de la serie 7000. En otras palabras: no es una herramienta liviana, pero está completamente integrada con el hardware diseñado.

Pero lo más interesante sigue siendo Será una elección estratégica para toda la plataforma familiar.. Frente a las ventajas de los modelos ofrecidos desde la nube, con las ventajas de escalabilidad y potencia, así como peajes para la privacidad, la latencia y las dependencias externas, la AMD y la tensión proporcionan a los usuarios controles completos. En un período de preocupaciones razonables sobre el uso de datos personales, la decisión gana valor agregado más allá del rendimiento puro.

Desde mi punto de vista, Amuse 3.0 es más que una simple actualización. Esta es una reafirmación de la filosofía de incumplimiento del reflujo, pero tiene todos los significados del mundo. Para aquellos que desean trabajar sin renunciar a controlar recursos o contenido. No es la solución de todos, ni tiene la intención de competir por los músculos grandes en una gran infraestructura de nubes. Pero es exactamente por qué es tan valioso. Porque en la industria del pisoteo en «como servicio como servicio», los pasos de cada compañía hacia la dirección opuesta son en realidad una pequeña revolución.

Más información



Puedes consultar la fuente de este artículo aquí

Compartir esta noticia en: