Cuando apareció Amuse 3.0 ya dejaba claro que la inferencia local tenía mucho más recorrido del que algunos estaban dispuestos a reconocer. No era una solución masiva ni universal, pero sí una muestra más de que la IA generativa puede funcionar sin depender de servidores remotos. Con Amuse 3.1, esa idea se consolida: se mantiene la apuesta por lo local, se simplifican muchos procesos y se da entrada, por primera vez, a modelos de nueva generación como SD 3 Medium.
Amuse es una interfaz desarrollada por TensorStack en colaboración con AMD para ejecutar modelos generativos de imagen de forma local, sin conexión y aprovechando las capacidades de cómputo de los sistemas, es decir, tanto las GPUs como las NPUs. La versión 3.1 mantiene esa premisa, pero la expande de forma significativa: es más potente, más simple de usar y, sobre todo, compatible con modelos que hasta ahora estaban reservados a plataformas de escritorio mucho más exigentes.
La gran novedad es la compatibilidad con SD 3 Medium, el modelo de generación de imágenes de Stability AI optimizado específicamente para funcionar con precisión BF16 sobre las nuevas NPU Ryzen AI 300. Es, según AMD, la primera vez que un modelo de esta familia se ejecuta de forma local y funcional en un portátil. Pero hay más: la interfaz ha sido completamente rediseñada, con un sistema de historial, gestión de prompts, presets y visualización que facilita su uso incluso a quienes no son expertos. Además, el proceso de instalación se ha simplificado: el nuevo autoconfigurador detecta el hardware, descarga los modelos y optimiza el entorno en apenas unos clics.
Desde el punto de vista técnico, los avances son notables. Según AMD, Amuse 3.1 permite generar imágenes a resolución 1024×1024 en menos de 8 segundos, con un consumo energético hasta un 80% inferior al de sistemas con tarjeta gráfica dedicada ejecutando SDXL. La calidad de salida es más que decente: los resultados pueden usarse perfectamente en impresión o diseño, con un grado de detalle y nitidez sorprendente para una solución que prescinde por completo de la GPU. Todo esto, sin conexión a Internet, sin enviar datos a servidores remotos, sin pagar por tokens ni cuotas mensuales.
Esto último no es menor. En un momento en que todo parece pasar por la nube, con modelos cerrados, políticas de uso cambiantes y costes difíciles de predecir, tener una herramienta como Amuse resulta refrescante. No hay que pedir permiso, ni preocuparse por si tus imágenes se usan para entrenar otra IA. Lo que generas, lo haces en tu máquina, sin depender de terceros. Para usuarios creativos, ilustradores, diseñadores o simplemente curiosos, eso significa recuperar el control y la autonomía.
Amuse 3.1 se puede emplear con GPUs y NPUs de cualquier fabricante pero, eso sí, necesita un equipo con Ryzen AI 300, algo que todavía limita su alcance, si quieres emplear SD 3 Medium. Además, algunas funciones avanzadas de prompting o composición todavía están por detrás de lo que ofrecen las soluciones más consolidadas. Y, aunque la comunidad empieza a crecer, aún queda camino por recorrer para convertirlo en una plataforma robusta, con tutoriales, modelos personalizados y una base de usuarios activa.
Aun así, lo importante no es tanto lo que ya es Amuse, sino lo que representa. Frente a un mercado cada vez más cerrado, este pequeño software plantea una vía distinta que recorren cada vez más aplicaciones y usuarios: una IA generativa que puedes ejecutar tú mismo, con tus medios, sin renunciar a la calidad. Y aunque aún esté en construcción, es una de esas herramientas que te hacen pensar que sí, que otra inteligencia artificial es posible.
Más información
La entrada Amuse 3.1 permite emplear SD 3 Medium en local se publicó primero en MuyComputer.