AMD habilita el uso bajo Windows de modelos de lenguaje con 128.000 millones de parámetros

Formará parte del controlador Adrenalin Edition 25.8.1 y requerirá de un microprocesador Ryzen AI Max+ 395 128GB de última generación, garantizando la confidencialidad de los datos.
30 de julio, 2025

Entre los temas candentes en la joven área de la inteligencia artificial, contamos con la IA agéntica y también con la capacidad de ejecutar modelos de lenguaje grandes (LLM, por sus siglas en inglés) en local, lo que nos dota de mayor confidencialidad sobre los datos que utilizamos con ellos, algo especialmente útil para las empresas y organizaciones que manejan datos sensibles.

Esto último es posible mediante dos vías: por un lado, la optimización del software para conseguir que las demandas de hardware de los modelos sean inferiores y, por el otro, a construir un hardware más potente, que incluye unidades de aceleración para otorgar mayor rendimiento a los ordenadores en tareas propias de la IA.

Y este último es, precisamente, el camino que ha seguido AMD con su nuevo controlador KB que formará parte del controlador Adrenalin Edition 25.8.1, ya que usará el el procesador Ryzen AI Max+ 395 128GB para ejecutar localmente, y bajo el sistema operativo Windows, modelos LLM de hasta 128 mil millones de parámetros.

Este logro incluye soporte para Llama 4 Scout 109B de Meta con visión completa, y Model Context Protocol (MCP) a través de llama.cpp + Vulkan, marcando el primer procesador de consumo capaz de ejecutar un modelo de este tamaño con ventanas de contexto de 256.000 tokens para tratar documentos largos, razonamiento de múltiples pasos y flujos de trabajo con agentes de IA

Mediante la reasignación de la RAM del sistema, una mejora en AMD Variable Graphics Memory (VGM) permite que hasta 96 GB de memoria gráfica dedicada y contigua, se encuentren disponibles para la iGPU, haciendo posible ejecutar modelos a gran escala (128B en 4 bits o 32B en FP16), localmente y sin necesidad de una GPU dedicada.

Esta solución ofrece la suficiente flexibilidad como para ejecutar una amplia gama de modelos, que van desde asistentes ligeros hasta herramientas avanzadas para programación y tareas visuales.