Red Hat Enterprise Linux simplifica el uso de aceleradores de IA de AMD, Intel y NVIDIA

Red Hat integra en Red Hat Enterprise Linux los controladores y componentes necesarios para los principales aceleradores de IA de AMD, Intel y NVIDIA con el objetivo de reducir tiempos de inactividad y acelerar el paso de los modelos al entorno de producción.
5 de diciembre, 2025
Digital Inside_REDHAT_IA

Red Hat ha anunciado una mejora en la forma en que los clientes de Red Hat Enterprise Linux acceden e instalan el software necesario para aprovechar aceleradores de inteligencia artificial de AMD, Intel y NVIDIA.

Red Hat Enterprise Linux actúa como base del catálogo de soluciones de nube híbrida, automatización e IA de la compañía, y está certificado con múltiples proveedores de infraestructura y servicios. Con esta actualización, Red Hat Enterprise Linux se presenta como un sistema operativo preparado para ejecutar cargas de trabajo de IA y aprendizaje automático, desbloqueando capacidades de hardware y software validadas para su interoperabilidad. Para los responsables de TI, esto se traduce en la posibilidad de planificar y desplegar proyectos de IA sobre una misma plataforma, tanto en instalaciones locales como en entornos de nube pública y privada.

La compañía busca reducir los tiempos de inactividad derivados de la obtención y actualización de controladores de aceleradores de IA, que hasta ahora podían provocar interrupciones en producción, ciclos prolongados de resolución de problemas y pérdida de ingresos.

Para mitigar este riesgo operativo, Red Hat ofrece ahora acceso a los controladores y componentes de espacio de usuario más recientes para los aceleradores de AMD, Intel y NVIDIA directamente a través de los repositorios oficiales de Red Hat Enterprise Linux. Estos repositorios son las fuentes de paquetes desde las que el sistema descarga e instala software de forma estándar y gestionada. De este modo, los equipos de TI pueden desplegar estas piezas de software mediante los mismos procedimientos que utilizan para el resto de paquetes del sistema operativo.

Entre los componentes ya disponibles se encuentran el controlador de modo kernel para GPU de AMD junto con la plataforma de software AMD ROCm, orientada a la ejecución de cargas de trabajo de cálculo sobre GPU; el controlador de modo kernel para la Intel Neural Processing Unit, que permite al sistema operativo comunicarse directamente con las unidades especializadas en inferencia; el controlador de modo kernel NVIDIA GPU OpenRM, que habilita la gestión de los recursos de GPU de este proveedor; y el kit de herramientas NVIDIA CUDA, el entorno de desarrollo utilizado para programar y optimizar aplicaciones que se ejecutan sobre GPU NVIDIA. La distribución de estos elementos a través del Repositorio de Extensiones, el Repositorio Suplementario y BaseOS de Red Hat Enterprise Linux permite integrarlos en los flujos de gestión habituales de parches y actualizaciones.

Red Hat vincula esta iniciativa con el papel que Red Hat Enterprise Linux ha desempeñado durante años como plataforma de referencia para la informática empresarial y, más recientemente, para los proyectos de IA. Al centralizar la adquisición, el despliegue y el mantenimiento del software de aceleración de inteligencia artificial en los repositorios de la propia distribución, la compañía busca reducir la dispersión de fuentes y versiones que suelen gestionar los equipos técnicos. Esta integración permite que los modelos y aplicaciones de IA pasen del desarrollo a la producción en menos tiempo, manteniendo un único sistema operativo como base para las estrategias de nube híbrida y automatización de las organizaciones.