Red Hat ha anunciado nuevas incorporaciones a su portfolio Red Hat AI con el objetivo de acelerar el despliegue de la inteligencia artificial empresarial en entornos productivos. Las novedades incluyen el lanzamiento del Red Hat AI Inference Server, una nueva colección de modelos validados y optimizados por terceros, y la integración de APIs estandarizadas como Llama Stack y el Modelo de Contexto de Protocolo (MCP). Estas capacidades buscan resolver los principales retos de escalabilidad, rendimiento y portabilidad que enfrenta el despliegue de modelos de IA generativa y predictiva.
Red Hat AI Inference Server permite una ejecución de modelos más eficiente, coherente y rentable en infraestructuras de nube híbrida. Está ya integrado en las nuevas versiones de Red Hat OpenShift AI y Red Hat Enterprise Linux AI, y se ofrece también como servicio independiente, ampliando así la flexibilidad operativa para organizaciones con diferentes necesidades de despliegue.
Validación de modelos y APIs para el desarrollo de agentes
La compañía también ha introducido un conjunto de modelos de terceros validados, accesibles desde la plataforma Hugging Face, que ofrecen garantías en términos de rendimiento, reproducibilidad y compatibilidad con Red Hat AI. Algunos de estos modelos han sido optimizados mediante compresión, reduciendo su tamaño y coste de ejecución, una ventaja clave para entornos exigentes o con recursos limitados.
Además, Red Hat AI está integrando Llama Stack, desarrollado por Meta, y el MCP de Anthropic, con el objetivo de estandarizar el desarrollo de aplicaciones y agentes de IA generativa. Estas interfaces permiten a los modelos interactuar con fuentes de datos externas y sistemas de inferencia a través de una arquitectura común, reduciendo la complejidad de implementación.
Novedades en Red Hat OpenShift AI y RHEL AI
La última versión de Red Hat OpenShift AI (v2.20) incorpora funciones como: un catálogo de modelos optimizado, que facilita el despliegue y la gestión del ciclo de vida de modelos desde una consola web; entrenamiento distribuido a través de KubeFlow con soporte para múltiples nodos y GPU; y un nuevo almacén de características para la gestión centralizada de datos en los flujos de trabajo de inferencia y entrenamiento.
Por su parte, Red Hat Enterprise Linux AI 1.5 amplía su compatibilidad con Google Cloud Marketplace, mejora el soporte multilingüe de InstructLab para español, francés, alemán e italiano, y permite la personalización de modelos mediante scripts propios o modelos de referencia, con planes de expansión a otros idiomas.
IA personalizable desde IBM Cloud y visión estratégica
Como parte de su colaboración con IBM, el servicio Red Hat AI InstructLab en IBM Cloud está ahora disponible de forma general. Este servicio acelera el proceso de personalización de modelos, facilitando a las empresas el uso de datos propios sin renunciar al control o la escalabilidad.
Red Hat reafirma así su visión de una IA empresarial sin restricciones: una infraestructura que permita ejecutar cualquier modelo, en cualquier acelerador, en cualquier nube. Bajo este enfoque, el fabricante propone una plataforma universal de inferencia como clave para aprovechar el verdadero potencial de la inteligencia artificial generativa, con una experiencia más homogénea, escalable y controlada.



