Publicado 20/05/2025 14:01

Red Hat acerca la IA generativa en la nube híbrida a las empresas con Red Hat Inference Server y Enterprise Linux 10

Archivo - Logo de Red Hat.
Archivo - Logo de Red Hat. - RED HAT - Archivo

   MADRID, 20 May. (Portaltic/EP) -

   Red Hat ha presentado su nueva solución Red Hat AI Inference Server, a la que se refiere como un avance hacia la "democratización de la IA generativa" en la nube híbrida, ya que, enmarcada en su plataforma Red Hat AI, ofrece a las compañías mayor velocidad, eficiencia en el uso de aceleradores y rentabilidad, a la hora de desplegar y escalar IA generativa en sus labores, al tiempo que ha lanzado la nueva plataforma Red Hat Enterprise Linux 10.

   En el marco del evento Red Hat Summit 2025 & AnsibleFest, que reúne a profesionales de TI, líderes empresariales y socios en Boston (Estados Unidos) del 19 al 22 de mayo, la compañía ha dado a conocer sus últimas innovaciones y avances con respecto a sus tecnologías de IA, la nube híbrida y su sistema operativo Linux, de cara a impulsar la labor de cada empresa de forma abierta.

   Bajo la premisa de ejecutar cualquier modelo, en cualquier acelerador y en cualquier nube, sin costes elevados, la tecnológica ha subrayado su objetivo de ayudar a las organizaciones a adoptar modelos de IA más "pequeños, optimizados y abiertos" que puedan funcionar en cualquier lugar, así como impulsar que las empresas puedan "abordar la próxima fase de la IA", que engloba tecnologías como la inferencia a través de la nube híbrida.

   Tal y como ha matizado en este sentido, la inferencia es "el motor de ejecución crítico de la IA", ya que ofrece ventajas "significativas" a las empresas a la hora de procesar datos en tiempo real, por ejemplo, permitiendo llevar a cabo previsiones y la toma de decisiones instantáneas, lo que es relevante a la hora de gestionar temas relacionados con la detección del fraude o el servicio al cliente.

   Así, a medida que los modelos de IA generativa se vuelven "cada vez más complejos" y la producción aumenta, Red Hat ha advertido en un encuentro con la prensa que la inferencia "puede convertirse en un cuello de botella importante", consumiendo recursos de 'hardware' e, incluso, paralizando la capacidad de respuesta de las empresas.

RED HAT AI INFERENCE SERVER IMPULSADO POR VLLM

   Por tanto, las compañías actualmente necesitan servidores de inferencia que desbloqueen el potencial de la IA a escala y, para abordar estos desafíos, Red Hat ha anunciado su nueva solución Red Hat AI Inference Server, que se integra en la plataforma de IA de la compañía, Red Hat AI -junto a los productos OpenShift AI y Red Hat Enterprise Linux AI-, y que incluye opciones de IA generativa optimizadas "de alta calidad y alto rendimiento", a través de entornos de nube híbrida.

   Concretamente, la tecnológica ha señalado que incluye herramientas de compresión de modelos de gran tamaño (LLM), con las que reduce la envergadura del modelo en cuestión y mejora su eficiencia en un menor tamaño. Esto se traduce en modelos optimizados para el rendimiento, con menor latencia, mejores capacidades de respuesta y un uso más eficiente de los recursos informáticos de las empresas.

   También ofrece un repositorio de modelos optimizado que, alojado en la organización Red Hat AI en Hugging Face, da acceso instantáneo a una colección "validada y optimizada" de modelos de IA para el despliegue de inferencia. Con ello, ayuda a acelerar la eficiencia entre dos y cuatro veces sin comprometer la precisión del modelo.

   Siguiendo esta línea, Red Hat AI Inference Server se basa en el proyecto vLLM (Virtual Large Language Model), que es capaz de ejecutar una amplia variedad de modelos de código abierto de forma eficiente, como modelos Llama de Meta, DeepSeek, Gemma de Google, Phi de Microsoft, Nemoton de Nvidia o Mistral AI, sobre diferentes plataformas de 'hardware', ya sean GPU de Nvidia, TPU (Tensor Processing Unit) de Google o los aceleradores Gaudi de Intel.

   De esta forma, el proyecto ofrece soporte para contextos de entrada extensos, aceleración multi-GPU de modelos y soporte para procesamiento por lotes, entre otras capacidades. Esto permitirá a las empresas obtener "flexibilidad y consistencia" para desplegar y manejar modelos "donde sea más sencillo para su estrategia de trabajo de IA".

   Además, Red Hat AI Inference Server también incluye el nuevo proyecto de comunidad llm-d que, respaldado por compañías como CoreWeave, Google, IBM y Nvidia, e impulsado por la plataforma Kubernetes y VLLM, desbloquea inferencia de forma eficiente y escalable para "servir LLMs a múltiples usuarios".

EXPANDIENDO SU ECOSISTEMA DE IA

   Para ofrecer estas soluciones, la tecnológica ha anunciado igualmente que está lanzando un nuevo programa de validación de modelos terceros, como los mencionados anteriormente de Meta, Google o DeepSeek, que estarán disponibles en línea a través de su repositorio Hugging Face y dentro de OpenShift AI a través de su nuevo catálogo de modelos. De esta forma, se facilita que las organizaciones encuentren rápidamente modelos que funcionen para sus propósitos de forma optimizada y personalizada.

    Por otra parte, Red Hat ha estado trabajando en el desarrollo de IA agéntica. Al respecto, ha señalado que OpenShift AI ya ofrece una plataforma para ejecutar agentes de IA, pero están avanzando para añadir nuevas capacidades que permitan que los clientes "desplieguen, construyan y manejen agentes". Esto incluye la integración de la API Llama Stack.

RED HAT ENTERPRISE LINUX 10

   Por otra parte, la tecnológica ha presentado Red Hat Enterprise Linux 10 (RHEL 10), la evolución de la principal plataforma empresarial de Linux a nivel global "lista para la IA", al tratarse de un sistema estratégico para entornos de nube híbrida, así como una base "sólida" para la innovación en IA en el ámbito laboral.

   Más allá de una simple actualización, Red Hat Enterprise Linux 10 proporciona un "eje central estratégico e inteligente" para que la TI empresarial gestione la "creciente complejidad", acelere la innovación y construya "una base informática segura para el futuro". Todo ello, enmarcado en la proliferación de entornos híbridos y la necesidad de integrar cargas de trabajo de IA.

   En este caso, se trata de una versión que "redefine el estándar para un Linux simplificado", dado que, según Red Hat, integra desde capacidades para la protección de datos "en la era post-cuántica", hasta opciones de agilidad, flexibilidad y gestión en Linux, y la adopción de contenedores como lenguaje del sistema operativo.

   Concretamente, la compañía ha remarcado que esta nueva versión ayudará a los usuarios a afrontar sus desconocimientos sobre Linux de la mano del asistente RHEL Lightspeed basado en IA. Con ello, proporciona orientación contextualizada y recomendaciones prácticas a través de una interfaz de lenguaje natural, con lo que ayudará a resolver problemas comunes o aplicar las mejores decisiones para dominar entornos TI complejos.

   Asimismo, también incluye funciones como el modo de imagen para RHEL, que unifica el desarrollo, despliegue y gestión tanto del sistema operativo como de las aplicaciones dentro de un flujo de trabajo optimizado. Así, permite tomar "mejores decisiones" en momentos de compilación, con asistencia para informar a las compañías sobre cuándo es más "fácil y barato" hacer despliegues o cambios.

   También facilita el uso de la nube híbrida con imágenes preconfiguradas para ejecutar en Amazon Web Services, Google Cloud y Microsoft Azure.

   En cuanto a las estrategias de seguridad, RHEL 10 incluye el próximo Red Hat Enterprise Linux Security Select Add-On, que ofrece la posibilidad de solicitar correcciones para hasta 10 vulnerabilidades y exposiciones comunes (CVEs) al año.

Contador