MADRID, 27 Oct. (Portaltic/EP) -
Qualcomm ha presentado las soluciones AI200 y AI25 para la inferencia de inteligencia artificial (IA) generativa en centros de datos, que pretende actualizar con una cadencia anual para ofrecer rendimiento y eficiencia energética.
AI200 y AI250 son los nuevos chips de Qualcomm para centros de datos, tarjetas aceleradoras y racks con las que la compañía de semiconductores promete un rendimiento a escala de rack y una capacidad de memoria superior para una rápida inferencia de IA generativa.
La primera de estas dos soluciones está diseñada para ofrecer un bajo coste total de propiedad y un rendimiento optimizado para la inferencia de lenguajes y modelos multimodales (LLM, LMM) de gran tamaño y otras cargas de trabajo de IA.
AI200 admite 768GB de LPDDR por tarjeta para una mayor capacidad de memoria y un menor coste, como ha informado Qualcomm en un comunicado. AI250 debuta con un arquitectura de memoria basada en computación cercana a la memoria, que ofrece un ancho de banda de memoria efectivo más de 10 veces superior y un consumo de energía mucho menor.
Los dos chips disipan el calor con refrigeración líquida directa y cuentan con soporte para PCIe para escalamiento vertical, Ethernet para escalamiento horizontal, computación confidencial para cargas de trabajo de IA seguras y un consumo de energía a nivel de rack de 160kW.
Qualcomm ha informado de que AI200 llegará al mercado el próximo año y AI250, en 2027. Ambas soluciones forman parte de una parte de una hoja de ruta con la que la compañía se ha comprometido a mejorar el rendimiento, la eficiencia energética y el coste total de propiedad de los centros de datos con una frecuencia anual.