Hewlett Packard Enterprise ha anunciado su entrada en el mercado de servicios de IA en la nube con la ampliación de su porfolio HPE GreenLake ofreciendo modelos de lenguaje a gran escala (Large Language Models) para que cualquier empresa, desde startups hasta compañías Fortune 500, pueda acceder bajo demanda en un servicio de supercomputación en la nube multi-usuario.
Con HPE GreenLake for Large Language Models (LLMs), las empresas pueden entrenar, afinar y desplegar IA a gran escala de forma privada utilizando una plataforma de supercomputación sostenible que combina el software de IA y los superordenadores de HPE líderes del mercado. HPE GreenLake for LLMs se ofrecerá en colaboración con Aleph Alpha, una startup alemana de IA, para proporcionar a los usuarios un LLM probado y listo para usar que habilita casos de uso que requieran procesamiento y análisis de texto e imágenes.
HPE GreenLake for LLMs es la primera de una serie de aplicaciones específicas de IA que HPE planea lanzar en el futuro. Estas aplicaciones incluirán soporte para modelos climáticos, sanidad e investigación médica, servicios financieros, industria y transporte. Además, HPE también ha anunciado una nueva serie de soluciones optimizadas para cargas de trabajo de inferencia de IA en el extremo y en el centro de datos.
HPE es líder global y experto en supercomputación, impulsando niveles sin precedentes de rendimiento y escala para la IA entre los que se incluyen romper la barrera de velocidad exascala con el superordenador más rápido del mundo, Frontier.
A diferencia de las ofertas cloud de uso general que ejecutan múltiples cargas de trabajo en paralelo, HPE GreenLake for LLMs se ejecuta en una arquitectura nativa de IA diseñada exclusivamente para una única carga de trabajo de entrenamiento y simulación de IA a gran escala, y a plena capacidad de computación. La oferta admitirá cargas de trabajo de IA y HPC en cientos o miles de CPU o GPU a la vez. Esta capacidad es significativamente más eficaz, fiable y eficiente para entrenar modelos de IA más precisos, lo que permite a las empresas acelerar su viaje desde Pruebas de Concepto (POC) a producción y resolver problemas más rápidamente.
Presentamos HPE GreenLake for LLMs, la primera de una serie de aplicaciones de IA
HPE GreenLake for LLMs incluirá acceso a Luminous, un modelo de lenguaje a gran escala pre-entrenado de Aleph Alpha, que se ofrece en múltiples idiomas, incluyendo inglés, francés, alemán, italiano y español. Este modelo permite a los clientes aprovechar sus propios datos, entrenar y afinar modelos personalizados, para obtener información en tiempo real basada en sus conocimientos propios.
Este servicio permite a las empresas crear y comercializar diversas aplicaciones de IA para integrarlas en sus procesos y generar valor para el negocio o la investigación.
HPE proporciona escala de supercomputación para el entrenamiento, ajuste y despliegue de IA
HPE GreenLake para LLMs estará disponible bajo demanda, ejecutándose en los superordenadores más potentes y sostenibles del mundo, HPE Cray XD, eliminando la necesidad de que los clientes adquieran y gestionen un superordenador propio que suele ser costoso, complejo y requiere conocimientos específicos. La oferta aprovecha el entorno de programación HPE Cray, un paquete de software totalmente integrado para optimizar las aplicaciones de HPC e IA, con un conjunto completo de herramientas para desarrollar, portar, depurar y ajustar el código.
Además, la plataforma de supercomputación proporciona soporte para el software de IA/ML de HPE, que incluye HPE Machine Learning Development Environment para entrenar rápidamente modelos a gran escala, y HPE Machine Learning Data Management Software para integrar, gestionar y auditar flujos de datos y generar modelos de IA fiables y precisos de forma reproducible.
HPE GreenLake for LLMs se ejecuta en TI sostenibles
HPE se compromete a ofrecer informática sostenible a sus clientes. HPE GreenLake for LLMs se ejecutará en instalaciones en colocation, como con QScale en Norteamérica, que será la primera región en ofrecer un diseño especialmente concebido para soportar la escala y capacidad de la supercomputación con casi el 100% de energía renovable. 1
HPE amplía la oferta de IA con un nuevo porfolio de soluciones de inferencia de IA
HPE da soporte a tres componentes críticos en el proceso de la IA: entrenamiento, ajuste e inferencia. Además de la presentación de HPE GreenLake for Large Language Models para entrenar y afinar LLMs a gran escala, HPE ha anunciado una expansión de sus soluciones de inferencia de IA para acelerar el tiempo de obtención de valor para las grandes industrias, incluyendo venta al por menor, hostelería, industria, medios de comunicación y entretenimiento.
Estos sistemas han sido adaptados para cargas de trabajo en el extremo y en el centro de datos, como Computer Vision at the Edge, Generative Visual AI y Natural Language Processing AI. Estas soluciones de IA se basan en los nuevos servidores HPE ProLiant Gen11, diseñados específicamente para integrar aceleración avanzada de GPU, fundamental para el rendimiento de la IA. Los servidores HPE ProLiant DL380a y DL320 Gen11 aumentan 5 veces más el rendimiento de la inferencia de IA con respecto a los modelos anteriores.
Disponibilidad
HPE está ya aceptando pedidos para HPE GreenLake for LLMs y espera contar con disponibilidad adicional para finales del año 2023, comenzando en Norteamérica y en Europa para principios del próximo año.
HPE Services ofrece un porfolio completo de servicios que abarcan estrategia y diseño, implementación, operaciones y gestión para iniciativas de IA.