Estás leyendo
Hewlett Packard Enterprise presenta una cartera nativa de IA de extremo a extremo para IA generativa

Hewlett Packard Enterprise presenta una cartera nativa de IA de extremo a extremo para IA generativa

  • Las soluciones de software y hardware de clase empresarial diseñadas conjuntamente por HPE y NVIDIA aceleran el desarrollo y la implementación de aplicaciones GenAI
HPE Supercomputing Solution for Generative AI

Hewlett Packard Enterprise ha anunciado nuevas actualizaciones para una de las carteras nativas de inteligencia artificial más completas del sector. Estas actualizaciones están diseñadas para impulsar la implementación de aplicaciones de IA generativa (GenAI), aprendizaje profundo (Deep learning) y aprendizaje automático (ML). Durante el anuncio, que tuvo lugar durante la conferencia global de inteligencia artificial para desarrolladores NVIDIA GTC, se presentaron las siguientes mejoras:

·         Disponibilidad de dos soluciones GenAI full-stack desarrolladas en colaboración entre HPE y NVIDIA.

·         Una versión previa del software HPE Machine Learning Inference.

·         Una arquitectura de referencia de generación aumentada de recuperación empresarial (RAG).

·         Soporte para el desarrollo de futuros productos basados en la nueva plataforma NVIDIA Blackwell.

Para cumplir con la promesa de la GenAI y abordar de manera efectiva el ciclo de vida completo de la IA, las soluciones deben ser híbridas por diseño. Desde el entrenamiento y el ajuste de modelos en las instalaciones, ya sea en una instalación de colocación o en la nube pública, hasta la inferencia en el extremo, la inteligencia artificial es una carga de trabajo de nube híbrida. HPE y NVIDIA tienen una larga historia de innovación colaborativa, y continuaremos ofreciendo soluciones de software y hardware de IA diseñadas conjuntamente para que ayuden a nuestros clientes a acelerar el desarrollo e implementación de la GenAI, desde el concepto hasta la producción.Antonio Neri, presidente y CEO de HPE
La IA generativa tiene la capacidad de transformar los datos de los dispositivos conectados, centros de datos y nubes en información valiosa que impulse avances en todos los sectores. Nuestra creciente colaboración con HPE permitirá a las empresas ofrecer una productividad sin precedentes al aprovechar sus datos para desarrollar e implementar nuevas aplicaciones de inteligencia artificial para transformar sus negocios.Jensen Huang, fundador y CEO de NVIDIA

Entrenamiento y ajuste de GenAI impulsado por supercomputación

Anunciada en SC23, la solución de supercomputación de HPE para IA generativa ya está disponible para las organizaciones que buscan una solución completa preconfigurada y probada previamente para el desarrollo y entrenamiento de grandes modelos de IA. Diseñada específicamente para ayudar a los clientes a acelerar los proyectos de GenAI y Deep Learning, la solución llave en mano cuenta con la tecnología de NVIDIA y puede admitir hasta 168 superchips GH200 Grace Hopper.

Esta solución permite a las grandes empresas, instituciones de investigación y entidades gubernamentales optimizar el proceso de desarrollo de modelos con una pila de software de IA/ML que ayuda a los clientes a acelerar los proyectos de GenAI y aprendizaje profundo, incluidos los LLM, los sistemas de recomendación y las bases de datos vectoriales. Entregada con servicios de instalación y configuración, esta solución llave en mano está diseñada para su uso en centros de investigación de IA y grandes empresas para mejorar el tiempo de creación de valor y acelerar la capacitación entre 2 y 3 veces.

Ajuste e inferencia de GenAI de clase empresarial

La solución de computación empresarial de HPE para IA generativa, presentada en primicia en  Discover Barcelona 2023, está ya disponible directamente o a través de HPE GreenLake con un modelo de pago por uso flexible y escalable. Desarrollada en colaboración con NVIDIA, ofrece ajuste fino e inferencia preconfigurada para reducir tanto el tiempo como los costes de puesta en marcha. Esta solución proporciona, además, servicios integrales de computación, almacenamiento, software, redes y consultoría necesarios para desarrollar aplicaciones de GenAI. Con una arquitectura full-stack nativa de IA, las empresas pueden disfrutar de la velocidad, escala y control necesarios para adaptar modelos base utilizando datos privados e implementar aplicaciones GenAI dentro de un modelo de nube híbrida.

Con un clúster de computación de IA de alto rendimiento y software de HPE y NVIDIA, esta solución es idónea para el ajuste fino de modelos, RAG e inferencia de escalamiento horizontal. El tiempo de ajuste fino de un modelo Llama 2 de 70 mil millones de parámetros que ejecuta esta solución disminuye linealmente con el número de nodos, tardando seis minutos en un sistema de 16 nodos[i]. Esta velocidad y rendimiento permiten a los clientes obtener un retorno de inversión más rápido al aumentar la productividad empresarial con aplicaciones de IA, como asistentes virtuales, chatbots inteligentes y búsqueda empresarial. Además, para abordar la brecha de habilidades asociadas a la inteligencia artificial, los expertos de HPE Services ayudan a las empresas a diseñar, implementar y administrar la solución, lo que incluye la aplicación de técnicas adecuadas de ajuste de modelos.

Equipada con servidores HPE ProLiant DL380a Gen11, la solución está preconfigurada con GPUs de NVIDIA, la plataforma de red NVIDIA Spectrum-X Ethernet y DPUs NVIDIA BlueField-3. Además, se complementa con la plataforma de aprendizaje automático y el software de análisis de HPE, el software NVIDIA AI Enterprise 5.0 con el nuevo microservicio NVIDIA NIM para la inferencia optimizada de modelos generativos de IA, así como NVIDIA NeMo Retriever y otras librerías de ciencia de datos e IA.

Te puede interesar
GSMA Open Gateway

Del prototipo a la productividad

HPE y NVIDIA colaboran en soluciones de software diseñadas para ayudar a las empresas a dar el siguiente paso al convertir las pruebas de concepto de IA y ML en aplicaciones de producción. El software HPE Machine Learning Inference, ya disponible para los clientes de HPE como una versión previa tecnológica, permitirá a las empresas implementar modelos de aprendizaje automático a escala de manera rápida y segura, y se integrará con NVIDIA NIM para proporcionar modelos base optimizados para NVIDIA utilizando contenedores preconstruidos.

Con el objetivo de asistir a las empresas que requieren la rápida creación e implementación de aplicaciones GenAI basadas en datos privados, HPE ha desarrollado una arquitectura de referencia para RAG empresarial, que se encuentra disponible desde hoy y que se fundamenta en la estructura de microservicios NVIDIA NeMo Retriever, que proporcionará a las empresas un plan detallado para desarrollar chatbots, generadores o copilots personalizados. La oferta consiste en una base de datos completa del software HPE Ezmeral Data Fabric y HPE GreenLake for File Storage.

Además, para ayudar en la preparación de datos, el entrenamiento de inteligencia artificial y la inferencia, la solución combina el espectro completo de herramientas y soluciones de código abierto del software HPE Ezmeral Unified Analytics y el software de IA de HPE, que incluye los softwares HPE Machine Learning Data Management, HPE Machine Learning Development Environment y el nuevo HPE Machine Learning Inference. Con el fin de proporcionar un entorno coherente para que los clientes gestionen sus cargas de trabajo de IA generativa, esta oferta está disponible tanto para las soluciones de supercomputación como para las de computación empresarial de HPE para GenAI.

Soluciones de próxima generación basadas en la plataforma NVIDIA Blackwell

HPE desarrollará futuros productos basados en la recientemente anunciada plataforma NVIDIA Blackwell, que integra un motor de transformación de segunda generación para agilizar las cargas de trabajo de GenAI. Próximamente, se compartirán más detalles sobre la disponibilidad y características adicionales de los futuros productos de HPE que contarán con el Superchip NVIDIA GB200 Grace Blackwell, el HGX B200 y el HGXB100.

[i] Basado en pruebas iniciales internas de llama-recipes finetuning.py que siguieron el tiempo promedio de época para ajustar ocho nodos en 594 segundos y 16 nodos en 369 segundos con atención flash y ajuste fino eficiente de parámetros.

Utilizamos cookies para facilitar la relación de los visitantes con nuestro contenido y para permitir elaborar estadísticas sobre las visitantes que recibimos. No se utilizan cookies con fines publicitarios ni se almacena información de tipo personal. Puede gestionar las cookies desde aquí.   
Privacidad