Nutanix (NASDAQ: NTNX), líder en computación híbrida multicloud, ha presentado Nutanix GPT-in-a-Box, una solución para los clientes que buscan poner en marcha la inteligencia artificial (IA) y el aprendizaje automático (Machine Learning, ML), manteniendo el control total sobre sus datos. La nueva oferta es una plataforma completa de AI definida por software, junto con servicios para dimensionar y configurar la infraestructura de hardware y software adecuada para desplegar un conjunto organizado de Modelos de Lenguaje de Gran Tamaño (LLMs, por sus siglas en inglés) utilizando los principales marcos de IA y MLOps de código abierto en Nutanix Cloud Platform. Esto permite a los clientes obtener fácilmente una infraestructura preparada para la IA, con el fin de ajustar y ejecutar transformadores generativos preentrenados (GPT), incluidos los LLM.
Muchas empresas están estudiando la forma de aprovechar la IA generativa y las aplicaciones de IA/ML de manera rápida, eficiente y segura, especialmente para casos de uso en los que la soberanía de los datos y la gobernanza preocupan. Las organizaciones buscan aprovechar la IA generativa para mejorar el servicio al cliente, la productividad de los desarrolladores y la eficiencia operativa. Desde la transcripción automatizada de documentos internos hasta la búsqueda de alta velocidad de contenidos multimedia y el análisis automatizado, muchas organizaciones ven la oportunidad que ofrece la IA, pero se enfrentan a la creciente preocupación por la fuga de propiedad intelectual, el cumplimiento normativo y la privacidad. Además, las organizaciones que buscan prepararse para la IA desde un punto de vista de TI a menudo tratan de ver la mejor manera de apoyar a los administradores de ML y científicos de datos. Sin embargo, la perspectiva de grandes inversiones en IA atenaza frecuentemente a las empresas.
La solución Nutanix GPT-in-a-Box ofrece una infraestructura de IA lista para usar y controlada por el cliente para el Edge o el data center principal y permite a los clientes ejecutar y ajustar modelos de IA y GPT mientras mantienen el control sobre sus datos. Nutanix dispone asimismo de una propuesta completa de soluciones de seguridad y protección de datos idóneas para la adopción de IA.
Esta nueva solución incluye:
* Infraestructura en la nube de Nutanix, líder en el sector, Nutanix Files, Objects Storage, e hipervisor AHV y plataforma Kubernetes Nutanix con aceleración de GPU NVIDIA, que pueden dimensionarse a gran o pequeña escala.
* Servicios Nutanix para ayudar a los clientes a dimensionar su clúster y desplegar conocimiento con las principales fuentes de aprendizaje profundo y MLOps de código abierto, servidor de inferencia y un conjunto curado de modelos de lenguaje de gran tamaño como Llama2, Falcon GPT y MosaicML.
* Capacidad para que los científicos de datos y los administradores de ML consuman inmediatamente estos modelos con su elección de aplicaciones, interfaz de usuario de terminal mejorada o CLI estándar.
* La plataforma también se puede utilizar para ejecutar otros modelos GPT, así como para afinar estos modelos aprovechando los datos internos, alojados en los servicios Nutanix Files u Objects.
La solución GPT-In-a-Box de Nutanix se fundamenta en la escalabilidad, rendimiento, resistencia y facilidad de uso de la reconocida plataforma en la nube de Nutanix. La experiencia de este fabricante con infraestructuras escalables en la nube pública, centros de datos y casos de uso periféricos ofrece el entorno ideal para ajustar y ejecutar aplicaciones de IA al tiempo que se mantiene el control sobre los datos. De hecho, en una encuesta reciente, el 78% de sus clientes indicaron que era probable que ejecutaran sus cargas de trabajo de IA/ML en la plataforma de Nutanix.
La experiencia de Nutanix como participante activo en la comunidad de IA de código abierto proporciona a los clientes una base sólida sobre la que construir su estrategia. Las contribuciones clave incluyen: participación en el consejo asesor de MLCommons (estándares IA); cofundación y liderazgo técnico en la definición de ML Storage Benchmarks y Medicine Benchmarks; copresidencia de los grupos de trabajo Kubeflow (MLOps) Training y AutoML en la Cloud Native Computing Foundation (CNCF).