Red Hat, Inc. una plataforma híbrida abierta de inteligencia artificial (IA) y aprendizaje automático (ML) desarrollada sobre Red Hat OpenShift que permite a las empresas crear y ofrecer aplicaciones habilitadas para la IA a escala a través de nubes híbridas. Estas mejoras reflejan la visión que tiene Red Hat sobre la IA, ya que los clientes tienen la capacidad de elección también en el mundo de las cargas de trabajo inteligente, que es uno de los compromisos de Red Hat, tanto desde el hardware subyacente hasta los servicios y herramientas, tales como Jupyter y PyTorch, utilizados para construir en la plataforma. Esto proporciona una innovación más rápida, una mayor productividad y la capacidad de incorporar la IA a las operaciones empresariales diarias a través de una plataforma de código abierto más flexible, escalable y adaptable que hace posible modelos predictivos y generativos, con o sin el uso de entornos de nube.
Llevar los modelos de IA de la experimentación a la producción supone muchos retos para los clientes, entre los que se encuentran el aumento de los costes de hardware, la preocupación por la privacidad de los datos y la falta de confianza a la hora de compartir sus datos con modelos basados en SaaS. La IA generativa está cambiando rápidamente, y muchas organizaciones luchan por establecer una plataforma de IA core fiable que pueda ejecutarse on-premise o en la nube.
Según IDC1, para aprovechar de manera efectiva la IA, las empresas tendrán que modernizar muchas aplicaciones y entornos de datos que tienen en funcionamiento, eliminar las barreras entre los sistemas y las plataformas de almacenamiento existentes, mejorar la sostenibilidad de la infraestructura y elegir cuidadosamente dónde desplegar las diferentes cargas de trabajo en la nube, el centro de datos y el edge. Para Red Hat, esto demuestra que las plataformas de IA deben proporcionar flexibilidad para dar soporte a las empresas a medida que avanzan en su viaje de adopción de la IA y van adaptando sus necesidades y recursos.
La estrategia de IA de Red Hat hace posible tener flexibilidad en toda la nube híbrida, proporciona la capacidad de mejorar los modelos básicos preentrenados o curados con los datos de sus clientes y la libertad de habilitar una variedad de aceleradores de hardware y software. Las características nuevas y mejoradas de Red Hat OpenShift AI responde a estas necesidades dando acceso a las últimas innovaciones de IA/ML y al soporte de un amplio ecosistema de partners centrado en la IA. La última versión de la plataforma, Red Hat OpenShift AI 2.9, ofrece:
● El servicio de modelos en el edge amplía el despliegue de modelos de IA en ubicaciones remotas mediante OpenShift de nodo único. Proporciona capacidades de inferencia en entornos con recursos limitados con acceso a la red intermitente o sin conexión. Esta función technology preview proporciona a las organizaciones una experiencia operativa escalable y coherente desde el núcleo hasta la nube y el edge, e incluye capacidad de observación lista para usar.
● Servicio de modelos optimizado con la capacidad de utilizar varios servidores de modelos para dar soporte a la IA predictiva y generativa, incluida la compatibilidad con KServe, una definición de recursos personalizada de Kubernetes que orquesta el servicio para todos los tipos de modelos, vLLM y servidor de inferencia de generación de texto (TGIS), motores de servicio para LLM y tiempo de ejecución Caikit-nlp-tgis, que gestiona modelos y tareas de procesamiento de lenguaje natural (NLP). El servicio de modelos optimizado permite a los usuarios ejecutar IA predictiva y genérica en una única plataforma para múltiples casos de uso, lo que reduce los costes y simplifica las operaciones. Esto permite el servicio de modelos listos para usar para LLM y simplifica el flujo de trabajo del usuario.
● Cargas de trabajo distribuidas con Ray, mediante CodeFlare y KubeRay, que utiliza varios nodos de clúster para un procesamiento de datos y un entrenamiento de modelos más rápidos y eficientes. Ray es un marco para acelerar las cargas de trabajo de IA, y KubeRay ayuda a gestionar estas cargas de trabajo en Kubernetes. CodeFlare es fundamental para las capacidades de carga de trabajo distribuida de Red Hat OpenShift AI, proporcionando un marco fácil de usar que ayuda a simplificar la orquestación y supervisión de tareas. Las capacidades de gestión y central de turnos permiten una utilización óptima de los nodos, así como la asignación de recursos, como las GPU, a los usuarios y cargas de trabajo adecuados.
● Mejora del desarrollo de modelos mediante espacios de trabajo de proyectos e imágenes adicionales de bancos de trabajo que proporcionan a los científicos de datos la flexibilidad necesaria para utilizar IDE y kits de herramientas, incluidos VS Code y RStudio, actualmente disponibles como technology preview, y CUDA perfeccionado, para una gran variedad de casos de uso y tipos de modelos.
● Visualizaciones de monitorización de modelos para métricas de rendimiento y funcionamiento, que mejoran la capacidad de observación del rendimiento de los modelos de IA.
● Nuevos perfiles de acelerador permiten a los administradores configurar diferentes tipos de aceleradores de hardware disponibles para el desarrollo de modelos y los flujos de trabajo de servicio de modelos. Esto proporciona al usuario un acceso sencillo y autoservicio al tipo de acelerador adecuado para una carga de trabajo específica.
Además de que Red Hat OpenShift AI como base de watsonx.ai de IBM, empresas de todos los sectores se están equipando con Red Hat OpenShift AI para impulsar más innovación y crecimiento de la IA, como AGESIC y Ortec Finance.
La nube es híbrida. Y también la IA
Durante más de 30 años, las tecnologías de código abierto han aunado la rapidez en la innovación con una gran reducción de los costes de TI y la disminución de las barreras a la innovación. Red Hat lleva casi el mismo tiempo liderando esta tendencia, desde el suministro de plataformas Linux empresariales abiertas con RHEL a principios de la década de 2000 hasta el impulso de los contenedores y Kubernetes como base de la nube híbrida abierta y la computación nativa de la nube con Red Hat OpenShift.
Este impulso continúa con Red Hat potenciando las estrategias de IA/ML a través de la nube híbrida abierta, permitiendo que las cargas de trabajo de IA se ejecuten donde están los datos, ya sea en el centro de datos, en múltiples nubes públicas o en el edge. Más allá de las cargas de trabajo, la visión de Red Hat para la IA lleva el entrenamiento y el ajuste de modelos por este mismo camino para abordar mejor las limitaciones en torno a la soberanía de los datos, el cumplimiento y la integridad operativa. La coherencia que ofrecen las plataformas de Red Hat en estos entornos, independientemente de dónde se ejecuten, es crucial para mantener el flujo de la innovación en IA.