Editor en La Ecuación Digital. Consultor de Innovación y Estrategia…
Red Hat ha anunciado el lanzamiento de Red Hat Enterprise Linux AI (RHEL AI) , una plataforma de modelos fundacionales que permite a los usuarios desarrollar, probar y desplegar modelos de IA generativa con mayor fluidez.
RHEL AI reúne la familia de modelos lingüísticos de gran tamaño (LLM) Granite con licencia de código abierto de IBM Research, las herramientas de alineación de modelos de InstructLab basadas en la metodología LAB (Large-scale Alignment for chatBots) y un enfoque de desarrollo de modelos impulsado por la comunidad a través del proyecto InstructLab.
Toda la solución está empaquetada como una imagen RHEL optimizada y de arranque para despliegues de servidores individuales en la nube híbrida y también se incluye como parte de OpenShift AI, la plataforma híbrida de operaciones de aprendizaje automático (MLOps) de Red Hat, para ejecutar modelos e InstructLab a escala en entornos de clústeres distribuidos.
El lanzamiento de ChatGPT generó un enorme interés por la IA generativa, y desde entonces el ritmo de innovación no ha hecho más que acelerarse. Las empresas han empezado a pasar de las primeras pruebas de los servicios IA generativa a la creación de aplicaciones basadas en IA.
El rápido crecimiento de un ecosistema de opciones de modelos abiertos ha estimulado la innovación en IA y ha demostrado que no habrá «un modelo que los gobierne a todos». Los clientes se beneficiarán de un abanico de opciones para responder a necesidades específicas, todo lo cual se acelerará aún más gracias a un enfoque abierto de la innovación.
La aplicación de una estrategia de IA requiere algo más que la simple selección de un modelo; las organizaciones tecnológicas necesitan los conocimientos necesarios para ajustar un modelo determinado a su caso de uso específico, así como hacer frente a los elevados costes de la aplicación de la IA. A la escasez de competencias en ciencia de datos se suman importantes requisitos financieros:
- Adquisición de infraestructura de IA o consumo de servicios de IA
- El complejo proceso de ajustar los modelos de IA a las necesidades empresariales específicas
- Integración de la IA en las aplicaciones empresariales
- Gestión del ciclo de vida tanto de la aplicación como del modelo.
Para reducir realmente las barreras de entrada a la innovación en IA, las empresas necesitan poder ampliar la lista de personas que pueden trabajar en iniciativas de IA y, al mismo tiempo, controlar los costes. Con herramientas de alineación InstructLab, modelos Granite y RHEL AI, Red Hat pretende aplicar las ventajas de los verdaderos proyectos de código abierto -de libre acceso y reutilizables, transparentes y abiertos a contribuciones- a la IA generativa en un esfuerzo por eliminar estos obstáculos.
Desarrollando IA en abierto con InstructLab
IBM Research creó la técnica Large-scale Alignment for chatBots (LAB), un enfoque para la alineación de modelos que utiliza la generación de datos sintéticos guiada por taxonomías y un novedoso marco de ajuste de múltiples fases.
Este enfoque hace que el desarrollo de modelos de IA sea más abierto y accesible para todos los usuarios, al reducir la dependencia de costosas anotaciones humanas y modelos propietarios.
Con el método LAB, los modelos pueden mejorarse especificando habilidades y conocimientos vinculados a una taxonomía, generando datos sintéticos a partir de esa información a escala para influir en el modelo y utilizando los datos generados para el entrenamiento del modelo.
Tras comprobar que el método LAB podía ayudar a mejorar significativamente el rendimiento de los modelos, IBM y Red Hat decidieron lanzar InstructLab, una comunidad de código abierto creada en torno al método LAB y a los modelos Granite de código abierto de IBM. El proyecto InstructLab busca poner el desarrollo de LLM en manos de los desarrolladores haciendo que construir y contribuir a un LLM sea tan sencillo como contribuir a cualquier otro proyecto de código abierto.
Como parte del lanzamiento de InstructLab, IBM también ha puesto a disposición del público una familia de selectos modelos de lenguaje y código Granite en inglés. Estos modelos se publican bajo licencia Apache con transparencia sobre los conjuntos de datos utilizados para entrenarlos.
El modelo de lenguaje Granite 7B en inglés se ha integrado en la comunidad InstructLab, donde los usuarios finales pueden aportar sus habilidades y conocimientos para mejorar colectivamente este modelo, del mismo modo que lo harían al contribuir a cualquier otro proyecto de código abierto. Pronto estará disponible un soporte similar para los modelos de código Granite dentro de InstructLab.
Innovación en IA de código abierto sobre una base fiable de Linux
RHEL AI se basa en este enfoque abierto de la innovación en IA, incorporando una versión lista para la empresa del proyecto InstructLab y los modelos de lenguaje y código Granite junto con la plataforma Linux empresarial líder en el mundo para simplificar el despliegue en un entorno de infraestructura híbrida. Esto crea una plataforma de modelos fundacional para llevar los modelos de IA generativa con licencia de código abierto a la empresa. RHEL AI incluye:
- Modelos de lenguaje y código Granite con licencia de código abierto con garantía y soporte de Red Hat.
- Una distribución de InstructLab con soporte y ciclo de vida, que ofrece una solución escalable y rentable para incrementar las capacidades de LLM y hacer que el aporte de conocimientos y habilidades sea accesible a muchos más usuarios.
- Instancias de tiempo de ejecución de modelos de inicio optimizadas con modelos Granite y paquetes de herramientas de InstructLab como imágenes RHEL de inicio a través de image mode de RHEL, que incluyen Pytorch y las bibliotecas de tiempo de ejecución optimizadas y los aceleradores para AMD Instinct™ MI300X, GPU Intel y NVIDIA y marcos NeMo..
- La promesa de soporte empresarial y ciclo de vida completos de Red Hat, que comienza con una distribución de productos empresariales de confianza, soporte de producción 24×7 y soporte de ciclo de vida ampliado.
A medida que las organizaciones experimenten y ajusten nuevos modelos de IA en RHEL AI dispondrán de una vía de acceso lista para escalar estos flujos de trabajo con Red Hat OpenShift AI, que incluirá RHEL AI, y donde pueden aprovechar el motor Kubernetes de OpenShift para entrenar y servir modelos de IA a escala y las capacidades MLOps integradas de OpenShift AI para gestionar el ciclo de vida del modelo. La plataforma empresarial watsonx.ai de IBM, que se construye hoy en Red Hat OpenShift AI, se beneficiará de la incorporación de RHEL AI en OpenShift AI cuando esté disponible, aportando capacidades adicionales para el desarrollo de IA empresarial, gestión de datos, gobernanza de modelos y un mejor rendimiento de precios.
La nube es híbrida. Y también la IA
Durante más de 30 años, las tecnologías de código abierto han aunado la rapidez en la innovación con una gran reducción de los costes de TI y la disminución de las barreras a la innovación. Red Hat lleva casi el mismo tiempo liderando esta tendencia, desde el suministro de plataformas Linux empresariales abiertas con RHEL a principios de la década de 2000 hasta el impulso de los contenedores y Kubernetes como base de la nube híbrida abierta y la computación nativa de la nube con Red Hat OpenShift.
Este impulso continúa con Red Hat potenciando las estrategias de IA/ML a través de la nube híbrida abierta, permitiendo que las cargas de trabajo de IA se ejecuten donde están los datos, ya sea en el centro de datos, en múltiples nubes públicas o en el edge.
Más allá de las cargas de trabajo, la visión de Red Hat para la IA lleva el entrenamiento y el ajuste de modelos por este mismo camino para abordar mejor las limitaciones en torno a la soberanía de los datos, el cumplimiento y la integridad operativa. La coherencia que ofrecen las plataformas de Red Hat en estos entornos, independientemente de dónde se ejecuten, es crucial para mantener el flujo de la innovación en IA.
RHEL AI y la comunidad InstructLab contribuyen a hacer realidad esta visión, eliminando muchas de las barreras que impiden experimentar y crear modelos de IA, al mismo tiempo que proporcionan las herramientas, los datos y los conceptos necesarios para impulsar la próxima oleada de cargas de trabajo inteligentes.
Disponibilidad
Red Hat Enterprise Linux AI ya está disponible como developer preview. Basándose en la infraestructura de GPU disponible en IBM Cloud, que se utiliza para entrenar los modelos Granite y dar soporte a InstructLab, IBM Cloud añadirá ahora soporte para RHEL AI y OpenShift AI. Esta integración permitirá a las empresas desplegar IA generativa con mayor facilidad en sus aplicaciones de misión crítica.