Estás leyendo
Red Hat anuncia Podman AI Lab
Banner

Red Hat anuncia Podman AI Lab

  • Acelera la adopción de IA generativa en las aplicaciones por parte de los desarrolladores con herramientas que simplifican y guían cada paso, desde la conceptualización hasta la producción, todo ello desde un entorno de escritorio local
Red Hat incorpora IA generativa en todo el portfolio de nube híbrida con Red Hat Lightspeed

Red Hat, Inc. ha presentado Podman AI Lab, una  extensión para Podman Desktop  que ofrece a los desarrolladores la posibilidad de crear, probar y ejecutar aplicaciones impulsadas por  en contenedores, utilizando una interfaz gráfica intuitiva en su estación de trabajo local. Esto contribuye a la democratización de la IA generativa y ofrece a los desarrolladores las ventajas de la comodidad, simplicidad y rentabilidad de su experiencia de desarrollador local, al mismo tiempo que mantienen la propiedad y el control sobre los datos sensibles.

El reciente auge de la IA generativa y de los modelos lingüísticos de gran tamaño (LLM) en código abierto ha dado paso a una nueva era de la informática que se basa en gran medida en el uso de aplicaciones que utilizan IA, y las organizaciones están actuando con rapidez para establecer la experiencia, los procesos y las herramientas que les permitan seguir siendo relevantes. La consultora IDC señala este cambio, prediciendo que «en 2026, el 40% de las aplicaciones completamente nuevas serán aplicaciones inteligentes, en las que los desarrolladores incorporarán la IA para mejorar las experiencias existentes y crear nuevos casos de uso”[1].

A medida que se generalizan la IA y la ciencia de datos en el desarrollo de aplicaciones, herramientas como Podman AI Lab pueden ayudar a impulsar la adopción de IA Generativa por parte de los desarrolladores para crear aplicaciones inteligentes o mejorar sus flujos de trabajo utilizando capacidades de desarrollo aumentadas por la IA. AI Lab cuenta con un catálogo de recetas con ejemplos de aplicaciones que ofrecen a los desarrolladores un punto de partida en algunos de los casos de uso más comunes para los LLMs, entre los que se incluyen:

Chatbots que simulan una conversación humana, utilizando IA para entender las consultas de los usuarios y ofrecer respuestas adecuadas. Estas capacidades se utilizan a menudo para aumentar las aplicaciones que proporcionan atención al cliente de autoservicio o asistencia personal virtual.
Resúmenes de texto, que ofrecen capacidades versátiles en muchas aplicaciones e industrias en las que pueden proporcionar una gestión eficaz y eficiente de la información. Con esta receta, los desarrolladores pueden crear aplicaciones que ayuden en aspectos como la creación y edición de contenidos, la investigación, la agregación de noticias, la monitorización de redes sociales y el aprendizaje de idiomas.
Generadores de código, que permiten a los desarrolladores concentrarse en el diseño de alto nivel y la resolución de problemas mediante la automatización de tareas repetitivas, como la configuración del proyecto y la integración de las APIs, o para producir plantillas de código.
Detección de objetos para identificar y localizar objetos dentro de imágenes digitales o fotogramas de vídeo. Es un componente fundamental en diversas aplicaciones, como los vehículos autónomos, la gestión de inventarios en comercios, la agricultura de precisión y las retransmisiones deportivas.
Transcripción de voz a texto, que implica el proceso de transcribir automáticamente el lenguaje hablado a texto escrito, facilitando la documentación, la accesibilidad y el análisis del contenido de audio.

Estos ejemplos proporcionan un punto de partida a los desarrolladores, en el que pueden revisar el código fuente para ver cómo se construye la aplicación y aprender las mejores prácticas para integrar su código con un modelo de IA.

Los contenedores ofrecen tradicionalmente a los desarrolladores un entorno flexible, eficiente y coherente para crear y probar aplicaciones en sus equipos sin preocuparse de conflictos o problemas de compatibilidad. Hoy en día, necesitan la misma simplicidad y facilidad de uso para los modelos de IA. Podman AI Lab ayuda a satisfacer esta necesidad ofreciéndoles la posibilidad de aprovisionar servidores de inferencia locales, lo que facilita la ejecución de un modelo localmente, obtener un punto final y empezar a escribir código para empaquetar nuevas capacidades en torno al modelo.

Además, Podman AI Lab cuenta con un entorno de pruebas que permite a los usuarios interactuar con los modelos y observar su comportamiento, que puede usarse para probar, experimentar y desarrollar prototipos y aplicaciones de los modelos. Un entorno de usuario intuitivo ayuda a explorar las capacidades y la precisión de varios modelos y ayuda a encontrar el mejor modelo y los mejores ajustes para el caso de uso en la aplicación.

A medida que la IA se hace más omnipresente en la empresa, lidera el camino para liberar el potencial de la IA para impulsar la innovación, la eficiencia y el valor a través de una cartera de plataformas de IA coherentes, fiables y completas para la nube híbrida.

Podman AI Lab se basa en la fuerza de Podman Desktop, un proyecto de código abierto fundado en Red Hat que ya cuenta con más de un millón de descargas. También ofrece una estrecha integración con image mode de Red Hat Enterprise Linux, un nuevo método de despliegue para la plataforma Linux empresarial líder en el mundo que entrega el sistema operativo como una imagen de contenedor. Esta integración permite a los desarrolladores pasar más fácilmente de crear prototipos y trabajar con modelos en su equipo a convertir la nueva aplicación infundida en IA en un contenedor portátil y de arranque que puede ejecutarse fácilmente en cualquier lugar de la nube híbrida, desde un servidor a una instancia de nube, utilizando Red Hat OpenShift.

Te puede interesar
Inteligencia Artificial - Ingeniería

La nube es híbrida. Y también la IA.

Durante más de 30 años, las tecnologías de código abierto han aunado la rapidez en la innovación con una gran reducción de los costes de TI y la disminución de las barreras a la innovación. Red Hat lleva casi el mismo tiempo liderando esta tendencia, desde el suministro de plataformas Linux empresariales abiertas con RHEL a principios de la década de 2000 hasta el impulso de los contenedores y Kubernetes como base de la nube híbrida abierta y la computación nativa de la nube con Red Hat OpenShift.

Este impulso continúa con Red Hat potenciando las estrategias de IA/ML a través de la nube híbrida abierta, permitiendo que las cargas de trabajo de IA se ejecuten donde están los datos, ya sea en el centro de datos, en múltiples nubes públicas o en el edge. Más allá de las cargas de trabajo, la visión de Red Hat para la IA lleva el entrenamiento y el ajuste de modelos por este mismo camino para abordar mejor las limitaciones en torno a la soberanía de los datos, el cumplimiento y la integridad operativa.  La coherencia que ofrecen las plataformas de Red Hat en estos entornos, independientemente de dónde se ejecuten, es crucial para mantener el flujo de la innovación en IA.

[1] IDC FutureScape: Worldwide Developer and DevOps 2024 Predictions, DOC # US50136023, Oct. 2023

La era de la IA ya está aquí, pero, para muchos desarrolladores de aplicaciones, crear aplicaciones inteligentes presenta una dura curva de aprendizaje. Podman AI Lab ofrece una herramienta sencilla y fácil de usar, y con un entorno de pruebas para aplicar modelos de IA a su código y flujos de trabajo de forma segura, sin necesidad de costosas inversiones en infraestructura o amplios conocimientos de IA.Sarwar Raza, vice president and general manager, Application Developer Business Unit, Red Hat
La nueva ola de la IA generativa está llegando a la industria, impactando sobre los desarrolladores y los profesionales de DevOps que están a la vanguardia de este nuevo paradigma. En todo el panorama del desarrollo y DevOps, cabe suponer que el cambio se acelerará. Es probable que los próximos años pasen a la historia como unos de los más importantes en el desarrollo y despliegue de aplicaciones.Jim Mercer, program vice president, Software Development, DevOps and DevSecOps, IDC

 

Utilizamos cookies para facilitar la relación de los visitantes con nuestro contenido y para permitir elaborar estadísticas sobre las visitantes que recibimos. No se utilizan cookies con fines publicitarios ni se almacena información de tipo personal. Puede gestionar las cookies desde aquí.   
Privacidad