Estás leyendo
Más allá del hype de la inteligencia artificial generativa: Google Cloud comparte aprendizajes clave
Banner

Más allá del hype de la inteligencia artificial generativa: Google Cloud comparte aprendizajes clave

  • Google Cloud comparte aprendizajes clave sobre modelos de lenguaje grande (LLM), destacando la importancia de datos específicos del dominio, capacidades multimodales y una nueva base de IA para empresas.
Google Gemini

En el reciente evento VB Transform, Yasmeen Ahmad, directora de estrategia y gestión de productos de datos, análisis e inteligencia artificial en , abordó una pregunta crucial: ¿es mejor un modelo de lenguaje grande () de mayor tamaño? La respuesta, según Ahmad, es tanto sí como no.

Los modelos LLM mejoran con el tamaño, pero no indefinidamente. Los modelos grandes con un gran número de parámetros pueden ser superados por modelos más pequeños entrenados con información específica del dominio y contexto. «Eso indica que los datos son fundamentales, y la información específica del sector da poder a los modelos,» señaló Ahmad.

La importancia de los datos específicos del dominio

El aprovechamiento de datos específicos del sector permite a las empresas ser más creativas, eficientes e inclusivas, accediendo a datos que antes no podían utilizar y permitiendo a su personal interactuar de nuevas formas. «La IA generativa está empujando los límites de lo que podríamos imaginar que las máquinas pueden crear, o que los humanos podrían soñar,» dijo Ahmad.

Una nueva base de IA para las empresas

El éxito en el entrenamiento de modelos en un dominio empresarial específico se reduce a dos técnicas: ajuste fino y generación aumentada por recuperación (RAG). El ajuste fino enseña a los LLMs «el lenguaje de tu negocio,» mientras que RAG permite al modelo tener una conexión en tiempo real con datos en documentos, bases de datos y otros lugares. «Esto permite proporcionar respuestas precisas en tiempo real, cruciales para aplicaciones como análisis financiero y de riesgos,» explicó Ahmad.

Capacidades multimodales de los LLMs

La verdadera potencia de los LLMs reside en sus capacidades multimodales, es decir, su habilidad para operar con datos de video, imagen, documentos de texto y otros tipos. Ahmad destacó que entre el 80% y 90% de los datos en una empresa son multimodales. «No están estructurados; son documentos, imágenes, videos,» indicó.

Un estudio de Google mostró una mejora del 20% al 30% en la experiencia del cliente al utilizar datos multimodales. Las empresas lograron una mejor comprensión del sentimiento del cliente y el modelo pudo integrar datos sobre el rendimiento del producto y las tendencias del mercado.

La necesidad de una nueva base de datos

Las organizaciones tradicionales luchan con bases de datos que no fueron diseñadas para manejar datos multimodales. Sin embargo, el futuro de la IA y los datos empresariales exige una nueva clase de base de IA, señaló Ahmad.

IA conversacional: un «asistente personal de datos»

La capacidad de participar en interacciones de pregunta-respuesta es otro componente crítico de los LLMs exitosos. Sin embargo, Ahmad advirtió que, aunque es tentador chatear con los datos de tu negocio, no es tan sencillo. Los LLMs deben recibir contexto semántico y metadatos para proporcionar respuestas específicas y precisas.

Te puede interesar
El 48% de las Administraciones Públicas en España utiliza la Inteligencia Artificial para mejorar la relación con el ciudadano

Además, es crucial que los modelos sean conversacionales. «Como humanos, cuando analizamos o hacemos preguntas, solemos tener un diálogo de ida y vuelta, proporcionando y recibiendo contexto adicional hasta llegar a una respuesta,» dijo Ahmad. Los LLMs deben tener la capacidad de mantener una conversación coherente.

Hacia una nueva generación de IA conversacional

La industria se está alejando de las interacciones aisladas de una sola pregunta hacia «la próxima generación de IA conversacional.» Esto va más allá de un chatbot, se trata de un «asistente personal de datos» que interactúa y puede hacer preguntas, participando en una cadena de pensamiento.

Este asistente es un «trabajador incansable» que puede tomar decisiones, actuar y trabajar hacia un objetivo. Ahmad mencionó que estamos viendo un salto cuántico en la IA agentic, capaz de tomar decisiones y aprender honestidad. Estos modelos están comenzando a imitar los cerebros humanos, descomponiendo tareas en subtareas y entendiendo la causa y efecto.

El futuro de la IA empresarial

Todo esto se está desarrollando cada vez más rápido, con capacidades en tiempo real que mejoran constantemente. «El futuro está aquí y está generando nuevas formas de negocio,» afirmó Ahmad. «Estamos al comienzo de lo que esta tecnología puede habilitar.»

Utilizamos cookies para facilitar la relación de los visitantes con nuestro contenido y para permitir elaborar estadísticas sobre las visitantes que recibimos. No se utilizan cookies con fines publicitarios ni se almacena información de tipo personal. Puede gestionar las cookies desde aquí.   
Privacidad