Snowflake ha anunciado en su evento anual para usuarios, Snowflake Summit 2024, nuevas innovaciones y mejoras a Snowflake Cortex AI que desbloquean la próxima ola de IA empresarial para que los clientes creen aplicaciones impulsadas por IA de forma fácil, eficiente y fiable. Esto incluye nuevas experiencias de chat, que permiten a las organizaciones desarrollar chatbots en cuestión de minutos para que puedan hablar directamente con sus datos empresariales y obtener con mayor rapidez las respuestas que necesitan. Además, Snowflake está democratizando aún más la forma en que cualquier usuario puede personalizar la IA para casos de uso específicos de la industria a través de una nueva interfaz interactiva sin código, acceso a grandes modelos de lenguaje (LLM) líderes en la industria y ajustes precisos sin servidor. Snowflake también está acelerando el camino para la operacionalización de modelos con una experiencia integrada para machine learning (ML) a través de Snowflake ML, permitiendo a los desarrolladores construir, descubrir y gobernar modelos y características a través del ciclo de vida de ML. La plataforma unificada de Snowflake para IA generativa y ML permite a cada parte de la empresa extraer más valor de sus datos, al mismo tiempo que dota de seguridad, gobernanza y control total para ofrecer IA responsable y de confianza a escala.
Ofrece a toda su empresa el poder de hablar con los datos a través de nuevas experiencias de chat
Los chatbots potenciados por LLM son una potente forma de que cualquier usuario formule preguntas a partir de los datos de su empresa utilizando el lenguaje natural, desbloqueando los conocimientos que las organizaciones necesitan para la toma de decisiones críticas con mayor rapidez y eficiencia. Snowflake presenta dos nuevas funciones de chat, Snowflake Cortex Analyst (pronto en public preview) y Snowflake Cortex Search (pronto en public preview), que permiten a los usuarios desarrollar estos chatbots en cuestión de minutos a partir de sus datos estructurados y no estructurados, sin complejidad operativa. Cortex Analyst, construido con los modelos Llama 3 y Mistral Large de Meta, permite a las empresas desarrollar aplicaciones de forma segura sobre sus datos analíticos en Snowflake. Además, Cortex Search aprovecha la tecnología puntera de recuperación y clasificación de Neeva (adquirida por Snowflake en mayo de 2023) junto con Snowflake Arctic embed, para que los usuarios puedan crear aplicaciones de búsqueda y análisis en documentos y otros conjuntos de datos basados en texto a través de la búsqueda híbrida de nivel empresarial -una combinación de vector y texto- como servicio.
La seguridad de los datos es clave para crear aplicaciones de IA y experiencias de chat de nivel de producción, y luego escalarlas a través de las empresas. Como resultado, Snowflake presenta Snowflake Cortex Guard (generally available pronto), que aprovecha Llama Guard de Meta, una protección de entrada-salida basada en LLM que filtra y marca el contenido dañino en los datos y activos de la organización, como la violencia y el odio, la autolesión o las actividades delictivas. Con Cortex Guard, Snowflake está desbloqueando aún más la IA de confianza para las empresas, ayudando a los clientes a garantizar que los modelos disponibles sean seguros y utilizables.
Snowflake refuerza las experiencias de IA para acelerar la productividad
Además de permitir el fácil desarrollo de experiencias de chat personalizadas, Snowflake ofrece a los clientes experiencias pre-construidas potenciadas por IA, que son alimentadas por los modelos de clase mundial de Snowflake. Con Document AI (generally available pronto), los usuarios pueden extraer fácilmente contenido de los documentos, como el importe de las facturas o los términos de los contratos, utilizando el LLM multimodal de Snowflake, Snowflake Arctic-TILT, líder del sector, que supera a GPT-4 y obtuvo la máxima puntuación en DocVQA benchmark test, el estándar para la respuesta visual a preguntas sobre documentos. Organizaciones como Northern Trust utilizan Document AI para procesar documentos de forma inteligente a gran escala y reducir los gastos operativos con una mayor eficiencia. Snowflake también está avanzando en su revolucionario asistente de texto a SQL, Snowflake Copilot (generally available pronto), que combina los puntos fuertes de Mistral Large con el modelo de generación de SQL propiedad de Snowflake para acelerar la productividad de todos los usuarios de SQL.
Desbloquea el desarrollo de IA sin código con el nuevo Snowflake AI & ML Studio
Snowflake Cortex AI proporciona a los clientes un sólido conjunto de modelos de última generación de proveedores líderes como Google, Meta, Mistral AI y Reka, además del LLM de código abierto Snowflake Arctic de Snowflake, para acelerar el desarrollo de la IA. Snowflake está democratizando la forma en que cualquier usuario puede llevar estos potentes modelos a los datos de su empresa con el nuevo Snowflake AI & ML Studio (private preview), una interfaz interactiva sin código para que los equipos comiencen con el desarrollo de IA y produzcan sus aplicaciones de IA más rápidamente. Además, los usuarios pueden probar y evaluar fácilmente estos modelos para encontrar el más adecuado y rentable para sus casos de uso específicos, acelerando en última instancia el camino hacia la producción y optimizando los costes operativos.
Para ayudar a las organizaciones a mejorar aún más el rendimiento de LLM y ofrecer experiencias más personalizadas, Snowflake está introduciendo Cortex Fine-Tuning (public preview ahora), accesible a través de AI & ML Studio o una función SQL simple. Esta personalización sin servidor está disponible para un subconjunto de modelos Meta y Mistral AI. Estos modelos personalizados pueden utilizarse fácilmente a través de una función Cortex AI, con acceso gestionado mediante controles de acceso basados en roles Snowflake.
Agilizar la gestión de modelos y funciones con MLOps unificados y gobernados a través de Snowflake ML
Una vez desarrollados los modelos ML y los LLM, la mayoría de las organizaciones tienen dificultades para operarlos continuamente en producción sobre conjuntos de datos en evolución. Snowflake ML aporta capacidades de MLOps a AI Data Cloud, para que los equipos puedan descubrir, gestionar y gobernar sin problemas sus características, modelos y metadatos a lo largo de todo el ciclo de vida de ML, desde el preprocesamiento de datos hasta la gestión de modelos. Estas funciones centralizadas de MLOps también se integran con el resto de la plataforma de Snowflake, incluidos Snowflake Notebooks y Snowpark ML, para ofrecer una experiencia integral sencilla.
La suite de capacidades MLOps de Snowflake incluye el Snowflake Model Registry (ahora generally available), que permite a los usuarios gobernar el acceso y uso de todo tipo de modelos de IA para que puedan ofrecer experiencias más personalizadas y automatizaciones que ahorren costes con fiabilidad y eficiencia. Además, Snowflake anuncia Snowflake Feature Store (ahora public preview), una solución integrada para que los científicos de datos y los ingenieros de ML creen, almacenen, gestionen y sirvan características de ML coherentes para el entrenamiento y la inferencia de modelos, y ML Lineage (private preview), para que los equipos puedan rastrear el uso de características, conjuntos de datos y modelos a través del ciclo de vida de ML de extremo a extremo.
Innovación continua en Snowflake Summit 2024
Snowflake también ha anunciado nuevas innovaciones en su plataforma única y unificada que proporcionan a miles de organizaciones una mayor flexibilidad e interoperabilidad a través de sus datos; nuevas herramientas que aceleran la forma en que los desarrolladores construyen en AI Data Cloud; una nueva colaboración con NVIDIA que los clientes y partners pueden aprovechar para desarrollar aplicaciones personalizadas de datos de IA en Snowflake; Polaris Catalog, una implementación de catálogo totalmente abierta y de proveedor neutral para Apache Iceberg; y más en Snowflake Summit 2024.