Estás leyendo
NVIDIA lanza superordenadores personales con IA basados en Grace Blackwell

NVIDIA lanza superordenadores personales con IA basados en Grace Blackwell

  • NVIDIA presenta los ordenadores personales DGX Spark y DGX Station con arquitectura Grace Blackwell, acercando la supercomputación de IA al entorno de escritorio.
NVIDIA traslada la arquitectura Grace Blackwell al escritorio con los nuevos DGX Spark y DGX Station

NVIDIA ha anunciado el lanzamiento de sus nuevos ordenadores personales de inteligencia artificial, y , equipados con la plataforma . Ambos sistemas están diseñados para ofrecer capacidades de supercomputación a desarrolladores, investigadores y científicos de datos directamente desde el escritorio.

El anuncio se produjo junto a la confirmación de colaboración con fabricantes como ASUS, Dell Technologies, HP y Lenovo, quienes integrarán estos dispositivos en su oferta de producto.

Los nuevos equipos suponen la expansión del uso de la arquitectura Grace Blackwell, hasta ahora reservada al entorno de centros de datos, al ámbito del desarrollo local. Según explicó Jensen Huang, fundador y CEO de , esta transición responde a la evolución del stack informático, cada vez más centrado en cargas de trabajo nativas de inteligencia artificial.

Potencia de supercomputación para el escritorio

DGX Spark, anteriormente conocido como Project DIGITS, se presenta como el superordenador de IA más pequeño del mundo. Está diseñado para tareas de desarrollo, ajuste fino (fine-tuning) e inferencia de modelos generativos y físicos. Incorpora el superchip NVIDIA GB10 Grace Blackwell, una solución integrada que combina CPU y GPU en un solo encapsulado, diseñada específicamente para entornos de escritorio.

El superchip GB10 incluye una GPU basada en la arquitectura Blackwell con núcleos Tensor de quinta generación y soporte para FP4, capaz de alcanzar hasta 1.000 billones de operaciones por segundo (TOPS). Esta capacidad permite procesar modelos de razonamiento como NVIDIA Cosmos Reason y modelos de robótica como GR00T N1, ambos desarrollados por la propia compañía.

La comunicación entre CPU y GPU se gestiona mediante la tecnología NVLink-C2C, que ofrece una arquitectura de memoria coherente con una velocidad de transferencia cinco veces superior a la de PCIe de quinta generación. Esto permite una gestión de datos más eficiente en flujos de trabajo intensivos en memoria, como los propios de la IA generativa.

Rendimiento de centro de datos en estaciones de trabajo personales

Por su parte, DGX Station incorpora el superchip GB300 Grace Blackwell Ultra, con un total de 784 GB de memoria coherente para acelerar tanto el entrenamiento como la inferencia de modelos de gran tamaño. Esta estación de trabajo de alto rendimiento se conecta internamente mediante NVLink-C2C, ofreciendo una comunicación de baja latencia entre la CPU Grace y la GPU Blackwell Ultra.

Una de las novedades en este sistema es la inclusión de la tarjeta de red ConnectX-8 SuperNIC, que permite velocidades de hasta 800 Gb/s. Esta conectividad facilita la creación de clústeres de estaciones DGX Station y optimiza la transferencia de datos a gran escala para flujos de trabajo distribuidos.

Ambos sistemas, DGX Spark y DGX Station, están integrados con la plataforma de software CUDA-X AI, y permiten a los usuarios aprovechar los servicios microservicio NIM de NVIDIA AI Enterprise, que ofrecen capacidades de inferencia optimizadas y soporte empresarial.

Flujo de trabajo escalable del escritorio a la nube

Una de las ventajas clave de estos sistemas personales es la posibilidad de trasladar modelos entre el escritorio y la nube sin necesidad de modificar el código. Esto es posible gracias a la integración con NVIDIA DGX Cloud y otras plataformas de nube acelerada compatibles. La portabilidad de modelos permite que los usuarios puedan desarrollar, ajustar y desplegar sus soluciones sin interrupciones en el entorno de ejecución.

Te puede interesar
NVIDIA RTX PRO Blackwell

Esta compatibilidad se apoya en la estrategia de plataforma completa de NVIDIA, que abarca desde el hardware hasta los servicios empresariales de software, permitiendo un flujo de trabajo coherente entre entornos locales y remotos.

Fabricantes asociados y disponibilidad

Los nuevos equipos estarán disponibles a través de socios como ASUS, Dell, HP y Lenovo. En el caso de DGX Station, también se han confirmado acuerdos con BOXX, Lambda y Supermicro, con disponibilidad prevista para más adelante en el año. Las reservas para DGX Spark ya están abiertas, aunque no se ha especificado aún una fecha concreta para el inicio de las entregas.

La incorporación de estos sistemas al catálogo de fabricantes consolidados refuerza el enfoque de NVIDIA por extender la computación acelerada más allá del centro de datos, atendiendo a una demanda creciente de soluciones de IA en entornos de escritorio profesional.

Implicaciones para el desarrollo de IA en entornos empresariales

Con esta propuesta, NVIDIA se posiciona para facilitar el desarrollo descentralizado de inteligencia artificial, una tendencia creciente entre empresas que buscan optimizar sus costes y reducir la dependencia de infraestructuras externas. El uso de sistemas personales con capacidades de supercomputación puede permitir a departamentos de I+D, equipos de producto o laboratorios universitarios ejecutar procesos de inferencia y ajuste de modelos complejos sin recurrir a entornos de nube.

Este enfoque podría acelerar los ciclos de desarrollo y experimentación, al tiempo que ofrece un mayor control sobre los datos y la infraestructura, especialmente en sectores con requerimientos estrictos de privacidad o cumplimiento normativo.

Ver Comentarios (0)

Leave a Reply

Utilizamos cookies para facilitar la relación de los visitantes con nuestro contenido y para permitir elaborar estadísticas sobre las visitantes que recibimos. No se utilizan cookies con fines publicitarios ni se almacena información de tipo personal. Puede gestionar las cookies desde aquí.   
Privacidad