Editor en La Ecuación Digital. Consultor de Innovación y Estrategia…
OpenAI ha establecido una colaboración con Broadcom Inc. para crear un chip de inteligencia artificial específico para la inferencia , es decir, el proceso de ejecutar modelos de IA ya entrenados, según informaron fuentes cercanas al proyecto citadas por Bloomberg y Reuters.
La startup de inteligencia artificial también trabaja en estrecha consulta con Taiwan Semiconductor Manufacturing Co. (TSMC), la mayor empresa de fabricación de semiconductores a nivel mundial, para la producción de estos chips. Según estas fuentes, que solicitaron anonimato debido a la confidencialidad de las discusiones, OpenAI lleva aproximadamente un año planificando el diseño de un chip propio, pero el desarrollo aún se encuentra en una fase preliminar.
Una Alternativa a los GPUs y la Estrategia de OpenAI
La iniciativa de OpenAI busca reducir su dependencia de las unidades de procesamiento gráfico (GPUs) de NVIDIA, ampliamente utilizadas para el entrenamiento de modelos generativos de IA. En lugar de los costosos y escasos GPUs, la compañía planea utilizar un chip especializado para tareas de inferencia, lo que permitiría a sus modelos procesar solicitudes de manera más eficiente y reducir costos operativos.
Esta estrategia responde a la creciente demanda de hardware de inferencia, que, según las proyecciones de la industria, superará en importancia a los chips de entrenamiento a medida que aumenten las aplicaciones prácticas de la IA en diversas industrias.
Aunque OpenAI consideró construir su propia infraestructura de fabricación de chips, finalmente optó por trabajar con Broadcom y TSMC, dos socios clave que aportan experiencia y capacidad en diseño y fabricación de semiconductores. Reuters ha informado que la empresa ha dejado en pausa la posibilidad de crear una red de fábricas propias, enfocándose en cambio en el desarrollo de diseños personalizados en colaboración con socios industriales.
Detalles del Proyecto y Alianzas Estratégicas
Desarrollar un chip de inferencia personalizado requiere una inversión significativa de tiempo y recursos. Broadcom, reconocido por sus circuitos integrados de aplicación específica (ASIC), apoya a OpenAI en el diseño de un chip que se adapte a las necesidades técnicas de la empresa. TSMC, el mayor fabricante de semiconductores del mundo, colaborará en la producción de estos chips, cuya disponibilidad está prevista para 2026, aunque las fechas podrían variar según los avances en desarrollo.
Broadcom ya suministra chips ASIC a empresas tecnológicas, como Google y Meta Platforms Inc., lo que destaca su experiencia en la optimización de hardware para flujos de trabajo intensivos en IA. Para OpenAI, esta colaboración es esencial, ya que sus operaciones requieren una infraestructura robusta capaz de procesar enormes volúmenes de datos, para lo cual Broadcom y TSMC representan una solución confiable.
Diversificación de Proveedores y Competencia en el Sector de IA
La escasez de GPUs de NVIDIA y su dominio del mercado, que supera el 80% de cupta de mercado, han impulsado a OpenAI, Microsoft y Meta a diversificar sus proveedores de hardware. En paralelo a esta colaboración, OpenAI ha adoptado también los chips de Advanced Micro Devices Inc. (AMD) en su infraestructura basada en Microsoft Azure. Los nuevos chips de AMD, los MI300X, lanzados en el último trimestre de 2023, buscan ser una alternativa competitiva frente a NVIDIA y ofrecer soluciones viables para la inferencia de IA. La proyección de AMD en ingresos de chips de IA para 2024 es de 4.500 millones de dólares, una cifra que indica una competencia cada vez mayor en el sector.
Retos Financieros y de Infraestructura para OpenAI
La operación de servicios como ChatGPT requiere grandes cantidades de poder computacional, lo que incrementa significativamente los costes de OpenAI. La empresa proyecta ingresos de 3.700 millones de dólares en 2024, aunque se estima que podría registrar pérdidas de hasta 5.000 millones de dólares.
Para mejorar su sostenibilidad operativa, OpenAI está priorizando la optimización de costes y la diversificación de proveedores. También está realizando fuertes inversiones en centros de datos que alojarán los nuevos chips de IA. Según ha señalado su CEO, Sam Altman, OpenAI está trabajando con el gobierno de EE. UU. para incrementar la infraestructura de IA y también explora fuentes de financiación global, incluyendo fondos en Medio Oriente, para respaldar esta expansión.
Liderazgo Técnico en el Proyecto
Para llevar a cabo este ambicioso proyecto, OpenAI ha conformado un equipo de alrededor de 20 ingenieros de alto nivel, muchos de ellos con experiencia previa en el desarrollo de unidades de procesamiento tensorial (TPU) de Google. El equipo está liderado por Thomas Norrie y Richard Ho, quienes gestionan el diseño del chip de inferencia en colaboración con Broadcom.
Aunque OpenAI ha evitado fichar directamente a personal de NVIDIA para no afectar su relación comercial, la empresa sigue en contacto con NVIDIA para asegurar acceso a la siguiente generación de sus chips, Blackwell, que sigue siendo clave para el entrenamiento de modelos en su infraestructura actual.
Impacto en la Industria y Perspectivas del Proyecto
El desarrollo de un chip propio de inferencia de IA subraya una tendencia cada vez mayor hacia la integración vertical y la personalización del hardware para aplicaciones de IA. A medida que empresas tecnológicas como Amazon, Google y Microsoft se adaptan para optimizar sus infraestructuras de IA, la estrategia de OpenAI podría servir de referencia para futuras iniciativas de hardware personalizado. Esta colaboración estratégica con Broadcom y TSMC podría establecer un nuevo estándar en la industria, impulsando el desarrollo de chips de IA personalizados que ofrezcan tanto mayor control como ahorro de costos.
Con una demanda en alza y un sector altamente competitivo, el proyecto de chip de inferencia de OpenAI promete avanzar la eficiencia operativa y proporcionar una mayor autonomía en su infraestructura tecnológica. Este enfoque, de ser exitoso, podría beneficiar a la empresa al ofrecerle una ventaja en el control y la adaptabilidad de sus recursos de IA en el largo plazo.