Nvidia Integra IP de Groq de 20 Mil Millones de Dólares para Inferencia de IA de Baja Latencia
En su conferencia GTC 2026, Nvidia lanzó el rack de inferencia Groq LPX, el primer producto importante que surge de su adquisición de propiedad intelectual y equipo de Groq por 20 mil millones de dólares. El sistema integra la arquitectura de unidad de procesamiento de baja latencia (LPU) de Groq con las GPU de Nvidia para optimizar la inferencia de IA. Utilizando una técnica llamada "Desagregación de FFN de Atención", el sistema delega tareas basándose en las fortalezas del hardware: las GPU gestionan los cálculos de atención dinámica, mientras que los nuevos chips LPU LP30 manejan los cálculos de la red neuronal de alimentación directa (FFN) estática, reduciendo significativamente los retrasos de respuesta en aplicaciones de IA interactivas.
De manera crucial para los inversores, el chip LP30 se fabrica con el proceso SF4 de Samsung y no utiliza memoria de alto ancho de banda (HBM). Esto significa que el nuevo sistema LPX representa una capacidad de producción e ingresos incrementales para Nvidia, ya que no consume los escasos slots de fabricación N3 de TSMC ni el suministro de HBM de la compañía, una ventaja competitiva clave que no puede replicarse fácilmente.
Rack Vera ETL256 con 256 CPUs para Romper Cuellos de Botella de IA
Para abordar el creciente cuello de botella de la CPU en operaciones de IA a gran escala, Nvidia presentó el Vera ETL256. Este sistema de alta densidad, refrigerado por líquido, alberga 256 de sus nuevas CPUs Vera en un solo rack. El diseño apunta directamente a las demandas masivas de procesamiento paralelo de tareas como la preparación de datos y el aprendizaje por refuerzo, donde la disponibilidad de CPU puede limitar la utilización general de la GPU. Al integrar la densidad de cómputo hasta un punto donde todas las conexiones dentro del rack se pueden hacer con cableado de cobre, Nvidia elimina la necesidad de transceptores ópticos más caros dentro del rack, compensando el costo de la refrigeración líquida.
Junto con el rack de CPU, Nvidia desveló la arquitectura de referencia de almacenamiento STX. Esta estandariza la configuración de los sistemas de almacenamiento para IA, especificando la combinación requerida de unidades, CPUs Vera, DPUs BlueField y componentes de red. Respaldada por los principales proveedores de almacenamiento, incluidos Dell, HPE e IBM, la arquitectura STX solidifica la expansión de Nvidia desde el cómputo y las redes hacia la capa de almacenamiento, un dominio previamente controlado por otras compañías.
Nvidia Aspira a Capturar Todo el Mercado de Infraestructura de IA
El lanzamiento combinado de los sistemas LPX, Vera ETL256 y STX señala un claro giro estratégico. Nvidia se está moviendo agresivamente para proporcionar toda la pila de infraestructura de IA, creando un ecosistema profundamente integrado que extiende su dominio del mercado. Esta estrategia de plataforma ya está ganando tracción, con socios como Cadence y HPE anunciando nuevas soluciones construidas sobre el hardware más reciente de Nvidia. Los anuncios proporcionan una hoja de ruta concreta sobre cómo Nvidia planea lograr la previsión de su CEO Jensen Huang de asegurar 1 billón de dólares en pedidos para sus sistemas hasta 2027.
Al ingresar sistemáticamente a los mercados de CPU y almacenamiento, Nvidia se está posicionando para capturar una cuota mucho mayor del gasto total en hardware de IA. Este movimiento intensifica la competencia para los actores establecidos en estos segmentos y refuerza el papel de Nvidia como proveedor central para la masiva construcción de infraestructura de la industria de IA.