El gigante de chips Nvidia cerró un acuerdo para licenciar la tecnología de la startup Groq y contratar a su fundador y CEO Jonathan Ross, veterano de Alphabet Google, en una jugada clave para fortalecer su posición en el segmento de inferencia de inteligencia artificial frente a rivales consolidados y emergentes. Groq, que duplicó su valoración a U$S 6.900 millones tras una ronda de U$S 750 millones en 2025, aseguró que seguirá operando como empresa independiente mientras parte de su cúpula ejecutiva y de ingeniería migra a Nvidia.
Nvidia busca blindar su liderazgo en IA
Nvidia domina el mercado del entrenamiento de modelos de inteligencia artificial, pero enfrenta una competencia mucho más intensa en el terreno de la inferencia , la etapa en la que los modelos ya entrenados responden en tiempo real a las consultas de los usuarios. En este segmento, se enfrenta no solo a rivales históricos como Advanced Micro Devices (AMD), sino también a startups agresivas como Groq y Cerebras Systems.
El acuerdo anunciado por Groq establece que Nvidia accederá a una licencia no exclusiva sobre su tecnología de chips, lo que refuerza el arsenal tecnológico de la compañía dirigida por Jensen Huang justo cuando los mercados de IA empiezan a desplazarse del entrenamiento masivo hacia la inferencia a gran escala. Según el propio Huang, que dedicó gran parte de su discurso inaugural más importante de 2025 a este tema, Nvidia puede “mantener su liderazgo a medida que los mercados de IA pasan del entrenamiento a la inferencia”.
El traslado del talento clave de Groq
En su blog, Groq confirmó que Jonathan Ross, su fundador y CEO, se incorporará a Nvidia junto con el presidente Sunny Madra y otros miembros del equipo de ingeniería. Ross fue una figura central en los inicios del programa de chips de IA de Google, lo que añade un componente estratégico de talento senior al acuerdo. Una persona cercana a Nvidia confirmó la existencia del pacto de licencia entre ambas empresas.
Groq aclaró que comenzará funcionando como empresa independiente, con Simon Edwards como nuevo director ejecutivo, y que su negocio en la nube seguirá operando con normalidad. La compañía subrayó que, pese al traslado de su liderazgo original, no se trata de una adquisición total y que su hoja de ruta de producto se mantiene en marcha. CNBC había informado previamente que Nvidia habría acordado comprar Groq por U$S 20.000 millones en efectivo, pero ni Nvidia ni Groq realizaron comentarios sobre esa versión, y el comunicado de la startup reiteró su continuidad como entidad autónoma.
Valoración en alza y respaldo de inversores
Groq es una de las grandes apuestas de los inversores en la nueva generación de chips para IA. En septiembre, la compañía más que duplicó su valoración a U$S 6.900 millones , desde U$S 2.800 millones en agosto del año anterior, tras cerrar una ronda de financiación de U$S 750 millones , reflejando la confianza del mercado en su enfoque tecnológico. Este impulso financiero le permitió posicionarse como uno de los jugadores más visibles en la carrera para optimizar la inferencia y reducir cuellos de botella en hardware.
Tanto Groq como Cerebras han firmado importantes acuerdos en Oriente Medio, donde grandes centros de datos y proyectos de infraestructura de IA buscan proveedores capaces de ofrecer capacidad de cómputo a gran escala y con menor dependencia de las cadenas de suministro tradicionales de memoria. En este contexto, la asociación tecnológica y de talento con Nvidia refuerza la visibilidad de Groq ante clientes globales, incluso mientras insiste en su independencia corporativa.
Una arquitectura distinta para la inferencia
Groq se diferencia de otros fabricantes al evitar el uso de memorias externas de alto ancho de banda, una de las piezas más críticas y escasas en la industria de semiconductores para IA. En su lugar, la startup se basa en un tipo de memoria en chip llamada SRAM , integrada directamente en el procesador. Este diseño la libera de la actual escasez global de memoria y permite agilizar las interacciones con chatbots y otros modelos de IA, reduciendo la latencia y ofreciendo respuestas más rápidas a los usuarios finales.
Sin embargo, este mismo enfoque con SRAM implica una limitación: el tamaño máximo de los modelos que se pueden procesar en el chip es menor que el de arquitecturas que dependen de la memoria externa, lo que obliga a optimizar el software y la selección de casos de uso. El principal rival de Groq en este tipo de arquitectura es Cerebras Systems , que también apunta a grandes despliegues de IA y, según se informó, planea salir a bolsa el próximo año, reforzando la competencia en este nicho de hardware especializado.
Lo que está en juego para Nvidia y el ecosistema de chips de IA
Mientras Nvidia sigue siendo el actor dominante en el entrenamiento de modelos de gran escala, la batalla por la inferencia será clave para definir quién captura el mayor volumen de ingresos recurrentes a medida que la IA se integra en aplicaciones cotidianas, desde asistentes conversacionales hasta herramientas empresariales. El movimiento sobre Groq funciona tanto como una apuesta por una arquitectura alternativa basada en SRAM como una jugada ofensiva para atraer talento de primera línea y tecnologías diferenciadas frente a AMD, Cerebras y nuevas startups.
En un mercado de chips de IA que se expande rápidamente, la decisión de Nvidia de licenciar la tecnología de Groq y sumar a su fundador ya parte de su equipo directivo subraya cómo la competencia por la inferencia en tiempo real se ha convertido en uno de los frentes más estratégicos de la industria tecnológica global.

