La compañía presentó la segunda generación de su procesador de inteligencia artificial y un paquete de software propio que apunta directamente a la principal ventaja competitiva de Nvidia: su ecosistema para desarrolladores.
Microsoft dio un paso clave en su estrategia de infraestructura de inteligencia artificial con el lanzamiento de Maia 200, la segunda generación de su chip interno de IA. El anuncio, realizado el lunes, marca una nueva escalada en la competencia entre los grandes proveedores de computación en la nube y Nvidia, el actor dominante del mercado de aceleradores para inteligencia artificial.
El nuevo chip entrará en funcionamiento esta misma semana en un centro de datos de Iowa, con planes de expansión a una segunda ubicación en Arizona, según confirmó la propia compañía. Maia 200 es la evolución del procesador Maia que Microsoft presentó en 2023, y llega en un contexto en el que los principales clientes de Nvidia —Microsoft, Google y Amazon Web Services— están desarrollando activamente silicio propio para reducir su dependencia del fabricante estadounidense.
Pero la apuesta de Microsoft no se limita al hardware. Junto con Maia 200, la empresa anunció un conjunto de herramientas de software diseñado para facilitar la programación del chip, atacando uno de los pilares del liderazgo de Nvidia: Cuda, su plataforma de desarrollo ampliamente adoptada por la comunidad de inteligencia artificial.
El frente del software: Triton y el rol de OpenAI
Entre las herramientas presentadas se destaca Triton, un proyecto de código abierto que cuenta con importantes contribuciones de OpenAI, la empresa creadora de ChatGPT y uno de los socios estratégicos más relevantes de Microsoft en IA. Triton cumple funciones similares a las de Cuda, permitiendo a los desarrolladores optimizar modelos y cargas de trabajo de inteligencia artificial sin depender del ecosistema propietario de Nvidia.
Analistas de Wall Street suelen señalar que el verdadero poder de Nvidia no reside únicamente en sus chips, sino en el dominio de Cuda, que actúa como un fuerte bloqueo tecnológico para desarrolladores y empresas. Con Triton, Microsoft busca debilitar esa ventaja y facilitar la migración o el desarrollo directo sobre su propia infraestructura.
Este movimiento se alinea con una tendencia más amplia en la industria. Google, por ejemplo, viene impulsando sus propios chips de IA y trabajando estrechamente con grandes clientes de Nvidia, como Meta Platforms, para cerrar brechas de software entre sus aceleradores y los de Nvidia. El mensaje es claro: la competencia ya no se da solo en potencia de cómputo, sino en ecosistemas completos.
Fabricación avanzada y decisiones técnicas clave
Al igual que los próximos chips insignia de Nvidia, conocidos como “Vera Rubin” y presentados a comienzos de este mes, el Maia 200 es fabricado por Taiwan Semiconductor Manufacturing Co. (TSMC) utilizando tecnología de proceso de 3 nanómetros. El chip también incorpora memoria de gran ancho de banda, aunque en una generación más antigua y más lenta que la que Nvidia planea utilizar en sus futuros productos.
Sin embargo, Microsoft introdujo una decisión de diseño que busca compensar esa diferencia: una cantidad significativa de memoria SRAM, un tipo de memoria ultrarrápida que puede ofrecer ventajas de latencia en chatbots y sistemas de IA que deben responder simultáneamente a grandes volúmenes de usuarios.
Esta estrategia no es nueva entre los competidores emergentes de Nvidia. Cerebras Systems, por ejemplo, basa buena parte de su arquitectura en el uso intensivo de SRAM y recientemente firmó un acuerdo por U$S 10.000 millones con OpenAI para suministrar potencia de cómputo. En la misma línea, Groq, otra startup especializada en aceleradores de IA, utiliza esta tecnología y fue protagonista de un acuerdo de licenciamiento con Nvidia valuado en U$S 20.000 millones, según reportes del mercado.
Un tablero cada vez más fragmentado
El lanzamiento de Maia 200 confirma que el mercado de chips de inteligencia artificial está entrando en una fase de fragmentación estratégica. Nvidia sigue liderando en volumen, madurez y adopción, pero los grandes proveedores de nube están decididos a controlar una mayor parte de la cadena de valor, desde el silicio hasta el software.
Para Microsoft, el objetivo es doble: reducir costos a largo plazo y optimizar sus plataformas de IA —incluyendo Azure y sus servicios asociados a OpenAI— con hardware diseñado específicamente para sus propias cargas de trabajo. Al mismo tiempo, la compañía envía una señal al mercado: el dominio de Nvidia ya no es incuestionable.
En un escenario donde la demanda de cómputo para IA sigue creciendo de manera exponencial, la competencia entre chips, herramientas de software y modelos de negocio será cada vez más intensa. Maia 200 no solo es un nuevo procesador; es una pieza más en la batalla por definir quién controlará la infraestructura sobre la que se construirá la próxima década de inteligencia artificial

