Qualcomm desafía a Nvidia y AMD con nuevos chips para centros de datos

El fabricante presentó su línea de aceleradores AI200 y AI250 y sus acciones subieron 11%. La compañía entra de lleno en la batalla por el hardware que impulsa la revolución de la IA.

Qualcomm dio un paso decisivo en su evolución tecnológica y anunció su ingreso al mercado de chips de inteligencia artificial diseñados para centros de datos, un terreno dominado hasta ahora por Nvidia y AMD. El anuncio, realizado el lunes, provocó una suba del 11% en las acciones de la compañía, reflejando el entusiasmo de los inversores ante su nueva estrategia.

Los dos modelos presentados —AI200, previsto para 2026, y AI250, proyectado para 2027— están diseñados para integrarse en servidores de rack completo con refrigeración líquida, un formato que permite reunir hasta 72 chips y competir directamente con los sistemas GPU utilizados por Nvidia. Según la compañía, los nuevos aceleradores ofrecen ventajas en eficiencia energética, manejo de memoria y costo operativo total, con capacidad para soportar 768 gigabytes de memoria, una cifra superior a las disponibles en las ofertas actuales de sus rivales.

Primero queríamos demostrarnos en otros dominios, y una vez que construimos nuestra fortaleza allí, fue fácil subir un nivel hacia los centros de datos”, explicó Durga Malladi, gerente general de Qualcomm para data centers y edge computing. El ejecutivo señaló además que la compañía permitirá a los clientes comprar componentes individuales o sistemas completos, facilitando la personalización para grandes operadores de nube.

La estrategia marca una expansión significativa para una empresa tradicionalmente centrada en procesadores móviles y conectividad inalámbrica. Qualcomm ya había anticipado su interés en el segmento de infraestructura de IA al cerrar una alianza con la empresa saudí Humain en mayo, mediante la cual abastecerá centros de datos en Medio Oriente con chips capaces de administrar hasta 200 megavatios de potencia instalada.

El mercado de hardware para inteligencia artificial es hoy uno de los más codiciados de la industria tecnológica. Nvidia, cuyas GPU alimentan desde los modelos GPT de OpenAI hasta los servicios de IA de Microsoft, concentra más del 90% de la cuota global y ha alcanzado una capitalización bursátil superior a U$S 4,5 billones. AMD se mantiene como segundo jugador, mientras que compañías como Google, Amazon y OpenAI trabajan en el desarrollo de sus propios aceleradores para reducir su dependencia.

Frente a ese panorama, Qualcomm busca posicionarse como la tercera fuerza emergente del sector, enfocándose en el procesamiento de inferencia, el componente operativo que permite desplegar modelos ya entrenados. Según la compañía, los nuevos racks consumen alrededor de 160 kilovatios, un nivel comparable al de las instalaciones que ejecutan GPU de alta gama, pero con mayor rendimiento por watt y menores costos en refrigeración.

Lo que tratamos de lograr es que nuestros clientes puedan elegir si quieren llevar todo el sistema o combinar nuestras piezas con otros proveedores”, añadió Malladi, quien no especificó los precios de los nuevos productos, pero confirmó que la compañía apunta tanto a vender sistemas integrados como procesadores sueltos.

El momento elegido por Qualcomm no podría ser más oportuno. Con una expansión sin precedentes del mercado de centros de datos impulsada por los modelos de IA generativa, cada mejora en rendimiento y eficiencia puede traducirse en contratos multimillonarios con los principales proveedores de nube del mundo. Si logra escalar sus chips AI200 y AI250 con éxito, Qualcomm podría reconfigurar el mapa competitivo de una industria que, hasta ahora, parecía tener un único ganador: Nvidia.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

WP to LinkedIn Auto Publish Powered By : XYZScripts.com