SK Hynix: cómo los chips de memoria de alta velocidad se hicieron protagonistas de la IA

El auge de la IA puso en el centro a los chips de memoria de alta velocidad (HBM). SK Hynix pasó de ser un actor secundario a liderar la demanda: sus ingresos por DRAM crecieron de Won 7.5tn (U$S 5,4 mil millones) en el segundo trimestre de 2021 a Won 17.1tn en el mismo periodo de 2025, impulsados por HBM, que ya representa más del 40% de sus ventas de DRAM.

La memoria dejó de ser commodity

En la fábrica M14 de SK Hynix en Icheon se producen HBM —memorias capaces de transferir datos a velocidades equivalentes a 200 películas por segundo— y la prioridad del mercado cambió. Como explica Joon-yong Choi, vicepresidente y jefe de planificación del negocio HBM en SK Hynix: «En la DRAM convencional los clientes priorizaban el costo por sobre la potencia y el rendimiento; en HBM se prioriza la potencia y el rendimiento por encima del costo«.

Esa demanda por rendimiento explica por qué HBM —que permite hasta 1.024 vías de transferencia frente a las 64 de una DRAM avanzada convencional— se ha vuelto crítica para los grandes modelos de lenguaje y los centros de datos que hospedan cargas de IA.

Ventajas técnicas y estratégicas

SK Hynix acertó temprano con técnicas de empaquetado y unión, como la tecnología MR-MUF (mass reflow-molded underfill), que reduce el sobrecalentamiento al apilar hasta 16 capas de DRAM. Según analistas, esa ventaja en proceso y materiales permitió a Hynix convertirse en principal proveedor de HBM para Nvidia, el cliente estrella tras el boom de modelos como ChatGPT desde 2022.

El resultado económico es notable: la porción de HBM en los ingresos de DRAM de Hynix creció desde alrededor de 5% en el cierre de 2022 a más del 40% a comienzos de 2025. Además, los márgenes son jugosos: 50–60% en HBM frente a alrededor de 30% en DRAM convencional, según analistas citados.

El error estratégico de Samsung y las oportunidades de Micron

La carrera no fue pareja. Chris Miller, autor de Chip War, lo sintetiza así:
«La idea de que SK Hynix pudiera superar a Samsung habría sido impensable hace solo cinco años; sería como que Dr Pepper supere en popularidad a Coca-Cola».

Analistas como Ray Wang (Futurum Group) critican a Samsung por subestimar el auge del HBM: «Subestimar el potencial del HBM fue un enorme error estratégico», dice Wang. Micron y otros competidores avanzan, pero la ventaja de Hynix en procesos y contratos exclusivos con proveedores críticos les dio tiempo para consolidarse.

HBM, geopolítica y control de suministros

La importancia de la memoria coloca al sector en el epicentro de tensiones entre Washington y Pekín. Estados Unidos revocó recientemente exenciones que permitían a Hynix y Samsung enviar equipos de fabricación a sus plantas en China sin licencia, reforzando las barreras de acceso a tecnologías clave. Mientras tanto, China empuja a fabricantes locales como CXMT (ChangXin), que pasó de casi cero en 2020 a cerca del 5% del mercado DRAM el año pasado, pero aún enfrenta limitaciones de equipamiento avanzado y se estima que está tres a cuatro años detrás en HBM avanzado.

La escasez de equipos (por controles de exportación) y la prisa por aprovisionarse se hicieron evidentes cuando grupos chinos compraron reservas de HBM coreano antes de restricciones más estrictas.

¿Cómo sigue la competencia?

La próxima batalla se juega en la próxima generación: HBM4. SK Hynix planea empezar producción masiva este año para la plataforma Rubin de Nvidia, incorporando un logic die más avanzado (fabricado por TSMC). Samsung, por su parte, diseña su HBM4 con su propio procesador interno y explora técnicas como el hybrid bonding; una fuente familiar con la compañía afirmó que esa integración podría convertir a Samsung en un proveedor “one-stop shop” para clientes que busquen memoria y lógica empaquetadas.

Ray Wang advierte que «quien logre incorporar primero el hybrid bonding decidirá quién lidera la próxima generación de HBM». Pero Myron Xie (SemiAnalysis) lanza una cautela: «No tiene mucho valor ser una tienda integral si todas las piezas individuales son inferiores», refiriéndose a los problemas de calidad y producción que han afectado a Samsung.

Implicancias para la industria de la IA

El auge de HBM ha cambiado la cadena de valor: las memorias ya no son un commodity fácilmente sustituible; requieren diseño a medida, compromisos de compra con un año de anticipación y estrecha colaboración entre diseñadores de chips, foundries y proveedores de memoria. Eso da poder de fijación de precios a proveedores como Hynix y eleva las barreras de entrada para nuevos actores.

A la vez, la alta inversión y la demanda récord (y los márgenes) atraen a competidores y empujan a la industria a innovar alternativas: desde soluciones de software que optimizan la asignación de memoria hasta iniciativas de hardware que intentan reducir la dependencia de HBM.

HBM ha reordenado la jerarquía del mercado de semiconductores y ha situado a SK Hynix en una posición privilegiada para capitalizar la era de la IA. Pero el liderazgo no es seguro ni eterno: entre la carrera tecnológica por HBM4, la presión geopolítica sobre el suministro de equipo y la respuesta de rivales como Samsung, Micron y actores chinos, la industria encara una fase de competencia intensa donde la ventaja se gana tanto en la fábrica como en la mesa de negociación.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

WP to LinkedIn Auto Publish Powered By : XYZScripts.com