OpenAI y Broadcom se alían para desplegar 10 gigavatios de aceleradores de IA

OpenAI diseñará chips a medida y Broadcom proporcionará el networking; las primeras pilas de racks comienzan en la segunda mitad de 2026. La alianza promete integrar aprendizajes de modelos de frontera en hardware para escalar capacidad de IA a nivel global.

OpenAI y Broadcom anunciaron hoy una asociación de gran calado: co-desarrollarán y desplegarán 10 gigavatios de aceleradores de IA diseñados por OpenAI, montados en racks que usarán soluciones de conectividad Ethernet, PCIe y óptica de Broadcom. El despliegue está programado para arrancar en la segunda mitad de 2026 y completarse antes de fin de 2029, y contempla instalaciones en los propios centros de OpenAI y en data centers de partners.

La lógica del acuerdo es directa: al diseñar sus propios chips y sistemas, OpenAI busca “inyectar” en el hardware lo aprendido al entrenar modelos de última generación, optimizando rendimiento y eficiencia para cargas intensivas de entrenamiento e inferencia. Sam Altman, cofundador y CEO de OpenAI, lo sintetizó así:

«Asociarnos con Broadcom es un paso crítico para construir la infraestructura necesaria que desbloquee el potencial de la IA y entregue beneficios reales para personas y empresas». — Sam Altman.

Para Broadcom, la colaboración refuerza su apuesta por aceleradores personalizados y por Ethernet como la columna vertebral del networking escalable en datacenters de IA. Hock Tan, presidente y CEO de Broadcom, destacó el alcance estratégico:

«La colaboración con OpenAI es un momento pivotal en la búsqueda de inteligencia artificial general». — Hock Tan.

Técnicamente, las pilas incluirán aceleradores diseñados por OpenAI y la cartera de Broadcom para interconexión a escala (Ethernet para scale-up y scale-out, PCIe y soluciones ópticas). Charlie Kawwas, presidente del Semiconductor Solutions Group de Broadcom, puso el foco en la combinación:

«Los aceleradores personalizados se combinan muy bien con soluciones de networking estándar para ofrecer infraestructura optimizada en costo y rendimiento». — Charlie Kawwas, Ph.D.

El anuncio llega en un contexto de demanda masiva: OpenAI reporta más de 800 millones de usuarios activos semanales, y la presión por mayor capacidad de cómputo para entrenar modelos más grandes y complejos es evidente. Diseñar hardware propio es la vía que grandes laboratorios de IA están explorando para mejorar latencia, eficiencia energética y control sobre la pila tecnológica.

Las fechas de despliegue (2026–2029) reflejan la magnitud del proyecto: 10 gigavatios equivalen a una inversión en escala y logística enorme, que implicará coordinación con múltiples socios, certificaciones y consideraciones de suministro y energía. Además, el uso de Ethernet como estándar operativo revalida una tendencia industrial hacia redes abiertas y escalables frente a soluciones propietarias cerradas.

Para ejecutivos de TI, infraestructura y estrategia, el acuerdo abre tres lecturas prácticas: (1) anticipar mayor presión sobre capacidad de energía y enfriamiento en data centers, (2) evaluar alianzas con proveedores de hardware y networking para no depender de un único proveedor y (3) planificar migraciones de cargas críticas que puedan beneficiarse de aceleradores optimizados a nivel de firmware y silicon.

En síntesis: OpenAI y Broadcom empujan una apuesta ambiciosa por arquitecturas a medida que prometen acelerar la próxima ola de innovación en IA. Si se cumplen los plazos, a partir de 2026 comenzará a materializarse una infraestructura diseñada específicamente para modelos de frontera, con implicancias directas para empresas que dependen de IA a escala. Para quienes toman decisiones hoy, la recomendación es simple: mapear impacto en energía, networking y socios estratégicos antes de que la siguiente generación de clusters transforme costos y capacidades del mercado.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

WP to LinkedIn Auto Publish Powered By : XYZScripts.com