OpenAI eleva su proyección de gasto a U$S 115.000 millones hasta 2029

Según informes, OpenAI prevé quemar U$S 115.000 millones entre 2025 y 2029 mientras escala la infraestructura necesaria para alimentar ChatGPT; la compañía busca reducir costes desarrollando chips y centros propios en alianza con Broadcom y ampliando acuerdos con proveedores cloud.

OpenAI elevó de forma drástica su previsión de gasto: la empresa espera consumir U$S 115.000 millones en efectivo hasta 2029, cifra U$S 80.000 millones superior a la estimación previa, según la investigación publicada por The Information y replicada por agencias internacionales. Esa actualización refleja el tremendo costo de operar y escalar los modelos generativos a gran escala.

La compañía proyecta además un consumo de más de U$S 8.000 millones solo este año —unos U$S 1.500 millones por encima de lo proyectado anteriormente— y espera que la quema de caja anual se dispare a U$S 17.000 millones en 2026, U$S 35.000 millones en 2027 y U$S 45.000 millones en 2028, según los documentos citados por la prensa. Estas cifras subrayan por qué OpenAI se ha convertido en uno de los mayores arrendatarios de servidores en la nube del mundo.

¿Qué impulsa este gasto?

Dos factores dominan la ecuación: la enorme demanda de capacidad de cómputo para entrenar y servir modelos avanzados, y la necesidad de controlar costes operativos a medida que la infraestructura se vuelve la partida más relevante del P&L. Para mitigar la factura, OpenAI está apostando por diseñar y producir sus propios chips de servidor en colaboración con Broadcom, con el objetivo de desplegarlos internamente a partir del próximo año; la intención es reducir dependencia de terceros y optimizar costes de inferencia y entrenamiento.

En paralelo, OpenAI amplía sus alianzas de infraestructura: en julio profundizó su vínculo con Oracle para añadir 4,5 gigavatios de capacidad de centros de datos dentro del proyecto Stargate —una iniciativa mayor que se ha descrito con cifras de hasta U$S 500.000 millones y 10 GW en su ambición global— y ha añadido a Google Cloud entre sus proveedores de cómputo. Esa estrategia híbrida (nube pública + capacidad propia) busca equilibrar disponibilidad, latencia y control de costes.

Las señales públicas no han faltado: el propio Sam Altman —CEO de OpenAI— llegó a advertir en el pasado que la compañía “será la startup más intensiva en capital de la historia” (traducción), una observación que hoy se refleja en los números que la empresa está publicando indirectamente en documentos a inversores.

Además, la propia junta de OpenAI ha dado pasos corporativos que facilitan captar más capital, un movimiento que se acelera en paralelo a la necesidad de financiación para sostener la expansión.

¿Implicaciones para ejecutivos y proveedores de tecnología?

  1. Presión sobre proveedores cloud: Microsoft, Oracle y Google se encuentran en la línea de fuego: la demanda de OpenAI ha sido un motor clave de negocio para las nubes, pero la tendencia de OpenAI a diversificar y construir capacidad propia puede redistribuir ingresos y negociaciones de precios.
  2. Relevancia del hardware especializado: la apuesta por chips diseñados a medida (Broadcom) subraya que el control del stack (hardware + software) es ahora una ventaja estratégica tanto para costes como para rendimiento.
  3. Riesgo financiero y necesidad de capital: una quema de caja proyectada en U$S decenas de miles de millones exige modelos de financiación sólidos (capital privado, alianzas estratégicas, y eventualmente mercados públicos) y deja poco margen de error operativo.

Por último, la hoja de ruta plantea preguntas regulatorias y de gobernanza: ¿cómo afectará este gasto a la estructura de control y misión de OpenAI? La compañía ya ha comunicado cambios corporativos —y su junta ha señalado el efecto en la capacidad filantrópica de la organización— pero la comunidad de inversores y reguladores seguirá muy atenta al ritmo de ejecución y a la sostenibilidad financiera.

Para los líderes corporativos que evalúan proveedores de IA, la lección es pragmática: la capacidad de un proveedor para garantizar continuidad de servicio, previsibilidad de costes y soberanía tecnológica (oportuna replicabilidad local) se convierte ahora en un criterio crítico de selección. OpenAI apuesta por dominar su propia pila de infraestructura; eso podría traducirse en mejor control de costes y rendimiento —si logra ejecutar la estrategia— o en una presión financiera que complique su crecimiento si los plazos y costes se desbordan.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

WP to LinkedIn Auto Publish Powered By : XYZScripts.com