La colaboración entre Amazon Web Services y OpenAI redefine el acceso a supercomputación y potencia una nueva era de asistentes y modelos generativos para empresas y usuarios en todo el mundo.
Amazon Web Services (AWS) y OpenAI anunciaron un acuerdo estratégico multianual valorado en U$S 38.000 millones, que permitirá que el laboratorio líder en inteligencia artificial ejecute y escale sus cargas más avanzadas directamente sobre la infraestructura de AWS. El acuerdo, que tendrá un crecimiento continuo en los próximos siete años, marca un hito en el sector y prepara el terreno para que millones de usuarios continúen accediendo a herramientas de IA como ChatGPT con una performance superior y máxima seguridad.
En el marco de esta alianza, OpenAI comenzará a operar inmediatamente sus cargas de trabajo genAI más sofisticadas —incluyendo el entrenamiento y despliegue de modelos de última generación— usando la potencia de cómputo global que AWS brinda a través de Amazon EC2 UltraServers. Estos servidores especializados unifican cientos de miles de GPUs NVIDIA de última generación (modelos GB200 y GB300), y la capacidad de escalar hasta decenas de millones de CPUs, logrando una eficiencia óptima y permitiendo desde la inferencia para ChatGPT hasta el desarrollo de nuevos modelos fundamentales.
“Escalar IA de frontera requiere cómputo masivo y confiable. Nuestra asociación con AWS fortalece el ecosistema informático que impulsará esta próxima era y llevará la inteligencia artificial avanzada a todos”, aseguró Sam Altman, cofundador y CEO de OpenAI.
Matt Garman, CEO de AWS, agregó: “A medida que OpenAI sigue ampliando los límites de lo posible, la infraestructura líder de AWS será la columna vertebral de sus ambiciones en IA. La amplitud y disponibilidad inmediata de cómputo optimizado demuestra por qué AWS está única y especialmente posicionado para apoyar las vastas cargas de trabajo en inteligencia artificial de OpenAI”.
El despliegue de infraestructura contempla una arquitectura avanzada y segura, donde cada clúster de GPUs —con más de medio millón de chips interconectados en la red global de Amazon— permitirá a OpenAI superar las limitaciones de otros entornos en cuestiones de latencia y escalabilidad. Esta flexibilidad adapta la capacidad a las crecientes demandas del sector, que hoy exige sistemas robustos y fiables para resolver desde problemas matemáticos complejos hasta labores de codificación avanzada y análisis científico.
La demanda exponencial de cómputo provocada por el auge de la inteligencia artificial ha llevado a los grandes proveedores de modelos como OpenAI a buscar socios con experiencia probada en escalar infraestructura a nivel planetario. AWS, que ya había alojado modelos fundacionales de OpenAI en su plataforma Bedrock, afianza con esta alianza su posición como el proveedor cloud predilecto entre empresas y desarrolladores que requieran acceso inmediato a la vanguardia del procesamiento IA.
Miles de organizaciones —incluyendo nombres como Bystreet, Comscore, Peloton, Thomson Reuters, Triomics y Verana Health— ya utilizan los modelos de OpenAI a través de Amazon Bedrock para tareas que van desde flujos de trabajo autónomos hasta análisis y automatización. Con la nueva alianza, se espera que la adopción de asistentes inteligentes y soluciones genAI se acelere aún más, democratizando el acceso a capacidades que hace pocos años parecían reservadas a laboratorios de investigación de elite.
El despliegue total de la capacidad de AWS para OpenAI está previsto antes de fin de 2026, con opción a expandirse aún más hasta 2027 y años posteriores, asegurando así una base sólida para las futuras innovaciones de ambas compañías. Esta nueva “columna vertebral computacional” refuerza el liderazgo de AWS en infraestructura cloud y posiciona a OpenAI para ir donde nunca antes llegó la inteligencia artificial.

