Alpamayo, los modelos abiertos de Nvidia para llevar la conducción autónoma a nivel humano

La compañía lanzó en CES un ecosistema de inteligencia artificial abierta que incorpora razonamiento paso a paso para enfrentar los escenarios más complejos de la conducción autónoma. Empresas como Lucid, JLR y Uber ya evalúan Alpamayo como base para acelerar el despliegue de vehículos de nivel 4.

NVIDIA dio un paso decisivo en la evolución de la conducción autónoma al presentar la familia Alpamayo, un conjunto de modelos de inteligencia artificial, herramientas de simulación y datasets abiertos diseñados para resolver uno de los mayores desafíos del sector: los escenarios raros, impredecibles y de alta complejidad conocidos como el long tail. El anuncio se realizó durante CES y posiciona a la compañía como la primera en lanzar un modelo abierto de razonamiento orientado específicamente al desarrollo de vehículos autónomos seguros y escalables.

La propuesta de Alpamayo parte de una limitación estructural de los sistemas actuales. Durante años, las arquitecturas tradicionales separaron percepción y planificación, lo que dificultó la adaptación a situaciones nuevas o fuera del entrenamiento previo. Aunque los enfoques end-to-end lograron avances significativos, NVIDIA sostiene que la verdadera autonomía requiere modelos capaces de razonar sobre causa y efecto, especialmente cuando se enfrentan a eventos inéditos.

En ese contexto, Alpamayo introduce modelos Vision-Language-Action (VLA) con razonamiento tipo chain-of-thought, es decir, sistemas que pueden analizar paso a paso escenarios complejos, explicar sus decisiones y actuar con un criterio más cercano al humano. Todo el ecosistema está respaldado por el sistema de seguridad NVIDIA Halos, diseñado para reforzar la confiabilidad y la transparencia de las decisiones algorítmicas.

“El momento ChatGPT para la IA física ya llegó, cuando las máquinas comienzan a comprender, razonar y actuar en el mundo real”, afirmó Jensen Huang, fundador y CEO de NVIDIA. “Los robotaxis están entre los primeros beneficiados. Alpamayo aporta razonamiento a los vehículos autónomos, permitiéndoles pensar escenarios raros, conducir con seguridad en entornos complejos y explicar sus decisiones; es la base de una autonomía segura y escalable”.

Un ecosistema abierto para acelerar la autonomía

La familia Alpamayo se apoya en tres pilares centrales: modelos abiertos, simulación avanzada y datasets de gran escala. A diferencia de otros enfoques, estos modelos no están pensados para ejecutarse directamente en el vehículo, sino para funcionar como teacher models que luego pueden ser ajustados y destilados en sistemas más livianos integrados al stack completo de conducción autónoma.

Entre los lanzamientos destacados se encuentra Alpamayo 1, el primer modelo VLA de razonamiento con chain-of-thought para la comunidad de investigación en vehículos autónomos. Con una arquitectura de 10.000 millones de parámetros, utiliza video como entrada y genera trayectorias junto con trazas de razonamiento que explican cada decisión. NVIDIA publicó los pesos del modelo y los scripts de inferencia en formato abierto a través de Hugging Face, y anticipó que futuras versiones contarán con más parámetros, mayor flexibilidad y opciones de uso comercial.

El ecosistema se completa con AlpaSim, un framework de simulación completamente open source disponible en GitHub, que permite modelado realista de sensores, dinámicas de tráfico configurables y entornos de prueba cerrados a gran escala. Además, NVIDIA liberó los Physical AI Open Datasets, un conjunto de datos abiertos que incluye más de 1.700 horas de conducción registradas en múltiples geografías y condiciones, con foco en eventos raros y situaciones complejas del mundo real.

Apoyo de la industria automotriz y tecnológica

El anuncio despertó un fuerte interés entre líderes del sector. Empresas como Lucid, Jaguar Land Rover (JLR) y Uber, junto con centros de investigación como Berkeley DeepDrive, ya evalúan Alpamayo como base para desarrollar stacks de conducción autónoma con razonamiento integrado y avanzar hacia despliegues de nivel 4.

“El cambio hacia la IA física subraya la necesidad de sistemas capaces de razonar sobre el comportamiento del mundo real, no solo de procesar datos”, señaló Kai Stepper, vicepresidente de ADAS y conducción autónoma en Lucid Motors.

Desde JLR, Thomas Müller, director ejecutivo de ingeniería de producto, destacó que “el desarrollo abierto y transparente de la IA es esencial para avanzar de manera responsable en la movilidad autónoma”, y subrayó que la apertura de modelos como Alpamayo acelera la innovación en todo el ecosistema.

Sarfraz Maredia, responsable global de movilidad autónoma y delivery en Uber, remarcó que “manejar escenarios impredecibles es uno de los desafíos definitorios de la autonomía”, y que Alpamayo abre nuevas oportunidades para mejorar la transparencia y aumentar los despliegues seguros de nivel 4.

En la misma línea, Owen Chen, analista senior de S&P Global, afirmó que el modelo “permite a los vehículos interpretar entornos complejos, anticipar situaciones nuevas y tomar decisiones seguras incluso en escenarios no vistos previamente”.

Más allá de Alpamayo, NVIDIA integrará este ecosistema con sus plataformas Cosmos, Omniverse y la arquitectura DRIVE Hyperion, impulsada por DRIVE AGX Thor, consolidando una estrategia que apunta a convertirse en la columna vertebral tecnológica de la próxima generación de vehículos autónomos. Con Alpamayo, la conducción autónoma basada en razonamiento deja de ser una promesa teórica y empieza a tomar forma concreta.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

WP to LinkedIn Auto Publish Powered By : XYZScripts.com