NVIDIA ha aprovechado la celebración de la conferencia NeurIPS, evento dedicado a los sistemas de procesamiento neuronal de información que se ha celebrado a caballo entre Ciudad de México y San Diego (Estados Unidos), para anunciar una ampliación de su catálogo de modelos, conjuntos de datos y herramientas de inteligencia artificial de código abierto orientados tanto a la denominada IA física (la que interactúa con el mundo real a través de robots o vehículos) como a la IA digital, con aplicaciones en voz, seguridad y modelos de lenguaje.
El anuncio que tal vez resulte más interesante de todos los realizados por la compañía consiste en la presentación de NVIDIA DRIVE Alpamayo-R1 (AR1), un modelo de IA física que se describe como el primer modelo de visión-lenguaje-acción de razonamiento abierto a escala industrial para movilidad, orientado específicamente a la investigación en conducción autónoma.
AR1 combina capacidades de razonamiento de IA paso a paso con la planificación de la trayectoria del vehículo, un componente clave para desplazarse de manera segura en escenarios de tráfico complejos y habilitar niveles elevados de automatización en la conducción.
De hecho, es capaz de cumplir con los requisitos del nivel SAE 4, el penúltimo en automatización antes del coche completamente autónomo (que sería el 5), y que implica que el conductor humano sólo debe tomar el control bajo determinadas circunstancias (como tiempo atmosférico desfavorable) o en determinadas ubicaciones, generalmente aquellas en las cuáles todavía están prohibidos los coches autónomos.
En comparación con generaciones anteriores de modelos de conducción autónoma que tenían dificultades en determinadas situaciones, como intersecciones con alta presencia de peatones, cierres de carril inminentes o vehículos doblemente estacionados, AR1 introduce un componente de razonamiento que persigue aproximarse más al comportamiento humano: el modelo descompone la escena en pasos, evalúa posibles trayectorias y utiliza el contexto disponible para seleccionar la ruta considerada más adecuada.
La misma NVIDIA ofrece un ejemplo que consiste en un vehículo equipado con AR1 circulando junto a un carril bici en una zona con muchos peatones. El sistema inteligente del vehículo podría combinar los datos de su entorno con trazas de razonamiento, es decir, explicaciones internas de por qué toma determinadas decisiones, para ajustar su trayectoria, separarse del carril bici o detenerse ante posibles peatones que crucen de forma inesperada.
AR1 se apoya en una base abierta construida sobre NVIDIA Cosmos Reason, lo que permite a los investigadores personalizar el modelo para sus propios casos de uso no comerciales. Esto incluye tanto tareas de validación y comparación de resultados como el desarrollo de aplicaciones experimentales para vehículos autónomos. En la fase posterior de entrenamiento, la compañía indica que el uso de técnicas de aprendizaje por refuerzo ha permitido mejorar de forma significativa las capacidades de razonamiento de AR1 frente al modelo preentrenado.
La distribución de este modelo se realiza a través de GitHub y Hugging Face, y una parte de los datos empleados para su entrenamiento y evaluación se encuentran disponibles dentro de los NVIDIA Physical AI Open Datasets. Junto a AR1, NVIDIA publica también el marco de evaluación AlpaSim, de código abierto, para validar el comportamiento del modelo.



