Az Nvidia kiadta a nyílt látás-nyelv-cselekvés DRIVE Alpamayo-R1 modellt. Az önvezető autók fejlesztéséhez használható modell gondolatlánc (Chain-of-Thought, CoT) alapú érvelést-következtetést kombinál útvonaltervezéssel.
A vezetési forgatókönyveket lépésről lépésre bontja szét, kiértékeli a lehetséges útvonal-pályákat (trajektóriákat), és kontextuális adatok segítségével választja ki összetett helyzetekben az optimális útvonalakat. Például gyalogosokkal teli kereszteződések vagy elzárt kerékpár-utak lehetnek ilyen bonyolult szituációk, amikor az önvezető jármű komoly kihívásokkal szembesül, és azonnali megoldást kell találnia rájuk.

A modell gyakoroltatásához az érvelési-következtetési képességeit jelentősen javító megerősítéses tanítást alkalmaztak, amellyel lényegesen jobbnak bizonyult, mint az előre betanított változat. A megerősítéses tanulás – reinforcement learning, RL – olyan gépitanulás-módszer, amikor például egy ágens úgy tanul meg egy adott környezetben cselekedve optimalizálni, hogy pozitív (megerősítő, jutalmazó) vagy negatív (büntető) visszajelzések alapján finomítja stratégiáját. Általában döntéshozási folyamatok automatizálására használják.

Az Nvidia Cosmos Reasonra épülő AR1 lehetővé teszi kutatók számára, hogy a modellt nem-kereskedelmi alkalmazásokhoz, köztük teljesítmény-összehasonlításhoz (benchmarking) vagy kísérleti autonóm járművek fejlesztéséhez testre szabják.
A Cosmos a legmodernebb generatív világ-alapmodelleket (world foundation models, WFM), védőkorlátokat és gyorsított adatfeldolgozási és -kezelési folyamatot tartalmazó fizikai mesterségesintelligencia-platform. (Fizikai intelligencián robotokkal, önvezető járművekkel és a fizikai világban aktív más gépi ágensekkel összekapcsolt MI-t értünk.)
A DRIVE Alpamayo-R1 a világ első ipari léptékű nyílt látás-nyelv-cselekvés modellje mozgásalapú gépi cselekvésekhez. Komoly hatással lehet az önvezető járművek további fejlesztéseire.








