在近期舉辦的CES 2026主題演講中,英偉達(dá)首席執(zhí)行官黃仁勛宣布機(jī)器人技術(shù)進(jìn)入全新發(fā)展階段,稱該領(lǐng)域已迎來類似ChatGPT的突破性時(shí)刻。為印證這一觀點(diǎn),他現(xiàn)場展示了多款創(chuàng)新產(chǎn)品,并發(fā)布了一系列開源"物理AI"模型,引發(fā)行業(yè)高度關(guān)注。
演講現(xiàn)場最引人注目的是黃仁勛帶來的BDX機(jī)器人演示。通過實(shí)時(shí)互動(dòng)展示,觀眾見證了"GR00T"模型如何通過自主學(xué)習(xí)掌握機(jī)器人操作技能。這款視覺語言動(dòng)作(VLA)模型依托英偉達(dá)最新發(fā)布的Cosmos推理系統(tǒng),實(shí)現(xiàn)了對(duì)人形機(jī)器人全身動(dòng)作的精準(zhǔn)控制,在復(fù)雜環(huán)境中的適應(yīng)性顯著提升。
針對(duì)物理AI開發(fā)中的關(guān)鍵挑戰(zhàn),英偉達(dá)同步推出兩款開源"世界模型"——Cosmos Transfer 2.5與Cosmos Predict 2.5。這兩款工具具備模擬現(xiàn)實(shí)物理特性的能力,可生成高保真合成數(shù)據(jù)并構(gòu)建虛擬測試場景。對(duì)于自動(dòng)駕駛等高風(fēng)險(xiǎn)領(lǐng)域,該技術(shù)能提供安全的評(píng)估環(huán)境,有效降低實(shí)體測試成本與風(fēng)險(xiǎn)。
在視覺推理領(lǐng)域,全新發(fā)布的Cosmos Reason 2視覺語言模型(VLM)展現(xiàn)出突破性進(jìn)展。該模型通過整合物理常識(shí)與先驗(yàn)知識(shí),使機(jī)器設(shè)備獲得接近人類的視覺決策能力。測試數(shù)據(jù)顯示,搭載該模型的設(shè)備在復(fù)雜場景中的物體識(shí)別準(zhǔn)確率提升37%,空間關(guān)系判斷速度加快2.2倍。
硬件支持方面,英偉達(dá)推出搭載Blackwell架構(gòu)的Jetson T4000計(jì)算模組。這款專為物理AI設(shè)計(jì)的處理器性能較前代提升400%,支持多模態(tài)數(shù)據(jù)實(shí)時(shí)處理。配合新發(fā)布的Isaac Lab-Arena仿真框架,開發(fā)者可在統(tǒng)一平臺(tái)完成從算法訓(xùn)練到實(shí)體部署的全流程開發(fā)。
在生態(tài)合作層面,英偉達(dá)與Hugging Face達(dá)成戰(zhàn)略協(xié)議。雙方將GR00T模型與開源庫LeRobot深度整合,同時(shí)實(shí)現(xiàn)Reachy 2人形機(jī)器人與Jetson Thor硬件的無縫對(duì)接。這項(xiàng)合作使機(jī)器人開發(fā)周期縮短60%,代碼復(fù)用率提升至85%,顯著降低行業(yè)準(zhǔn)入門檻。