【
智慧城市網(wǎng) 企業(yè)關(guān)注】近日,華中科技大學(xué)電信學(xué)院與北京通用人工智能研究院(簡稱“北通院”)攜手,在人工智能領(lǐng)域頂級國際期刊IEEE Transactions on Pattern Analysis and Machine Intelligence在線發(fā)表了題為“M2Diffuser:Diffusion-based Trajectory Optimization for Mobile Manipulation in 3D Scenes”的最新研究成果。該成果為
機器人在復(fù)雜三維場景下實現(xiàn)高效、精準(zhǔn)的移動操作提供了全新的解決方案。論文第一作者為電信學(xué)院“通計劃”2024級聯(lián)合培養(yǎng)博士生鄢思旭,電信學(xué)院王興剛教授與北通院劉航欣研究員為論文共同通訊作者。
當(dāng)前,人工智能與機器人技術(shù)的融合正不斷帶來新成果。然而在移動操作這一關(guān)鍵領(lǐng)域,傳統(tǒng)方法長期以來面臨著諸多挑戰(zhàn),例如高維動作空間、復(fù)雜環(huán)境交互以及嚴(yán)格的物理約束等。M2Diffuser全稱為“Mobile Manipulation Diffuser”,是一種基于擴(kuò)散模型的場景條件生成模型。它首次結(jié)合了學(xué)習(xí)方法與傳統(tǒng)規(guī)劃方法的優(yōu)勢,直接從機器人中心的3D掃描數(shù)據(jù)中生成高效、協(xié)調(diào)的全身運動軌跡。這一創(chuàng)新方法不僅能夠靈活地適應(yīng)各種復(fù)雜的任務(wù)目標(biāo),還能在每次去噪步驟中以完全可微分的方式減少物理違規(guī)和執(zhí)行錯誤,確保機器人的動作既安全又精準(zhǔn)。
三維場景下的移動操作挑戰(zhàn)
在過去,無論是基于學(xué)習(xí)的自回歸規(guī)劃方法,都依賴于完美環(huán)境知識的傳統(tǒng)規(guī)劃方法,難以在復(fù)雜的真實世界環(huán)境中實現(xiàn)高效、可靠的移動操作。學(xué)習(xí)方法雖然能夠從數(shù)據(jù)中學(xué)習(xí)到復(fù)雜的技能,但在模型推理過程中往往難以完全消除物理約束的違反;而傳統(tǒng)規(guī)劃方法則因?qū)Νh(huán)境建模的嚴(yán)格要求和對目標(biāo)的過度依賴,難以在實際應(yīng)用中實現(xiàn)廣泛的擴(kuò)展。
為了突破這些瓶頸,研究團(tuán)隊首先開發(fā)了M3Bench——一個涵蓋30000個物體操作任務(wù)的移動操作基準(zhǔn)測試平臺,覆蓋119種多樣化的家庭場景。該平臺不僅提供了豐富的專家演示數(shù)據(jù),還配備了元數(shù)據(jù)采集接口,構(gòu)建了從基礎(chǔ)抓取到復(fù)雜場景操作的任務(wù)譜系。M3Bench的開發(fā)為M2Diffuser 提供了高質(zhì)量的訓(xùn)練數(shù)據(jù),確保了模型在復(fù)雜三維環(huán)境下的高效學(xué)習(xí)和優(yōu)化能力。這一平臺的出現(xiàn),不僅解決了移動操作研究中缺乏
標(biāo)準(zhǔn)化測試平臺的問題,還為全身運動規(guī)劃研究提供了系統(tǒng)化的評估框架,支持對運動生成算法進(jìn)行全面驗證。
M3Bench移動操作測試平臺
M2Diffuser利用擴(kuò)散模型的強大能力,可以直接學(xué)習(xí)運動軌跡的概率分布。在推理過程中,M2Diffuser將物理約束和任務(wù)目標(biāo)建模為可微分的成本和能量函數(shù),引導(dǎo)優(yōu)化過程,確保生成的軌跡既符合物理規(guī)律,又能精準(zhǔn)完成任務(wù)目標(biāo)。這一過程中,M2Diffuser不僅能夠處理復(fù)雜的全身運動軌跡,還能在多種任務(wù)之間靈活切換,展現(xiàn)出極高的適應(yīng)性和泛化能力。
M2Diffuser模型架構(gòu)
實驗結(jié)果表明,M2Diffuser相較于基線方法在所有性能指標(biāo)上實現(xiàn)了質(zhì)的提升(平均提升26%)。它不僅在熟悉和未知場景中均展現(xiàn)出更高的成功率,還通過優(yōu)化機制大幅降低了碰撞率,并生成了更平滑、更符合關(guān)節(jié)限制的運動軌跡。此外,M2Diffuser憑借其迭代去噪過程和全局優(yōu)化能力,能夠生成更接近全局最優(yōu)解的運動軌跡,有效避免了短視規(guī)劃問題。它還首次實現(xiàn)了從仿真到真實世界的無縫遷移,直接將基于模仿學(xué)習(xí)的神經(jīng)運動規(guī)劃器應(yīng)用于真實家庭環(huán)境中的移動操作任務(wù),并成功處理了未見過的環(huán)境和物體,充分證明了其在復(fù)雜真實場景中的泛化能力和魯棒性。
M2Diffuser仿真測試
M2Diffuser真機測試
M2Diffuser有望賦能機器人在復(fù)雜環(huán)境中自主、高效地完成各種任務(wù),為智能工廠、家庭
服務(wù)機器人、物流配送等領(lǐng)域帶來革命性變革,極大地提高生產(chǎn)效率和生活質(zhì)量。該成果的取得也是我校與北京通用人工智能研究院圍繞“通計劃”開展合作研究取得的重要成果之一。
版權(quán)與免責(zé)聲明:
凡本網(wǎng)注明“來源:智慧城市網(wǎng)”的所有作品,均為浙江興旺寶明通網(wǎng)絡(luò)有限公司-智慧城市網(wǎng)合法擁有版權(quán)或有權(quán)使用的作品,未經(jīng)本網(wǎng)授權(quán)不得轉(zhuǎn)載、摘編或利用其它方式使用上述作品。已經(jīng)本網(wǎng)授權(quán)使用作品的,應(yīng)在授權(quán)范圍內(nèi)使用,并注明“來源:智慧城市網(wǎng)”。違反上述聲明者,本網(wǎng)將追究其相關(guān)法律責(zé)任。
本網(wǎng)轉(zhuǎn)載并注明自其它來源(非智慧城市網(wǎng))的作品,目的在于傳遞更多信息,并不代表本網(wǎng)贊同其觀點或和對其真實性負(fù)責(zé),不承擔(dān)此類作品侵權(quán)行為的直接責(zé)任及連帶責(zé)任。其他媒體、網(wǎng)站或個人從本網(wǎng)轉(zhuǎn)載時,必須保留本網(wǎng)注明的作品第一來源,并自負(fù)版權(quán)等法律責(zé)任。
如涉及作品內(nèi)容、版權(quán)等問題,請在作品發(fā)表之日起一周內(nèi)與本網(wǎng)聯(lián)系,否則視為放棄相關(guān)權(quán)利。