Meta和紐約大學(xué)合作開發(fā)的機(jī)器人框架OK-Robot,讓我們離實(shí)現(xiàn)機(jī)器人收拾房間的目標(biāo)又近了一步。
這一新型開放知識(shí)型機(jī)器人框架融合了前沿的視覺語言模型(VLMs,例如GPT-4V)來識(shí)別物體,預(yù)先訓(xùn)練好的機(jī)器人抓取模型,以及經(jīng)過實(shí)戰(zhàn)考驗(yàn)的算法,如1968年的A*算法用于導(dǎo)航。
不同于其他機(jī)器人框架,OK-Robot無需預(yù)訓(xùn)練,就可以在真實(shí)家庭環(huán)境中運(yùn)行。據(jù)數(shù)據(jù)顯示,在10個(gè)真實(shí)的家庭環(huán)境中運(yùn)行OK-Robot,在開放式拾取和放置任務(wù)中達(dá)到了58.5%的成功率,如果是干凈整潔的環(huán)境,性能能提升到82%。這一成果為機(jī)器人在家庭環(huán)境中執(zhí)行日常任務(wù)提供了新的可能性。
榜單收錄、高管收錄、融資收錄、活動(dòng)收錄可發(fā)送郵件至news#citmt.cn(把#換成@)。
海報(bào)生成中...