讓機器人感知你的「Here you are」,清華團隊使用百萬場景打造通用人機交接
清華大學交叉資訊研究院的研究者提出了一個名為"GenH2R"的框架,該框架旨在讓機器人學習通用的基於視覺的人機交接策略。這種策略使得機器人能夠更可靠地接住各種形狀多樣、運動軌跡複雜的物體,為人機互動帶來了新的可能性。這項研究為人工智慧領域的發展提供了重要的突破,為機器人在現實場景中的應用帶來了更大的靈活性和適應性。
隨著具身智慧(Embodied AI)時代的來臨,我們期待智慧體能主動與環境互動。在這個過程中,讓機器人融入人類生活環境、與人類互動(Human Robot Interaction)變得至關重要。我們需要思考如何理解人類的行為和意圖,以最符合人類期望的方式滿足其需求,將人類放在具身智慧的中心(Human-Centered Embodied AI)。其中一個關鍵的技能是可泛化的人機交接(Generalizable Human-to-Robot Handover),它使機器人能夠更好地與人類合作,完成各種日常通用任務,如烹飪、居室整理和家具組裝等。
大模型的火爆發展預示著大量高品質資料大規模學習是走向通用智慧的一種可能方式,那麼能否透過海量機器人資料與大規模策略模仿獲取通用人機交接技能?然而,若考慮在現實世界中讓機器人與人類進行大規模互動學習是危險且昂貴的,機器很有可能會傷害到人類:
在模擬環境中進行訓練,並利用人物模擬和動態抓取運動規劃來自動化提供大量多樣的機器人學習數據,然後將這些數據應用到真實機器人上,這種基於學習的方法被稱為" Sim-to-Real Transfer",它能夠顯著提升機器人與人類之間的協作互動能力,並且具有更高的可靠性。
因此,「GenH2R」框架被提出,分別從模擬(Simulation),範例(Demonstration),模仿(Imitation)三個角度出發,讓機器人第一次基於端到端的方式學習對任意抓取方式、任意交接軌跡、任意物體幾何的通用交接:1)在“GenH2R-Sim”環境中提供了百萬級別的易於生成的各種複雜模擬交接場景,2)引入一套自動化的基於視覺- 動作協同的專家範例(Expert Demonstrations)生成流程,3)使用基於4D 資訊和預測輔助(點雲時間)的模仿學習(Imitation Learning)方法。
與SOTA方法(CVPR2023 Highlight)相比,GenH2R的方法在各種測試集上的平均成功率提高了14%,時間縮短了13%,並且在真機實驗中表現更加穩健。
- #論文網址:https://arxiv.org/abs/2401.00929
- 論文首頁:https://GenH2R.github.io
- #論文影片:https://youtu.be/BbphK5QlS1Y
方法介紹
為了幫助尚未通關的玩家,讓我們一起了解「模擬環境(GenH2R-Sim)」的具體解謎方法吧。
為了產生高品質、大規模的人手 - 物件資料集,GenH2R-Sim 環境從抓取姿勢和運動軌跡兩方面對場景建模。
在抓取姿勢方面,GenH2R-Sim 從ShapeNet 中引入了豐富的3D 物體模型,從中挑選出3266 個適合交接的日常物體,使用靈巧抓取的生成方法(DexGraspNet),總共生成了100 萬人手抓住物體的場景。在運動軌跡方面,GenH2R-Sim 使用若干控制點產生多段光滑的 Bézier 曲線,並引入人手和物體的旋轉,模擬出手遞物的各種複雜運動軌跡。
GenH2R-Sim 的100 萬場景中,不僅在運動軌跡(1 千vs 100 萬)、物體數量(20 vs 3266)兩方面遠超之前最新工作,此外,還引入了接近真實情境的互動訊息(如機械手臂足夠靠近物體時,人會配合停止運動,等待完成交接),而非簡單的軌跡播放。儘管模擬產生的數據不能完全逼真,但實驗結果表明,比起小規模的真實數據,大規模的模擬數據更有助於學習。
B. 大規模生成利於蒸餾的專家範例
基於大規模的人手和物件運動軌跡數據,GenH2R 自動化地產生了大量專家範例。 GenH2R 尋求的「專家」 是經過改進的Motion Planner(如OMG Planner),這些方法是非學習、基於控制優化的,不依賴視覺的點雲,往往需要一些場景狀態(例如物體的目標抓取位置)。為了確保後續的視覺策略網絡能夠蒸餾出有益於學習的信息,關鍵在於確保 “專家” 提供的示例具有視覺 - 動作相關性(Vision-action correlation)。規劃時如果知道最後落點,那麼機械手臂可以忽略視覺而直接規劃到最終位置“守株待兔”,這樣可能會導致機器人的相機無法看到物體,這種示例對於下游的視覺策略網絡並沒有任何幫助;而如果頻繁地根據物體位置進行重新規劃,可能會導致機械手臂動作不連續,出現奇怪的形態,無法完成合理的抓取。
為了產生出利於蒸餾(Distillation-friendly)的專家範例,GenH2R 引入了 Landmark Planning。人手的運動軌跡會依照軌跡光滑程度和距離被分成多段,以 Landmark 作為分割標記。在每一段中,人手軌跡是光滑的,專家方法會朝著 Landmark 點進行規劃。這種方法可以同時確保視覺 - 動作相關性和動作連續性。
C. 以預測為輔助的4D 模仿學習網路
基於大規模專家範例,GenH2R 使用模仿學習的方法,建構4D 策略網絡,對觀察到的時序點雲資訊進行幾何和運動的分解。對於每一幀點雲,透過迭代最近點演算法(Iterative Closest Point)計算和上一幀點雲之間的位姿變換,以估計出每個點的流(flow)信息,使得每一幀點雲都具有運動特徵。接著,使用 PointNet 對每一幀點雲編碼,最後不僅解碼出最終需要的 6D egocentric 動作,還會額外輸出一個物體未來位姿的預測,增強策略網絡對未來手和物體運動的預測能力。
不同於更複雜的4D Backbone(例如Transformer-based),這種網路架構的推理速度很快,更適用於交接物體這種需要低延時的人機互動場景,同時它也能有效地利用時序訊息,做到了簡單性和有效性的平衡。
實驗
A. 模擬環境實驗
GenH2R 和SOTA 方法進行了各種設定下的比較,相較於使用小規模真實資料訓練的方法,在GenH2R-Sim 中使用大規模模擬資料進行訓練的方法,可以取得顯著的優勢(在各種測試集上成功率平均提升14%,時間上縮短13%)。
在真實資料測試集s0 中,GenH2R 的方法可以成功交接更複雜的物體,並且能夠提前調整姿勢,避免在夾爪靠近物體時再頻繁進行姿勢調整:
在模擬資料測試集t0(GenH2R-sim 引入)中,GenH2R 的方法可以能夠預測物體的未來姿勢,以實現更合理的接近軌跡:
在真實資料測試集t1(GenH2R-sim 從HOI4D 引入,比之前工作的s0 測試集增加大約7 倍)中,GenH2R 的方法可以泛化到沒有見過的、具有不同幾何形狀的真實世界物體。
B. 真機實驗
#GenH2R 同時將學到的策略部署到現實世界中的機械手臂上,完成「sim-to-real「的跳躍。
對於更複雜的運動軌跡(例如旋轉),GenH2R 的策略展現出更強的適應能力;對於更複雜的幾何,GenH2R 的方法更可以展現出更強的泛化性:
GenH2R 完成了各種交接物件的真機測試以及使用者研究,展現出很強的穩健性。
了解更多實驗、方法內容,請參考論文首頁。
團隊介紹
論文來自清華大學3DVICI Lab、上海人工智慧實驗室和上海期智研究院,論文的作者為清華大學學生汪子凡(共同一作)、陳峻宇(共同一作)、陳梓青和謝鵬威,指導老師是弋力和陳睿。
清華大學三維視覺計算與機器智慧實驗室(簡稱 3DVICI Lab),是清華大學交叉資訊研究院下的人工智慧實驗室,由弒力教授組成和指導。 3DVICI Lab 瞄準人工智慧最前線的通用三維視覺與智慧機器人互動問題,研究方向涵蓋具身感知、互動規劃與生成、人機協作等,與機器人、虛擬實境、自動駕駛等應用領域密切聯繫。團隊研究目標是使智能體具備理解並與三維世界互動的能力,成果發表於各大頂級電腦會議、期刊上。
以上是讓機器人感知你的「Here you are」,清華團隊使用百萬場景打造通用人機交接的詳細內容。更多資訊請關注PHP中文網其他相關文章!

熱AI工具

Undresser.AI Undress
人工智慧驅動的應用程序,用於創建逼真的裸體照片

AI Clothes Remover
用於從照片中去除衣服的線上人工智慧工具。

Undress AI Tool
免費脫衣圖片

Clothoff.io
AI脫衣器

AI Hentai Generator
免費產生 AI 無盡。

熱門文章

熱工具

記事本++7.3.1
好用且免費的程式碼編輯器

SublimeText3漢化版
中文版,非常好用

禪工作室 13.0.1
強大的PHP整合開發環境

Dreamweaver CS6
視覺化網頁開發工具

SublimeText3 Mac版
神級程式碼編輯軟體(SublimeText3)

熱門話題

0.這篇文章乾了啥?提出了DepthFM:一個多功能且快速的最先進的生成式單目深度估計模型。除了傳統的深度估計任務外,DepthFM還展示了在深度修復等下游任務中的最先進能力。 DepthFM效率高,可以在少數推理步驟內合成深度圖。以下一起來閱讀這項工作~1.論文資訊標題:DepthFM:FastMonocularDepthEstimationwithFlowMatching作者:MingGui,JohannesS.Fischer,UlrichPrestel,PingchuanMa,Dmytr

想像一下,一個人工智慧模型,不僅擁有超越傳統運算的能力,還能以更低的成本實現更有效率的效能。這不是科幻,DeepSeek-V2[1],全球最強開源MoE模型來了。 DeepSeek-V2是一個強大的專家混合(MoE)語言模型,具有訓練經濟、推理高效的特點。它由236B個參數組成,其中21B個參數用於啟動每個標記。與DeepSeek67B相比,DeepSeek-V2效能更強,同時節省了42.5%的訓練成本,減少了93.3%的KV緩存,最大生成吞吐量提高到5.76倍。 DeepSeek是一家探索通用人工智

AI,的確正在改變數學。最近,一直十分關注這個議題的陶哲軒,轉發了最近一期的《美國數學學會通報》(BulletinoftheAmericanMathematicalSociety)。圍繞著「機器會改變數學嗎?」這個話題,許多數學家發表了自己的觀點,全程火花四射,內容硬核,精彩紛呈。作者陣容強大,包括菲爾茲獎得主AkshayVenkatesh、華裔數學家鄭樂雋、紐大電腦科學家ErnestDavis等多位業界知名學者。 AI的世界已經發生了天翻地覆的變化,要知道,其中許多文章是在一年前提交的,而在這一

波士頓動力Atlas,正式進入電動機器人時代!昨天,液壓Atlas剛「含淚」退出歷史舞台,今天波士頓動力就宣布:電動Atlas上崗。看來,在商用人形機器人領域,波士頓動力是下定決心要跟特斯拉硬剛一把了。新影片放出後,短短十幾小時內,就已經有一百多萬觀看。舊人離去,新角色登場,這是歷史的必然。毫無疑問,今年是人形機器人的爆發年。網友銳評:機器人的進步,讓今年看起來像人類的開幕式動作、自由度遠超人類,但這真不是恐怖片?影片一開始,Atlas平靜地躺在地上,看起來應該是仰面朝天。接下來,讓人驚掉下巴

本月初,來自MIT等機構的研究者提出了一種非常有潛力的MLP替代方法—KAN。 KAN在準確性和可解釋性方面表現優於MLP。而且它能以非常少的參數量勝過以更大參數量運行的MLP。例如,作者表示,他們用KAN以更小的網路和更高的自動化程度重現了DeepMind的結果。具體來說,DeepMind的MLP有大約300,000個參數,而KAN只有約200個參數。 KAN與MLP一樣具有強大的數學基礎,MLP基於通用逼近定理,而KAN基於Kolmogorov-Arnold表示定理。如下圖所示,KAN在邊上具

哭死啊,全球狂煉大模型,一網路的資料不夠用,根本不夠用。訓練模型搞得跟《飢餓遊戲》似的,全球AI研究者,都在苦惱怎麼才能餵飽這群資料大胃王。尤其在多模態任務中,這問題尤其突出。一籌莫展之際,來自人大系的初創團隊,用自家的新模型,率先在國內把「模型生成數據自己餵自己」變成了現實。而且還是理解側和生成側雙管齊下,兩側都能產生高品質、多模態的新數據,對模型本身進行數據反哺。模型是啥?中關村論壇上剛露面的多模態大模型Awaker1.0。團隊是誰?智子引擎。由人大高瓴人工智慧學院博士生高一鑷創立,高

什麼?瘋狂動物城被國產AI搬進現實了?與影片一同曝光的,是一款名為「可靈」全新國產影片生成大模型。 Sora利用了相似的技術路線,結合多項自研技術創新,生產的影片不僅運動幅度大且合理,還能模擬物理世界特性,具備強大的概念組合能力與想像。數據上看,可靈支持生成長達2分鐘的30fps的超長視頻,分辨率高達1080p,且支援多種寬高比。另外再劃個重點,可靈不是實驗室放出的Demo或影片結果演示,而是短影片領域頭部玩家快手推出的產品級應用。而且主打一個務實,不開空頭支票、發布即上線,可靈大模型已在快影

特斯拉機器人Optimus最新影片出爐,已經可以在工廠裡打工了。正常速度下,它分揀電池(特斯拉的4680電池)是這樣的:官方還放出了20倍速下的樣子——在小小的「工位」上,揀啊揀啊揀:這次放出的影片亮點之一在於Optimus在廠子裡完成這項工作,是完全自主的,全程沒有人為的干預。而且在Optimus的視角之下,它還可以把放歪了的電池重新撿起來放置,主打一個自動糾錯:對於Optimus的手,英偉達科學家JimFan給出了高度的評價:Optimus的手是全球五指機器人裡最靈巧的之一。它的手不僅有觸覺
