機器人學家的挑戰:通用化
對於機器人學家來說,有一個挑戰比其他所有挑戰都更重要,那就是通用化——也就是讓機器能夠適應任何環境或條件的能力。自1970年代以來,這個領域從編寫複雜的程式演變為使用深度學習,教導機器人直接從人類行為中學習。但仍然有一個關鍵瓶頸:數據質量。為了改進,機器人需要遇到挑戰其能力的情境,這通常需要人類的監督,讓操作員小心地挑戰機器人以擴展其能力。隨著機器人變得越來越複雜,這種手動的方法面臨擴展問題:對高質量訓練數據的需求遠遠超過人類提供的能力。
LucidSim:創新的機器人訓練方法
現在,麻省理工學院計算機科學與人工智慧實驗室 (MIT CSAIL) 的一組研究人員開發了一種新穎的機器人訓練方法,這可能會顯著加速可適應、智能機器在現實環境中的部署。這個新系統名為“LucidSim”,利用最近在生成式人工智慧和物理模擬器方面的進展,創建多樣且真實的虛擬訓練環境,幫助機器人在困難任務中達到專家級的表現,而不需要任何現實世界的數據。
克服模擬與現實之間的差距
LucidSim結合了物理模擬和生成式人工智慧模型,解決了機器人學中最持久的挑戰之一:將在模擬中學到的技能轉移到現實世界。“機器人學習中的一個基本挑戰長期以來都是‘模擬與現實之間的差距’——模擬訓練環境與複雜、不可預測的現實世界之間的差異,”MIT CSAIL的博士後研究員楊格 (Ge Yang) 說,他是LucidSim的主要研究者。“以前的方法通常依賴深度感測器,這雖然簡化了問題,但錯過了現實世界中的關鍵複雜性。”
靈感的來源:從墨西哥捲餅到突破
LucidSim的靈感來自一個意想不到的地方:在麻省劍橋的Beantown Taqueria外的對話。“我們想教會配備視覺的機器人如何利用人類的反饋來改進。但後來,我們意識到我們一開始並沒有一個純粹基於視覺的政策,”麻省理工學院電機工程與計算機科學 (EECS) 的本科生余安倫 (Alan Yu) 說,他是LucidSim的共同主筆。“我們在街上走的時候一直在討論這個問題,然後我們在墨西哥捲餅店外停下來,大約聊了半個小時。那就是我們的靈光一閃。”
創建數據的過程
為了生成數據,團隊通過提取深度圖(提供幾何信息)和語義遮罩(標記圖像的不同部分)來生成真實的圖像。他們很快意識到,當對圖像內容的組成進行嚴格控制時,模型會生成相似的圖像,這些圖像之間並沒有區別。因此,他們設計了一種從ChatGPT獲取多樣文本提示的方法。
創造短視頻的技術
然而,這種方法僅產生了一張圖像。為了製作短小而連貫的視頻,作為機器人的“小體驗”,科學家們將一些圖像魔法與另一種名為“運動中的夢想 (Dreams In Motion)”的創新技術結合在一起。該系統計算每個像素在幀之間的運動,將單一生成的圖像變形為短的多幀視頻。運動中的夢想通過考慮場景的3D幾何形狀和機器人視角的相對變化來實現這一點。
超越傳統方法
余安倫表示:“我們的表現超越了2017年開發的領域隨機化方法,該方法對環境中的物體應用隨機顏色和圖案,這仍然被認為是當今的首選方法。雖然這種技術生成了多樣的數據,但缺乏真實感。LucidSim同時解決了多樣性和真實性問題。令人興奮的是,即使在訓練過程中沒有看到現實世界,機器人也能識別並導航現實環境中的障礙物。”
LucidSim的應用潛力
團隊對將LucidSim應用於四足行走和跑酷以外的領域特別感興趣,例如移動操作,這要求移動機器人在開放區域處理物體;顏色感知也至關重要。“如今,這些機器人仍然從現實世界的演示中學習,”楊格說。“雖然收集演示很容易,但將現實世界的機器人遠程操作設置擴展到數千種技能是具有挑戰性的,因為人類必須親自設置每個場景。我們希望通過將數據收集移到虛擬環境中來簡化這一過程,從而使其更具可擴展性。”
誰是真正的專家?
團隊將LucidSim與另一種方法進行了比較,該方法是由專家教師演示技能供機器人學習。結果令人驚訝:由專家訓練的機器人表現不佳,成功率僅為15%——即使將專家訓練數據增加四倍,效果也幾乎沒有變化。但當機器人通過LucidSim收集自己的訓練數據時,情況發生了戲劇性的變化。僅僅將數據集的大小翻倍,成功率就飆升至88%。楊格說:“給我們的機器人更多數據會單調地提高其性能——最終,學生會變成專家。”
未來的展望
斯坦福大學電機工程助理教授宋舒然 (Shuran Song) 說:“模擬到現實轉移的主要挑戰之一是實現模擬環境中的視覺真實性。”她並未參與這項研究。“LucidSim框架通過使用生成模型為任何模擬創建多樣且高度真實的視覺數據,提供了一個優雅的解決方案。這項工作可能會顯著加速在虛擬環境中訓練的機器人部署到現實世界任務的進程。”
結語
從劍橋的街道到機器人研究的最前沿,LucidSim正在為新一代智能、可適應的機器鋪平道路——這些機器學會在我們複雜的世界中導航,而不必親自踏足其中。
余安倫和楊格與四位CSAIL的同事共同撰寫了這篇論文:機械工程的麻省理工學院博士後研究員蔡然 (Ran Choi);EECS的麻省理工學院本科生拉萬 (Yajvan Ravan);麻省理工學院機械工程系的Samuel C. Collins教授約翰·倫納德 (John Leonard);以及麻省理工學院EECS的副教授菲利普·伊索拉 (Phillip Isola)。他們的工作部分得到了Packard Fellowship、Sloan Research Fellowship、海軍研究辦公室、新加坡國防科學技術局、亞馬遜、麻省理工學院林肯實驗室和國家科學基金會人工智慧與基本互動研究所的支持。研究人員在11月初的機器人學習會議 (CoRL) 上展示了他們的工作。
本文由 AI 台灣 運用 AI 技術編撰,內容僅供參考,請自行核實相關資訊。
歡迎加入我們的 AI TAIWAN 台灣人工智慧中心 FB 社團,
隨時掌握最新 AI 動態與實用資訊!