MIT演算法新突破,軟體機器人終於知道 “我在哪兒”了
說起軟體機器人,或許很多人都不覺得陌生了。
軟體機器人的發展離不開包括材料學、機器人學、生物力學、感測與控制在內的多學科進步,近年來相關學科迅速發展,各類軟體機器人也開始湧現。
機器人與自動化國際會議 ICRA 2017 的會場上,曾參與發明達芬奇手術機器人的香港中文大學機械與自動化工程學系副教授Samuel Au 這樣表示:
軟體機器人在醫療領域的應用十分廣泛,甚至會轉變醫療機器人的正規化。軟體機器人是手術機器人的終極目標。
當然,除了醫療領域,軟體機器人還有一個廣闊的市場——玩具。
這個市場中,迪士尼對軟體機器人頗為關注。就在去年,迪士尼研究院(Disney Research)曾基於演算法和一種特殊的拉伸感測器,讓軟體機器人有了「本體感知」的能力。
最近,在世界領先的機器人專家之一Daniela Rus 教授的領導下,MITCSAIL 也做出了類似的成果:基於他們開發的演算法,軟體機器人體內的感測器得到了優化,因此能更好地在環境中感受自身、與環境互動。
相關論文題為Co-Learning of Task and Sensor Placement for Soft Robotics(軟體機器人任務與感測器佈置的協同學習),將於 2021 年 4 月的IEEE International Conference on Soft Robotics(IEEE 軟體機器人國際會議)上進行展示。
讓軟體機器人回答出 “我在哪”
很多人的印象中,機器人都有著堅硬的外殼,充滿金屬感,這便是傳統的剛性機器人。通常,剛性機器人關節、肢體的有限陣列通過控制對映和運動規劃的演算法使得計算易於掌控。
不同於剛性機器人,軟體機器人不論結構還是材料都是非線性的,且擁有多自由度,因此其動作任務更加複雜,因此對演算法的要求非常高。
正如論文介紹的那樣:
軟體機器人必須在一個無限維的狀態空間中進行推理,而對映這個連續狀態空間並不簡單(特別是在基於有限的離散感測器集工作的情況下,畢竟感測器位置對機器人任務學習模型的豐富性有著深遠影響)。
上面這段話通俗來講就是,軟體機器人要想可靠地完成程式設定的任務,它們需要知道自己所有身體部位所在的位置,而由於軟體機器人幾乎可以以無限種方式變形,因此這項任務相當艱鉅。
為了讓軟體機器人回答出 “我在哪”的問題,此前科學家們的策略是:用一個外部攝像頭來繪製機器人的位置,並將資訊反饋到機器人的控制程式中。
但 MITCSAIL 的想法是:創造一個不受外界幫助的軟體機器人。
在研究團隊看來:
不能在機器人身上安裝無數個感測器,真正的問題是:要有多少感測器、要把感測器放在哪,才有最大的價效比?
正因如此,MITCSAIL 將目光聚焦於深度學習。
他們開發了一種演算法,能夠幫助工程師設計出收集更多與周圍環境相關的有用資訊的軟體機器人。
具體而言,這種新的協同學習感測器放置和複雜任務的表示方法,可以處理機載感測器資訊,從而學習突出和稀疏的位置選擇,優化感測器在機器人體內的位置,保證機器人獲得最優的任務效能。
論文合著者之一 Alexander Amini 表示:
這一系統不僅可以學習給定的任務,而且還能學習如何以最佳方式設計機器人來解決任務。感測器的放置是一個非常難解決的問題,所以這個解決方案是非常令人興奮的。
論文顯示,由於許多軟體機器人在本質上是呈節點的,因此新架構採用了基於點 - 雲(point-cloud-based)的學習和概率稀疏化。他們的方法將感測器設計視為學習的雙重過程,在單一的端到端培訓過程中結合了物理和數字設計。
在論文中,研究人員將這種架構稱為PSFE 網路(即 point sparsification and feature extraction network,點稀疏化和特徵提取網路)。
PSFE 網路能夠同時學習感測器的讀數表示和感測器的位置。如下圖所示,PSFE 網路是研究團隊做的所有演示和應用的核心——演示包括物件抓取預測(B)、學習本體感受(C)和控制(D)。
事實證明,在放置感測器方面,演算法的表現大大超過了人類直覺!
總結來看,這項成果的主要貢獻在於:
對應變和應變速率的測量:用於推理軟體機器人狀態的神經結構;
一種適用於下游任務的最小集稀疏化概率感測器表示,以及一種超越了自動化和人工基線的演算法;
兩個任務(7 種軟性機器人形態的觸覺感知和本體感受)中任務學習和感測器放置協同設計的演示。
論文合著者之一 Andrew Spielberg 表示:
我們的工作有助於實現機器人設計自動化。除了開發控制機器人運動的演算法,我們還需要考慮如何對這些機器人進行感知,以及如何與機器人的其他元件相互作用。未來如果在工業上加以應用,影響可能是立竿見影的。