1. 程式人生 > 資訊 >懶癌救星:機器人可開冰箱取可樂,廚房等百餘場景下精準移物

懶癌救星:機器人可開冰箱取可樂,廚房等百餘場景下精準移物

近日,艾倫人工智慧研究所推出 AI 框架 A12-THOR3.0 版本,新增視覺物件操作框架 ManipulaTHOR,提高機器人手臂對物體的視覺識別操作能力。

ManipulaTHOR 可以使機器人在複雜環境中進行快速訓練,比當前在現實世界的訓練方法更快、更安全,成本效益更高。

▲ManipulaTHOR 框架特點

艾倫人工智慧研究所(Allen Inst for Artificial Intelligence)成立於 2014 年,由微軟聯合創始人保羅・艾倫(Paul Allen)與他人共同創立,是一家非營利性研究機構,宗旨是通過高影響力的人工智慧研究為人類做出貢獻。

艾倫人工智慧研究所的 A12-THOR 框架是首個在 100 多個視覺豐富化、物理化的虛擬房間場景下研究機器人操作問題的測試框架。

一、高度關節化手臂,複雜場景下精確抓取

眾所周知,讓機器人實現精確感知、導航、行動有一定技術門檻,讓機器人進行物體操縱則更難。

物體操縱是機器人學的一個既定研究領域,具體研究包括操縱器運動、抓取和長視距規劃、視覺推理等。其中,視覺推理一直是研究人員最大的困境之一。

艾倫人工智慧研究所 CEO 奧倫・埃齊奧尼(Oren Etzioni)指出,讓機器人在現實世界執行系列動作是機器人技術中最大但經常被忽視的挑戰之一。“讓一個機器人在廚房裡導航,再開啟冰箱拿出一罐蘇打水,是很難的。”

▲機器人在廚房虛擬場景下到達指定位置抓取指定物體

更新的 ManipulaTHOR 框架中有一個虛擬機器器人手臂設計,這是第一個具有高度關節化的虛擬機器器人手臂,配備由旋轉關節組成的三個等長關節、一套視覺和非視覺感測器,可以同時進行導航和物品移動操作。

通過機器人框架的迭代和多複雜場景的構建,A12-THOR3.0 解決了機器人在現實世界執行系列動作的難題,可以將現實世界物體移動到虛擬房間的不同位置,實現對現實世界的可複製性。

埃齊奧尼說道:“經過五年的努力,A12-THOR 框架可以使現實世界場景更容易在虛擬世界重現,像人類在實際場景中一樣訓練機器人感知和導航世界。”

二、加速指令跟蹤等研究,拓展技術極限

隨著 AI2-THOR 更新到 3.0 版本,其 AI 場景框架不斷拓展,使得研究人員能夠更高效地設計解決方案,以解決物件操作問題以及與機器人測試相關的其他傳統問題。

AI2-THOR 使 AI2 研究經理羅茲貝・莫塔吉(Roozbeh Mottaghi)說:“與在實際機器人上執行訓練相比,AI2-THOR 模擬框架速度驚人,也更安全。”

▲ManipulaTHOR 框架下機器人移動物體

莫塔吉說道:“多年來,AI2-THOR 框架使許多困難任務得以研究,如導航、指令跟蹤、多代理協作、執行家庭任務等。AI2-THOR 的更新迭代可以使得研究人員和科學家擴大當前人工智慧的研究極限。”

除了 3.0 版本外,艾倫人工智慧研究所還將在今年的計算機視覺和模式識別會議(CVPR)上舉辦 RoboTHOR Challenge 2021(2021 年機器人挑戰賽)。挑戰賽包括機器人目標導航、ALFRED(機器人後續指令)、房間重新排列等專案。

結語:A12-THOR 3.0 讓機器人訓練更快更安全

在 100 多個視覺豐富化、物理化的複雜房間場景下構建下,AI2-THOR 3.0 框架能夠讓機器人更高效的訓練,減少實體場景下訓練等時間成本及物品損耗。

基於該模擬框架,機器人已能在廚房等狹小複雜場景下應對自如,相信不久的將來,這一虛擬場景也將成為現實。