科技產業報訂閱
活動+
 

機器人性能再成長 抽象視覺指令也難不倒它

Dex-Net 4.0可協助機器人準確判斷拿取物體需採用的方式與工具。加州大學柏克萊分校

新的機器人能以創新方式與真實世界互動,超越單純環境互動(environment interaction)、模仿人類示範者的基本行為、運動規劃(kinematic planning),並透過學習進化以適應新的處境,達到運用雙手拿取陌生物體、跌倒後爬起、理解抽象的視覺指令(visual instruction)。

根據TechCrunch報導,機器人在專屬領域之外的用途非常有限,因此應用彈性一直是重點研究領域。Science Robotics在其機器人學習專刊報導中,介紹3款基於機器學習(machine learning)與人類-機器人(human-robot)互動技術獨立開發的新機器人系統。

工欲善其事必先利其器,人類透過學習與探索,熟練視覺與雙手的協調操作以搬取物體,但現有的機器人則缺乏相關知識與經驗。加州大學柏克萊分校(UC Berkeley)機器人學家開發的Dex-Net(Dexterity Network) 4.0機器人操縱系統,則透過基本的決策程序,協助機器人準確判斷拿取特定形狀、尺寸、質地或是陌生物體所需採用的方式與工具。

四足(quadrupedal)機器人對各種地勢能應付自如,既使滑跤或遭狠踢也能回復站立、持續運作,目前的四足機器人只能在正常立姿時執行作業,若因故倒地通常就無法再起身。ETH Zurich發展的ANYmal具備更高的敏捷度,經過訓練只要有足夠空間且4足都還能派上用場,無論倒地的姿勢、位置為何,ANYmal都能成功起身。

人類的許多日常行為雖然看似輕而易舉,能在瞬息間進行辨識、判斷、決策、行動,實則在不自覺中運用了大量直覺理解與知識,若相同情況由機器人處理,過程則變得極為複雜。Vicarious AI的研究團隊所發展的視覺認知(visual cognitive)電腦,涉及大量的機器創意或想像,在建立抽象陳述(abstract representation)與真實世界的連結上,已有初步進展。

Dex-Net 4.0運用神經網路(neural network)處理物體本身與其位置的數百萬個資料點(data point),據以決定抓取該物體的方式與工具,並從試誤中學習與累積經驗以加速決策過程,對於訓練在倉庫執行撿貨作業的機器人非常關鍵。目前Dex-Net 4.0已具有高可靠性與運用彈性,柏克萊的團隊正致力於透過縮短神經網路運算時間來提升其決策速度。

機器人的雙手各配備鉗夾(pincer grip)與吸盤夾(suction cup grip),運用能辨識景深的機器視覺技術,即時區分判斷哪個物品應以何種工具抓取。Dex-Net 4.0的決策有部分基於經驗,研究人員發現以吸盤夾處理平滑表面的物體成功機率較高,而以鉗夾處理需要抓握的物體成功機率較高。實際結果顯示Dex-Net 4.0的決策非常可靠,即使撿取的是一堆前所未見的物品。

ANYmal的腿部採用多功能的設計,可有更大的動作自由度,不過這項彈性也讓ANYmal移動速度與穩定度的最佳化極為困難。ANYmal倒地後爬起的能力並非由人類設計,而是透過模擬(simulation)與進化的演算法(evolutionary algorithms)不斷嘗試,從中找出並保留能達到目的的有效行為。

ETH Zurich以模擬的方式同時測試數千個ANYmal嘗試進行不同的作業,再將結果去蕪存菁應用於真實世界。不過由於目前無法完整模擬所有相關的物理特性,因此基於模擬的學習方式並非每次都能獲得所需的結果,但仍能產生非常新穎的行為,或是以人類眼光觀之已達最佳化的流暢動作。

理論上Vicarious AI的視覺認知電腦所提供的工具組,將讓機器人有能力和人類一樣完成IKEA家具的組裝。主要過程為以視覺理解隨附的圖像式抽象組裝說明,對照與連結實際的零、組件,並根據組裝指示操作組件、完成組裝。