新書宣傳
aten
 

MIT研發的觸覺手套有助於機器人物體辨識訓練與義肢設計

麻省理工學院(MIT)研究人員發展的低成本、可擴充觸覺手套(scalable tactile glove;STAG),配備大量感測器以收集穿戴者的手部透過各種方式與物體互動時所產生的資料,訓練卷積神經網路(Convolutional Neural Network;CNN)模擬人類運用觸覺辨識物體並估計其重量。

麻省理工學院(MIT)研究人員發展的低成本、可擴充觸覺手套操作影片

 點擊圖片放大觀看

麻省理工學院的STAG收集的資料可用於訓練機器人辨識物體與義肢設計。麻省理工學院

根據The Robot Report報導,MIT的研究人員在一篇發表於Nature的報告指出,他們彙整透過STAG觸摸包括馬克杯、筆、剪刀、汽水罐、湯匙、網球等26個常見物體所收集到的資料集(dataset),據以訓練出來的CNN辨識物體的正確率可達76%,並能正確估計大多數60公克以內物體的重量,可應用於協助訓練機器人辨識與操控物體,以及義肢的設計。

人類結合視覺與觸覺回饋可完善對物體的辨識與處理,若想讓機器人有同樣的能力,就必須賦予其更豐富的感官回饋。整合運用STAG的觸覺感測系統、傳統電腦視覺(computer vision)、影像資料集,即可讓機器人在與物體互動時具備更接近人類的理解力。但目前類似STAG的手套動輒數千美元,且僅配備約50個感測器,收集到的資料量遠不及STAG。

STAG佈滿約550個微型感測器,收集配戴者手部以各種方式與物體互動時各點的即時壓力訊號,並傳送到CNN進行處理以學習各種物體的特定壓力訊號模式,並運用該資料集訓練CNN單靠觸覺、無需視覺輸入,即可進行物體分類與估計重量。STAG採用一般商用元件,總成本僅約10美元即能收集大量高解析度的資料。

穿戴STAG的人在觸摸、提起、握住、放下物體時,感測器便收集各點的即時壓力,並透過外接電路將其轉換為觸覺地圖(tactile map),觸覺地圖是由手的圖形上發光與縮放的點的簡短視訊所構成,這些點代表壓力點的位置與強度,大小會隨壓力而縮放,點越大表示那個位置的壓力越大。

MIT的研究人員從與26個物體互動所獲得的觸覺地圖,彙整出1個包含135,000個影格(video frame)的資料集,這些影格可提供對人類手部抓握物體的深刻見解,並可用於訓練CNN辨識物體與估計其重量。義肢製造商可運用MIT的資料集,來選擇在義肢上安裝壓力感測器的最佳位置,並有助於根據使用者通常進行的活動與互動的物體來客製化義肢。

CNN通常用於影像分類,MIT的研究人員將CNN應用於建立特定壓力模式與特定物體間的關聯性,並運用資料集分析人的手部不同區域間,在與物體互動時彼此協調配合的狀況,且首次以可量化的方式描述。辨識物體的關鍵在於從不同的抓握型態挑選影格以獲取物體的全貌,而由於訓練與測試CNN是採用不同的影格,因此無法直接建立重量與物體間的關聯。

MIT研究人員設計的CNN先將STAG抓握物體所產生的的觸覺地圖,依不同抓握方式的特徵進行分類,例如從底部、頂部、把手等位置抓握馬克杯,再挑出最多達8個在抓握方式上差異最大的半隨機(semirandom)影格來訓練CNN,以模擬人類不倚賴視覺,僅靠數種不同的抓取方式來探索與辨識物體的能力。

在估計物體重量方面MIT的研究人員根據以STAG的手指部位抓、握、放下物體所產生的觸覺地圖,建立另一個包含約11,600個影格的資料集,結合指尖、手掌、機器關節(robot joint)部位的感測器資料,量測力距與力以提供更準確的物體重量評估。此外CNN在換算重量時僅考量與物體重量相關的壓力訊號,排除如避免物體滑脫等其它因素所產生的壓力資料。

更多關鍵字報導: 麻省理工學院 機械義肢 觸覺感測