智慧應用 影音
科技產業報訂閱
event

台灣發展自駕車 關鍵在AI樣本辨識資料庫與練兵場域

台灣若要發展自駕車產業,可透過在地業者建立資料庫,加速系統訓練速度,並儘速制定相關法規,畢竟實地測試才是驗證自駕技術的最佳方式。法新社

在無人駕駛時代,駕駛雙手可以徹底解放,不需要花費任何心思關注週遭環境路況,自動駕駛儼然已成為下世代車輛發展趨勢,但台灣相關零組件廠商有機會站上這波「自駕車」浪頭嗎?學者指出關鍵在於建構業者共享的物件辨識資料庫,以及自駕車實地測試場域。

國立交通大學電子工程學系教授郭峻因指出,自駕車主要仰賴視覺分析技術,目前主要分析方式有三種途徑,分別為建構規則(Rule base)、機器學習(Machine Learning)、深度學習(Deep Learning),透過分析結果辨識判斷週遭駕駛環境,其中深度學習(Deep learning)為最可行的途徑,但該方法需要即大量物件資料庫,才能訓練出精準分析系統。

深度學習是機器學習領域中近年來備受重視方法,郭峻因指出,深度學習模擬大腦神經網路系統,實際操作方式,直接選定一個類神經網路模型,接續建立辨識物件樣本、辨識物件系統,只要有分類完成樣本,持續建檔投入就可以訓練正確分類系統。

深度學習如同人類學習分類的過程一樣,在自駕車領域需要準備大量分類完成的樣本標的,持續將不同分類樣本投入,使深度學習系統即可「參透」這些照片中的規律性。

郭峻因指出,系統能正確分類的關鍵在於其分析過層具有多層次的結構,例如第一層先判斷照片內是否有汽車特徵,第二層判斷是否有輪胎紋路,以自身參與智慧視覺研究案研發的先進駕駛輔助系統(ADAS)為例,透過21層分析,深度學習系統即可正確辨識道路上所有物件,分辨出不同車型,並計算出相對距離。

郭峻因強調,深度學習系統搭配光達(LiDAR)汽車感測器,即可達到精準的先進駕駛輔助系統,甚至進一步完成自動駕駛。

對於現今市場深度學習晶片解決方案包含Mobileye、恩智浦(NXP)、NVIDIA等,郭峻因分析指出,NVIDIA偏向深度學習方式處理,透過圖形處理器(Graphics Processing Unit;GPU)平行演算法,同時處理多重物件,模擬神經網絡系統,但使用GPU成本效益較差,反之採用系統晶片(System on Chip;SoC)較為合適,只要訓練好的物件辨識系統布局在晶片內,即可達到智慧駕駛功能,相信未來會有更多廠商推出SoC解決方案。

至於未來自動駕駛技術關鍵,郭峻因說,目前影像、LiDAR、毫米波雷達、超音波等感測器已經成熟,關鍵在駕駛輔助決策平台上,哪間公司可研發出效能高運算平台,同時耗能低省,符合車規,才有機會勝出。

至於自動駕駛人工智慧(AI)品質,郭峻因強調,要讓自駕車可以精準且安全行駛,最重要的分類樣本數量,透過愈大量的樣本,才愈能訓練出最精準系統。郭峻因描述,以現在實驗室情形,目前可供辨識的物件資料已達150萬筆,但需要人工標示物件,標記(label)分類影像中物件,最後才能將分類後影像訓練系統,他笑稱這過程是一個「苦力活」。

台灣若要發展自駕車產業,郭峻因直指2個關鍵:樣本資料庫建立困難,且人工標記速度緩慢,可透過在地業者建立資料庫,交互交流應用,將可加速系統訓練速度;另方面,國外已經有自駕車在路上趴趴走,但台灣礙於法規因素,仍未有一個可以練兵場域,透過實地測試才是驗證自駕技術最好地方。

  •     按讚加入DIGITIMES智慧應用粉絲團
更多關鍵字報導: NVIDIA SoC設計 深度學習 自駕車