D Forum 2019
活動+
 

AI何時加速普及化 先克服這四大挑戰再說

AI辨識技術逐漸獲得政府的注意,將幫助政府追蹤人民的行為。法新社

人工智慧(AI)正面臨諸多挑戰,舉凡清理資料,解決政治、法律和倫理問題,加強人們對機器的信任,要是沒有成功克服這些難關,AI就無法發揮最大潛能,不利於在各行各業普及開來。

據Semiconductor Engineering報導,AI所面臨的第一個挑戰就是資料清理,畢竟任何AI應用皆以大型資料集為基礎,若資料隱含偏見,就可能得出有偏見的解決方案。

安謀(Arm)機器學習團隊特殊專案副總裁Steve Roddy表示,AI主要關乎資料,如果資料集隱含偏見,AI模型就會有偏見,模擬結果也會有偏見,所以技術人員有責任確保這些演算法公正客觀。

然而,當AI公司搶著推出新產品,就可能沒做好資料品質把關。Imagination Technologies視覺暨AI資深商業發展主管Andrew Grant表示,以AI醫療應用為例,這個領域有莫大的潛力,但由於訓練資料尚未到位,難以完成AI模型訓練、減少錯誤和取得正確資料。

第二個挑戰是政治面。AI逐漸獲得政府的關注,Allied Analytics數位行銷工程師Sharad Singh表示,AI相關的政治法律議題,尚未受到政府的妥善處置。一方面,AI經常被描繪成殺人機器的邪惡勢力,或者會搶走人類的飯碗。另一方面,AI又可以幫助政府監控行為不檢的人,例如中國大陸政府就運用AI臉部辨識技術來追蹤人民的行為,建立每個人的社會信用評比。

Achronix副總裁兼首席工程師Raymond Nijssen表示,1970年代政府也曾經針對微處理器課徵重稅,因為當時這項新技術可能搶走藍領階級的工作,如今AI也會威脅藍領階級的就業機會,但AI也會提高員工生產力,在未來數十年提振國民生產總額(GDP),所以真正的重點是預先做好準備,把整個自動化過程拉長為數十年,讓大家都有機會適應變遷。

第三個挑戰就是建立信任。信任通常是來自於理解,Cadence的Dave White表示,大規模決策系統需要可解釋AI(Explainable AI),否則AI就像是深不可測的黑盒子,無法取信於人,換言之,值得信任的AI必須有觀察(Observe)、判斷(Orient)、決策(Decide)和行動(Act)的OODA循環,進而鼓勵人們接納自動化的決策系統。

再者,資料所有權也會影響人們對AI的信任。 Gyrfalcon Technologies行銷副總裁Marc Naddell表示,以前的資料都是大企業負責收集,個資還有外洩和遭駭的危險,隨著AI時代來臨帶來了邊緣運算,可望解決隱私疑慮和延遲性的問題。

第四個挑戰是技術面。驗證(verification)是提升科技可靠度的關鍵之一,但AI系統驗證還做得不夠好。西門子旗下Mentor的工程主管Jeff Dyck表示,缺乏驗證的AI技術恐帶來莫大威脅,但目前業界投注大量心力在訓練和推論,卻忽視驗證。此外,新科技也需要新架構,Naddell表示,說到AI加速器的記憶體技術,業界正在考慮MRAM而非SRAM,這可望帶給邊緣運算新的功能,進而開啟新的應用。

產業界也要懂得適應變遷,Roddy表示,AI技術會持續加速發展,對於軟硬體產生各式各樣的需求,一方面,硬體會追求效能和能源效率,另一方面,App開發人員會追求開源軟體架構來加速AI部署,因此AI新科技的一大挑戰,便是在於軟硬體相輔相成。更重要的是,這個產業嚴重缺乏人才,Grant建議把人才招募流程民主化,同時加強男女性別比例平衡。

  •     按讚加入DIGITIMES智慧應用粉絲團
更多關鍵字報導: 人工智慧