為了提供更好的閱讀內容,我們使用cookies來改善使用者體驗,關於更多cookies資訊請閱讀我們的隱私權聲明
 
Reserch
活動+

人工智慧發展的陰影與陽光

  • 林育中
一個領域在經歷典範轉換時,初期發展產生的問題會遠比它所解決的問題要多,這正是一個銳意進取領域的典型路程。(圖片來源:Pixabay)

人工智慧(AI)自2015年爆發性的進展後,從資料庫、演算法、計算晶片、終端設備、乃至於應用呈現產業性全面建構發展,至今有一段時日,開始有人回顧前塵,檢討AI發展的「不陽光面」。

首先是經濟面,已有分析師提出AI泡沫化的警示,這是有鑑於2001年.com泡沫化所提出的類比。但是從產業發展的軌跡來看,現在全世界市值最高的10家公司之中7家與.com相關的發展有關。

當年市場資金對此過度的挹注只是激化了產業競爭、加速了產業發展與淘汰,但是整體發展方向大致是對的。這個觀察也適用於AI,是以警示歸警示,沒有一家公司敢於AI領域競爭中缺席。

技術面的發展則廣泛的碰到三個範疇的問題。第一個是可複製性(reproducibility)的問題,AI是科技,也是科學,研究結果應該能被重複驗證。但現階段的AI研發卻鮮少能做到此點,原因除了缺乏原始編碼外,另外在啟動學習時的亂數產生器與超參數(hyperparameter;在機器學習啟動之前預設的參數)的設定也是很大的因素。特別是強化學習,其效能表現對於超參數的設定特別敏感。

第二個是黑箱(black box)問題,或者是可詮釋性(interpretability)問題-我們是否可以解釋AI的學習與指令。雖然如深度神經網路(Deep Neural Network;DNN)、卷積神經網路(Convolutional Neural Network;CNN)、深度置信網路(Deep Believe Network;DBN)、遞迴神經網路(Regression Neural Network;RNN)等深度學習已成為AI領域中的日常術語,甚至開源碼也容易取得,但是這些學習演算法如何學習、下指令,我們仍然缺乏深刻的認識。

現在有幾個方案試圖打開黑箱子,讓學習與指令變得可以解釋:一、在黑箱中插入一外部可見的透明層(transparent layer),讓輸入與輸出的結果變得比較可以暸解與控制。二、逐漸變化輸入的數據,看那些部份對機器學習的決策影響最大。三、用機器學習來建構機器學習的模型。

第三個是稍有爭議的「煉金術」(alchemy)問題,這較前述的某一個研究可否複製或者某一個演算法是否可以詮釋更為複雜,是整個AI領域的問題。研發人員基本上無法判斷某一類的問題選用那一個演算法會得到最好的結果,靠的多是傳聞之言,這像是中世紀的煉金術。

但也有幾個建議方案試圖解決煉金術問題:一、幫演算法建立玩具模型(toy model)-這是物理學家的慣用手法,譬如在彩色圖形辯識之前先以黑白圖形測試以瞭解演算法內部機制。二、對演算法進行切除研究(ablation study)。一次切除演算法的一小部份,看其對輸出有什麼影響,這聽起來像不像早期對大腦功能模組區塊的研究方法?

在我看來,這些問題部份根源於它的奠定基礎神經網路:我們對神經網路與腦的了解仍遠遠不夠,類比於它的演算法也容易撲朔迷離。腦神經科學的進展,相信也會同時闡明AI的一些問題。

從另一個角度來看,一個領域在經歷典範轉換時,初期發展產生的問題會遠比它所解決的問題要多,這正是一個銳意進取領域的典型路程,所以我對這些問題持樂觀的態度!

現為DIGITIMES顧問,1988年獲物理學博士學位,任教於中央大學,後轉往科技產業發展。曾任茂德科技董事及副總、普天茂德科技總經理、康帝科技總經理等職位。曾於 Taiwan Semicon 任諮詢委員,主持黃光論壇。2001~2002 獲選為台灣半導體產業協會監事、監事長。現在於台大物理系訪問研究,主要研究領域為自旋電子學相關物質及機制的基礎研究。