Reserch
COMPUTEX Forum 2019

可解釋的人工智慧

  • 林育中

人工智慧對於可解釋性的追尋是一段意外的旅程,機器學習各式神經網路的成功則是模擬人腦的工作模式。SAS

從幾年前人工智慧熱起來後,可解釋(explainable)一詞瞬間變成顯學。機器學習在許多領域取得不錯的成績,表現要再上層樓、消除錯誤、避免在關鍵時刻下錯誤的指令,就要理解機器學習的學習過程、建立模型以及下指令的機制。

人工智慧發展迄今,取得較大進展的有兩個領域:圖形辨識和自然語言,而常使用的工具有卷積神經網路(Convolutional Neural Network;CNN)和遞歸神經網路(Recurrent Neural Network;RNN)。以CNN為例,程式精簡寫來不過百來行,其結構也明確,一或多個卷積層(convolution layer)、頂端的全連通層(fully connected layer)、池化層(pooling layer)等,但是究竟如何從一資料庫中學習、建立模型,以及如何對真實案例給指令、下判斷,目前還是黑箱。

RNN也有類似的問題,由於輸入資料在內部反覆遞歸,參數的數目指數級爆炸,機器內部需要長短期記憶(Long Short-Term Memory;LSTM)執行對遞歸學習結果的記憶或遺忘。由於記憶體和遺忘的涉入,學習和下指令殊不可解。

2019年3月DARPA的期中colloquium有20幾個題目,其中有3個特別引我注目,一個是人工智慧之於物理、化學的應用,這項目我認為是人類心智的最後防線,突破了,人類就無所用心;另一個是教人工智慧常識,這是相當艱難的問題,牽涉廣泛,問題要先收斂;再一個就是人工智慧的可解釋性了。

解釋人工智慧的方法正慢慢的發展出來。2018年剛發表的隨機輸入取樣解釋(Randomized Input Sampling for Explanation;RISE)的想法看來有趣,基本上RISE是把機器學習當成黑箱子,僅憑輸入和輸出來解釋其學習、模型和指令。想法其實很簡單。以圖形辨識為例,在原始資料中設置一個小區域罩子,可以從0到1取值,將這罩子置於一待辨識圖像之上,掩蓋部份像素。當圖像被辨識機率陡降時,我們知道覆蓋到辨識模型的關鍵因子了。這是把機器學習當黑箱子的做法,像古典的心理學。

稍早還有網路解剖(network dissection),聽起來就像《太極》電影中陳長興說屠夫賈大六幹的「挑筋斷骨」的事,而分析也的確實深入底層。基本上尋找的是隱藏單元(hidden unit)與一組語義(a set of semantics)中間的對齊(alignment),講白話就是尋找神經元(neuron)與抽象意義之間的相關連。這與現在腦神經科學用fMRI(functional MRI)來檢測那些神經元與連結的突觸(synapse)在那一特定概念輸入時被激發的手法頗為相似,只不過人工智慧的網路解剖首先要證明此一類比存在,而且對於對齊的程度可以量化,現在這個方向的研究持續開枝散葉中。

除了上述的兩種方法外,當然還有其它的嘗試,譬如在卷積層中插入一物理模型層,可以精確的模擬與觀察相對照,並且達到高取樣率。更多新的方法正在生發中。

對我來說,人工智慧對於可解釋性的追尋是一段意外的旅程。機器學習各式神經網路的成功原是模擬人腦的工作模式,到頭來學習的結果卻是不可解,又要訴諸人類對自己心智理解的諸種手段。看來人對自己心智運作的理解有多匱乏,人工智慧就有多少的成長空間!

現為DIGITIMES顧問,1988年獲物理學博士學位,任教於中央大學,後轉往科技產業發展。曾任茂德科技董事及副總、普天茂德科技總經理、康帝科技總經理等職位。曾於 Taiwan Semicon 任諮詢委員,主持黃光論壇。2001~2002 獲選為台灣半導體產業協會監事、監事長。現在於台大物理系訪問研究,主要研究領域為自旋電子學相關物質及機制的基礎研究。