科技產業報訂閱
event
 

AI黑盒子如何透明? 人臉辨識小組用視覺化模塊現形

人工智慧(AI)?工人智慧?在需要專家協助標記訓練的機器學習與逐漸開始自主學習的深度學習的技術與智慧發展的路上,大家是否好奇電腦到底在想什麼?電腦的思維邏輯到底是什麼?為什麼會產出這樣的結果?也因為不斷餵養的數據、參數越來越多,這數以「十億」計算的參數,都讓AI的黑盒子越來越大、越來越黑。說是透明化也好、解釋性也罷,國立台灣大學資訊工程學系教授徐宏民與團隊成員希望藉由臉部辨識系統拋磚引玉,以「臉部相似度」與「判斷依據」等兩大面向,稍微與大家分享AI到底在想些什麼?

DIGITIMES電子時報智慧醫療YouTube頻道:台大資工人臉辨識技術 可解釋性的AI(Explainable AI;XAI)模組xCos


台大資工使用7x7或11x11等視覺化模塊,推出「可解釋性AI」(XAI)模組xCos。蔡騰輝攝

AI結果快又準確? 怎麼產出的結果眾說紛紜

在人工智慧的思維邏輯剖析上,不少團隊試圖從網路主體(Backbone)等各方向切入,無論是把深度學習的黑盒子打開,或是調高若干透明度;或是結果產出後,再用很多東西與條件來解釋。而這次團隊的臉部辨識技術的AI可解釋系統,則是加總了上述兩種方法,簡言之,就是「將外掛模組、插進黑盒子當中,把與關鍵決策的訊息抽出來,目前以7乘以7的2組模塊來呈現,如圖中的藍色、紅色、綠色。」

越藍越相近、越紅越不相近的部位相似度,以及越深越是AI判斷是否為同一人的判斷依據圖表中,開發者、決策者、工程師、醫師等使用者都可以瞭解,到底AI怎麼判斷,或是說,如果這些判斷的「熱點」剛好是病灶或是工程系統當中常出現問題之處,那麼也能夠提醒決策者,應該要逐步分析,省去過去大海撈針的地毯式搜索之辛勞。

台大資工團隊撰寫程式,操作可解釋性的人臉辨識系統。蔡騰輝攝

xCos不僅辨識是否同一人 也能聚焦不自然表面

在判斷的時候,系統能解釋為何2張人臉會辨識為同一人,或是識別為另一人的原因,還可以用語音的方式講出原因。同時,同時「可解釋性AI」(XAI)模組xCos也會自動留意,人臉「不自然的表面」,進而專注於真實,以及具辨識能力的人臉位置,進而識別出偽裝的人臉。

徐宏民分享,資誠(PwC)的研究數據指出,AI產業市值達15兆美元,然而當前卡關,就卡在「AI缺乏解釋性」。只看到了輸入的資料及輸出的結果,中間的判斷依據、處理過程仍舊令人摸不著頭緒。也因此,近年來各國都積極切入AI可解釋性的研究,就包括美國國防高等研究計劃署(DARPA),2018年也投入了20億美元推動AI計畫,其中AI可解釋性也是關鍵的一環。雖然現在技術已經能提供跨年齡辨識、解釋年齡的變化,也不用因為偽裝的型態不同而設計不同的辨識模組,即可持續偵測,但徐宏民謙虛地說,這只是先開個頭,未來研究都會持續深化,亦已將這項技術以Open Source方式供國內外產學研單位使用(https://github.com/ntubiolin/xcos)。

延伸閱讀:髮箍也能抗疫! 三總趕製2,000組3D列印面罩組

蔡騰輝

DIGITIMES電子時報智慧醫療主編蔡騰輝Mark Tsai
專注研究智慧醫療產品技術服務導入場域時,所遇到的困難癥結與如何克服要點。
精通中英德語,熱愛挑戰與Swing Dance。
Facebook:DIGITIMES智慧醫療

作者更多專欄

  •     按讚加入DIGITIMES智慧醫療粉絲團
更多關鍵字報導: 熱點 視覺辨識 人臉辨識 人工智慧