科技產業報訂閱
斷鏈之後
 

試圖解構AI思維邏輯 台大徐宏民力讚可信任的AI

國立台灣大學資訊工程學系教授徐宏民分享,可解釋的AI將有助於產業的導入使用,以及各國開發者的技術升級。蔡騰輝攝

「病人有甲症狀,所以建議給特別處方一」、「病人肝臟顏色異常,請使用乙處置方式」,或許部分的醫療人工智慧(AI)系統會給予類似的建議,然而,以醫師的角度來說,為什麼要給這樣的處置?這樣的處置是如何判斷的?如果有錯誤,那應該有哪些配套措施?希望協助產業提高對於AI信任的國立台灣大學資訊工程學系教授徐宏民表示,AI的黑盒子大家都想打開,但也坦言不太容易。然而,提升人類對於AI的信任度,絕對有助於AI在各場域更加流暢且融入流程地幫助人類。

 點擊圖片放大觀看

台大資工系團隊成員,示範與解釋xCos系統原理與操作。蔡騰輝攝


可解釋的AI系統 提升人類信任 進而可能提高採用數

團隊的「可解釋性人工智慧」(XAI)模組xCos,提供了人臉高辨識率以外,較為特別的還提供「條理」的解釋,讓開發者、各場域、各情境使用者都能明白AI產出結果的原因。「希望透過可解釋的特色,提升人類使用AI時的信任度,進而促進產業正向循環。」

徐宏民分享,如果說,今天電腦系統顯示,「你感染了COVID-19(新冠肺炎)」那醫師也會很好奇,電腦系統到底是如何得知?依照哪些數據判斷出來確診?在知其然也知其所以然的力量驅使之下,2018年與團隊開始構思這套可解釋性的AI,目前在各大領域都有合作應用,在醫學領域也與台大醫院合作內科肝臟相關疾病,看看怎麼樣的細胞排列組合,對應著怎麼樣的疾病。不僅可以幫助醫師處理數量龐大的數據,也可以讓精準醫療再上層樓。


不必左右為難 高效能與高解釋性同時推升

一般來說,效能(正確率)與可解釋性呈現負相關的關係,也就是說,可解釋性越高,效能就越差;效能越高,可解釋性就越低。透過大量參數成長的深度學系模型就屬於後者。徐宏民分享多年的數據分析經驗說道,10多年前的數據分析,一般來說參數約莫只有幾百個,幾千個參數就已經算是很多的了;然而,以自然語言處理(NLP)為例,數千萬個、數十億個參數都開始成為新常態,也因此,如何在如此的多參數、高效能的新資料分析世界當中,持續提升可解釋性,也就是學界與產業都相當注重的發展。

深度學習等類神經網路,快速且大量消化資料後,電腦會自己訂規則,藉由千萬條件產出更高精準度的答案,但「怎麼來的?」始終是人類的疑惑,推論過程與原理的瞭解對於開發者與使用者都相當重要,徐宏民舉例說明,在金融理財方面,若是系統建議使用者「要購買某檔基金」,使用者可能狐疑不解,然而,若是與使用者說,「因為你現在30歲,並且有想要結婚的男朋友,因此在3年內可能會生1~2個小孩,而未來3年內這檔基金所追蹤的投資標的,可能可以幫你在未來5~10年,創造每年約莫3~5%的育兒成長教育基金。」試問,這樣「具有解釋性」的AI分析結果,相對只是告知「購買某檔基金」,是否更能體現人類顧問的貼心與暖心「可信任價值」?

希望持續探詢與解釋AI決策過程關鍵,提升AI決策透明度與解析解構的徐宏民認為,AI等智慧技術,已經且會加速滲入各產業,也相當看好與期待未來取得開發者、使用人員、環境、產業的信任。「不只是衝正確率,同時可信度也相當重要。」

延伸閱讀:【智慧醫療專輯】台灣醫療起飛關鍵 產官學研醫共創AI新應用
 

蔡騰輝

DIGITIMES電子時報智慧醫療主編蔡騰輝Mark Tsai
專注研究智慧醫療產品技術服務導入場域時,所遇到的困難癥結與如何克服要點。
精通中英德語,熱愛挑戰與Swing Dance。
Facebook:DIGITIMES智慧醫療

作者更多專欄

  •     按讚加入DIGITIMES智慧醫療粉絲團