妙用AI突破性技術 加速實現破壞性創新 智慧應用 影音
DForum0515
DForum0522

妙用AI突破性技術 加速實現破壞性創新

近年愈來愈多人運用深度強化式學習技術,結合TORCS開源3D賽車模擬遊戲,藉以學習自動駕駛。GitHub
近年愈來愈多人運用深度強化式學習技術,結合TORCS開源3D賽車模擬遊戲,藉以學習自動駕駛。GitHub

近年來「人工智慧」(Artificial Intelligence;AI)崛起爆紅,不僅打趴其餘所有科技辭彙,成為IT世界最閃亮的巨星,它的影響力甚至超越科技層次,被喻為是巨型的典範轉移、是人類有史以來最重大的革命,快速翻轉商業世界既有競爭規則,為各行各業造成莫大衝擊。

根據研究機構Tractica所做的預測,全球AI應用的市場規模,可望從2018年81億美元(相當於新台幣2,430億元),一路增長到2025年1,058億美元(相當於新台幣3.1兆元),前後差距高達1,206%。由此看來,若說AI是百年難得一見的天大機遇,此話似乎沒有浮誇之虞,因為它的後勢真的極為強勁,只能用「噴發」形容之。

生成對抗網路(GAN)的潛力巨大,因為它可以學習與模仿任何的資料分布,成為「機器人藝術家」,產出逼近知名大師風格的畫作。Rutgers University藝術與AI實驗室

生成對抗網路(GAN)的潛力巨大,因為它可以學習與模仿任何的資料分布,成為「機器人藝術家」,產出逼近知名大師風格的畫作。Rutgers University藝術與AI實驗室

由於AI太紅,產生一些奇特現象。專業研究機構指出,新創公司欲爭取到投資人的青睞,不管做的是什麼、只要宣稱使用AI技術,便可望比其他軟體新創多得到15?50%投資基金,但投資人其實不會追究新創業者是否真的把AI導入產品;令人詫異的,以歐洲市場而論,竟有高達4成宣稱採用AI技術的新創公司,其實並未真的使用。

藉由深度學習  讓電腦自行擷取特徵值

究竟符合哪些要件,才能算是貨正價實的AI技術?總的來說,AI項下大致包含7類技術,分別是機器學習(Machine Learning;ML)、自然語言處理(Natural Language Processing;NLP)、專家系統、Vision、Speech、Planning及機器人(Robotics)。前述的技術類型中,有幾項還可繼續往下細分出多條支脈,譬如近年紅透半邊天的ML便是一例。

所謂ML,其實有點像人類的學習方式,機器根據資料進行學習,這些資料猶如一道道考題,機器把考題做熟了,就能參透資料背後隱含的知識,知道接下來如何舉一反三;機器好比人類,同樣有大腦、也就是Model,簡言之Model係透過一個框架、試圖描述一個未知現象,猜測可能造成這個現象的原因,但Model中往往有許多參數屬於未知的、未確定的,此時需要透過「Model Fitting」、意即餵資料的程序,幫助機器決定這些參數。

ML實踐方法有幾個,第一種是監督式學習(Supervised Learning),比較像是傳統填鴨式教育,直接把題目、答案都告訴機器,讓機器從中學習,抓出每筆資料Xn所對應Yn的Label。第二種為非監督式學習(Unsupervised Learning),是填鴨式教育的對照組,不直接給機器題目、答案,也就是每筆資料Xn對應的Yn不再有Label,必須由機器自己整理與歸納,試著從茫茫資料中找出規律性,學習如何針對問題做分類分群。

第三種是半監督式學習(Semi-supervised Learning),屬於前兩種方法的折衷,是一種啟發式教育模式,部份的資料Yn是帶有Label的,機器可藉助這些Label代表的正確解答和資料規律性,進行更好的學習;比方說機器在學習影像辨識的過程,有些教材是未曾被標註的影像資料,也有一些是已被他人標註的影像資料,後者即是帶有 Label的Yn。第四種是強化式學習(Reinforcement Learning),不直接給出Yn的Label,驅使機器嘗試理解Yn結果是好是壞,再把這些好壞做為回饋,精進機器的學習能力。

至於第五種,正是近幾年相當火熱的深度學習(Deep Learning;DL)。前面提到的Yn代表多種輸出值,而Xn代表多種輸入的變數來源,可稱為特徵(Features),具有明確定義的特徵即為Concrete Feature,係由人類根據知識而採取預先處理、所產生的結果,相反的如果沒有明確定義的特徵便是Abstract Features。

此外最基礎、從來沒人整理過的叫做Raw Feature;運用AI的目的,便是要從一堆Raw Feature裡頭萃取Concrete Features,專家稱這段過程為Feature Engineering,而DL最令人驚艷之處,即是讓機器能夠靠著自己的力量,直接從資料中學到特徵。

除ML外,另三個備受矚目的AI技術類型,還包括NLP、Vision、Speech,它們各自含有一些支脈,譬如NLP底下就有Content Extraction、Classification、Machine Translation、Question Answering及Text Generation,而Vision底下則有Image Recognition、Machine Vision,Speech底下有Speech to Text、Text to Speech。

GAN兩相較勁的網路  大幅減少DL所需資料量

以上提到的,都算是基本AI技術,若想進一步探究AI的突破性技術(Breakthrough Technologies),則有另外的答案。有專家經過整理,歸納出至少四大項AI突破性技術,值得大家加以關注。

首先是Deep Neural Networks(DNN),也就是深度神經網路、甚或多數人理解的深度學習,如前所述,它可以讓機器自行透過資料的分析而找出特徵值,而非透過人類來決定特徵值,一般來說,DNN蘊含許多層神經元,並搭配運用自動編碼器(Autoencoder)來執行非監督式學習。

其次是Deep Reinforcement Learning(DRL),可稱之為深度強化學習,從2013年DeepMind發表一篇「Playing Atari with Deep Reinforcement Learning」文章後,此技術開始受到愈來愈多關注,出現愈來愈多學術成果,直到2016?2017年間的AlphaGo,更讓DRL的能見度大幅攀升;顧名思義,DRL係指「強化學習」(RL)結合使用「深度學習」(DL)來強化決策推演的能力,論及RL與DL的結合,大致包含三種方法,分別是「基於價值」(Value-based)、「基於策略」(Policy-based)和「基於模型」(Model-based)。

再者是 Generative Adversarial Networks(GAN),稱之為生成對抗網路,由蒙特婁大學Ian Goodfellow等學者於2014年6月提出,依Ian Goodfellow的說法,GAN是一種生成模型,意謂可從訓練庫當中獲得很多訓練樣本,進而學習這些訓練案例所生成的機率分布。

具體做法是讓Generator Network、Discriminator Network兩個網路相互競爭,前者負責「生成」、後者負責「判別」,生成器會造假、將Random Noise巧妙轉變成幾可亂真的新樣本,連同真實的原始樣本意圖矇混過關,判別器必須學會判斷哪個樣本為真、哪個樣本為假,有助於大量刪減深度學習所需的資料量。

最後一個值得觀察的項目為貝葉斯優化(Bayesian Optimization),旨在建構一個包含目標函數的機率模型,用以選出最佳的超參數,藉此評估正確的目標函數,算是ML 當中的重要一環。



議題精選-2019台北國際自動化工業大展