人工智慧為NVIDIA帶來驚人的成長動能 智慧應用 影音
DIGIKEY
AI Fine Tunning-ASUS

人工智慧為NVIDIA帶來驚人的成長動能

  • 賴品如台北

人工智慧為NVIDIA帶來驚人的成長動能。
人工智慧為NVIDIA帶來驚人的成長動能。

在2012年,Google宣布Andrew Ng(吳恩達)先生和他的Google Brain計劃團隊利用多台伺服器重複播放數小時的YouTube影片,成功地讓機器系統學會如何辨識貓,引爆了人工智慧(AI)的全新進展,並將深度學習(deep learning)帶到一般大眾面前。

這是AI產業的重大里程碑,深度神經網路(DNN)已被用來發展機器學習系統,可望為人工智慧與巨量資料分析帶來革命性的改變,並為語音辨識和翻譯、醫療分析和自駕車等高難度應用的發展帶來曙光。此外,它也為市場開創出新的運算模式,而此新模式恰能助長NVIDIA在深度學習產業中取得先機並扮演要角,正如NVIDIA共同創辦人暨執行長黃仁勳所說,此趨勢將能為公司帶來「驚人」的成長。

根據NVIDIA最近一季的財報,其資料中心營收創下1.43億美元新高,年成長率達63%(相較之下,英特爾的年成長率僅9%),與上一季相比則是增加了47%,充分反映出深度學習的龐大成長動能。

自NVIDIA於3年前開始投入深度學習以來,數家科技巨頭已成為最快速的技術採用者。現今NVIDIA GPU加速了全球每個主要深度學習架構的進展,包括專為人工智慧發展的IBM Watson和Facebook的Big Sur伺服器都採用NVIDIA技術,而其GPU也已內建於微軟、亞馬遜、阿里巴巴和百度等業界龍頭的AI平台中,作為訓練和即時推論之用。Twitter最近也表示,將採用NVIDIA GPU來協助使用者從每天轉載的數百萬張照片與影片中找出最需要的內容。

如今隨著全球首座以NVIDIA全新Pascal GPU架構為基礎,專為深度學習所開發的系統NVIDIA DGX-1的推出,學術機構與重量級業者對深度學習系統的接受度將大幅提升,大型企業的佈署也將持續增加。

神經網路

當Andrew Ng參與Google Brain計劃開發機器學習技術時,他發現,傳統的程式編碼如if-then命題以將所有影像中所有物件的所有特性都分類,對於Google所擁有的龐大影片、影像及聲音資料庫而言,這將會是一項費力費時的任務。因此,他決定利用一種名為深度神經網路(DNN)的人工智慧演算法,透過訓練電腦系統內的數據來運作而無需撰寫傳統的電腦程式碼。

對神經網路來說,比起靠撰寫程式來確認一輛自駕車在路上看到的是什麼,或是確認X光影像是什麼,研究人員建構了一個架構,並饋入許多未標記的資料。在Google Brain這個例子中,它使用了1,000萬張的YouTube視訊畫面。透過計算輸入資料的權重總和,此網路架構能轉換輸入資料,並利用非線性函數來進行轉換,以計算出一個中間狀態。這些步驟結合稱為「神經層」,透過重複這些步驟,人工神經網路便能學習非線性特性的許多層次,在最後一層中結合所有的資訊,並做出預測。

然而,神經網路的主要問題是需耗費大量的運算資源,而且如果有太多的神經元,成本將非常昂貴。因此,一直以來大部分的神經網路都僅包含100~1,000萬個連結點,然而Ng希望能利用超過10億個連結點。雖然他重新思考了方程式的軟體層面,想利用DNN使其更有效率,但受限於傳統的硬體做法,只能利用Google資料中心的2,000台伺服器(16,000個核心,耗電60萬瓦),耗費數百萬美元打造出一個分散式運算基礎架構來訓練神經網路。

不久之後,研究人員便發現,因為神經網路在核心是以矩陣(非線性)和浮點運算為基礎,因此在本質上是非常適合利用GPU來處理且GPU最高可達3,500個平行的CUDA核心,研究人員甚至沒想到GPU對此應用有如此優異的表現。根據一項後續進行的實驗顯示,透過結合GPU與現成的硬體設備,Google神經網路的訓練工作僅需要3台、共內建12顆GPU的伺服器便能完成。

這是深度學習非常重要的轉折點,市場開始大幅成長,而且,深度學習系統不再遙不可及。目前,全球僅有少數幾家公司能擁有2,000台伺服器與60萬瓦電源的資源投入深度學習計劃。但如果僅需3台伺服器,花費約5萬美元的成本,那幾乎每一家大型企業的研究中心都能負擔。目前客戶已快速開始在資料中心採用GPU的解決方案,或在辦公室採用簡易的解決方案,基本上,連個人也能購買GeForce來了解深度學習系統,或是存取雲端中的GPU資源。

GPU不僅省錢,還能讓研究人員的生產力大為提升。如上述所提,深度神經網路的訓練需透過輸入數十萬張的影像來進行,這樣的訓練十分耗時。有個名為AlexNet的影像辨識神經網路採用NVIDIA TITAN X(售價不到1,000美元),3天內便能利用ImageNet資料庫中的120萬張影像來完成訓練工作,而若是採用16核心CPU,則需耗費超過40天的時間。

這些都是2015年時的大事,但這樣的結果黃仁勳先生並不感到滿意。他要求公司的工程團隊提出解決方案,讓AlexNet的訓練時間能夠再縮短十倍。根據摩爾定律,效能並無法在一年內提升10倍。但今年的NVIDIA GTC(GPU技術大會)上,DGX 1僅需2個小時就完成了AlexNet的訓練工作。充分展現出黃仁勳先生的承諾,希望能在後摩爾定律時代推動運算技術的加速發展,因此建構了新的模式來提升生產力與效率。GPU運算不僅是新的運算模式,而且正朝主流應用發展。

因此,不是只有像Google和百度這類的科技巨頭才能發揮深度學習的效益。例如,現在已有19家汽車製造商在矽谷設立研究實驗室。在醫療影像產業,每家大型企業都已成立了類似的巨量資料計劃,他們都採用了NVIDIA解決方案。光是2015年,NVIDIA就已與3,500家客戶討論深度學習計劃,有興趣的業者橫跨各種不同的產業。

NVIDIA獲得青睞的原因在於,其GPU是深度學習這類大量平行運算的理想選擇,同時該公司也最佳化了整個系統平台的建置,從架構到設計、系統、中介軟體、系統軟體、一直到與全球開發人員的共同合作,整體體驗更優化,效能也最佳化。

例如最近推出的DGX-1是第一款專為深度學習設計的系統,全面地整合了硬體、深度學習軟體、以及開發工具,能夠協助開發人員快速、輕鬆地進行佈署。

此整合式系統採用了8顆以Pascal GPU架構為基礎的NVIDIA Tesla P100 GPU。Pascal是首款專為深度學習應用所全新開發的GPU平台,其效能遠遠超越了電腦繪圖。每個Tesla P100 GPU都配備了16GB記憶體,此系統最高可提供170 teraflop的半精度(FP16)峰值效能,相當於250顆CPU伺服器的處理能力。

DGX-1的另一個突破性技術是讓效能與實用性最大化,其中包括NVIDIA NVLink高速互連,以確保最高的應用程式可擴展性。GPU採用16奈米FinFET製程技術製造,是目前面積最大、功能最強大的16奈米晶片,在600mm2面積中包含了高達153億個電晶體,可提供前所未有的能源效率。

全球主要的研究中心都將於本月收到第一台DGX-1伺服器,客戶名單包括多所知名大學,如史丹福、柏克萊、紐約大學、多倫多大學、以及香港大學。美國麻州總醫院也將是首批採用DGX-1的客戶之一。這家醫院開始了一項AI技術計劃,希望能利用其資料庫中約100億筆的醫療影像,來改善疾病的偵測、診斷、治療與管理。DGX-1就是專為支援這類研究計劃設計的。

身為一套整合式解決方案,NVIDIA DGX-1還具備了完整的深度學習軟體套件,包含NVIDIA深度學習GPU訓練系統(DIGITS)、新發布的NVIDIA CUDA深度神經網路函式庫(cuDNN)第5版、以及可用來設計DNN的GPU加速元件庫。它還包含了多種廣泛使用的深度學習架構的最佳化版本,包括:Caffe、Theano和Torch。

過去3年來,NVIDIA看到了深度學習技術的快速轉變,連軟體也不例外。大部分採用的軟體都是開源的,雖然百度和Google等科技巨頭採用開源軟體不會有任何問題,但對汽車製造商與醫院等傳統業者來說,情況或許不是如此。因此,NVIDIA將為DGX-1提供開源軟體的維護與修補服務。在其資料中心中可安裝一個系統裝置與NVIDIA的雲端相連。當NVIDIA提供新的修補程式時,客戶能找到其深度學習軟體,並下載最新的最佳化版本。在過程中,客戶所有的資料都能確保安全性且絕對不會流出資料中心。

隨著深度學習系統的快速進展,NVIDIA看到了它的佈署不僅止於一或兩家客戶,而是幾乎遍布全球每個國家的超大型資料中心。黃仁勳先生表示,這是非常重要的發展,而且絕不單是短期現象而已。顯然,這個世界所處理的資料量只會不斷地持續成長!


關鍵字
議題精選-COMPUTEX 2016