OpenStack Day Taiwan登場 OpenStack進化OpenInfra
- 鄭斐文
台灣開源領域的年度盛會「OpenStack Day Taiwan」盛大登場,2018年呈現嶄新的面貌,OpenStack蛻變為OpenInfra。OpenInfra承襲OpenStack精神與架構,進一步廣納開源技術夥伴,繼續在雲端世界成長茁壯。2018年主題聚焦「開放架構的智慧、技術融合的創新」為核心,探討多雲架構與部署、容器開發、分散式儲存、軟體定義等議題,並從AI、邊緣運算、5G物聯網等領域出發,展示各項實際的案例分享及技術交流。
OpenStack Day Taiwan Committee委員長陳中欣作為引言人,他指出2018年活動邀請到多位重量級講師分享OpenInfra最新趨勢,名稱將擴大到更廣泛的議題,邀請更多生態鏈夥伴一起加入。包含多雲架構與部署方面,有私有、公有、混合雲IT基礎架構與服務業者;在Infra、5G與物聯網領域,探討Edge Computing 、5G、物聯匯流、IoT裝置、應用服務開發實務案例。
軟體定義一切則看到軟體定義存儲、網路、基礎設施應用趨勢,最後還有近年最夯的話題AI人工智慧 ,探討深度學習(Deep Learning)、機器學習(Machine Learning)。他最後指出,希望今天與會者能帶著豐碩的收穫,並期待台灣IT與開源的發展更上層樓。
解密OpenStack發展現況 OpenStack市場規模達61億美元
接著上場的是OpenStack基金會執行董事Jonathan Bryce,他帶來OpenStack的發展變化並解釋OpenStack改名OpenInfra的原因。基金會認為,隨著用戶整合和開放源代碼技術,在各種垂直產業運作後,基礎設施實際上要比OpenStack涉及的範圍更多。因此OpenInfra象徵更多開放代碼、開放設計、開放開發、開放社區,讓軟體基礎設施開源給更多企業。
接著,Jonathan Bryce舉出幾項關鍵數據,第一,根據基金會調查,當前OpenStack基礎架構所運作的CPU核心數量,在全球已超過1,000萬個。第二,預估未來12個月內,全球高達71%企業為使用OpenStack的用戶,並部署到其生產環境。第三,也是最後一項相當重要的數據,2018年的OpenStack市場規模,估計上看61億美元。
Jonathan Bryce接著展示OpenStack的多元架構,包含底層的shared services,往上一層有networking、bare metal、storage應用及compute運算,再往上層還有application lifecycle、workload provisioning及web fronted、API proxies。其中,最重要的消息是Nova提供的vGPU支持,將執行多個版本之間的升級,且允許用戶一次從多個版本的原始版本,升級到用戶期望的最終版本。比過去18個月前,單一版本的維護將擴展到更多維運分部。
接著,他提到OpenStack現在不單單只用於資料中心,同時也開始被應用到科學研究及基礎設施的運作,像是交通、醫療、零售等各行各業。正因為各領域對OpenStack、雲端、基礎架構的需求不同以往,現在更需要AI機器學習、容器、ML、serverless,也間接促使資料中心之外的邊緣運算其開源軟體有更多需求。
這也導致系統結構正朝多樣化發展,包含ARM、x86、power架構,又或是用戶在GPU和FPGA的環境下,容納各種開源解決方案一起搭配使用,包含Airship、Kara Containers等超過35種的開源方案。
這個論述也引導聽眾思考,過去雲端都在標準硬體基礎上協作,但現在雲端的生態變的更加多樣化,像是因應AI和機器學習的各項技術,唯有選擇開源,才是最能解決問題的最佳路徑。
不過Jonathan Bryce建議,OpenStack基金會意識到,開源不單單只是開放式基礎設施的代碼轉換,更重要的是建立開放式基礎設施社區(community),而社區中最最關鍵的要素在於「人」。不論是全球大型企業像是AT&T、GAP、騰訊,又或是只有兩三個人的小型公司,都可透過開源做更多雲端共享的生意。
因此,從OpenStack過渡到OpenInfra,背後的意義即是從社區角度取代過去的基礎架構角度。對此,基金會過去一年擬定出新的整合戰略,這項戰略集合四個重要元素,第一是找尋最共用的案例識別,第二步將整個社區進行協作,第三步建立新技術,到第四步則是朝向終端到終端的測試。
分別這四項策略,Jonathan Bryce進一步解釋,透過共同案例的使用情境找到一起使用開源的環境及機會,就像容器的使用,發展出安全、儲存等相關議題,甚至產製出邊緣雲端白皮書。這些白皮書已經翻譯成多種語言讓全世界多國使用,達到共同協作的目的。跨社區的協作,就有OpenStack基金會跟ONF、MEF、OPNFE、Linux Foundation彼此協作。
第三項新技術部分,基金會推出一系列開源專案,包含Kata Containers、Zuul,並宣布未來將有StarlingX和Airship等項目即將釋出。Jonathan Bryce說明,Kata Containers是基於虛擬化容器技術,可提供容器性能、虛擬機隔離、效率及安全技術。此專案結合Hyper.SH的runv及Intel的Clear Containe。
至於Zuul已推出第三版本,是OpenStack社區開發,專用於軟體開發及測試,是目前最大的開源項目CI系統之一。Zuul單項任務由Ansible編寫,支援Gerrit、GitHub,可在OpenStack之外使用。最後,Jonathan Bryce總結,從OpenStack到OpenInfra是基金會對開放精神的昇華。未來不僅讓開源軟體無所不在,更把開源成為一種生活態度。
雲原生生態的持續發展之路 訴求開放、生態及創新
雲原生運算基金會(Cloud Native Computing Foundation;CNCF),成立的宗旨就是致力推廣Github上快速成長的開源技術,像是Kubernetes、Prometheus、Envoy等,協助開發人員開發出更快更出色的產品。大陸雲原生運算基金會董事Keith Chan針對雲原生生態的持續發展動態,分別在開放、生態及創新議題,探討目前雲原生運算基金會的現況。
首先,Keith Chan點出「開放是開源的必要性」概念,開源已經是全球貿易過程以及商業模式中扮演重要的角色。為何需要開源甚至使用開源?因為我們現階段已經發展到一個使用開源軟體作為商業模式的時代。以微軟為例,透過開放跟開源讓更多用戶使用,而非不再做封閉式的軟體。不能充分利用這種共享革命的企業,未來將不具有競爭力:他們落後於市場,浪費研發資金,並且不能獨自創新。
接著他舉例,企業啟動新的開源項目的5大理由。其一是加速開源解決方案,分攤開發成本;第二是將市場商品化,降低非戰略性軟體組建的價格;第三通過產品建立生態系統推動需求;第四與他人合作吸引顧客並強化協作關係;最後一點則是為你的客戶提供自我支持,打造可自行調整代碼的能力。
而企業推動開源的下一步則要打造生態圈。Keith Chan解釋,企業如何用開源與其他競爭者之間,找到自己產品或技術方案的優勢?他認為這是一個動態循環過程,從項目、產品、收益三項要素不斷調整,透過開源找到自己商業模式。例如在開源應用層項目開發出自身的新產品,再將收益返回投注到開源社區,成為一股正向循環。而這中間基金會將扮演建立信任及維護生態的角色。因此成功的開源項目取決於會員、開發者、市場。
Keith Chan以Linux為例,指出Linux基金會遠遠大於Linux,可以發現目前涉及的領域橫跨安全、網路、雲端、汽車、區塊鏈到網際網路,都有使用到Linux開源,且目前已超過100多個不同開源項目。而雲原生基金會屬非營利機構,隸屬Linux基金會,於2015年12月成立,全球目前累積250個會員,即使是非會員也可使用開源項目。雲原生會員廠商類型從開源開發商到終端用戶都包含,終端用戶社群目前高達58家,包含像是ADIDAS、京東、Didi等各種產業廠商。
接著Keith Chan說明雲原生基金會專案成熟度的發展,從一開始的沙箱時期,到孵化期,以及到畢業期的頂點。目前已經產生了畢業期的專案項目:容器調度平台Kubernetes。Kubernetes經歷第四次改版後,在2018年3月釋出1.10版,支援線上正式環境所需的容器叢集管理機制。
1.10版特色在於Kubelet TLS Bootstrap,也就是強化資安方面功能,在新的Kubelet自動建立資安憑證,可減少手動設定的繁瑣。目前不論是閉源或開源項目都放在雲原生資源社區(I.cncf.io),可在裡面找到各類的社區工具項目,也可查詢與Kubernetes的雲原生相兼容項目。
至於最後的創新,Keith Chan提到目前CNCF的組織架構,包含管委會、市場推動委員會、技術監督委員會、終端用戶協會。技術監督委員會目前有9位席次,其工作項目主要是依據新項目的納入,讓會員跟委員會討論,瞭解更進一步技術發展,讓開源保持中立性。終端用戶協會就是終端用戶所組成,讓基金會更了解用戶需求,讓開源發展更了解市場實際的應用情況。市場推動委員會就是讓kubernetes這類推廣更貼近市場。
目前CNCF推出了關於Kubernetes的軟體一致性認證,後續可使用新標誌和更加靈活地使用Kubernetes商標,未來CNCF也將繼續提供世界各地的雲原生領域專家做交流。
Kata container 的發展現況及與gVisor比較
接著在第三場次的分享,由HyperHQ共同創辦人暨CTO王旭帶來一場技術底蘊深厚的知識饗宴。HyperHQ公司發布的開源項目Hyper,是一項能在Hypervisor直接運行Docker Image運行引擎。
Hyper最大特色在於Secure as VM, Fast as Container,不需安裝完整的作業系統但卻有兼容的特徵,可將Docker容器的快速優勢,以及虛擬機的安全特徵合二為一。不過王旭在這場分享,他討論更多的是Kata container,這項OpenStack基金會釋出的容器基礎建設開源專案。
首先,王旭解釋容器發展進度達十幾年,觀察container的發展變化有幾項特徵,包含分時操作系統中的進程、相關進程ps aux | less、Chroot文件系統限制、namespaces和cgroup的更多隔離、Docker和Docker的鏡像讓OS商品化,以及OCI和CRI的標準化。接著他解釋,Intel跟Hyper到2017年兩個項目一起推進合併,推出Kata container,到2018年推出1.0版本。經過2個月第一版推出後又做了新的功能即將發布1.1版本。Kata container把Intel跟Hyper兩個核心要素集成在一起。
而Kata container的相關應用特徵,可支援公有雲、私有雲、容器即服務,以及邊緣運算等情境。現在該容器更可支援多項作業系統,像是CentOS 7版、Fedora 26及27版、Ubuntu 16.04及17.10版。正因為結合Intel的輕量級虛擬化技術Clear Containers,還有相容開放容器OCI標準的runV技術,達到兼顧VM安全性跟速度優勢可達到一百多毫秒,及容器技術的輕量性。王旭進一步提及,當時Kata container設計想法,目的要讓這項技術能夠和硬體架構脫鉤,所以除了OCI之外,也還有支援相容Kubernetes的容器Runtime介面。
王旭也觀察到另一項特殊的現象,也就是針對Kata container的資訊安全議題成為近年討論越來越多的顯學。他舉例,2016年當時在KubeCon會議中,探討到資安或安全的議題中,只有一個,而隨著時間發展,成長到2017年的5個,甚至在今年的討論議題中,高達18個與資安相關。顯示大家對系統的生產過程更嚴肅看待安全議題。
接著王旭提及Kata container及gVisor的比較差異,gVisor是Google發布的新型沙箱gVisor,不需運行完整VM的容器可提供安全隔離。和Kata container相比,gVisor主要可在Linux系統,其設計做了不同的權衡。
最後,王旭總結Kata containerr幾項要素,說明Kata Containers像runC容器運行時,可採用虛擬化技術實現安全,並可支持VM其他加速技術。雖然虛擬化,但Kata輕巧而快速布局,Kata Containers支持多種架構像是x86_64、arm64、ppc64le等。
大型AI雲端平台架構與服務 國網發展AI 五大戰略
接著上場的是國家高速網路與計算中心博士趙逢毅,以大型AI雲端平台架構與服務為題,說明國網如何協助台灣發展國家AI技術的5項戰略。首先,目前國家發展AI戰略策共有科技大擂台、AI研發平台、AI創新研究中心(包含66個計畫)、智慧機器人創新基地及半導體射月計畫。
由此延伸出的AI平台整體架構,就可勾勒出以雲端資源管理軟體及基礎設施為基底,涵蓋CPU、GPU高運算主機、高效能儲存以及學術研究網絡TWAREN。而透過數據的介接、綜整、重構、分群,加上AI、大數據、HPC的軟體平台,將跨足到醫療、機械、半導體、環境、綠能及民生等實際應用。
趙逢毅接著介紹目前台灣外較熟知的大型AI計算平台硬體架構 ,包含NVIDIA Saturn V高速AI主機,提供660節點,5280顆GPU。日本AIST ABCI 的人工智慧主機目標明確就是做AI跟大數據。至於台灣的國網中心大型AI雲端主機,有250個GPU nodes、1+PB blockt儲存、10+PB擴充雲端物件儲存、30+PB Tape Archieve System。目前規劃希望明年帶入更多AI硬體,做未來儲存及運算的延伸需求。
探討完硬體項目,接著轉換到對軟體相關的觀察。全球的AI軟體服務平台,目前較知名的案例包含NVIDIA的AI 軟體服務(DL Framework worlflow-NGC),以及AIST透過資料蒐集整理跟建模訓練,做到一整個連貫的循環。還有日本富士通API影像識別、自然語言處理、知識空間處理等三項服務將會上線。當然還不可忽視AWS從底層架構、平台、應用服務設計皆圍繞在SageMaker,以及微軟的Azure和IBM的雲端服務。
至於現行國網中心的GPU雲服務架構,提供服務對像包括:五大AI研究中心66項計畫與半導體射月計畫13項子計畫,以容器單一平台單一授權機制交給使用者操作。
至於未來的長程目標,趙逢毅指出,國網中心將提供企業 SLA 等級的 AI-HPC 服務(計算資源與儲存空間)、nVidia NGC 台灣合作示範站(提供官方認證 AI 框架雲計算服務及官方 DLI 認證講師群)、提供 Data Mart 服務及使用者社群經營(涵蓋語音、影像、生醫、災防、智慧機械等資料市集,還有資料集、演算法、訓練過之模型、教案、案例)。最後還有Learn to Learn人工智慧服務(自動模型生成及超參數調校)。
換句話說,這項大型AI雲端平台軟體,未來將有大資料分析處理平台(VM/容器)、AI 平行化訓練叢集(GPU容器)、AI HPC 大規模訓練叢集。希望在設施內提供AI最佳化模型產生服務,計算方式跟參數給定,提高模型訓練效率,像是跨節點 AI-HPC 平行運算、最佳化超參數集合調校、AI輔助模型訓練資源配置。實際產生的效益有降低AI建模門檻、加速模型落地時程、專業DLI團隊輔助。
最後,趙逢毅說明在國際上台網中心扮演的角色,TWCC 著眼於 AI-HPC 的雲服務,提供不同的彈性的服務模式,透過雲端資源管理軟體以統整CPU、GPU 或其他公有雲的運算服務,如 AWS EC2、Microsoft Azure、Google GCE 等公有雲平台,除了有效提升台灣AI 運算平台的整體使用率,與公有及私有雲平台互為融合,以單一管理介面、一致化特性、一次性部署,將研究人員的運算服務在全世界的雲平台迅速落地。
既然中華民國政府提供大量資源鼓勵AI相關研發,並且在創新的氛圍下,現在是一個好的機會從事 AI 相關事業的時機。國網中心將建置相關之軟硬體平台供產 官學研界使用,實現「專注以終為始」及「找夥伴、打群架、結交盟主」最終目標。
AIoT創新應用正熱 邊緣運算的趨勢與商機
AIoT創新在近幾年逐漸受重視,早在2013年當時IoT多用在智慧電網跟居家監控,擷取的資料都偏小量。到了2018年,資料應用的數量更龐大,軟硬體開始朝向AI整合,也是為何邊緣運算(Edge Computing)有大幅布局的原因。工研院ISTI產業分析師魏伊伶指出,邊緣運算興起跟AI + IoT的應用有關。
但是在AI某些應用情境,雲端運算架構開始遭遇挑戰,例如終端應用如自駕車、無人機,產生大量資料後雲端架構用網路回傳運算結果,其過程造成頻寬有限、通訊延遲、資料隱私與機密、缺乏網路涵蓋等痛點。
正是資料低延遲及傳送頻率的特性, 未來將在下述幾個應用快速產生對邊緣運算的需求。車聯網、擴增實境(AR)與虛擬實境(VR),這類使用高解析度影像即時傳輸與辨識的創新應用,對網路頻寬與延遲要求極高(網路傳輸延遲時間需小於10ms)。又或是AI技術廣泛導入各類應用與設備中,AI技術需要採用GPU等大量平行運算資源來協助完成運算,而資料量的不斷增加也加重網路頻寬壓力,以雲端資料中心完成所有運算任務模式耗時且成本高
魏伊伶進一步解釋究竟什麼是邊緣運算,Edge Computing是指將資料的處理與運算,透過嵌入或外加運算設備在靠近資料源或用戶端處完成運算,以縮短網路傳輸的延遲,並快速獲得資料分析的結果。其優勢可提供更好的用戶體驗,透過分層運算概念加速驅動用戶服務的反應速度。以及提高網路頻寬效率,透過本地進行運算,降低網路傳輸資料的頻寬壓力。預估至2022年,將有高達75%資料在邊緣端完成處理甚至儲存
所以邊緣運算設備的型態可說是動態(無人車、手機)或靜態(基站)甚至混合的,整體解決方案並無一體適用的架構,而是會依據不同垂直應用需求調整。邊緣設備放置地點,也會因不同廠商解決方案而有差異。而根據市場規模預測,全球雲端運算產業產值到2021年將達33億美元。年複合成長率達22%,主要成長動力將來自於儲存與網通設備。
至於邊緣運算產業鏈發展現況,工研院ISTI觀察,垂直應用解決方案是商機切入點,其中IoT平台是建構經濟規模的發展關鍵。由下往上的路徑來看, 目前投入邊緣硬體設備廠商仍以國際資訊大廠為主,透過調整原有伺服器、網通設備等設備規格切入,多以客製化垂直應用解決方案模式協助客戶佈建。若從上而下,雲端服務業者從IoT平台切入,以解決設備互通與資料分析為核心,建構平台聯網經濟規模。
至於產業發展通路,B2B方向將從物聯網應用商機較快發酵,像是智慧城市、製造、車聯網、醫療等。而B2C市場以智慧家庭為主,未來將是Apple、Amazon、小米等類型服務商主導市場。經濟規模將是邊緣運算的競爭核心,雲端服務廠擴大其平台聯網數量為策略;資訊硬體廠透過垂直應用解決方案提供、跨領域產業結盟擴大設備佈建。
最後,針對台灣業者若想投入邊緣運算產業,其建議發展策略方向,魏伊伶指出兩個特點。第一種模式為鏈結國際平台業者,例如(雲端服務大廠或開源專案等,一起建構策略合作關係,發展軟硬整合解決方案或切入其硬體供應鏈。第二種模式可鎖定潛力應用領域,例如選定未來可能優先導入邊緣運算之應用,從應用需求整合或開發資料分析能力,以政府或企業專案累積應用佈建實戰經驗。
四大分論壇齊上場 聚焦多雲、IoT、軟體及AI
OpenStack Day Taiwan下午場次活動更加多元熱鬧,分別有四項「多雲架構與布署」、「Infra、5G與物聯網」、「軟體定義一切」、「 AI人工智慧」分論壇,各分論壇帶出實際的案例分享及技術交流。在Track A的多雲架構與佈屬,首先由Red Hat解決方案架構師黃秉鈞 ,解釋Open Hybrid Cloud如何協助數位轉型,說明打造新世代雲環境。
黃秉鈞討論,近期OpenStack更新在Queens平台,新版本提供新一代功能實作,相關應用包含升級(OpenStack service做到容器形式,更方便使用) 、儲存(整合file做一系列整合,提供基礎建設更多儲存需求)、安全(新增金鑰的管理控制)、Networking(SDN的整合控制)及管理營運(相關的整合應用)等方案。
後續場次有數位無限軟體總經理陳文裕的AI及大數據科學混合雲 (Hybrid AI and Data Science Cloud),陳文裕指出數位無限從2008年耕耘至今做混合雲平台,專注在混合雲端管理,完全支援開放雲端平台,並提供最先進數據分析人工智慧等專業模組。
他觀察OpenStack生態系基於數據儲存,數據收容有更大規模的收容。數位無限在2017年針對AI跟數據分析,提出具體可行的前瞻雲端創新服務,包含快速容器運算服務、機器學習運算服務、資料庫服務、資料倉儲服務、多雲運行能力。
正因OpenStack基於開源生態,可做到AI跟數據分析及倉儲的管理,尤其製造產業,因終端邊緣的設備越來越多,因此AI跟數據科學雲的架構下,利用OpenStack在不同於公有雲場景的發揮。該場次後續還有台灣雲協/工業技術研究院資通所技術經理黃俊傑,帶來Enable Multi-tenant ML and DNN training Platform in OpenStack and Kubernetes ,以及資策會工程師周育緯介紹iServCloud (OpenStack) & AWS混合雲相關技術應用。
至於Track B則專注探討於 Infra、5G與物聯網,首先有InwinSTACK首席技術開發師金山探討App相關應用在IoT及邊緣運算的相關案例。Wind River區域銷售副總裁韓青則帶來Secure On-Premise Software Platform for Critical Infrastructure 。
台灣雲協/工業技術研究院資通所技術副理曹伯瑞,則帶來Open Cuju: Enable Low Latency Fault Tolerance in NFVI的演說,接著是立端科技CTO李明樹探討邊緣運算Edge computing - SD-IOT powered by AI under 5G infrastructure。
台灣雲協/工業技術研究院副組長李肇棠進一步討論From Rack Scale Architecture to NFVI,他先提到工研院RSA(disaggreted rack architecture)的技術發展,第一個解決問題目的,很多伺服器在PCIe連接起來,第二解決問題讓伺服器分享網卡降低成本。至於SR-IOV NIC的分享功能,第二步與PCIe串連後,發展出ethernet over PEIe的技術。
再到儲存部分,則是透過SRIOV 或非SRIOV卡片,都可使用到儲存設備,在分配到不同的伺服器,這也是工研院發展出來的技術。
而在Track C部分,主題鎖定於 軟體定義一切,SUSE資深雲技術架構師蘇顯揚以OpenStack與K8S為基礎,討論如何建構SDI加速企業AI與數位轉型 。而NetApp雲端基礎架構事業群資深顧問李新夏 ,討論主題則聚焦在Docker和Kubernetes 的儲存整合方案NetApp Trident。
他提及Trident是一套容器的動態持續儲存協調程式,具備開放原始碼的儲存資源配置程式,可有助於提升DevOps效率,目前也原生支援許多熱門應用程式的容器平台,像是Kubernetes、Red Hat OpenShift、Docker Enterprise Edition。
下一場有Nokia總監廖偉任,說明SDN for Cloud, Hybrid Cloud and Beyond,以及東森購物架構師王偉任上台分享Openstack容器的快速部署,帶來Openstack Containerization-Deploy OpenStack in Minutes 的演說。最後則是台灣公司Gemini Open Cloud執行長 符儒嘉探討Cloud Resource Management for DNN training and AI Inference 。
最後一場Track D分論壇則探討近幾年相當熱門的議題:AI人工智慧。首先由英屬開曼群島商捷鼎創新亞太區業務經理林裕焜,說明企業如何有效釋放AI潛能,同時要兼顧效能與資料安全性的全快閃儲存方案。
太奇雲端總經理李承勳則說明運用人工智慧,在影像分析上的實際案例分享,以及安圖斯科技解決方案架構與整合處處長藍郁修,介紹如何透過打造未來AIoT及行動應用的OpenStack混合雲。
最後兩場分別是MoBagel行動貝果執行長鍾哲民,帶來台下個10年企業導入AI分析的挑戰與分享心得,以及技嘉/工研院副組長Allen Tzeng分享,深度學習雲平台營運經驗與產業應用。
Allen Tzeng解釋,工研院兩年前準備投入AI,發現基礎架構機器費用高達數百萬,決定在工研院讓所有研究單位一起共享,建造一個工研院所屬的機房。而建造機房的過程,發現資料很重要,但最終還需高速的運算環境。而在營運後發現真實狀況,ITRI DNN Farm應用平台帶來的啟發思考包含,你的數據多大?框架為何?經歷兩年平台的營運,只做DNN(deep network)訓練,做到5層以上,知道使用的目標族群客戶是誰。
工研院鎖定的TA就是有許多資料量,而且是熟知framework技術熟稔會使用的精準客戶。正因為每個月做客戶服務即時回應做深度溝通,了解客戶真正的問題跟痛點,解決基礎建設跟Wi-Fi的需求。因此ITRI DNN Farm的價值在一站式的軟體AI訓練,提供高速運算,以及穩定度跟可規格化、運算資源共享等優勢。後來跟市場競品對照後,確定這項產品的方向沒有錯,從買機器到蓋機房總共歷時半年建立,證明選擇對的架構方向、正確的專案是可行的。