AI客戶爆發集體焦慮 NVIDIA A100/H100訂單急升
ChatGPT帶來新的科技產業革命,眾廠對人工智慧(AI)浪潮感到極度焦慮,使得高算力的GPU需求迅速飆升,再加上美國釋出AI GPU的銷中禁令,中國百度等大廠全面掃貨NVIDIA AI GPU,使得NVIDIA迅速擺脫礦潮消退與疫情紅利告終困境,挾AI技術優勢更上一層樓。
近期NVIDIA除在台助力華碩等AI國家隊搶食生成式AI大餅外,再宣布與ServiceNow建立合作夥伴關係,以發展強大的企業級生成式AI功能,透過更快、更智慧的工作流自動化,改變業務流程。
NVIDIA表示,ServiceNow使用NVIDIA的軟體、服務和加速基礎架構,特別為其端到端為數位轉型而設的智慧平台「ServiceNow平台」開發透過數據訓練過的客製化大型語言模型。
隨著生成式新應用導入到企業內包括IT部門、客戶服務團隊、員工和開發人員,這將擴展ServiceNow的AI功能,強化工作流程自動化並快速提高生產力。
ServiceNow也助力NVIDIA運用這些生成式AI工具簡化其IT運作,利用NVIDIA的資料來客製化在混合雲基礎架構上運行的基礎模型,該混合雲基礎架構由NVIDIA DGX Cloud和本地部署的NVIDIA DGX SuperPOD AI超級電腦所組成。
NVIDIA頂級DGX H100系統於5月開始出貨,陸續拿下大單,在日本東京,DGX H100s 將作為Tokyo-1超級電腦的一部分,將運行模擬和AI以加速藥物發現過程。
另外,新加坡與瑞典大學使用DGX H100系統進行跨領域的研究;DGX H100將為約翰霍普金斯大學應用物理實驗室訓練大型語言模型;瑞典皇家理工學院也使用DGX來擴展超級運算能力。
DGX H100系統中的每個NVIDIA H100 Tensor Core GPU性能,平均比之前GPU高出約6倍。DGX H100搭載了8個GPU,每個GPU都有一個Transformer Engine,加速生成式AI模型。
這8個H100 GPU透過NVIDIA NVLink連接,形成一個巨大的GPU。還可以進一步使用400 Gbps超低延遲NVIDIA Quantum InfiniBand,將數百個DGX H100節點連線到1台AI 超級電腦,速度是之前網路的2倍。
與DGX A100相比,DGX H100每petaflop運算力的千瓦數能源效率提高了2倍。目前NVIDIA的全球多家合作夥伴已開始供DGX H100系統、DGX POD和DGX SuperPOD。
採用Hopper架構的H100 GPU,採用台積電4奈米製程,再加上採用7奈米家族的A100,及針對中國市場降級而生的A800/H800,近期市場傳出NVIDIA訂單滿手,已向台積電追單,為近月來頻遭聯發科等大客戶砍單的台積電填補產能缺口。







