AI熱潮為高頻寬記憶體帶來新機遇 立體封裝成本及互連技術成競爭關鍵
為滿足人工智慧及深度學習密集平行運算需求,2016~2017年GPU晶片廠商如Nvidia、AMD推出的新款晶片Tesla P100/ Quadro GP100、Radeon Vega等,都選擇搭載具有高頻寬及垂直堆疊的HBM2 (Second-Generation High Bandwidth Memory)高頻記憶體。
內文目錄
AI追求高頻寬高效能 記憶體配置從GDDR走向HBM/HMC
HBM透過2.5D封裝實現異質晶片互連解決方案 產業鏈更為環環相扣
HMC由美系陣營帶頭發表新標準 採用產品聲勢略遜
HBM2/GDDR6將成為高階GPU晶片配置標準
結語
圖表目錄
顯卡、高效能運算用記憶體配置演進及應用
HBM與HMC記憶體結構比較
HBM的基本結構
2通道/4層DRAM Die堆疊結構
Pseudo Channel機制提高頻寬利用率
共 12 個圖表
會員登入
若您已是DIGITIMES Research的正式會員,請由此下方登入。
服務加入辦法
若想立刻加入付費會員,請洽詢
客服專線:
+886-02-87125398。
(週一至週五工作日9:00~18:00)
+886-02-87125398。
(週一至週五工作日9:00~18:00)