Llama 3.1訓練現高頻故障 半數歸咎H100與HBM3
- 張品萱、梁燕蕙/綜合報導
隨著大型語言模型(LLM)的反覆運算,其GPU用量也在不斷增長。Meta的Llama 1使用了2,028張GPU,而到了Llama 3.1 405B,AI GPU已經高達1萬6,384張,成為名副其實的「萬卡集群」。不過,高達4,0...
會員登入
會員服務申請/試用
申請專線:
+886-02-87125398。
(週一至週五工作日9:00~18:00)
+886-02-87125398。
(週一至週五工作日9:00~18:00)
關鍵字






