NVIDIA推Project Megatron 提升Transformer模型訓練效率
- 涂翠珊/綜合報導
NVIDIA的DGX SuperPOD超級電腦可將訓練BERT語言模型的時間,縮短到1個小時以內,比起以往動輒數個星期的訓練過程,可說節省了不少時間。NVIDIA並推出了Project Megatron,目的在進一步提升訓練Transformer語言模型的...
會員登入
會員服務申請/試用
申請專線:
+886-02-87125398。
(週一至週五工作日9:00~18:00)
+886-02-87125398。
(週一至週五工作日9:00~18:00)
關鍵字