NVIDIA推Project Megatron 提升Transformer模型訓練效率 智慧應用 影音
DIGIKEY
DForum0522

NVIDIA推Project Megatron 提升Transformer模型訓練效率

  • 涂翠珊綜合報導

NVIDIA的DGX SuperPOD超級電腦可將訓練BERT語言模型的時間,縮短到1個小時以內,比起以往動輒數個星期的訓練過程,可說節省了不少時間。NVIDIA並推出了Project Megatron,目的在進一步提升訓練Transformer語言模型的...

會員登入


【範例:user@company.com】

忘記密碼 | 重寄啟用信
記住帳號密碼
★ 若您是第一次使用會員資料庫,請先點選
【帳號啟用】

會員服務申請/試用

申請專線:
+886-02-87125398。
(週一至週五工作日9:00~18:00)
會員信箱:
member@digitimes.com
(一個工作日內將回覆您的來信)

關鍵字