字節跳動開源MoE架構優化技術 LLM訓練效率提升1.7倍 智慧應用 影音
236
DFORUM
DForum0417

字節跳動開源MoE架構優化技術 LLM訓練效率提升1.7倍

  • 張品萱綜合報導

字節跳動開源名為「COMET」的混合專家(Mixture of Experts; MoE)架構優化技術,能將大型語言模型(LLM)訓練效率提升1.71倍。據中媒IT之家報導,字節跳動豆包大模型團隊在論文中指出,「COM...

會員登入


【範例:user@company.com】

忘記密碼 | 重寄啟用信
記住帳號密碼
★ 若您是第一次使用會員資料庫,請先點選
【帳號啟用】

會員服務申請/試用

申請專線:
+886-02-87125398。
(週一至週五工作日9:00~18:00)
會員信箱:
member@digitimes.com
(一個工作日內將回覆您的來信)