字節跳動開源MoE架構優化技術 LLM訓練效率提升1.7倍
- 張品萱/綜合報導
字節跳動開源名為「COMET」的混合專家(Mixture of Experts; MoE)架構優化技術,能將大型語言模型(LLM)訓練效率提升1.71倍。據中媒IT之家報導,字節跳動豆包大模型團隊在論文中指出,「COM...
會員登入
會員服務申請/試用
申請專線:
+886-02-87125398。
(週一至週五工作日9:00~18:00)
+886-02-87125398。
(週一至週五工作日9:00~18:00)
關鍵字






