華為雲盤古大模型再突破 創新效率更勝DeepSeek 智慧應用 影音
Smiths Connectors
DForum0808

華為雲盤古大模型再突破 創新效率更勝DeepSeek

  • 李佳翰綜合報導

華為發表最新研究報告,宣布旗下華為雲盤古大模型在模型訓練架構上再取得突破,其創新「混合群組專家」(MoGE)技術,相較於DeepSeek原創的「混合專家」(Mixture of Experts;MoE),在執行效率與資源分配方面表現更優異。

會員登入


【範例:user@company.com】

忘記密碼 | 重寄啟用信
記住帳號密碼
★ 若您是第一次使用會員資料庫,請先點選
【帳號啟用】

會員服務申請/試用

申請專線:
+886-02-87125398。
(週一至週五工作日9:00~18:00)
會員信箱:
member@digitimes.com
(一個工作日內將回覆您的來信)