Google新算法壓縮LLM記憶體用量 邊緣裝置迎來新契機
- 張品萱/綜合報導
Google研究部門近日發表名為TurboQuant的大型語言模型(LLM)壓縮演算法,可在不損失模型精準度的前提下,將記憶體用量降低6倍、運算速度提升最高8倍,有望大幅壓低推論(inference)成本,並為行動裝置端AI開闢新可能。
會員登入
會員服務申請/試用
申請專線:
+886-02-87125398。
(週一至週五工作日9:00~18:00)
+886-02-87125398。
(週一至週五工作日9:00~18:00)
關鍵字






