Google新算法壓縮LLM記憶體用量 邊緣裝置迎來新契機 智慧應用 影音
231
Microchip
Event

Google新算法壓縮LLM記憶體用量 邊緣裝置迎來新契機

  • 張品萱綜合報導

Google研究部門近日發表名為TurboQuant的大型語言模型(LLM)壓縮演算法,可在不損失模型精準度的前提下,將記憶體用量降低6倍、運算速度提升最高8倍,有望大幅壓低推論(inference)成本,並為行動裝置端AI開闢新可能。

會員登入


【範例:user@company.com】

忘記密碼 | 重寄啟用信
記住帳號密碼
★ 若您是第一次使用會員資料庫,請先點選
【帳號啟用】

會員服務申請/試用

申請專線:
+886-02-87125398。
(週一至週五工作日9:00~18:00)
會員信箱:
member@digitimes.com
(一個工作日內將回覆您的來信)