AI中毒是真的! Anthropic:僅250份文檔就能「下毒」LLM
- 梁燕蕙/綜合報導
在傳統觀點中,要想攻擊或是污染一個具有龐大參數量的大模型(LLM)是一件非常困難的事。從訓練資料入手攻擊是常見的思路,普遍觀念認為需要極大量的資料污染,而LLM越是規模龐大,污染所需的訓練資料就越多,這與以往的LLM資安研究結論是一致的。
會員登入
會員服務申請/試用
申請專線:
+886-02-87125398。
(週一至週五工作日9:00~18:00)
+886-02-87125398。
(週一至週五工作日9:00~18:00)
關鍵字






