AI幻覺難根除 提高用戶參與可緩解
- 林佳楠/台北
大型語言模型(LLM)雖快速發展,如何降低模型的幻覺(Hallucination)仍是一大挑戰。台大資工系教授陳縕儂指出,為了提高AI的可信任程度,應增加使用者參與、鼓勵使用者多加驗證答案,開發者也可訓練AI勇於表達「不確定性」、提供消息來源。
會員登入
會員服務申請/試用
申請專線:
+886-02-87125398。
(週一至週五工作日9:00~18:00)
+886-02-87125398。
(週一至週五工作日9:00~18:00)
關鍵字


_bigbutton.gif)


